Verwijderd schreef op donderdag 14 september 2017 @ 15:29:

Je kan erover discussiëren of dat er uitzonderingen zijn en of dat er een binning plaatsvindt in het voordeel van de 64 maar voor alle spellen die hij gebruikte geeft Vega 64 bij dezelfde klokfrequentie van zowel de GPU als de HBM geen verschil in FPS. Mijn conclusie is dat die 8 extra CU's geen bijdrage leveren aangezien er elders een bottleneck is, met andere woorden, het ontwerp is niet in balans voor gaming..

Ik denk dat de uitslag van dit testje weinig verrassend is voor de meeste mensen hier, we zagen dit wel aankomen gezien de nogal beperkte extra prestaties van 64 in vergelijking met 56 terwijl 56 ook nog eens fors lager geklokt (inclusief HBM) was bij de meeste vergelijkingen en gezien het feit dat 56 met een hogere klokfrequentie voor de HBM zo dicht de 64 naderde. Ook de constatering dat MSAA zo hard wordt afgestraft terwijl voor hetzelfde spel met een minder veeleisende vorm van AA de Vega-kaarten veel beter presteren in vergelijking met de Nvidia-kaarten, o.a. van toepassing bij Dirt 4, was een duidelijke aanwijzing dat er zo'n bottleneck is. Zonde!
De conclusie is idd weinig verrassend. YouTube is een slechte bron. :p

Ik heb de video niet gekeken, maar Vega 64 is op dezelfde kloksnelheid gewoon sneller dan Vega 56 door de extra stream processors. Zie ook bijvoorbeeld: https://www.computerbase....a-56-vs-vega-64-vs-fury-x

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

Verwijderd schreef op donderdag 14 september 2017 @ 15:36:
[...]

Dat is inderdaad een beetje oud nieuws.
Volgens de geruchten was Koduri ontevreden over het budget wat RTG krijgt. Of dat dat iets te maken heeft met deze veranderingen en beslissingen zou ik niet hieruit durven concluderen, daarvoor weten we echt te weinig. Het kan bijvoorbeeld ook mede te maken hebben met dat hij toch een ingenieur in hart en nieren is en beter op zijn plaats is als leider van de technische troepen dan als halve zakenman die ook al die andere zaken moet doen. Laten we er maar niet naar speculeren totdat er meer concrete informatie is, dat heeft toch geen zin. Het lijkt me waarschijnlijk dat hij bij AMD blijft en dat hij straks als soort van hoofd van de technici verder gaat, die man is veel te waardevol om te laten gaan en ik vermoed dat het succes van Ryzen ruimte schept om ook RTG een hoger budget te geven en dat de top van het bedrijf gemotiveerd is om dit te doen omdat ze zagen hoeveel succes het voor Ryzen opleverde. Ik kan me voorstellen dat Koduri ook wel graag Navi wil afwerken, dat is zijn kindje als het ware, Vega werd door andere mensen opgestart.
Had het nog niet voorbij zien komen :P

Maar inderdaad zie ik hem niet echt als een leider dus het zou goed zijn als hij zich 100% kan focussen op de "engineering" kant en geen management taken op zich neemt.

[ Voor 4% gewijzigd door Verwijderd op 14-09-2017 15:42 ]


Verwijderd

-The_Mask- schreef op donderdag 14 september 2017 @ 15:40:
[...]

De conclusie is idd weinig verrassend. YouTube is een slechte bron. :p

Ik heb de video niet gekeken, maar Vega 64 is op dezelfde kloksnelheid gewoon sneller dan Vega 56 door de extra stream processors. Zie ook bijvoorbeeld: https://www.computerbase....a-56-vs-vega-64-vs-fury-x
Ben voorzichtig, de klokfrequentie die je instelt via de software van AMD en die daadwerkelijk wordt gehaald wil nog wel eens verschillen. Ik zie dat ze in ieder geval wel netjes de HBM dezelfde klokfrequentie hebben gegeven. Compubase levert regelmatig goed werk maar in dit geval wacht ik nog even af wie van de twee gelijk heeft. GamersNexu had de 56 de BIOS van de 64 gegeven en hiermee de vermogenbeperking geëlimineerd, dat is een mogelijke verklaring voor de verschillen. Iedere gebruiker kan zelf die BIOS wijzigen.

[ Voor 18% gewijzigd door Verwijderd op 14-09-2017 15:45 ]

Verwijderd schreef op donderdag 14 september 2017 @ 15:43:
[...]

Ben voorzichtig, de klokfrequentie die wordt weergegeven door de software van AMD en die daadwerkelijk wordt gehaald wil nog wel eens verschillen. Ik zie dat ze in ieder geval wel netjes de HBM dezelfde klokfrequentie hebben gegeven. Compubase levert goed werk maar in dit geval wacht ik nog even af wie van de twee gelijk heeft.
Er zullen vast games zijn waarbij niet streamprocessors aan het werk gehouden kunnen worden, maar als ze dat in elke test meten dan weet je gewoon dat er iets niet klopt aan de test. Er zijn namelijk ook games die heel goed schalen op Vega en als je dat dan niet terug ziet in de test dan weet je dat de test niet klopt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Verwijderd

-The_Mask- schreef op donderdag 14 september 2017 @ 15:45:
[...]

Er zullen vast games zijn waarbij niet streamprocessors aan het werk gehouden kunnen worden, maar als ze dat in elke test meten dan weet je gewoon dat er iets niet klopt aan de test. Er zijn namelijk ook games die heel goed schalen op Vega en als je dat dan niet terug ziet in de test dan weet je dat de test niet klopt.
Mogelijk. Ik gaf een andere mogelijke oorzaak maar die had jij nog niet gelezen doordat ik mijn reactie wijzigde. De vega56 die GamersNexus gebruikt gebruikte de BIOS van de 64 die een hoger vermogen toestaat. Dit wordt niet officieel ondersteund en is enkel mogelijk dankzij een hack, ik kan me voorstellen dat Compubase niet de BIOS wijzigde. Even afwachten totdat meer groepen dezelfde test uitvoeren?
Hierover gesproken, @Astennu, kan jij wat gaan spelen met de 64 BIOS op de 56? ;)
Verwijderd schreef op donderdag 14 september 2017 @ 15:40:
Maar inderdaad zie ik hem niet echt als een leider dus het zou goed zijn als hij zich 100% kan focussen op de "engineering" kant en geen management taken op zich neemt.
Of hij is wel een leider maar hij vindt het technische werk te leuk en het andere werk te saai om zich ook nog eens met marketing, financiën, PR etc. bezig te houden. Eerlijk gezegd lijkt het mij in ieder geval een goede zaak als hij enkel het hoofd van de technische afdeling zou worden, met behoud van de arbeidsvoorwaarden die hij nu heeft. Laat zo'n man alsjeblieft zijn talent maximaal inzetten op waar hij zo in uitblinkt, andere mensen kunnen die andere zaken regelen. ;)

[ Voor 38% gewijzigd door Verwijderd op 14-09-2017 15:52 ]

Computerbase heeft de power limiet verhoogd en doordat de klokfrequentie op 1,05GHz is vastgezet is er sowieso meer dan genoeg ruimte voor een stabiele frequentie.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Verwijderd schreef op donderdag 14 september 2017 @ 15:47:
[...]

Mogelijk. Ik gaf een andere mogelijke oorzaak maar die had jij nog niet gelezen doordat ik mijn reactie wijzigde. De vega56 die GamersNexus gebruikt gebruikte de BIOS van de 64 die een hoger vermogen toestaat. Dit wordt niet officieel ondersteund en is enkel mogelijk dankzij een hack, ik kan me voorstellen dat Compubase niet de BIOS wijzigde. Even afwachten totdat meer groepen dezelfde test uitvoeren?
Hierover gesproken, @Astennu, kan jij wat gaan spelen met de 64 BIOS op de 56? ;)
Ik heb de 56 bijna alleen maar met de 64 bios getest. Die resultaten staan ook in de sheet. Maar voor dagelijks gebruik heb ik die niet nodig aangezien ik 900mv draai dan komt hij niet boven de 250 watt. Dat is met de stock bios ook geen issue.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 14 september 2017 @ 16:38:
[...]


Ik heb de 56 bijna alleen maar met de 64 bios getest. Die resultaten staan ook in de sheet. Maar voor dagelijks gebruik heb ik die niet nodig aangezien ik 900mv draai dan komt hij niet boven de 250 watt. Dat is met de stock bios ook geen issue.
Top. Heb jij ook de 56 vergeleken met de 64 met exact dezelfde klokfrequentie voor zowel de GPU als de HBM (uiteraard met een 64 BIOS voor de 56)? Zo ja, constateerde jij betere prestaties (in relevante mate) tussen de twee kaarten? Excuses als jij het hier al uitgebreid hebt aangegeven maar het is nogal zoeken naar de reacties die nogal verspreid staan over de pagina's in de beide draden. ;)
Eigenlijk zou Tweakers standaard een draad moeten aanmaken en moeten pinnen waarin enkel de cijfers worden geplaatst die gebruikers vaststellen zodat die netjes bij elkaar staan en gemakkelijk terug te vinden zijn. Het geeft een veel beter beeld van hoe de hardware presteert.
-The_Mask- schreef op donderdag 14 september 2017 @ 16:04:
Computerbase heeft de power limiet verhoogd en doordat de klokfrequentie op 1,05GHz is vastgezet is er sowieso meer dan genoeg ruimte voor een stabiele frequentie.
Dank je. Dan zal het inderdaad wel aan het spel of de instellingen van het spel liggen. Zoals Dirt4 met MSAA vs. Dirt4 met die AA-methode van Intel (naam vergeten (CXAA?), ik weet dat Intel die ontwikkelde voor hun geïntegreerde GPU).

[ Voor 44% gewijzigd door Verwijderd op 14-09-2017 17:14 ]

Verwijderd schreef op donderdag 14 september 2017 @ 17:10:
[...]

Top. Heb jij ook de 56 vergeleken met de 64 met exact dezelfde klokfrequentie voor zowel de GPU als de HBM (uiteraard met een 64 BIOS voor de 56)? Zo ja, constateerde jij betere prestaties (in relevante mate) tussen de twee kaarten? Excuses als jij het hier al uitgebreid hebt aangegeven maar het is nogal zoeken naar de reacties die nogal verspreid staan over de pagina's in de beide draden. ;)
Eigenlijk zou Tweakers standaard een draad moeten aanmaken en moeten pinnen waarin enkel de cijfers worden geplaatst die gebruikers vaststellen zodat die netjes bij elkaar staan en gemakkelijk terug te vinden zijn. Het geeft een veel beter beeld van hoe de hardware presteert.
Is idd al gepost. Het is afhankelijk van de applicatie en wat die van de gpu vraagt. Als hij veel van het frondend vraagt is het verschil 0 als hij shaders Power nodig heeft zie je wel verschil. Uit het hooft was het bij superposition iets van 5-6%. Ik wil not meer tests doen maar heb te weinig tijd.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 14 september 2017 @ 17:33:
[...]


Is idd al gepost. Het is afhankelijk van de applicatie en wat die van de gpu vraagt. Als hij veel van het frondend vraagt is het verschil 0 als hij shaders Power nodig heeft zie je wel verschil. Uit het hooft was het bij superposition iets van 5-6%. Ik wil not meer tests doen maar heb te weinig tijd.
In ieder geval is het volstrekt helder waar de bottleneck zit. Ik neem aan dat de ingenieurs van AMD sinds voor kerst wisten dat die bottleneck er is, maar waarom werd dit bij het ontwerp (op papier) nog niet vastgesteld? Of werd het wel vastggesteld maar is dit veel minder een probleem voor de professionele markt en hebben ze het daarom maar voor lief genomen?
Verwijderd schreef op donderdag 14 september 2017 @ 17:36:
[...]

In ieder geval is het volstrekt helder waar de bottleneck zit. Ik neem aan dat de ingenieurs van AMD sinds voor kerst wisten dat die bottleneck er is, maar waarom werd dit bij het ontwerp (op papier) nog niet vastgesteld? Of werd het wel vastggesteld maar is dit veel minder een probleem voor de professionele markt en hebben ze het daarom maar voor lief genomen?
Omdat die bottleneck er bij compute load niet is daar schalen het aantal tflops lekker door.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 14 september 2017 @ 17:40:
[...]


Omdat die bottleneck er bij compute load niet is daar schalen het aantal tflops lekker door.
Jij stelt dat ze die bottleneck hebben laten zitten omdat AMD de professionele markt belangrijker vindt?
Als ik het goed begrijp dan wordt het een probleem bij 64 wanneer er te veel met data moet worden geschoven (zoals bij MSAA) wat bij 'compute loads' minder het geval is terwijl bij gaming het meer intensieve GPU-gebruik meer hand in hand gaat met het schuiven met meer data.

Dat gaat straks trouwens nog gek worden: AIC-modellen van Vega56 die de 64 bij veel spellen verslaat. :)

[ Voor 24% gewijzigd door Verwijderd op 14-09-2017 17:43 ]


  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 13-09 15:25
Verwijderd schreef op donderdag 14 september 2017 @ 17:10:
[...]

Top. Heb jij ook de 56 vergeleken met de 64 met exact dezelfde klokfrequentie voor zowel de GPU als de HBM (uiteraard met een 64 BIOS voor de 56)? Zo ja, constateerde jij betere prestaties (in relevante mate) tussen de twee kaarten? Excuses als jij het hier al uitgebreid hebt aangegeven maar het is nogal zoeken naar de reacties die nogal verspreid staan over de pagina's in de beide draden. ;)
Eigenlijk zou Tweakers standaard een draad moeten aanmaken en moeten pinnen waarin enkel de cijfers worden geplaatst die gebruikers vaststellen zodat die netjes bij elkaar staan en gemakkelijk terug te vinden zijn. Het geeft een veel beter beeld van hoe de hardware presteert.
Ik heb dit vergeleken en de 64 gaf bij 1080p extreme benches een performance van +5% t.o.v. de 56 performance/score. Wat dan ook betekende dat ik met hetzelfde Watt verbruik betere resultaten haalde met de 64 dus een betere perf/watt. Heel veel scheelt het niet, maar het verschil is er wel. Kan zijn dat het per kaart verschilt natuurlijk, ik heb de Powercolor 64 en de Sapphire 56 getest.

Overigens heb ik ook meerdere 64 BIOS' getest op de Vega 56. Mijn conclusie onderaan de benches is dat het flashen van de 64 BIOS alleen zin en nut heeft als je de kaart wil pushen. Voor undervolten had het bij mijn 2 kaarten averechts effect; het verbruik van de 56 met 64 BIOS leek hoger te liggen, ook bij dezelfde voltages en clocks. Ca. 20W. Ik denk zelf dat dit komt doordat de kaart een % meer power trekt, wellicht omdat de BIOS denkt dat er 8 CU's in zitten. Wil je de kaart pushen of ander water zetten; flash 64 BIOS. Wil je undervolten? Lekker stock BIOS draaien op de 56.

[ Voor 19% gewijzigd door Lord_Dain op 14-09-2017 20:02 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op donderdag 14 september 2017 @ 17:41:
[...]

Jij stelt dat ze die bottleneck hebben laten zitten omdat AMD de professionele markt belangrijker vindt?
Als ik het goed begrijp dan wordt het een probleem bij 64 wanneer er te veel met data moet worden geschoven (zoals bij MSAA) wat bij 'compute loads' minder het geval is terwijl bij gaming het meer intensieve GPU-gebruik meer hand in hand gaat met het schuiven met meer data.

Dat gaat straks trouwens nog gek worden: AIC-modellen van Vega56 die de 64 bij veel spellen verslaat. :)
Laten zitten denk ik niet. Meer geen focus op gehad. Het is nog steeds GCN en AMD heeft wel eens gezegd dat Fiji het maximale was wat GCN kon. Bij Vega zie je dat ook weer terug. Ze hebben gewoon focus gehad op andere dingen ipv frond end aanpakken.

Nee de 56 gaat de 64 niet verslaan of je moet er hele dure cooling op zetten maar dan betaal je meer dan voor een 64.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Daniel: het spijt je voor je, maar je zult toch echt een 1440p monitor moeten kopen :+

[ Voor 24% gewijzigd door foppe-jan op 15-09-2017 15:28 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
foppe-jan schreef op vrijdag 15 september 2017 @ 15:28:
Daniel: het spijt je voor je, maar je zult toch echt een 1440p monitor moeten kopen :+ [video]
Als jij me wil subsidiëren. :+
Maar ik had het al gezien. Het is echt all over the place, maar modernere titels neigen wel naar Vega en Ryzen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
DaniëlWW2 schreef op vrijdag 15 september 2017 @ 16:09:
[...]


Als jij me wil subsidiëren. :+
Maar ik had het al gezien. Het is echt all over the place, maar modernere titels neigen wel naar Vega en Ryzen.
Kan maar 1 ding zeggen: ben echt blij met m'n Ryzen 1700 *O* icm GTX1080 :+ kwa psychics test komen de Ryzen er ook behoorlijk goed uit.

Acties:
  • 0 Henk 'm!
ArcticWolf schreef op vrijdag 15 september 2017 @ 18:05:
[...]

Kan maar 1 ding zeggen: ben echt blij met m'n Ryzen 1700 *O* icm GTX1080 :+ kwa psychics test komen de Ryzen er ook behoorlijk goed uit.
En ik ben uiterst tevreden met mijn RX Vega 56, die flink goedkoper was, en behoorlijk dicht op GTX1080 prestaties zit, voor een maximaal verbruik van 160W. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
DaniëlWW2 schreef op vrijdag 15 september 2017 @ 18:06:
[...]


En ik ben uiterst tevreden met mijn RX Vega 56, die flink goedkoper was, en behoorlijk dicht op GTX1080 prestaties zit, voor een maximaal verbruik van 160W. :+
Goedkoper?

Acties:
  • 0 Henk 'm!
€430 ish voor betaald. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Hoax }:O

Acties:
  • 0 Henk 'm!
Nee, het halve topic heeft dit gewoon gedaan. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
DaniëlWW2 schreef op vrijdag 15 september 2017 @ 18:11:
[...]


Nee, het halve topic heeft dit gewoon gedaan. :+
Overdrijven is ook een kunst :P

Acties:
  • +1 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 13-09 19:07

Apoca

Array Technology Industry

ArcticWolf schreef op vrijdag 15 september 2017 @ 18:14:
[...]
Overdrijven is ook een kunst :P
45% dan :+ :P Maar klopt ergens wel iedereen die op Tweakers.net nu een VEGA bezit heeft deze bijna tegen MSRP+VAT kunnen kopen :)

[ Voor 25% gewijzigd door Apoca op 15-09-2017 19:45 ]

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

Verwijderd

foppe-jan schreef op vrijdag 15 september 2017 @ 15:28:
Daniel: het spijt je voor je, maar je zult toch echt een 1440p monitor moeten kopen :+ [video]
@DaniëlWW2
Wedden dat hij binnen 1 jaar bezwijkt? :)

Acties:
  • 0 Henk 'm!

  • JanvD
  • Registratie: April 2007
  • Laatst online: 13-09 10:43

JanvD

Portretfotograaf

Ik heb wat in dit topic zitten lurken op zoek naar info over de nieuwe kaarten. Is er al info bekend of er een midrange Vega kaart zal komen die de concurrentie aangaat met de GTX 1060 6GB?

Moet de Vega 11 dit gaan voorstellen? Of wellicht een Vega 20? Er lopen naar mijn idee veel dingen door elkaar, vandaar mijn vraag hier.

www.janvandoornik.nl


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
JanvD schreef op vrijdag 15 september 2017 @ 20:19:
Ik heb wat in dit topic zitten lurken op zoek naar info over de nieuwe kaarten. Is er al info bekend of er een midrange Vega kaart zal komen die de concurrentie aangaat met de GTX 1060 6GB?

Moet de Vega 11 dit gaan voorstellen? Of wellicht een Vega 20? Er lopen naar mijn idee veel dingen door elkaar, vandaar mijn vraag hier.
Als die komt, niet voor (laat?) Q1 2018. Of en wanneer zal nogal afhangen van hoe goed het lukt Vega's problemen te ondervangen.

[ Voor 8% gewijzigd door foppe-jan op 15-09-2017 20:48 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op vrijdag 15 september 2017 @ 16:09:
[...]


Als jij me wil subsidiëren. :+
Maar ik had het al gezien. Het is echt all over the place, maar modernere titels neigen wel naar Vega en Ryzen.
Het blijven nieuwe platformen en Architecturen. Zie ook de bios verbeteringen die AMD en de Fabrikanten doorgevoerd hebben die hebben voor aardig wat prestatie verbetering gezorgd.

Vega is ook pas net op de markt nieuwe architectuur werkt ook nog niet overal optimaal.

Tov intel die al jaren het Core i platform heeft en sinds Nehalem is het vooral een doorontwikkeling ipv iets nieuws. Dat helpt gewoon met de software support bij Ryzen staat dat nog in de kinderschoenen. Zie ook hoeveel verschil game patches maken waar al die games ontwikkeld zijn op intel hardware en daar dus al optimaal op draaien.

Bij Vega een beetje hetzelfde de veranderingen in de architectuur van Vega tov Fury zijn groter dan die van Pascal vs Maxwell dus daar moet nog meer aan bijgeschaafd worden.

Natuurlijk hebben de meeste consumenten daar geen boodschap aan die willen gewoon de beste prestaties voor zo min mogelijk geld.

Ik ben wel heel benieuwd naar Ryzen 2. Als ze daar wat zwakke punten aan kunnen pakken kan dat nog leuk worden. Al lijkt intel nu wakker geschud. Ze schijnen nu ineens wel met 6 core midrange CPU's te komen en wellicht zelfs 8 cores voor de Z390 chipset. Nu ineens kan het wel.... zo zie je maar hoe belangrijk concurrentie is. Ze hadden het gewoon klaar liggen maar het was toch niet nodig. Zonder Ryzen hadden we geen 6-8 cores in de midrange gehad en geen 12-18 cores voor het High end platform.

Bij nVidia is Volta waarschijnlijk later door gebruik aan concurrentie de huidige kaarten doen het nog prima en verkopen vooral nog prima. Dus kan nVidia rustig aan doen met het finetunen van Volta kaarten voor consenten.

[ Voor 9% gewijzigd door Astennu op 17-09-2017 21:50 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Astennu schreef op zondag 17 september 2017 @ 21:49:
[...]

Bij nVidia is Volta waarschijnlijk later door gebruik aan concurrentie de huidige kaarten doen het nog prima en verkopen vooral nog prima. Dus kan nVidia rustig aan doen met het finetunen van Volta kaarten voor consenten.
Ik hoop erop dat de partners de vega kaarten gaan undervolten en dan het optimum opzoeken. Dan staat erop eens wel een interessante kaart tegen over het groene kamp. De 1080ti gaan ze niet verslaan, maar nvidia heeft tussen de 1070 en 1080 ook niet veel ruimte om een 'snellere' kaart te positioneren.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!
Derby schreef op zondag 17 september 2017 @ 21:56:
[...]


Ik hoop erop dat de partners de vega kaarten gaan undervolten en dan het optimum opzoeken. Dan staat erop eens wel een interessante kaart tegen over het groene kamp. De 1080ti gaan ze niet verslaan, maar nvidia heeft tussen de 1070 en 1080 ook niet veel ruimte om een 'snellere' kaart te positioneren.
Dat zie ik zelf helaas niet snel gebeuren. Ik vraag mij sowieso af hoeveel custom kaarten er gaan komen. Dit kan nog wel eens gaan tegenvallen.
Als ik naar de stock 56 kijk met +20% power dan valt het voltage waar de kaart op draait nog wel mee. Ik zie hier 975-1080mv voorbij komen op balanced. 900-950 zou in het geval van Vega wel beter zijn. Maar de effectieve voltages vallen nog mee.

Als ik naar de 1080 Ti kijk die ik nu aan het testen ben zie je dat die kaart max 1031mv gebruikt. Stroom verbruik met +20% TDP (+100 core (effectief tussen de 1875-1999MHz en mem OC naar 5950MHz is daar max rond de 350-400 watt. Met vega ga ik daar makkelijk overheen.
Stock zit die kaart rond de 315-320watt (1682MHz core clocks haalt hij dan hij throttled dan op TDP). Meer vergelijkbaar met een Vega UV rond de 925mv (rond de 1375-1425MHz in games.
Vega rond de 1050mv kan ik games ook wel 400 watt halen dan clockt hij rond de 1525-1550MHz.

Het is qua prestaties wel een concurrent voor de 1080 maar niet voor de Ti die is toch wel een stukje sneller. Stroom verbruik van Vega kan je wel oplossen maar de maximale prestaties niet dat schaalt gewoon niet lekker.

Daarnaast valt het mij op dat de 1080 Ti ook niet echt veel OC ruimte heeft stock boost hij rond de 1835MHz en dat zakt dan door TDP en temp limits naar 1683 maar max OC stabiel is iets van 1935-1999 (+125 core was niet 100% stabiel bij hogere temperaturen (80+c)).

Die custom kaarten doen dan 2025-2050 maar vind ik nog steeds niet super indrukwekkend als je naar het winst percentage keek. De 980 Ti kon in dat opzicht wat meer.
Bij Vega is het nog wel wat minder maar ook daar zie je dat hij met goede cooling wel een stuk verder komt.

Met al die boost clocks tegenwoordig kunnen de overclockers er in verhouding gewoon minder uit halen. Chips worden out of the box gewoon al goed benut. Beste voorbeeld is Ryzen 1600X stock max clock met Precision boost en XFR is 4.2 GHz. De all core OC's op lucht zit een beetje tussen de 3.9 en 4.1GHz meestal tussen de 3.9 en 4.0 omdat alle cores nu op die snelheid draaien heb je wel een leuke winst maar het is niet zo veel als bij Intel waar de max boost rond de 4.5GHz ligt en je de all core OC wel richting de 4.9-5.0 kan krijgen.

[ Voor 32% gewijzigd door Astennu op 17-09-2017 22:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op zondag 17 september 2017 @ 21:49:
Het blijven nieuwe platformen en Architecturen. Zie ook de bios verbeteringen die AMD en de Fabrikanten doorgevoerd hebben die hebben voor aardig wat prestatie verbetering gezorgd.

Vega is ook pas net op de markt nieuwe architectuur werkt ook nog niet overal optimaal.

Tov intel die al jaren het Core i platform heeft en sinds Nehalem is het vooral een doorontwikkeling ipv iets nieuws. Dat helpt gewoon met de software support bij Ryzen staat dat nog in de kinderschoenen. Zie ook hoeveel verschil game patches maken waar al die games ontwikkeld zijn op intel hardware en daar dus al optimaal op draaien.

Bij Vega een beetje hetzelfde de veranderingen in de architectuur van Vega tov Fury zijn groter dan die van Pascal vs Maxwell dus daar moet nog meer aan bijgeschaafd worden.

Natuurlijk hebben de meeste consumenten daar geen boodschap aan die willen gewoon de beste prestaties voor zo min mogelijk geld.
Ik gok ook wel op prestatieverbeteringen en driverstabiliteit. Op het moment is het gewoon beta ondersteuning. Lijk ook wel elke dag weer een ander vreemd, klein dingetje te krijgen. Op het moment kan ik geen embedded YT filmpjes kijken omdat het instellingen menu dan flipt en constant aan/uit gaat doen. :P

Ook wou ik eigenlijk eens testen of de Tile Based Rasterization uberhaupt wel goed werkt, maar ben lui en vergeet het steeds.
Ik ben wel heel benieuwd naar Ryzen 2. Als ze daar wat zwakke punten aan kunnen pakken kan dat nog leuk worden. Al lijkt intel nu wakker geschud. Ze schijnen nu ineens wel met 6 core midrange CPU's te komen en wellicht zelfs 8 cores voor de Z390 chipset. Nu ineens kan het wel.... zo zie je maar hoe belangrijk concurrentie is. Ze hadden het gewoon klaar liggen maar het was toch niet nodig. Zonder Ryzen hadden we geen 6-8 cores in de midrange gehad en geen 12-18 cores voor het High end platform.
Ik denk dat Intel al jaren wist wat Zen zou zijn, maar niet had gedacht dat ze zo snel zouden zijn. De ringbus achitectuur is ook gewoon schaalbaar, dus extra cores is geen gigantische uitdaging om voor te bereiden. Dat is het denk ik ook wel qua innovatie vanuit Intel. Ze lijken liever miljarden weg te gooien aan waardeloze overnames en volslagen bezopen nieuwe producten. Mogen ze van mij nog wel even mee doorgaan. :+

Ryzen 2 is veel interessanter omdat de verbeterpunten van Ryzen 1 zo overduidelijk zijn, dat jij en ik ze zien. Koppel de IF snelheid los van RAM snelheid, zoals met Vega 10 is gedaan. Maak de chip iets groter en gooi al die transistoren in hogere clocks. Hier en daar misschien wat tweaks voor iets meer IPC en je kan Intel zo matchen, of verslaan. Gebeurd dit, dan gaat mijn R7 1700 misschien toch vervangen worden voor een bloedsnelle hexacore. Dat kan gewoon, want AM4 ondersteuning.
Bij nVidia is Volta waarschijnlijk later door gebruik aan concurrentie de huidige kaarten doen het nog prima en verkopen vooral nog prima. Dus kan nVidia rustig aan doen met het finetunen van Volta kaarten voor consenten.
Qua Volta ben ik eigenlijk steeds zekerder geworden dat het grotere Pascal chips gaan worden met meer hardware aan boord en wat hogere clocks. Nvidia heeft alleen al aan GP100 iets van $2-3 miljard uitgeven en dan nog eens $3 miljard voor GV100. Betwijfel of er nog veel R&D budget is voor iets nieuws. Verder waarom zouden ze?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dat Volta R&D geld lijkt wel goed besteed:

https://be.hardware.info/...em-in-geekbench-4-compute

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Astennu schreef op zondag 17 september 2017 @ 21:49:
[...]

Natuurlijk hebben de meeste consumenten daar geen boodschap aan die willen gewoon de beste prestaties voor zo min mogelijk geld.
Dat geldt voor iedereen toch hoop ik? Lijkt me een beetje vreemd om meer te betalen voor minder, ongeacht of je in het budget, mainstream of enthusiast segment zit.
Leuk systeem om de zolder warm te houden in de winter. :+

[ Voor 29% gewijzigd door Paprika op 18-09-2017 11:15 ]


Acties:
  • 0 Henk 'm!
Paprika schreef op maandag 18 september 2017 @ 11:13:
[...]

Dat geldt voor iedereen toch hoop ik? Lijkt me een beetje vreemd om meer te betalen voor minder, ongeacht of je in het budget, mainstream of enthusiast segment zit.

[...]


Leuk systeem om de zolder warm te houden in de winter. :+
Het is helaas niet altijd zo. Zie bv Geforce FX of Pentium 4. Eigenlijk zouden die nooit verkocht moeten zijn omdat ze geen goede prijs prestatie verhouding hadden. Echter zijn die in grote aantallen verkocht. In het geval van de P4 veel meer dan de superieure Athlon 64 en X2. Dus helaas werkt het niet zo.

[ Voor 11% gewijzigd door Astennu op 18-09-2017 11:37 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Ook die producten leveren meer performance voor het geld wat je betaald. De $/performance ratio was ruk voor de kenners, maar als je niet overklokte geldt die stelling nog altijd.

Even de eerste review van Andandtech (in die periode een van de betere websites naar mijn mening):
AMD has also priced the Athlon 64 and Athlon 64 FX very much like the Pentium 4s they compete with, which is a mistake for a company that has lost so much credibility. AMD needed to significantly undercut Intel (but not as much as they did with the Athlon XP) in order to offer users a compelling reason to switch from Intel. However, given the incredible costs of production (SOI wafers are more expensive as well) and AMD's financial status, AMD had very little option with the pricing of their new chips.

When it comes down to recommendations, the Athlon 64 offers very compelling performance at a much more reasonable price point than the Athlon 64 FX. We cannot recommend the FX until AMD does release a version with unbuffered memory support and we would strongly suggest waiting until the Socket-939 version is released if you are considering the FX.
http://www.anandtech.com/show/1164/18

Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 13-09 15:25
De X3 met graties unlocked 4e core was toch echt $/perf erg interessant :)
Oh jee ik ga offtopic.

Zijn er hier mensen die AMD Chill gebruiken? Ik krijg met Chill aan vreemde frames door mijn gameplay heen (WoW). Het lijkt wel of ze 'leeg'(zwart) zijn. Enigszins hinderlijk.. dit is overigens met Freesync aan. In een andere game (Witcher3) werkt het wel naar behoren.. slechte game engine of AMD drivers nog te slecht?

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13-09 20:31

flessuh

Set sail for fail!

Lord_Dain schreef op maandag 18 september 2017 @ 14:26:
De X3 met graties unlocked 4e core was toch echt $/perf erg interessant :)
Oh jee ik ga offtopic.

Zijn er hier mensen die AMD Chill gebruiken? Ik krijg met Chill aan vreemde frames door mijn gameplay heen (WoW). Het lijkt wel of ze 'leeg'(zwart) zijn. Enigszins hinderlijk.. dit is overigens met Freesync aan. In een andere game (Witcher3) werkt het wel naar behoren.. slechte game engine of AMD drivers nog te slecht?
Dat is vreemd want dat klinkt als hetzelfde als wat ik kreeg met Vsync aan met mijn 280x met WOW..
Maar ja, ik had ook problemen met AA aan, dat er bij beweging zwarte vlakken om objecten heen kwamen

Dit alles werd met de laatste expansion opgelost bij mij overigens :P

[ Voor 11% gewijzigd door flessuh op 18-09-2017 14:34 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
AMD heeft door de jaren heen wel meer issues gehad met WoW, het zou mij dus niet verbazen als het een driver issue is, al is WoW wel officieel supported voor Chill.

Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 13-09 15:25
Dennism schreef op maandag 18 september 2017 @ 14:38:
AMD heeft door de jaren heen wel meer issues gehad met WoW, het zou mij dus niet verbazen als het een driver issue is, al is WoW wel officieel supported voor Chill.
Derp..wordt gesupported..zeggen ze.. :) 16 World of Warcraft DX9/DX11

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op zondag 17 september 2017 @ 22:16:
[...]


Dat zie ik zelf helaas niet snel gebeuren. Ik vraag mij sowieso af hoeveel custom kaarten er gaan komen. Dit kan nog wel eens gaan tegenvallen.
Als ik naar de stock 56 kijk met +20% power dan valt het voltage waar de kaart op draait nog wel mee. Ik zie hier 975-1080mv voorbij komen op balanced. 900-950 zou in het geval van Vega wel beter zijn. Maar de effectieve voltages vallen nog mee.

Als ik naar de 1080 Ti kijk die ik nu aan het testen ben zie je dat die kaart max 1031mv gebruikt. Stroom verbruik met +20% TDP (+100 core (effectief tussen de 1875-1999MHz en mem OC naar 5950MHz is daar max rond de 350-400 watt. Met vega ga ik daar makkelijk overheen.
Stock zit die kaart rond de 315-320watt (1682MHz core clocks haalt hij dan hij throttled dan op TDP). Meer vergelijkbaar met een Vega UV rond de 925mv (rond de 1375-1425MHz in games.
Vega rond de 1050mv kan ik games ook wel 400 watt halen dan clockt hij rond de 1525-1550MHz.

Het is qua prestaties wel een concurrent voor de 1080 maar niet voor de Ti die is toch wel een stukje sneller. Stroom verbruik van Vega kan je wel oplossen maar de maximale prestaties niet dat schaalt gewoon niet lekker.

Daarnaast valt het mij op dat de 1080 Ti ook niet echt veel OC ruimte heeft stock boost hij rond de 1835MHz en dat zakt dan door TDP en temp limits naar 1683 maar max OC stabiel is iets van 1935-1999 (+125 core was niet 100% stabiel bij hogere temperaturen (80+c)).

Die custom kaarten doen dan 2025-2050 maar vind ik nog steeds niet super indrukwekkend als je naar het winst percentage keek. De 980 Ti kon in dat opzicht wat meer.
Bij Vega is het nog wel wat minder maar ook daar zie je dat hij met goede cooling wel een stuk verder komt.

Met al die boost clocks tegenwoordig kunnen de overclockers er in verhouding gewoon minder uit halen. Chips worden out of the box gewoon al goed benut. Beste voorbeeld is Ryzen 1600X stock max clock met Precision boost en XFR is 4.2 GHz. De all core OC's op lucht zit een beetje tussen de 3.9 en 4.1GHz meestal tussen de 3.9 en 4.0 omdat alle cores nu op die snelheid draaien heb je wel een leuke winst maar het is niet zo veel als bij Intel waar de max boost rond de 4.5GHz ligt en je de all core OC wel richting de 4.9-5.0 kan krijgen.
De toegevoegde waarde voor AIC-kaarten, omdat AMD en Nvidia het nalaten, zijn een lager geluidsniveau en eventueel minder thermal throttling. Twee grote open fans die zachtjes de lucht in je 50-60 liter grote kast pompen in plaats van 1 klein blowerkoelertje die de lucht buiten je kast pomp en een minder hoge stand van de fans omdat het blok metaal meer warmte opneemt. Zelfs als er enkel grote open fans op zouden zitten en de heatsink hetzelfde zou zijn zou ik de referentiekaart nog wel kunnen pruimen maar de blowerkoeler doet voor mij de referentiekaart de das om. De laatste jaren is het onacceptabel geworden als je hardware zoveel lawaai maakt buiten de kast, het is niet meer nodig voor krachtige hardware.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 18 september 2017 @ 16:03:
[...]
De toegevoegde waarde voor AIC-kaarten, omdat AMD en Nvidia het nalaten, zijn een lager geluidsniveau en eventueel minder thermal throttling. Twee grote open fans die zachtjes de lucht in je 50-60 liter grote kast pompen in plaats van 1 klein blowerkoelertje die de lucht buiten je kast pomp en een minder hoge stand van de fans omdat het blok metaal meer warmte opneemt. Zelfs als er enkel grote open fans op zouden zitten en de heatsink hetzelfde zou zijn zou ik de referentiekaart nog wel kunnen pruimen maar de blowerkoeler doet voor mij de referentiekaart de das om. De laatste jaren is het onacceptabel geworden als je hardware zoveel lawaai maakt buiten de kast, het is niet meer nodig voor krachtige hardware.
De 1080Ti valt mij opzich nog wel mee. Ik moet nog even een DB meting doen maar die is nog vrij stil gezien het toerental van de fan. Volgens mij heeft het puur met wind ruis te maken en de heatsink van nVidia lijkt wat grotere afstand te hebben tussen de finnen. Maar wel verder door te lopen en wat breeder te zijn. Maar heb de koeler niet uit elkaar gehad om het op te meten en dat ben ik eigenlijk ook niet van plan :P

Maar de Vega Air cooler is ook al stiller dan die van de 290X. Wellicht kunnen ze hem de volgende keer nog verder verbeteren je zou zeggen dat het toch goed te doen moet zijn als je het PCB zo ontwerpt dat je zo veel mogelijk ruimte hebt voor de heatsink.

[ Voor 9% gewijzigd door Astennu op 18-09-2017 16:21 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op zondag 17 september 2017 @ 22:25:
[...]

Ik gok ook wel op prestatieverbeteringen en driverstabiliteit. Op het moment is het gewoon beta ondersteuning. Lijk ook wel elke dag weer een ander vreemd, klein dingetje te krijgen. Op het moment kan ik geen embedded YT filmpjes kijken omdat het instellingen menu dan flipt en constant aan/uit gaat doen. :P
Techspot/Hardware Unboxed had er vorige week weer een. Er zitten een paar resultaten tussen die de wenkbrauwen doen fronsen. Vergelijk maar eens de 4 plaatjes voor dezelfde spellen en je begrijpt wat ik bedoel. ;)
https://www.techspot.com/...4-geforce-1080/page8.html
Afbeeldingslocatie: https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/1080_1080.png
Afbeeldingslocatie: https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Vega_1080.png
Afbeeldingslocatie: https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/1080_1440.png
Afbeeldingslocatie: https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Vega_14.png
Daarnaast bleek voor mij weer eens hoe verschrikkelijk slecht GRW is geoptimaliseerd voor Ryzen en Vega. Ubisoft heeft een puinhoop van dat spel gemaakt, wat optimalisatie betreft. Vergelijk vooral de 1% minima. Dat procentuele verschil is nog aanzienlijk groter dan het verschil in klokfrequentie, er speelt dus meer dan het prutserige veel te veel load dumpen op 1 kern.
Afbeeldingslocatie: https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1490/bench/Wildlands.png
55 vs. 83 (-34%), are you fucking kidding me, Ubisoft? :')
Een algemene conclusie is trouwens dat Ryzen + Vega vooral goed uitpakt voor hoge resolutie. Vega gaat beter om met hogere resoluties dan de 1080 en wat betreft Ryzen vs. de 7700k hoef ik niets te zeggen, dat is een open deur (single core bottleneck). ;)
Ik denk dat Intel al jaren wist wat Zen zou zijn, maar niet had gedacht dat ze zo snel zouden zijn. De ringbus achitectuur is ook gewoon schaalbaar, dus extra cores is geen gigantische uitdaging om voor te bereiden. Dat is het denk ik ook wel qua innovatie vanuit Intel. Ze lijken liever miljarden weg te gooien aan waardeloze overnames en volslagen bezopen nieuwe producten. Mogen ze van mij nog wel even mee doorgaan. :+
Een typisch geval van een bedrijf wat te groot en te bureaucratisch is geworden en te lang in een te weinig competitive markt heeft gefunctioneerd? Intel vs. een normaal bedrijf is zoiets als een jumbo vs. een sportvliegtuigje, die jumbo is weinig wendbaar en kan niet gemakkelijk drastisch van koers veranderen. Volgens mij hebben we bij Intel nu ook gezien dat het heel erg veel moeite had om zich aan te passen aan de veranderende situatie (ineens goede concurrentie). Pas met Coffee Lake zetten ze de vereiste koerswijziging in en ondertussen heeft Intel bij de mensen die zelf een PC bouwen waarschijnlijk (indien die Duitse webshop representatief is voor de webshops in het algemeen) een minderheidsmarktaandeel (aankoop).
offtopic:
Niet dat de vrije markt met concurrentie altijd zaligmakend is, voor spoorvervoer en een medische verzekering is het beter als er 1 staatsbedrijf is wat de zaakjes goed regelt. Een vrije markt zonder concurrentie of met weinig concurrentie is het ergst mogelijke scenario voor de afnemer, dat zie je bijvoorbeeld bij het internet in de USA en mogelijk ook tot op zekere hoogte (kartelvorming? De premies blijven stijgen terwijl het saldo positief blijft, Rupsjenooitgenoeg-gedrag?) bij de medische verzekering in Nederland.
Ryzen 2 is veel interessanter omdat de verbeterpunten van Ryzen 1 zo overduidelijk zijn, dat jij en ik ze zien. Koppel de IF snelheid los van RAM snelheid, zoals met Vega 10 is gedaan. Maak de chip iets groter en gooi al die transistoren in hogere clocks. Hier en daar misschien wat tweaks voor iets meer IPC en je kan Intel zo matchen, of verslaan
Yep, genoeg laaghangend fruit. En toch zijn er mensen die geloven dat Zen 2 nauwelijks winst kan boeken t.o.v. Ryzen. :+
Of dat ze het doen moeten we afwachten maar als Zen2 niet een forse verbetering geeft dan prutsen ze bij AMD en GF, ik verwacht niet dat dat het geval is op het technische vlak en voor de CPU.
Qua Volta ben ik eigenlijk steeds zekerder geworden dat het grotere Pascal chips gaan worden met meer hardware aan boord en wat hogere clocks.
Het zou me niet verbazen, Nvidia kan die vernieuwde architectuur in de koelkast zetten totdat Navi komt. De productiekosten per mm² zou in theorie aardig moeten zijn gedaald sinds de introductie van Pascal en verder moeten dalen in de komenede maanden, met simpelweg een groter oppervlakte kan Nvidia alles van Vega wel counteren, zo lijkt het.
Nvidia kan natuurlijk gemakkelijk meer geld besteden aan R&D, ze zwemmen in het geld. Het punt is m.i. vooral dat Nvidia geen enkele noodzaak heeft om het te doen, dan liever nog wat verder schaven en straks sterker Navi counteren met een beter geoptimaliseerd product?
Astennu schreef op maandag 18 september 2017 @ 16:20:
Maar de Vega Air cooler is ook al stiller dan die van de 290X. Wellicht kunnen ze hem de volgende keer nog verder verbeteren je zou zeggen dat het toch goed te doen moet zijn als je het PCB zo ontwerpt dat je zo veel mogelijk ruimte hebt voor de heatsink.
Er moet gewoon een open koeler op zo'n referentiekaart zo gauw het vermogen boven een bepaald aantal W uitkomt. Zo'n kaart moet je helemaal niet in een ITX-kastje willen plaatsen. Het kan, als je waterkoelt en zo, maar hoeveel mensen gaan dat doen? Beter dan een apart model uitbrengen voor ITX-systeempjes en voor de standaard kaart veronderstellen dat die in een fatsoenlijke midtowerkast komt waarbij de casefans prima de hete lucht voldoende snel naar buiten kunnen werken. Bij kleine GPU's valt er nog iets voor te zeggen dat je niet de klanten wil uitsluiten die hun hardware in een klein kastje proppen, voor grote GPU's krijg je ofwel een sterke bottleneck doordat d warmte niet goed kan worden afgevoerd ofwel een hele dure grap met waterkoeling. Niet echt praktisch, erg duur en iets wat maar weinig mensen doen, zelfs onder de enthusiasts.

[ Voor 14% gewijzigd door Verwijderd op 18-09-2017 16:48 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Verwijderd schreef op maandag 18 september 2017 @ 16:36:
[...]


Daarnaast bleek voor mij weer eens hoe verschrikkelijk slecht GRW is geoptimaliseerd voor Ryzen en Vega. Ubisoft heeft een puinhoop van dat spel gemaakt, wat optimalisatie betreft. Vergelijk vooral de 1% minima. Dat procentuele verschil is nog aanzienlijk groter dan het verschil in klokfrequentie, er speelt dus meer dan het prutserige veel te veel load dumpen op 1 kern.
[afbeelding]
55 vs. 83 (-34%), are you fucking kidding me, Ubisoft? :')
Een algemene conclusie is trouwens dat Ryzen + Vega vooral goed uitpakt voor hoge resolutie. Vega gaat beter om met hogere resoluties dan de 1080 en wat betreft Ryzen vs. de 7700k hoef ik niets te zeggen, dat is een open deur (single core bottleneck). ;)
Ik vind het meestal niet nuttig om de schuld bij de ontwikkelaar te leggen. Natuurlijk zijn er uitzonderingen maar in algemene zin heb je een game en die wil je op X fps spelen en daar koop je vervolgens je hardware bij. Zo gaat het bij mij in ieder geval al 15+ jaar. GRW is nu net een game die mij een upgrade laat overwegen. Immers met Batlefield One was mijn cpu ook de bottleneck, alleen die draaide 100-130 fps op ultra 2560x1080. Bij GRW heb ik momenten dat ik 40 fps schrijf.

Maar goed, bij wildlands zie je duidelijk dat de main thread bij Ryzen wat minder lucht krijg. Voeg daarbij de gpu driver vand AMD, welke bekend staat meer cpu overhead te gebruiken en je vind de verklaring waarom Ryzen met Vega niet lekker combineert.

Overigens doen 2 extra cores niet veel in GRW volgens die reviewer: https://techspot-static-x.../1445/bench/Wildlands.png. Toch heb ik ergens een i9 review gezien waarbij GRW ineens 20 extra fps deed. De vraag is dus even wie het fout doet.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Verwijderd schreef op maandag 18 september 2017 @ 16:36:


Het zou me niet verbazen, Nvidia kan die vernieuwde architectuur in de koelkast zetten totdat Navi komt. De productiekosten per mm² zou in theorie aardig moeten zijn gedaald sinds de introductie van Pascal en verder moeten dalen in de komenede maanden, met simpelweg een groter oppervlakte kan Nvidia alles van Vega wel counteren, zo lijkt het.
Nvidia kan natuurlijk gemakkelijk meer geld besteden aan R&D, ze zwemmen in het geld. Het punt is m.i. vooral dat Nvidia geen enkele noodzaak heeft om het te doen, dan liever nog wat verder schaven en straks sterker Navi counteren met een beter geoptimaliseerd product?
. Niet echt praktisch, erg duur en iets wat maar weinig mensen doen, zelfs onder de enthusiasts.
Laten we niet doen alsof Volta er bij een betere Vega nu was geweest. Nvidia heeft al jaren zijn eigen plan. Ze doen een architectuur dan een refresh/rebrand en dan weer een architectuur. Sterker nog zelfs de gains zijn heel voorspelbaar. Het zou voor Nvidia heel erg afwijkend gedrag zijn als ze niet eerst met een Pascal refresh komen. Wellicht een proefballonnetje (zoals de 750 Ti), maar geen hele lineup. Of Navi optijd/vertraagd/goed/slecht wordt, Volta zal gewoon komen op het moment dat Nvidia hem heeft geplanned. Nvidia heeft de luxe dat ze de kaart volledig virtueel, maar fysiek, op te bouwen (vorig jaar filmpje van gepost) waardoor ze van te voren precies weten welke performance ze krijgen. Daarbij hoort ook dat ze zo goedkoop mogelijk die performance kunnen halen (lees zo klein mogelijk chip). Dat is waar de winst ontstaat.

R&D is overigens niet geld besteden en je hebt een product. R&D is vooral een kwestie van een lange adem combineren met steeds meer van de juiste mensen aantrekken. Nvidia heeft ook mindere jaren gekend met nauwelijks winst en in die jaren is er ook flink in R&D geïnvesteerd. Iets dat AMD nadrukkelijk niet deed. Ook is het geven alle nieuwe projecten daarbij zeer de vraag hoeveel geld er voor Radeon overbleef.

Ik ben al een jaar of 5 aan het waarschuwen voor de huidige situatie van Radeon. Het eerste deel van mijn voorspelling was dat AMD een jaar lang niets tegenover Nvidia zou zetten en daarmee tijdelijk high-end gpu zou verlaten. Dat deel van de voorspelling is met pascal helaas uitgekomen. De volgende stap van de voorspelling is het dat de opvolger daardoor helemaal een kwestie van too little too late wordt waardoor AMD niets anders kan dat het volledig verlaten van de high-end gpu markt, precies wat er gebeurde na bulldozer. Voor de duidelijkheid: Dat is dus een situatie waarin er dus een Nvidia 3380 is en waarbij gedurende de hele levensduur er geen tegenhanger van AMD komt. Of dat deel van de voorspelling uitkomt is nog afwachten (ik hoop van niet). Dat zal blijken over 1.5-2 jaar wanneer Nvidia een hele Volta line-up uitrolt en wat dan de status van Navi is.

Je ziet met Vega AMD nu erg dure chips gebruiken met erg veel stroomverbruik die het net niet redden. Wanneer Nvidia met Volta komt moet Navi niet alleen doen wat Vega niet kon, hij moet er ook flink overheen gaan EN hij moet op tijd zijn. AMD heeft nu het R&D niveau hersteld naar dat van September 2014. Dus mocht dat lukken dan is dat heel erg knap. Rationeel gezien is de kans dat het gegeven het beperkte budget niet lukt groter.

(Oops double post.)

[ Voor 52% gewijzigd door sdk1985 op 18-09-2017 22:35 . Reden: typo d/t ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 18 september 2017 @ 21:52:
Maar goed, bij wildlands zie je duidelijk dat de main thread bij Ryzen wat minder lucht krijg. Voeg daarbij de gpu driver vand AMD, welke bekend staat meer cpu overhead te gebruiken en je vind de verklaring waarom Ryzen met Vega niet lekker combineert.
Dan nog vraag ik me af of dat dat zeer hoge percentage (verschil) is verklaard. Hoe dan ook, het is mij te gemakkelijk (voor de developer). Hoe moeilijk is het om de load wat meer te spreiden? Ja, daar gaan uren in zitten maar kom op, als je alles wat niets met de graphics te maken heeft door een andere kern laat uitvoeren dan is het probleem allicht al grotendeels opgelost.
Overigens doen 2 extra cores niet veel in GRW volgens die reviewer: https://techspot-static-x.../1445/bench/Wildlands.png. Toch heb ik ergens een i9 review gezien waarbij GRW ineens 20 extra fps deed. De vraag is dus even wie het fout doet.
Als GRW die extra kernen bij de ene CPU niet en bij de andere CPU wel aan het werk zet dan zoek ik de oorzaak bij de software van GRW. Hoe dan ook, Ubisoft snijdt in haar eigen vlees, ik ga het spel niet kopen zolang je nog niet eens 60 FPS haalt bij 1080p, dat is absurd voor een spel in 2017 met dit niveau van graphics (het is niet slecht maar het is ook bij lange na niet zo bijzonder dat dat een excuus kan zijn), ik koop het 6 jaar later of zo misschien wel een keer als mijn CPU en grafische kaart een betere performance halen. ;)
sdk1985 schreef op maandag 18 september 2017 @ 22:00:
[...]


Laten we niet doen alsof Volta er bij een betere Vega nu was geweest.
Niemand hier doet alsof dat zo is en niemand weet of dat dat wel of niet zo is. Het enige wat we weten is dat Nvidia aanvankelijk Pascal niet op de agenda had staan en aanvankelijk rond dezelfde tijd Volta wou uitbrengen. Wat de reden is dat Nvidia dit schema aanpaste is onbekend, daar kunnen we enkel naar speculeren en m.i. niet eens op een zinvolle manier.
Ze doen een architectuur dan een refresh/rebrand en dan weer een architectuur.
In grote lijnen, dit hangt natuurlijk samen met dat je geen al te ingrijpende wijzigingen aan de architectuur wil aanbrengen wanneer je naar een kleinere node gaat, in ieder geval niet in de huidige markt, het is voorstelbaar dat het anders zou zijn als er 5 bedrijven GPU's voor discrete kaarten zouden maken en ze aan elkaar gewaagd zijn, in zekere zin heeft Nvidia zelfs een gedeeltelijke monopolie op dit moment, helaas.
Het zou voor Nvidia heel erg afwijkend gedrag zijn als ze niet eerst met een Pascal refresh komen. Wellicht een proefballonnetje (zoals de 750 Ti), maar geen hele lineup.
Stel jij nu dat Pascal geen refresh is van Maxwell? :?
Pascal is toch in essentie Maxwell op een kleinere node? Zoveel werd er toch niet gewijzigd aan de architectuur? Idem voor Polaris vs. de 200/300-serie. Kleine wijzigingen, weinig bijzonders.
Overigens heeft Nvidia ook in de jaren dat het minder ging flink in R&D geïnvesteerd. Iets dat AMD nadrukkelijk niet deed.
Het grote verschil is dat Nvidia hier het geld voor had en AMD niet. En dat lag zeker niet alleen aan AMD. De veelvuldige wetsovertredingen en het frauduleuze handelen van Intel wat smeergeld betaalde aan OEM's (HP, Dell...) en winkels (waaronder Mediamarkt), Gimpworks en PhysX waarmee gamers metaforisch een pistool tegen hun hoofd kregen om een Nvidia-kaart te kopen...
Daarnaast heeft AMD ongelukkige keuzes gemaakt, het speculeerde dat multithreadsoftware sneller op gang zou komen (1 FPU per 2 kernen hing hiermee samen), een gok die ongelukkig uitpakte.
Dit gezegd hebbende, Vega had gezien de bottleneck die het heeft (MSAA, weinig verschil tussen Vega56 en Vega64 bij bepaalde loads) mogelijk best een hoger R&D budget kunnen gebruiken en er zijn geruchten dat Koduri klaagde dat het te laag lag.
Echter de volgende stap van de voorspelling is het volledig verlaten van de high-end gpu markt al a post bulldozer.
Dan ga je voorbij aan de modulaire structuur die vanaf Navi in de steiger lijkt te staan, die maakt het mogelijk om in alle segmenten mee te doen met 1 ontwerp.
Hoe dan ook, laten wij allebei maar hopen dat deze voorspelling van jou niet uitkomt want je hebt geen glazen bol nodig om te voorspellen dat de vooruitgang veel trager wordt en de prijzen kunstmatig hoger worden als er geen concurrent is. Eigenlijk zouden andere bedrijven (samen?) eens een GPU-tak moeten beginnen. Kunnen Samsung en IBM of zo niet eens hiermee starten?
Ik verwacht dat Navi een forse verbetering zal zijn, het is de eerste GPU waarbij Koduri vanaf het begin betrokken was en het verwachte modulaire ontwerp biedt veel mogelijkheden. Tegelijkertijd zit hier ook een risico, als je zo radicaal iets anders doet dan kan er gemakkelijk iets verkeerd gaan.

[ Voor 17% gewijzigd door Verwijderd op 18-09-2017 22:39 ]


Acties:
  • 0 Henk 'm!
sdk1985 schreef op maandag 18 september 2017 @ 21:52:

Maar goed, bij wildlands zie je duidelijk dat de main thread bij Ryzen wat minder lucht krijg. Voeg daarbij de gpu driver vand AMD, welke bekend staat meer cpu overhead te gebruiken en je vind de verklaring waarom Ryzen met Vega niet lekker combineert.
En dat is dus een zeer hardnekkige, en foute gedachtegang. Het is juist de Nvidia driver die meer driveroverhead heeft dan die van AMD. AMD drivers zijn vrij simpel, namelijk opdrachten van API naar de hardware scheduler overbrengen die het vervolgens over neemt. De driver zelf probeert inefficiënties van de game code te fixen, en dat is het. Dit model is puur prestatiegericht. Weinig overhead, relatief weinig input van AMD, want daar hebben ze geen geld voor...

Nvidia drivers zijn uiterst complex. Nvidia Geforce GPU's hebben geen hardware scheduler meer, dit gaat via software, op de CPU. Dat betekent dus dat er meer CPU overhead is. Om dit te compenseren kan de driver een deel van de draw calls voor de GPU, van extra CPU cores halen. Dat is ook waarom Nvidia GPU's in de regel beter presteren met slecht geoptimaliseerde games die nauwelijks multithreaded zijn. De driver compenseert dit een beetje.

Nvidia gaat alleen verder dan dit met hun Gameworks titels. Wat ze daar doen is bewust extra, onnodige MSAA, Tesselation en CPU load draaien met als doel de prestaties van AMD kaarten verpesten. MSAA en Tesselation omdat AMD kaarten hier zwakker in zijn. Tesselation is niet meer zo met Polaris en Vega, MSAA nog wel, zeker met Vega. CPU load doen ze door PhysX in te bouwen, want natuurlijk op de GPU draait bij Nvidia, en op de CPU bij AMD. Dat is echt het probleem. Gameworks titels draaien in de regel zoveel mogelijk CPU code op een core, en bottlenecken zo een AMD GPU veel harder dan een Nvidia kaart, doormiddel van MSAA, Tesselation, en met physics.

Nu kan je Tesselation forceren op maximaal 8x in de driver, en MSAA uit zetten, zoals Nvidia Hairworks wat voornamelijk MSAA is. Meer dan 4xMSAA is in de regel ook zinloos dus dat is het probleem meestal niet. PhysX kan je dus niet uit zetten, en dat is gewoon een smerige sabotagetechniek van Nvidia.

Dit is ook waarom AMD DX12/Vulkan pushed, en Nvidia absoluut niet. Bij DX12/Vulkan zijn er geen driveroptimalisaties meer mogelijk, dit moet de developer doen, en kan een GPU, rendercalls ontvangen van heel wat CPU cores, in plaats van een zoals bij DX11 en lager. Drivers voor AMD GPU's hoeven bij DX12.Vulkan alleen nog maar informatie die ze krijgen via de API door te geven, en worden dus zeer simpel. Nvidia kan AMD prestaties zo niet meer blokkeren, en AMD GPU's worden er een stuk sneller van. Dit omdat GPU's helemaal niet constant 100% load halen, verre van. Dit kan verbeterd worden door botweg veel meer draw calls te laten produceren door de CPU, maar die kunnen nu niet meer leveren, want ze zitten vast op single core limitaties.

Nvidia's huidige kaarten blijven bij DX12/Vulkan titels opgescheept met hun complexe load balancing, want de GPU kan dit niet, hebben dus minder mogelijkheden om draw calls op te vragen. Daarom slopen AMD GPU's, die van Nvidia altijd zo hard in elke DX12/Vulkan titel. Het heeft niks met optimalisatie voor AMD te maken, maar met Nvidia hardware limitaties. Voor Gameworks titels is er ook geen sprake van optimalisatie voor Nvidia, maar sabotage voor AMD, die Nvidia haar prestaties minder hard verziekt.

Een game zoals Ghost Recon Wildlands zou dan ook nooit gebenchmarkt mogen worden, want het is een pure sabotage titel. Begrijpen hoe Gameworks titels functioneren, en deze bij voorbaat uitbannen, is ook het enige recept dat ervoor zal zorgen dat Nvidia hiermee stopt. Helaas is de gemiddelde benchmarker totaal niet op de hoogte van dergelijke kennis, die ze zouden moeten hebben. Nee, de zoveelste GTX whatever, "oh shiny, geweldig", dat is de standaard. 8)7

Het is erg jammer dat mensen zoals Anand Lal Shimpi (Anandtech dus) niet langer meer actief zijn als reviewer, want dat kaliber reviewers zou gehakt hebben gemaakt van dit soort praktijken. Ik geloof ook niet in toeval, zoals dat Nvidia met Gameworks kwam in 2014, nadat Anand Lal Shimpi was vertrokken bij Anandtech...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Verwijderd schreef op maandag 18 september 2017 @ 22:34:
[...]

Dan nog vraag ik me af of dat dat zeer hoge percentage (verschil) is verklaard. Hoe dan ook, het is mij te gemakkelijk (voor de developer). Hoe moeilijk is het om de load wat meer te spreiden? Ja, daar gaan uren in zitten maar kom op, als je alles wat niets met de graphics te maken heeft door een andere kern laat uitvoeren dan is het probleem allicht al grotendeels opgelost.
Kun zo testen door zelf je eigen cpu te knijpen in die game en te kijken hoe dramatisch je performance in zakt. Ik heb veel stabielere fps gekregen door 200 Mhz extra op mijn cpu te gooien.
[...]

Als GRW die extra kernen bij de ene CPU niet en bij de andere CPU wel aan het werk zet dan zoek ik de oorzaak bij de software van GRW. Hoe dan ook, Ubisoft snijdt in haar eigen vlees, ik ga het spel niet kopen zolang je nog niet eens 60 FPS haalt bij 1080p, dat is absurd voor een spel in 2017 met dit niveau van graphics (het is niet slecht maar het is ook bij lange na niet zo bijzonder dat dat een excuus kan zijn), ik koop het 6 jaar later of zo misschien wel een keer als mijn CPU en grafische kaart een betere performance halen. ;)
Helaas zijn games gewoon in de regel niet geschikt voor meer dan 3/4 threads. De eerste game die lineair mee schaalt met aantal cores moet ik nog tegenkomen. Overigens best leuke game (heb hem uitgespeeld :P). Op high-very high is het goed te doen.
Niemand hier doet alsof dat zo is en niemand weet of dat dat wel of niet zo is. Het enige wat we weten is dat Nvidia aanvankelijk Pascal niet op de agenda had staan en aanvankelijk rond dezelfde tijd Volta wou uitbrengen. Wat de reden is dat Nvidia dit schema aanpaste is onbekend, daar kunnen we enkel naar speculeren en m.i. niet eens op een zinvolle manier.
Ik ageer tegen de steeds terugkerende statements over Volta die in de koelkast staat. Dat is gewoon onzin. NVidia heeft al minstens 10 jaar een super stabiele en voorspelbare timetable. Mbt waar pascal vandaan komt zijn inderdaad geruchten, zie onder.
Stel jij nu dat Pascal geen refresh is van Maxwell? :?
Pascal is toch in essentie Maxwell op een kleinere node? Zoveel werd er toch niet gewijzigd aan de architectuur? Idem voor Polaris vs. de 200/300-serie. Kleine wijzigingen, weinig bijzonders.
Pascal is geen refresh van Maxwell. Volgens Nvidia PR is het een architectuur waarin 1 miljard aan R&D is gepompt en weet ik hoeveel honderden verbeteringen zijn toegepast, aldus de CEO tijdens de livestream. Dat jij niet geloofd dat er honderden grote en kleine verbeteringen aan bijvoorbeeld de power delivery zijn toegepast maakt dat natuurlijk geen waarheid ;). Vrij snel kwamen daar ook wat concrete voorbeelden van online: https://www.extremetech.c...l-details-on-the-gtx-1080 waaronder nieuwe delta color compression en 'pre-emption' op pixel level. Zie ook https://international.dow...1080_Whitepaper_FINAL.pdf .

Onofficieel gaan geruchten dat Pascal een afstammeling is van het deep learning project, gebaseerd op het feit dat Pascal nooit op enige roadmap stond en hij nu ineens tussen Volta staat.

Hoe dan ook zijn de grenzen tussen refresh en nieuwe architectuur tegenwoordig steeds waziger, maar dit waren wel zo veel nieuwe dingen dat je het geen refresh meer kunt noemen. Als je dit een refresh gaat noemen dan kun je net zo goed beweren dat elke x86 cpu ook een refresh is en dat alleen AMD met x64 er ooit 1x in historie in is geslaagd met een nieuwe architectuur te komen. Je moet ergens een grens trekken. Voor mij ligt die grens bij nieuwe features. Mag jij anders zien.
Het grote verschil is dat Nvidia hier het geld voor had en AMD niet. En dat lag zeker niet alleen aan AMD. De veelvuldige wetsovertredingen en het frauduleuze handelen van Intel wat smeergeld betaalde aan OEM's (HP, Dell...) en winkels (waaronder Mediamarkt), Gimpworks en PhysX waarmee gamers metaforisch een pistool tegen hun hoofd kregen om een Nvidia-kaart te kopen...
Daarnaast heeft AMD ongelukkige keuzes gemaakt, het speculeerde dat multithreadsoftware sneller op gang zou komen (1 FPU per 2 kernen hing hiermee samen), een gok die ongelukkig uitpakte.
Dit gezegd hebbende, Vega had gezien de bottleneck die het heeft (MSAA, weinig verschil tussen Vega56 en Vega64 bij bepaalde loads) mogelijk best een hoger R&D budget kunnen gebruiken en er zijn geruchten dat Koduri klaagde dat het te laag lag.
Dat lag 100% aan AMD. Dat hele Intel verhaal speelde tussen 2002 en 2007. Vervolgens presteerde AMD het om het winstgevende (!) Ati Radeon voor 5 miljard in 2006 over te nemen. Je kunt Intel dus niet de schuld geven want AMD maakte de keuze gegeven de problematiek. Die was er namelijk al minstens 4 jaar.

AMD had de techniek nodig voor hun APU gokje en daarna hebben ze Radeon verwaarloosd. Het eerst volgende jaar na de miljarden overname werd er direct 1.5+ miljard afgeschreven en werd het gezamenlijke R&D budget verlaagd. Daar kun je opnieuw Intel niet de schuld van geven, dat was een direct gevolg van de miljarden verspilling.

Ik weet zeker dat wanneer AMD van Ati af was gebleven en gewoon de Radeon techniek in licentie had genomen we nu een veel sterker AMD en een veel sterker Radeon hadden gehad. Immers AMD had dan 5 miljard meer gehad om aan R&D te besteden. Daar konden ze toen hun budget 3 jaar voor verdubbelen. Nu zouden ze het budget 5 jaar lang ermee kunnen verdubbelen. Een waardige opvolger voor bulldozer in HPC en het server segment in 2012, dat had AMD kunnen bereiken met dat geld.
Dan ga je voorbij aan de modulaire structuur die vanaf Navi in de steiger lijkt te staan, die maakt het mogelijk om in alle segmenten mee te doen met 1 ontwerp. Er is natuurlijk een reden dat de marktleiders het niet doen (Intel en Nvidia). Het is een keuze die ontstaat uit armoede. Gegeven armoede is het inderdaad handig. Maar het liefst heb je 'onbeperkt' budget voor elk segment en product.
Nadeel van multi-segement zien we al bij Vega. Er zitten dingen in die je er niet in wil hebben. In theorie kun je, zoals Nvidia, gaan fine-tunen. Maar dat kost weer tijd en geld, wat er niets is voor RTG met dank aan AMD.
Hoe dan ook, laten wij allebei maar hopen dat deze voorspelling van jou niet uitkomt want je hebt geen glazen bol nodig om te voorspellen dat de vooruitgang veel trager wordt en de prijzen kunstmatig hoger worden als er geen concurrent is. Eigenlijk zouden andere bedrijven (samen?) eens een GPU-tak moeten beginnen. Kunnen Samsung en IBM of zo niet eens hiermee starten?
Ik verwacht dat Navi een forse verbetering zal zijn, het is de eerste GPU waarbij Koduri vanaf het begin betrokken was en het verwachte modulaire ontwerp biedt veel mogelijkheden. Tegelijkertijd zit hier ook een risico, als je zo radicaal iets anders doet dan kan er gemakkelijk iets verkeerd gaan.
Ik hoop zeker dat hij niet uitkomt. Ik zag het altijd meer als waarschuwing en advies; AMD verhoog aub je R&D budget.

Beste voor Radeon is wat mij betrefft een zelfstandig bedrijf los van AMD. Hopelijk gaat het ooit in de etalage. AMD heeft Radeon tot heden niets goeds gebracht en omgekeerd ook niet.

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2017/05/INTEL-AMD-CPU-Market-share.png
Wanneer nam AMD ook alweer Ati Radeon over? Juist ja het punt op de grafiek waarbij het marktaandeel van AMD omlaag knalt.

OEM ging natuurlijk slecht maar retail? Dat ging top:
Afbeeldingslocatie: https://regmedia.co.uk/2004/09/09/chart_amd.gif

Bij Nvidia vs Radeon gaat het na 2006 ook verdacht hard achteruit:
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2015/04/Nvidia-AMD.png

[ Voor 8% gewijzigd door sdk1985 op 18-09-2017 23:17 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
DaniëlWW2 schreef op maandag 18 september 2017 @ 22:58:

Nvidia gaat alleen verder dan dit met hun Gameworks titels. Wat ze daar doen is bewust extra, onnodige MSAA, Tesselation en CPU load draaien met als doel de prestaties van AMD kaarten verpesten. MSAA en Tesselation omdat AMD kaarten hier zwakker in zijn. Tesselation is niet meer zo met Polaris en Vega, MSAA nog wel, zeker met Vega. CPU load doen ze door PhysX in te bouwen, want natuurlijk op de GPU draait bij Nvidia, en op de CPU bij AMD. Dat is echt het probleem. Gameworks titels draaien in de regel zoveel mogelijk CPU code op een core, en bottlenecken zo een AMD GPU veel harder dan een Nvidia kaart, doormiddel van MSAA, Tesselation, en met physics.
Tessalation volledig mee eens, MSAA vind ik soms dan toch echt wel meerwaarde hebben en heb ook eigenlijk geen idee waarom AMD dit niet goed zou moeten kunnen. Maar Physics (als we het over hetzelfde hebben, zaken in de game wereld die zich "realistisch" gedragen als je het sloopt, er tegenaan schopt of wat anders ipv op een gescripte manier omvallen) vind ik in de regel dan toch echt wel wat toevoegen mits correct geïmplementeerd in een game. Dat is dan toch eigenlijk iets dat ik niet direct als sabotage zou aanwijzen als Nvidia dit in hardware kan leveren en AMD alleen via de CPU. Je zou natuurlijk kunnen zeggen doe het beide via de CPU maar of dat nu een voordeel is voor iedereen weet ik ook zo direct niet.

Acties:
  • 0 Henk 'm!
Dennism schreef op maandag 18 september 2017 @ 23:16:
[...]


Tessalation volledig mee eens, MSAA vind ik soms dan toch echt wel meerwaarde hebben en heb ook eigenlijk geen idee waarom AMD dit niet goed zou moeten kunnen. Maar Physics (als we het over hetzelfde hebben, zaken in de game wereld die zich "realistisch" gedragen als je het sloopt, er tegenaan schopt of wat anders ipv op een gescripte manier omvallen) vind ik in de regel dan toch echt wel wat toevoegen mits correct geïmplementeerd in een game. Dat is dan toch eigenlijk iets dat ik niet direct als sabotage zou aanwijzen als Nvidia dit in hardware kan leveren en AMD alleen via de CPU. Je zou natuurlijk kunnen zeggen doe het beide via de CPU maar of dat nu een voordeel is voor iedereen weet ik ook zo direct niet.
MSAA loopt tegen de ROP's vs CU balans van met name Vega aan. Al die relatief extra ROP's op een Nvidia kaart zijn er echt niet voor niks. 4xMSAA is meestal geen probleem, 8xMSAA is minder leuk, maar vaak ook wel overkill. Zoiets als Nvidia Hairworks, tja dat vind mijn Vega veel minder lief dan mijn RX580. Mijn RX580 verloor iets van 5 frames, mijn RX Vega 56, 15. Nee, dat is echt een Vega probleem, en het is ook sabotage van AMD hardware op deze manier.

Dan is Physx dus niet hetzelfde als physics. ;)
Dit inbouwen in games zonder de optie het uit te schakelen voor AMD GPU's is ook gewoon sabotage. Het gaat vaak om extra effecten die er leuk uit zien, maar niet zo leuk om je framerates in te zien storten omdat al die berekeningen naar een CPU core gaan, geheel toevallig natuurlijk dezelfde die ook de draw calls moet verzorgen. Dat is gewoon sabotage. Een GPU physics engine die open source is, zou ik alleen maar toe juichen, want een GPU is er veel beter in, zeker een compute heavy GPU zoals Vega. :+

Het zou mij ook helemaal niks verbazen dat als PhysX zou werken op Vega of Fiji, dit ook veel beter zou zijn dan welke Nvidia kaart dan ook. PhysX is alleen Nvidia exclusief, of de CPU, en dat is en blijft sabotage...

[ Voor 5% gewijzigd door DaniëlWW2 op 18-09-2017 23:33 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
DaniëlWW2 schreef op maandag 18 september 2017 @ 22:58:
[...]


En dat is dus een zeer hardnekkige, en foute gedachtegang. Het is juist de Nvidia driver die meer driveroverhead heeft dan die van AMD. AMD drivers zijn vrij simpel, namelijk opdrachten van API naar de hardware scheduler overbrengen die het vervolgens over neemt. De driver zelf probeert inefficiënties van de game code te fixen, en dat is het. Dit model is puur prestatiegericht. Weinig overhead, relatief weinig input van AMD, want daar hebben ze geen geld voor...

Nvidia drivers zijn uiterst complex. Nvidia Geforce GPU's hebben geen hardware scheduler meer, dit gaat via software, op de CPU. Dat betekent dus dat er meer CPU overhead is. Om dit te compenseren kan de driver een deel van de draw calls voor de GPU, van extra CPU cores halen. Dat is ook waarom Nvidia GPU's in de regel beter presteren met slecht geoptimaliseerde games die nauwelijks multithreaded zijn. De driver compenseert dit een beetje.

Nvidia gaat alleen verder dan dit met hun Gameworks titels. Wat ze daar doen is bewust extra, onnodige MSAA, Tesselation en CPU load draaien met als doel de prestaties van AMD kaarten verpesten. MSAA en Tesselation omdat AMD kaarten hier zwakker in zijn. Tesselation is niet meer zo met Polaris en Vega, MSAA nog wel, zeker met Vega. CPU load doen ze door PhysX in te bouwen, want natuurlijk op de GPU draait bij Nvidia, en op de CPU bij AMD. Dat is echt het probleem. Gameworks titels draaien in de regel zoveel mogelijk CPU code op een core, en bottlenecken zo een AMD GPU veel harder dan een Nvidia kaart, doormiddel van MSAA, Tesselation, en met physics.

Nu kan je Tesselation forceren op maximaal 8x in de driver, en MSAA uit zetten, zoals Nvidia Hairworks wat voornamelijk MSAA is. Meer dan 4xMSAA is in de regel ook zinloos dus dat is het probleem meestal niet. PhysX kan je dus niet uit zetten, en dat is gewoon een smerige sabotagetechniek van Nvidia.

Dit is ook waarom AMD DX12/Vulkan pushed, en Nvidia absoluut niet. Bij DX12/Vulkan zijn er geen driveroptimalisaties meer mogelijk, dit moet de developer doen, en kan een GPU, rendercalls ontvangen van heel wat CPU cores, in plaats van een zoals bij DX11 en lager. Drivers voor AMD GPU's hoeven bij DX12.Vulkan alleen nog maar informatie die ze krijgen via de API door te geven, en worden dus zeer simpel. Nvidia kan AMD prestaties zo niet meer blokkeren, en AMD GPU's worden er een stuk sneller van. Dit omdat GPU's helemaal niet constant 100% load halen, verre van. Dit kan verbeterd worden door botweg veel meer draw calls te laten produceren door de CPU, maar die kunnen nu niet meer leveren, want ze zitten vast op single core limitaties.

Nvidia's huidige kaarten blijven bij DX12/Vulkan titels opgescheept met hun complexe load balancing, want de GPU kan dit niet, hebben dus minder mogelijkheden om draw calls op te vragen. Daarom slopen AMD GPU's, die van Nvidia altijd zo hard in elke DX12/Vulkan titel. Het heeft niks met optimalisatie voor AMD te maken, maar met Nvidia hardware limitaties. Voor Gameworks titels is er ook geen sprake van optimalisatie voor Nvidia, maar sabotage voor AMD, die Nvidia haar prestaties minder hard verziekt.

Een game zoals Ghost Recon Wildlands zou dan ook nooit gebenchmarkt mogen worden, want het is een pure sabotage titel. Begrijpen hoe Gameworks titels functioneren, en deze bij voorbaat uitbannen, is ook het enige recept dat ervoor zal zorgen dat Nvidia hiermee stopt. Helaas is de gemiddelde benchmarker totaal niet op de hoogte van dergelijke kennis, die ze zouden moeten hebben. Nee, de zoveelste GTX whatever, "oh shiny, geweldig", dat is de standaard. 8)7

Het is erg jammer dat mensen zoals Anand Lal Shimpi (Anandtech dus) niet langer meer actief zijn als reviewer, want dat kaliber reviewers zou gehakt hebben gemaakt van dit soort praktijken. Ik geloof ook niet in toeval, zoals dat Nvidia met Gameworks kwam in 2014, nadat Anand Lal Shimpi was vertrokken bij Anandtech...
Je kijkt naar gameworks vanuit jouw eigen perspectief en niet vanuit die van een bedrijf. Soms moet je ook even kunnen omschakelen naar een ander perspectief om de wereld te kunnen begrijpen.

Ik ga een poging doen: Als jij als bedrijf Google belt omdat jij iets wil afnemen van Google dan vraagt een bandje hoeveel eerst hoeveel werknemers jij hebt. Heb je onder de 50 werknemers dan verwijzen ze je naar een trail en dan verbreken ze de verbinding. Vervolgens bel je nog maar een keer en kies je voor de optie meer dan 100 werknemers en dan krijg je wel iemand aan het woord. Alleen de kwalificaties van deze persoon zijn twijfelachtig. Stuur jij een webformulier in op de Microsoft website dan krijg je de volgende dag een mailtje met daarin het telefoon nummer van het hoofd sales EMEA. Rara voor welke partij kies jij als bedrijf (dit is mij dus 2 weken letterlijk zo overkomen). Het verklaard volledig waarom Microsoft zakelijk succes heeft en alternatieven slecht aftrek vinden. Ik wil Google/OpenOffice/whatever best een kans geven, maar niet ten koste van mijzelf.

Als jij een game wil maken dan gaat het er aan het eind van de rit om dat je voldoende games hebt verkocht om iedereen te betalen en je leningen af te lossen zodat je aan de volgende game kan gaan werken. Een alternatief als Vulkan is afgrijselijk want al die open-source 'oplossingen' kennen geen support. Loop je tegen een probleem aan dan moet je het zelf oplossen en dan kan je product vertraging oplopen en de toekomst van je bedrijf in gevaar komen. Een gameworks waarbij jij Nvidia kunt bellen en die vervolgens iemand on-site sturen die het in een week oplossen is gewoon de slimste keuze.

edit: Dit is puur een verklaring waarom game works zo veel wordt gebruikt. Als gamer ben ik geen aanhanger van game works. Los hiervan is mijn persoonlijke inschatting dat het hele bare metal verhaal op de pc gaat floppen.

Maar goed los daarvan vind ik het een te simpele mening. Jeetje je concurrent komt met software die extra load veroorzaakt op de cpu en jouw producten dus slechter uit laten komen. Maar wacht even je bent AMD dus jij bent CPU en GPU bouwer. Ik rol dan het jaar erna een cpu uit met een core speciaal voor die extra berekeningen (physx begon als add-in) en ik maak mijn gpu's gewoon net even 10% sneller dan die van NVidia. Ook maak ik ze net even wat duurder want AMD cpu + gpu dat is gewoon gaming heaven, daar mag je wel wat meer voor betalen.

Dat is niet de huidige realiteit, maar met voldoende visie kan dat wel. Altijd maar met die vinger wijzen en zelf stil zitten dat schiet gewoon niet op. Zorg er gewoon voor dat je voor loopt op Nvidia. De race met Intel was al verloren, high-end desktop was al opgegeven, richt je dan op gpu.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 18 september 2017 @ 23:01:
Overigens best leuke game (heb hem uitgespeeld :P). Op high-very high is het goed te doen.
offtopic:
Vast wel. Terzijde, ik vraag me af of dat het spel niet heel erg veel op Far Cry lijkt maar dan met een leuk co-op element van NPC's die je kan aansturen en die naar het schijnt aardig werkt. Ik wil het wel ooit spelen maar ik heb er geen haast mee, dat geldt voor alle spellen, ik moet ook nog steeds Rise of the Tomb Raider en TW3 gaan spelen, wat ook samenhangt met dat ik eerst mijn hardware moet upgraden maar los hiervan koop ik spellen standaard later, ik heb nog genoeg oudere spellen en spellen die weinig van je hardware vragen (indies, goede 2D-spellen zoals Ori) te spelen en spellen zoals Borderlands, Dirt3 etc. blijven ook leuk. De lage FPS bij 1080p zorgt er wel voor dat ik nog langer wacht, vooral omdat het door een CPU-bottleneck komt.
Onofficieel gaan geruchten dat Pascal een afstammeling is van het deep learning project, gebaseerd op het feit dat Pascal nooit op enige roadmap stond en hij nu ineens tussen Volta staat.
Een interessant gerucht.
Voor mij ligt die grens bij nieuwe features.
Daarmee ben je er natuurlijk niet, het gaat erom hoeveel nieuwe features er moeten zijn en hoe je dat wil uitdrukken als je een definitie wil maken. Ja, het is nogal subjectief en verschillende mensen zien het anders waar de grens ligt.
Dat lag 100% aan AMD. Dat hele Intel vehraal speelde tussen 2002 en 2007.
AMD heeft jarenlang miljarden tot tientallen miljarden $ misgelopen door dit smeergeld, het is nogal wiedes dat het R&D-budget hierdoor fors lager uitviel en dit heeft mogelijk negatieve consequenties gehad voor de CPU's waarmee ze daarna kwamen, waarvan de ontwikkeling jaren voordat ze uitkwamen werd gestart. Als je stelt dat je niet kan aantonen dat het beter zou zijn gegaan met deze gok wanneer AMD niet al dat geld had misgelopen dan kan je erover discussiëren maar stellen dat dit geen invloed heeft vind ik kras. Laten we bovendien niet vergeten dat AMD in die tijd, vooral in 2004, de betere CPU's had bij dezelfde prijs. Rond 2004 domineerde AMD wel heel erg in de rankings. Het had er echter niets aan omdat de klanten het niet konden kopen want de Mediamarkt, Best Buy etc. verkochten het niet en Dell, HP etc. assembleerden er geen PC's mee, niet omdat de CPU niet goed was maar omdat Intel vele miljarden $ aan smeergeld betaalde (waaruit ik afleid dat AMD meer dan dat aan omzet misliep, alleen al Dell kreeg miljarden $ in al die jaren) om het zo te doen.
Vervolgens presteerde AMD het om het winstgevende (!) Ati Radeon voor 5 miljard in 2007 over te nemen.
Ja, dat was te veel geld. Ik had ook liever gehad dat ATI zelfstandig bleef.
ATI had trouwens dezelfde streken als Nvidia, beide bedrijven speelden vals in de benchmarks (Futuremark), Nvidia in 2003. AMD lijkt meer een straight shooter te zijn.
Ik ben het met jou eens dat het beter zou zijn als RTG meer onafhankelijk van AMD wordt, wat niet wegneemt dat een intensieve samenwerking tussen RTG en AMD handig is (van elkaar leren, geïntegreerde graphics). Misschien hoeft het bedrijf niet op te splitsen en kan je in de statuten zetten dat RTG meer zelfstandig wordt. Warempel iets waar wij het volstrekt over eens zijn: RTG moet meer onafhankelijk functioneren, op wat voor manier dan ook maar AMD en RTG moeten wel samenwerken. Ik verwacht overigens wel dat AMD nu bij RTG hetzelfde gaat doen als dat het bij de CPU-tak deed: flink investeren zodat de inkomsten en winstmarges stijgen. Nu de CPU-tak flink wat geld binnenbrengt kan er meer worden geïnvesteerd in de R&D voor RTG.

Met de strategie om goede APU's te maken is niets mis, de vraag is alleen of dat ze te veel betaalden. Voor Zen gaan die betere geïntegreerde graphics, samen met het lagere vermogen bij redelijke klokfrequenties (laptops!) een grote troef zijn. Reken maar op veel laptops met Raven Ridge CPU's en reken er maar op dat ze ook bij Intel hiermee bezig zijn. Voor laptops is Zen interessanter dan voor desktops en voor desktops pakt het ook lekker uit al zal Coffee Lake m.i. een goede tegenzet zijn (rijkelijk laat, ze hadden ook direct de prijzen kunnen verlagen...).
Nadeel van multi-segement zien we al bij Vega. Er zitten dingen in die je er niet in wil hebben. In theorie kun je, zoals Nvidia, gaan fine-tunen. Maar dat kost weer tijd en geld, wat er niets is voor RTG met dank aan AMD.
Ik denk dat het afhangt van hoe gevoelig zo'n GPU is voor extra latency en hoe groot die extra latency is. Het zal zeker een forse klus zijn om het goed uit te werken maar dat gold voor Ryzen ook en dat pakte toch best goed uit.

Acties:
  • 0 Henk 'm!
@sdk1985 Ik weet niet eens waar ik moet beginnen, echt niet...
Sorry, maar wat een volslagen onzin om hier over perspectief te gaan beginnen...

Je bent hier gewoon sabotage van de concurrent aan het verdedigen, waardoor ze niet meer kunnen inlopen omdat ze inkomsten mis lopen. Vervolgens lees je mijn reactie dus ook helemaal niet goed. Het hele PhysX trucje werkt alleen maar als al deze berekeningen op dezelfde core draaien als waar de drawcalls van de GPU. Dat is een game level implementatie, die door de API limitering van DX11, namelijk een CPU core voor draw calls, niet omzeild kan worden. Dan je wel beginnen over AMD die even honderden miljoenen en jaren aan R&D of meer moet uit geven aan betere CPU's, maar dat kost het probleem dus niet op. Je beweert nu dat een Ryzen kopen betekent dat Nvidia Gameworks titels opeens veel beter gaan draaien. Dat is dus klink klare onzin. Vervolgens slik je met een Nvidia kaart ook een prestatieverlies, Minder dan met AMD, maar het is er wel. Dat noem jij dus een goede oplossing...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
DaniëlWW2 schreef op maandag 18 september 2017 @ 23:42:
@sdk1985 Ik weet niet eens waar ik moet beginnen, echt niet...
Sorry, maar wat een volslagen onzin om hier over perspectief te gaan beginnen...

Je bent hier gewoon sabotage van de concurrent aan het verdedigen, waardoor ze niet meer kunnen inlopen omdat ze inkomsten mis lopen. Vervolgens lees je mijn reactie dus ook helemaal niet goed. Het hele PhysX trucje werkt alleen maar als al deze berekeningen op dezelfde core draaien als waar de drawcalls van de GPU. Dat is een game level implementatie, die door de API limitering van DX11, namelijk een CPU core voor draw calls, niet omzeild kan worden. Dan je wel beginnen over AMD die even honderden miljoenen en jaren aan R&D of meer moet uit geven aan betere CPU's, maar dat kost het probleem dus niet op. Je beweert nu dat een Ryzen kopen betekent dat Nvidia Gameworks titels opeens veel beter gaan draaien. Dat is dus klink klare onzin. Vervolgens slik je met een Nvidia kaart ook een prestatieverlies, Minder dan met AMD, maar het is er wel. Dat noem jij dus een goede oplossing...
Ik verdedig geen implementatie van gameworks dan wel het saboteren van concurrentie... Ik leg uit hoe gameworks in het voordeel werkt voor de ontwikkelaars die het gebruiken. Ik verklaar het bestaan en de populariteit. Denk aan het prisoners dilemma. Als ik het standaard voorbeeld uitleg ben ik toch geen aanhanger van de maffia??? Ik kan ook verklaren waarom Noord Korea blijft doorwerken aan hun nucleaire programma, ook dat maakt mij geen aanhanger ;).


Ik heb niets over Ryzen beweerd. Ik kom met een fictief voorbeeld waarbij je inspeelt op de concurrentie. Het punt met AMD was nu juist dat die sinds 2006 in de unieke positie zitten dat ze zowel GPU als CPU leveren en dat ze daar helemaal niets mee doen. Er is geen synergie wanneer een gamer een AMD cpu met een AMD gpu combineert. Dat dit nu niet bestaat is allemaal wel te verklaren (AMD zag pc gaming als dood, gpu is aangekocht voor het apu project), maar het hoeft niet zo te zijn. Met een beetje visie zijn die voordelen er wel.

In de tijd van Ageia had een gamer chipje op een gamer moederbord voor AMD helemaal zo gek nog niet geweest...

[ Voor 6% gewijzigd door sdk1985 op 19-09-2017 00:38 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Het hele PhsyX verhaal begint in 2002 waarbij het toen nuttig was om berekeningen te gaan offloaden, niet naar de gpu, niet naar de cpu maar naar een dedicated chip. Dat werd een hype.

AMD ging, via Ati, in eerste instantie mee in de hype, alleen niet via PPU (add-in). Ati kwam in 2006 namelijk met Boundless Gaming. Waarmee ze 9x betere prestatie dan de PPU (add-in) beloofde. Dat was alleen gebaseerd op HavokFX. Zoals gezegd was physics een Hype en Intel kocht even Havok FX voor $110 miljoen en dat was op dat moment het einde van phsyics op Ati. Ondertussen kwamen er wel +- 20 games met Ageai Physx support uit. Let op dat dit was 2 jaar voor Nvidia zich ermee bemoeide, het was nog van Ageia.

Toen kreeg AMD het idee Ageia over te nemen: http://www.engadget.com/2...-idea-of-acquiring-ageia/ . Zoals te lezen vond AMD dat 100 miljoen wel veel was, 10 miljoen was het meer waard.
Richard gave us the following statement:

I think my words have been taken to mean more than they really do.

I said that I wouldn’t rule it out and I said we’re not likely to splash $100M on a PPU vendor, and I said that we go through the arguments every few months.


That’s certainly not something that I would have headlined as “AMD considers buying Ageia”. The thought has certainly passed through our minds - but then humans think about a lot of things, and if you look at what I said I also point out that the cost is crazy high, so actually I come very close to ruling it out…

As far as I can see there’s really no news here. Everyone in the industry understands that Ageia’s primary aim is to just to be bought, and we’re one of the companies that needs to work out whether we think it makes sense.
Om een lang verhaal kort te maken; AMD zag af van de aankoop.

Echter Nvidia vond dat wel een goed idee van AMD. Dus die namen het hele bedrijf Ageia inclusief personeel, patenten, enz over. Waarna ze PhysX op al hun kaarten gratis beschikbaar maakten (en daarna natuurlijk doorgingen met CUDA). Toen zat Ati dus zonder boundless gaming en had Nvidia Physx, een techniek die al in diverse games werd toegepast.

Onder leiding van Nvidia werd Phsyx massaal omarmd door grote studio's als EA en 2K.
Reactie van amd: Physx wil die
"There is no plan for closed and proprietary standards like PhysX," said Cheng. "As we have emphasised with our support for OpenCL and DX11, closed and proprietary standards will die."
Havok dat wordt het (is er nog even niet op Ati, maar dat komt nog). In 2009 kwam dat inderdaad, maar zelfs in 2010 waren er nog steeds geen games die wat met de acceleratie deden...


Daarna ging AMD met modder gooien. Toen bleek dat Nvidia art en engineering support leverde voor studios die Phsyx gebruikten: https://www.theinquirer.n...denies-bribing-developers. Er was dus geen zak geld, maar wel een incentive.

Daarna kwamen ze in 2010 nog even met Open physics: https://www.pcworld.com/a...n_Physics_Initiative.html (edit: games gevonden: Wikipedia: Bullet (software) ).

De ironie van het verhaal is dat Ati, voor de overname, dus al met een soort Physx bezig was. Geen opensource maar op basis van een licentie model. Alleen doordat Ati in handen kwam van AMD stak Intel daar een stokje voor. Niet gek, gpu boeren kwamen op het compute vlak en dat is een bedreiging voor Intel. De samenwerking tussen Nvidia en Intel liep ook spaak (Nforce 680 chipset was de laatste). AMD koos er bewust voor om Ageia niet over te nemen en passief te reageren. Uiteindelijk had AMD in zoverre gelijk dat Physx zelf, de eye candy, nooit echt boeiend is geweest. Echter de art en engineering support die er toen al werd gegeven (dat is dus bijna 10 jaar geleden) is de basis van dat succes. Dat is verder doorgegroeid naar Gameworks.

Eigenlijk heeft AMD dit probleem zelf veroorzaakt door niet zelf Havok dan wel Ageia over te nemen. De visie van Ati (closed source physics) werd niet gesteund. Aangezien dit voor AMD feitelijk in 2006 begon is speelt dit nu al 11 jaar. Meer dan voldoende tijd om te 'leren' dat ook AMD op Radeon on-site support moet gaan leveren voor hun open technieken...

Hoe dieper je in de historie van AMD duikt, des te meer management fouten je tegen komt. Momenteel hoop ik dat Raja niet is permanent is weggestuurd maar daadwerkelijk er tijdelijk tussenuit is: http://www.fudzilla.com/n...ec-takes-leave-of-absense . Mocht hij niet terug keren dan is dat wat mij betreft de meest recente vergissing...

[ Voor 27% gewijzigd door sdk1985 op 19-09-2017 01:07 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!
sdk1985 schreef op maandag 18 september 2017 @ 21:52:
Ik vind het meestal niet nuttig om de schuld bij de ontwikkelaar te leggen. Natuurlijk zijn er uitzonderingen maar in algemene zin heb je een game en die wil je op X fps spelen en daar koop je vervolgens je hardware bij. Zo gaat het bij mij in ieder geval al 15+ jaar.
Dan heb je wel heel vaak van hardware gewisseld, of heb je altijd minimaal twee videokaarten bij de hand gehad zodat je kon switchen? ;)

Ubisoft is bij uitstek vaak wel als schuldige aan te wijzen. Ik weet hoe ze te werk gaan in hun "QA" afdeling (hint: de Q staat niet voor Quality). Vriend van me is een half jaartje in Roemenië geweest en heeft daar een maand of twee meegelopen. Voor de PC gebeurt er vrijwel niets. Ze hebben geen arsenaal aan verschillende configuraties waar ze op testen en het draait vooral om game-breaking bugs - heel veel kleine bugs worden wel gemeld, maar blijven vervolgens liggen omdat het spel "werkt". Het is echt een waardeloos bedrijf en tenzij Ubisoft Montpellier de hoofd ontwikkelaar is kun je er op rekenen dat kwaliteit ver te zoeken is. Montpellier is een geval apart binnen de Ubisoft groep, zij mogen nog steeds vrijwel helemaal hun eigen plan trekken.
sdk1985 schreef op maandag 18 september 2017 @ 23:01:
Hoe dan ook zijn de grenzen tussen refresh en nieuwe architectuur tegenwoordig steeds waziger, maar dit waren wel zo veel nieuwe dingen dat je het geen refresh meer kunt noemen. Als je dit een refresh gaat noemen dan kun je net zo goed beweren dat elke x86 cpu ook een refresh is en dat alleen AMD met x64 er ooit 1x in historie in is geslaagd met een nieuwe architectuur te komen. Je moet ergens een grens trekken. Voor mij ligt die grens bij nieuwe features. Mag jij anders zien.
Echter zijn geen van de genoemde dingen nieuwe features. Het zijn tweaks aan bestaande features. Pre-emption was er al, dat werkt nu wat verfijnder. Power delivery was al behoorlijk verfijnd, dat gaat een stap verder. Color compression bestaat al god weet hoe lang*, dit is een verbetering op het algoritme in Maxwell.

Pascal bevat niets dat Maxwell niet had, werkt niet anders en is ook qua opzet en logische indeling nagenoeg identiek. Het is dus gewoon een refresh. Maxwell had een hoop features die Kepler niet had. Kepler op zijn beurt gooide de manier waarop Fermi werkte flink op de schop ook al waren veel onderdelen op zich nog grotendeels hetzelfde. De volledig gewijzigde scheduling (wat de hardware simpeler maakte en vooral een software dingetje was) maakt dat Kepler zich geheel anders gedraagt dan Fermi.

De enige chip(s) waar je terecht van kunt zeggen dat de grens tussen refresh en architectuur wazig is, zijn GF104 en GF114. Hoewel ze overduidelijk Fermi zijn, is hun indeling en werking dusdanig anders dat ze toch niet te vergelijken zijn met GF100/GF110 (in positieve zin). Die chips waren de opwarmer voor wat Kepler zou worden.

Maar goed, als jij het plafond voor de noemer "nieuwe architectuur" al zo laag wil stellen, dan moeten we Tonga ook als nieuwe microarchitectuur zien, en niet als iteratie op Hawaii. Sterker nog, als we er zo naar gaan kijken, dan heeft AMD sinds 2012 maar liefst 6 architecturen uitgebracht: Vega, Polaris, Fiji, Tonga, Hawaii en Tahiti. Ik geloof niet dat jij het hier mee eens zou zijn. En toch is Tonga ingrijpender geweest ten opzichte van Hawaii dan Pascal ten opzichte van Maxwell.

Zijn er honderden kleine verbeteringen in Pascal? Zeker. Maar die zijn er ook in Hawaii ten opzichte van Tahiti, Tonga t.o.v. Hawaii enzovoort. En toch zie ik niemand elke nieuwe chip van AMD de afgelopen jaren ook als nieuwe architectuur bestempelen. Ik gebruik hier ook heel bewust de noemer GCN niet, want dan komen we weer met hetzelfde probleem als een tijd terug, waar men geen onderscheid kan maken tussen GCN als ISA en de microarchitecturen.

offtopic:
* edit: dit is een puntje waar ik me mateloos aan erger. De laatste jaren wordt gedaan alsof compressie iets heel nieuws is. Niets is minder waar, Nvidia en ATI deden dit 15 jaar geleden ook al.
De algoritmes worden echter steeds beter en zo heel af en toe vogelen ze iets uit waarmee echt een sprong wordt gemaakt in hoe goed het werkt. Dat waren respectievelijk Maxwell en Tonga, die beide DCC op brede schaal toepasten. Ook DCC was niet nieuw, het was alleen niet zo algeheel toepasbaar als bij die twee chips.

[ Voor 6% gewijzigd door Werelds op 19-09-2017 12:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op maandag 18 september 2017 @ 23:16:
[...]


Tessalation volledig mee eens, MSAA vind ik soms dan toch echt wel meerwaarde hebben en heb ook eigenlijk geen idee waarom AMD dit niet goed zou moeten kunnen. Maar Physics (als we het over hetzelfde hebben, zaken in de game wereld die zich "realistisch" gedragen als je het sloopt, er tegenaan schopt of wat anders ipv op een gescripte manier omvallen) vind ik in de regel dan toch echt wel wat toevoegen mits correct geïmplementeerd in een game. Dat is dan toch eigenlijk iets dat ik niet direct als sabotage zou aanwijzen als Nvidia dit in hardware kan leveren en AMD alleen via de CPU.
Zoals @DaniëlWW2 aangaf kan AMD het prima via de GPU - zoals jij dat nu noemt, "in hardware" - afhandelen en is die GPU hier geschikter voor maar stelt Nvidia AMD niet in staat om dat te doen door geheime code te gebruiken. Als die code gewoon open zou zijn dan zou het prima draaien op AMD-kaarten en inderdaad waarschijnlijk nog beter ook aangezien dit juist iets is i.t.t. MSAA en tessellation waar AMD-kaarten in uitblinken (compute).
Verder is het natuurlijk funest voor de graphics performance wanneer de CPU die code moet uitvoeren en ook nog eens bijna alle CPU load voor de graphics op 1 kern terecht komt. De grafische kaart doet weinig omdat de CPU niet in staat is om de grafische kaart voldoende aan te sturen (DX11, OpenGL, slechte DX12-implementaties) doordat diezelfde kern die toch al al die CPU-load krijgt van de API nu ook nog eens de PhysX moet verzorgen. Ook een 7900k gaat je hier niet bij redden zolang veel spellen en API's zo slecht de load verdelen over de kernen.

Het verbaast me een beetje dat Daniël het niet aanhaalde aangezien hij dit ook weet, daarnaast saboteert Nvidia met PhysX ook doordat Nvidia dit had gekocht van een ander bedrijf met de intentie het van de markt te halen voor alle andere gamers dan die gamers die een Nvidia-kaart kochten. Voor die tijd kon iedere gamer een apart kaartje met PhysX - toen anders genoemd, voor het gemak gebruik ik de naam zoals wij die nu kennen - kopen, het in zijn computer stoppen naast de grafische kaart die hij al gebruikte en de voordelen hiervan benutten. Nvidia kocht het en stopte het in de grafische kaarten, hiermee ervoor zorgende dat mensen die een grafische kaart van een ander merk dan Nvidia gebruikten geen toegang meer hadden tot PhysX. Jij weet wellicht dat vervolgens veel mensen die een ATI-kaart gebruikten een lowend Nvidia-kaart kochten voor de PhysX, Nvidia blokkeerde vervolgens softwarematig het gebruik van PhysX (zoals ze nu bij virtualisatie softwarematig de kaart blokkeren wat je kan omzeilen door de virtuele machine te laten 'liegen' ;)) indien de kaart gekoppeld werd met een ATI/AMD-kaart of een Nvidia kaart van een andere tier of een andere generatie. Als dat geen sabotage is...

Je kan erover discussiëren in welke mate het fair game is om developers te stimuleren om gesloten code te gebruiken en zodoende de gamers de boodschap te geven dat ze features X, Y en Z missen en mogelijk zelfs een onspeelbaar spel krijgen als ze geen kaart van jouw bedrijf kopen. Dat is een ethische afweging. Het is niet illegaal maar het is wel concurrentievervalsing. Als een bedrijf de hardware op bepaalde vlakken verbetert en alleen daardoor presteert de hardware beter bij bepaalde code, prima. Als je echter geheime code gebruikt die zo is uitgekozen dat het optimaal gebruik maakt van de troeven van je eigen hardware en optimaal de zwaktes van de hardware van de concurrent afstraft en hierbij de concurrent niet in staat stelt om via de driver de code zo aan te passen dat de code goed is afgestemd op je eigen hardware terwijl het hetzelfde effect geeft dan ben je anticompetitief aan het handelen.
Nvidia heeft dat niet nodig. Ze hebben prima ingenieurs in dienst en ze hebben ook allerlei goede innovaties gedaan. Ga gewoon op een eerlijke manier en met open vizier de concurrentiestrijd aan.
Je zou natuurlijk kunnen zeggen doe het beide via de CPU maar of dat nu een voordeel is voor iedereen weet ik ook zo direct niet.
Juist niet! Een CPU is hier helemaal niet geschikt voor, een GPU wel. In essentie is een GPU een CPU met veel meer kernen (een paar duizend in plaats van 4-8) en een veel lagere klokfrequentie met een sterke organistiestructuur waarbij er diverse eilandjes van groepen kernen een specifieke taak krijgen. Voor tal van natuurkundige berekeningen werk je met een groot aantal vectoren, dat gaat ongeveer net zo automatisch gepaard met natuurkundige berekeningen als calculus, je ontkomt er niet aan. Als je met een groot aantal vectoren wil rekenen, waarbij een groter aantal vectoren een meer realistisch effect geeft, dan heb je veel meer aan een groter aantal verwerkingseenheden (ALU of het equivalent van de GPU's) die een wat lagere klokfrequentie hebben dan aan een (veel) kleiner aantal verwerkingseenheden die een 2-4 keer zo'n hoge klokfrequentie hebben.
Om die reden is scientific computing met grafische kaarten populair: veel vectoren, sterk parallel waarbij je dezelfde formules op een groot aantal punten toepast. Voor hoe meer punten je tegelijkertijd die berekeningen kan doen hoe nauwkeuriger het model wordt. Daar hebben we bijvoorbeeld aan te danken dat de weersvoorspellingen veel beter zijn geworden.
DaniëlWW2 schreef op maandag 18 september 2017 @ 22:58:
[...]


En dat is dus een zeer hardnekkige, en foute gedachtegang. Het is juist de Nvidia driver die meer driveroverhead heeft dan die van AMD. AMD drivers zijn vrij simpel, namelijk opdrachten van API naar de hardware scheduler overbrengen die het vervolgens over neemt. De driver zelf probeert inefficiënties van de game code te fixen, en dat is het. Dit model is puur prestatiegericht. Weinig overhead, relatief weinig input van AMD, want daar hebben ze geen geld voor...

Nvidia drivers zijn uiterst complex. Nvidia Geforce GPU's hebben geen hardware scheduler meer, dit gaat via software, op de CPU. Dat betekent dus dat er meer CPU overhead is. Om dit te compenseren kan de driver een deel van de draw calls voor de GPU, van extra CPU cores halen. Dat is ook waarom Nvidia GPU's in de regel beter presteren met slecht geoptimaliseerde games die nauwelijks multithreaded zijn. De driver compenseert dit een beetje.
Daar was ik aan voorbij gegaan omdat ik interpreteerde dat hij het over single core load had. De Nvidia drivers veroorzaken inderdaad door die softwarematige scheduling een hogere CPU load, alleen kunnen ze op die manier wel de load meer verdelen over de kernen wat werkt zolang de totale CPU load niet te hoog wordt. Ik vraag me al een tijdje af of dat dit ook een van de verklaringen is waarom je bij nieuwere spellen ziet dat AMD het beter doet. Quadcore CPU's + toegenomen CPU-load...
Nvidia gaat alleen verder dan dit met hun Gameworks titels. Wat ze daar doen is bewust extra, onnodige MSAA, Tesselation en CPU load draaien met als doel de prestaties van AMD kaarten verpesten. MSAA en Tesselation omdat AMD kaarten hier zwakker in zijn. Tesselation is niet meer zo met Polaris en Vega, MSAA nog wel, zeker met Vega. CPU load doen ze door PhysX in te bouwen, want natuurlijk op de GPU draait bij Nvidia, en op de CPU bij AMD. Dat is echt het probleem. Gameworks titels draaien in de regel zoveel mogelijk CPU code op een core, en bottlenecken zo een AMD GPU veel harder dan een Nvidia kaart, doormiddel van MSAA, Tesselation, en met physics.

Nu kan je Tesselation forceren op maximaal 8x in de driver, en MSAA uit zetten, zoals Nvidia Hairworks wat voornamelijk MSAA is. Meer dan 4xMSAA is in de regel ook zinloos dus dat is het probleem meestal niet. PhysX kan je dus niet uit zetten, en dat is gewoon een smerige sabotagetechniek van Nvidia.
Hier moet ik een kanttekening bij maken, niet al die Gimpworks zooi (inclusief de voorgangers toen Nvidia het nog niet onder 1 naam groepeerde) kan je uitschakelen. Ik haal nu weer Assassin's Creed Brotherhood en vooral Assassin's Creed Revelations aan. Ubisoft gebruikte daar een of ander rook/mist-effect van Nvidia, elke keer dat dit wordt gerenderd op een AMD-GPU krijg je gigantische microstutter terwijl de GPU-load laag ligt. Het lijkt me duidelijk wat hier aan de hand is. ;)
En dit voor een effect wat in ieder geval op een AMD-GPU niets toevoegt, het ziet er niet goed uit en je ziet niet eens iets gebeuren maar je krijgt wel gigantische microstutters.
Werelds schreef op dinsdag 19 september 2017 @ 12:18:
[...]

Dan heb je wel heel vaak van hardware gewisseld, of heb je altijd minimaal twee videokaarten bij de hand gehad zodat je kon switchen? ;)
Ik weiger om een extra stuk van even krachtige of minder krachtige hardware te kopen omdat er softwarematig iets wordt gelockt, om dezelfde reden zal ik nooit een console kopen. Ik laat me niet manipuleren door dit soort fratsen en ik heb er geen zin om geld weg te gooien en onnodig het milieu te belasten voor een extra computer of grafische kaart terwijl het spul wat ik heb prima is.

[ Voor 18% gewijzigd door Verwijderd op 19-09-2017 16:03 ]


Acties:
  • 0 Henk 'm!
sdk1985 schreef op dinsdag 19 september 2017 @ 00:01:
[...]

Ik verdedig geen implementatie van gameworks dan wel het saboteren van concurrentie... Ik leg uit hoe gameworks in het voordeel werkt voor de ontwikkelaars die het gebruiken. Ik verklaar het bestaan en de populariteit. Denk aan het prisoners dilemma. Als ik het standaard voorbeeld uitleg ben ik toch geen aanhanger van de maffia??? Ik kan ook verklaren waarom Noord Korea blijft doorwerken aan hun nucleaire programma, ook dat maakt mij geen aanhanger ;).
Jawel, want je negeert volkomen dat Gameworks helemaal geen optimalisatiepakket van Nvidia is. Het is ook al helemaal niet in het voordeel van de ontwikkelaar, of moet ik echt de lijst met op technisch vlak brakke of botweg onspeelbare "AAA" games van de afgelopen jaar erbij halen en ernaast een lijst van Gameworks titels plaatsen?

Sterker nog, ga het gewoon doen om het even heel duidelijk te maken wat Gameworks doet voor "optimalisatie". Dit zijn de bekende, of zelfs beruchte slecht draaiende tot botweg trainwreck releases van de afgelopen jaren, en raad eens, elke van deze games is een Gameworks titel...

-Batman: Arkham Knight
-AC Unity
-Far Cry 4
-Watch Dogs
-Dishonored 2
-Rise of the Tomb Raider
-Ghost Recon Wildlands
-Maffia 3

Laat het ook vrijwel exclusief Ubisoft zijn die in zee gaan met Nvidia en hun Gameworks programma. Ubisoft bracht toch al regelmatig bagger uit, maar de frequentie is sinds 2014 behoorlijk opgelopen...

Nee, wil je een echt ondersteuningsplatform hebben voor optimalisaties, dan moet je bij AMD hun GPUOpen zijn. Alle code is open source en beschikbaar gemaakt via GitHub. effecten zijn allemaal open standaarden en dit programma van AMD saboteert prestaties dus niet, juist omdat het open source is.

Verder kan je wel beginnen over Noord-Korea of de maffia, maar dat zijn drogredenen en neem ik per definitie niet serieus.
Ik heb niets over Ryzen beweerd. Ik kom met een fictief voorbeeld waarbij je inspeelt op de concurrentie. Het punt met AMD was nu juist dat die sinds 2006 in de unieke positie zitten dat ze zowel GPU als CPU leveren en dat ze daar helemaal niets mee doen. Er is geen synergie wanneer een gamer een AMD cpu met een AMD gpu combineert. Dat dit nu niet bestaat is allemaal wel te verklaren (AMD zag pc gaming als dood, gpu is aangekocht voor het apu project), maar het hoeft niet zo te zijn. Met een beetje visie zijn die voordelen er wel.

In de tijd van Ageia had een gamer chipje op een gamer moederbord voor AMD helemaal zo gek nog niet geweest...
En je negeert nog steeds wat Gameworks doet. Het doel is helemaal niet een efficiënte workload verdeling bereiken, maar een gigantische CPU bottleneck creëren als je het durft om geen Nvidia kaart te hebben. APU's, mismanagement of weet ik veel wat je nog meer kan bedenken over AMD is hier volstrekt irrelevant.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op dinsdag 19 september 2017 @ 16:01:
[...]

Jawel, want je negeert volkomen dat Gameworks helemaal geen optimalisatiepakket van Nvidia is. Het is ook al helemaal niet in het voordeel van de ontwikkelaar, of moet ik echt de lijst met op technisch vlak brakke of botweg onspeelbare "AAA" games van de afgelopen jaar erbij halen en ernaast een lijst van Gameworks titels plaatsen?

Sterker nog, ga het gewoon doen om het even heel duidelijk te maken wat Gameworks doet voor "optimalisatie". Dit zijn de bekende, of zelfs beruchte slecht draaiende tot botweg trainwreck releases van de afgelopen jaren, en raad eens, elke van deze games is een Gameworks titel...

-Batman: Arkham Knight
-AC Unity
-Far Cry 4
-Watch Dogs
-Dishonored 2
-Rise of the Tomb Raider
-Ghost Recon Wildlands
-Maffia 3
Wedden dat Rise of the Tomb Raider een wraakactie was van Nvidia voor TressFX in Tomb Raider (2012/2013)? Het is in ieder geval zonde want als je de performance van RotTR vergelijkt met die van TR, dat verschil kan toch niet enkel worden verklaard door de verbeterde graphics die bij TR in het algemeen ook al best goed waren.
Werelds schreef op dinsdag 19 september 2017 @ 12:18:
[...]

Dan heb je wel heel vaak van hardware gewisseld, of heb je altijd minimaal twee videokaarten bij de hand gehad zodat je kon switchen? ;)

Ubisoft is bij uitstek vaak wel als schuldige aan te wijzen. Ik weet hoe ze te werk gaan in hun "QA" afdeling (hint: de Q staat niet voor Quality). Vriend van me is een half jaartje in Roemenië geweest en heeft daar een maand of twee meegelopen. Voor de PC gebeurt er vrijwel niets. Ze hebben geen arsenaal aan verschillende configuraties waar ze op testen en het draait vooral om game-breaking bugs - heel veel kleine bugs worden wel gemeld, maar blijven vervolgens liggen omdat het spel "werkt". Het is echt een waardeloos bedrijf en tenzij Ubisoft Montpellier de hoofd ontwikkelaar is kun je er op rekenen dat kwaliteit ver te zoeken is. Montpellier is een geval apart binnen de Ubisoft groep, zij mogen nog steeds vrijwel helemaal hun eigen plan trekken.
In AC3 kwam ik zo'n niet game-breaking bug tegen, ineens kon je niet meer een kroeg in lopen die wel op de kaart stond en die toegankelijk had moeten zijn en dit op een moment waarop je al in die kroeg was geweest. Bij AC2R zag je icoontjes actief worden voordat ze gebruikt konden worden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
sdk1985 schreef op maandag 18 september 2017 @ 23:01:
[...]

Kun zo testen door zelf je eigen cpu te knijpen in die game en te kijken hoe dramatisch je performance in zakt. Ik heb veel stabielere fps gekregen door 200 Mhz extra op mijn cpu te gooien.
Nog even op de cpu overhead. De AMD driver heeft minder overhead dan die van Nvidia, dat kan je goed terugzien bij Rise of the Tombraider in youtube filmpjes die de profiler open hebben staan.
Wat Nvidia wel doet en waardoor het fabeltje is ontstaan is dat de driver voor DX11 van Nvidia wel multithreaded is en de workload wordt opgeknipt, bij AMD niet. AMD heeft een hardware schedular (die veel stroom gebruikt) en kan daardoor eigenlijk niet de workload opknippen in DX11. Nvidia doet dit voor het grootste gedeelte via software, hierdoor is het makkelijker op te knippen.

Hieronder mijn ongeteste statement.
Als je met beide maar 1 cpu core zou gebruiken dan wint een AMD het, zelfs in DX11.

Nu heb ik zelf geen Nvidia gpu meer die snel genoeg is om te vergelijken met een vergelijkbare AMD gpu anders had ik dat graag gedaan. Misschien dat Astennu dit wil doen ;).

Physx op de gpu is m.i. zo goed als dood, nog geen enkel spel in 2017 en de jaren eerder leken het er steeds minder te worden:
https://en.wikipedia.org/...accelerated_PhysX_support

Het idee is leuk, wat ik graag had willen zien is dat een APU of een Intel gpu als physics processort middels OpenCL op DirectCompute kon worden ingezet. Helaas heeft Intel Havok de nek omgedraait....

[ Voor 15% gewijzigd door Sp3ci3s8472 op 19-09-2017 17:28 ]


Acties:
  • 0 Henk 'm!
Qua GPU physics. Ik vraag me eigenlijk af of de RTG hier niet stiekem bezig mee is. Ze rollen de afgelopen jaren libary na libary uit, hun eigen API, grotendeels verantwoordelijk voor Vulkan en de push naar DX12, TressFX, GPUOpen etc etc.

Juist voor de compute heavy GPU's van AMD zou het zo interesant zijn als er een open GPU physics standaard zou zijn. Dan vraag je je toch af gezien de push van de RTG op software. Achter deze push lijkt wederom Raja Koduri te zitten, en daar is hij uitstekend bezig. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Is TressFX of hoe AMD dat momenteel ook noemt (haar) niet een vorm van GPU-physics? :?
Dat is kinematica en per X haren, bij wijze van spreken, moeten ze het berekenen, dus sterk geparalleliseerd. Het lijkt me voor de hand te liggen dat AMD met meer physics-effectjes bezig is, dat zou in lijn liggen met het in GPUOpen stoppen van al die andere grafische effecten. Het grootste probleem is en blijft dat ze een relatief laag budget hebben, als ze 3 keer zoveel medewerkers zouden hebben die zich 100% hierop kunnen richten...
Wat betreft Raja, ik vind het oneerlijk dat sommige mensen hem afrekenen op Vega terwijl dat al helemaal gepland was op het moment dat hij terugkwam bij AMD. Het gevolg van een gebrek aan kennis over hoe lang het duurt om een GPU te ontwerpen?

Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
DaniëlWW2 schreef op dinsdag 19 september 2017 @ 16:01:
[...]

Jawel, want je negeert volkomen dat Gameworks helemaal geen optimalisatiepakket van Nvidia is. Het is ook al helemaal niet in het voordeel van de ontwikkelaar, of moet ik echt de lijst met op technisch vlak brakke of botweg onspeelbare "AAA" games van de afgelopen jaar erbij halen en ernaast een lijst van Gameworks titels plaatsen?

Sterker nog, ga het gewoon doen om het even heel duidelijk te maken wat Gameworks doet voor "optimalisatie". Dit zijn de bekende, of zelfs beruchte slecht draaiende tot botweg trainwreck releases van de afgelopen jaren, en raad eens, elke van deze games is een Gameworks titel...

-Batman: Arkham Knight
-AC Unity
-Far Cry 4
-Watch Dogs
-Dishonored 2
-Rise of the Tomb Raider
-Ghost Recon Wildlands
-Maffia 3

Laat het ook vrijwel exclusief Ubisoft zijn die in zee gaan met Nvidia en hun Gameworks programma. Ubisoft bracht toch al regelmatig bagger uit, maar de frequentie is sinds 2014 behoorlijk opgelopen...

Nee, wil je een echt ondersteuningsplatform hebben voor optimalisaties, dan moet je bij AMD hun GPUOpen zijn. Alle code is open source en beschikbaar gemaakt via GitHub. effecten zijn allemaal open standaarden en dit programma van AMD saboteert prestaties dus niet, juist omdat het open source is.

Verder kan je wel beginnen over Noord-Korea of de maffia, maar dat zijn drogredenen en neem ik per definitie niet serieus.


[...]


En je negeert nog steeds wat Gameworks doet. Het doel is helemaal niet een efficiënte workload verdeling bereiken, maar een gigantische CPU bottleneck creëren als je het durft om geen Nvidia kaart te hebben. APU's, mismanagement of weet ik veel wat je nog meer kan bedenken over AMD is hier volstrekt irrelevant.
Gameworks is een effect library; https://developer.nvidia.com/what-is-gameworks . Heeft totaal niets met optimalisatie te maken. Het is een manier om snel en met support je game mooier te maken. Als jij een indy game wil maken pak je dan Unity, of ga je eerst bare metal leren programmeren? Het enige rationele antwoord is hier Unity. Zo gaat dat ook met gameworks. Bedrijven zijn geen magische elementen met onuitputtelijke bronnen van talent. Ubi kan het blijkbaar niet zelf of acht het te duur. Gameworks is juist niet optimaal, het is een shortcut.

Verder lijkt het erop dat je niet zo goed in staat bent je in de gedachte gang van iemand anders te verplaatsen op het moment dat je daar niet mee eens bent. Het prisoner dilemma/Noord Korea voorbeeld is op geen enkel vlak een drogreden. Nogmaals; het is mogelijk te kunnen bedenken waarom iets gebeurd zonder de mening te hebben dat het optimaal is dat iets gebeurd. Mocht dat inleven inderdaad lastig zijn dan is dat helemaal prima. Alleen ga dan niet discussiëren, dat wordt dan stoïcijns je mening verkondigen.

Hoe dan ook jij koppelt aan mijn relativering de conclusie 'Je bent hier gewoon sabotage van de concurrent aan het verdedigen, waardoor ze niet meer kunnen inlopen omdat ze inkomsten mis lopen'. Dat zit 100% tussen jouw oren. Gameworks bestaat en het wordt omarmd. Jij lijkt niet te begrijpen waar de kracht ligt van gameworks. Dat is nu net wat ik heb geprobeerd te verduidelijken.

Volledig offtopic maar de games die ik momenteel speel zijn GRW en Rainbow Six Siege. Vlak daarvoor was ik toevallig bezig met FC3/FC4 co-op en watch dogs. Nog wat eerder The Crew 2. Ik ben opvallend vaak een koper van Ubi. Op origin ben ik dit jaar, muv BF One beta, nog niet geweest.

[ Voor 13% gewijzigd door sdk1985 op 20-09-2017 02:14 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Werelds schreef op dinsdag 19 september 2017 @ 12:18:
[...]

Dan heb je wel heel vaak van hardware gewisseld, of heb je altijd minimaal twee videokaarten bij de hand gehad zodat je kon switchen? ;)

Ubisoft is bij uitstek vaak wel als schuldige aan te wijzen. Ik weet hoe ze te werk gaan in hun "QA" afdeling (hint: de Q staat niet voor Quality). Vriend van me is een half jaartje in Roemenië geweest en heeft daar een maand of twee meegelopen. Voor de PC gebeurt er vrijwel niets. Ze hebben geen arsenaal aan verschillende configuraties waar ze op testen en het draait vooral om game-breaking bugs - heel veel kleine bugs worden wel gemeld, maar blijven vervolgens liggen omdat het spel "werkt". Het is echt een waardeloos bedrijf en tenzij Ubisoft Montpellier de hoofd ontwikkelaar is kun je er op rekenen dat kwaliteit ver te zoeken is. Montpellier is een geval apart binnen de Ubisoft groep, zij mogen nog steeds vrijwel helemaal hun eigen plan trekken.
Natuurlijk heb altijd wel een paar videokaarten bij de hand :9 . Maar ik doel op grote hardware upgrades, dus cpu/gpu na het moment dat blijkt dat je met je 'high-end' pc ineens medium 30 fps moet gaan spelen. Dat is het moment dat ik naar de winkel stap voor een upgrade.

Momenteel is GRW de enige game waar ik niet tevreden over ben qua performance (45-70 fps op 2560x1080). Dan ik heb meteen de benchmarks van o.a. een 1700X bekeken (helaas helpt die niet, hopelijk wel bij Coffee lake).

Mijn eerste reactie is niet kwaad worden op Ubi omdat de game niet geoptimaliseerd is. Ik upgrade mijn hardware wel. Dat doe ik al meer dan 20 jaar. GTA 3 draaide ook niet heel geweldig op mijn systeem destijds. GTA 4 moest ik terug naar 1280x1024 ipv 1680x1050 om 60 fps te halen. Uiteindelijk komt het wel goed (tenzij het echt een slechte game is, denk aan Crysis/Ark evolved). Een ultra stand mag ietsje te zwaar zijn voor huidige hardware. Dat is even een mentaliteitsverschil. Het is je hobby, mooie reden om weer wat nieuws te willen :). Kwaad worden op de ontwikkelaar en de game dan maar niet spelen heb je uiteindelijk alleen jezelf mee.

Verder geloof ik zo dat Ubi wel wat beter QA kan gebruiken. Niet voor niets kreeg Siege dit jaar 'operation health'. GRE ben ik ook 3x door de map heen gevallen, heb ik een auto met zero gravity gehad die na een beuk eindeloos bleef zweven en zijn er convoys die gewoon stil staan maar ook geen punten opleveren 8)7. Toch heeft ubi steeds wel de games die ik leuk vind om te spelen dus ze doen iets goed. Ik koop ook weleens een indie maar daar ben ik <50 uur altijd wel weer mee klaar.
Maar goed, als jij het plafond voor de noemer "nieuwe architectuur" al zo laag wil stellen, dan moeten we Tonga ook als nieuwe microarchitectuur zien, en niet als iteratie op Hawaii. Sterker nog, als we er zo naar gaan kijken, dan heeft AMD sinds 2012 maar liefst 6 architecturen uitgebracht: Vega, Polaris, Fiji, Tonga, Hawaii en Tahiti. Ik geloof niet dat jij het hier mee eens zou zijn. En toch is Tonga ingrijpender geweest ten opzichte van Hawaii dan Pascal ten opzichte van Maxwell.

Zijn er honderden kleine verbeteringen in Pascal? Zeker. Maar die zijn er ook in Hawaii ten opzichte van Tahiti, Tonga t.o.v. Hawaii enzovoort. En toch zie ik niemand elke nieuwe chip van AMD de afgelopen jaren ook als nieuwe architectuur bestempelen. Ik gebruik hier ook heel bewust de noemer GCN niet, want dan komen we weer met hetzelfde probleem als een tijd terug, waar men geen onderscheid kan maken tussen GCN als ISA en de microarchitecturen.

offtopic:
* edit: dit is een puntje waar ik me mateloos aan erger. De laatste jaren wordt gedaan alsof compressie iets heel nieuws is. Niets is minder waar, Nvidia en ATI deden dit 15 jaar geleden ook al.
De algoritmes worden echter steeds beter en zo heel af en toe vogelen ze iets uit waarmee echt een sprong wordt gemaakt in hoe goed het werkt. Dat waren respectievelijk Maxwell en Tonga, die beide DCC op brede schaal toepasten. Ook DCC was niet nieuw, het was alleen niet zo algeheel toepasbaar als bij die twee chips.
Huh wat? Juist met GCN geeft AMD zelf duidelijk aan wat ze als architectuur zien. Waarom zou je daar tegen in willen gaan. Op wiki staan ze zelfs netjes gesorteerd:
This article is about all products under the AMD Radeon Rx 200 Series brand.
A GPU implementing Graphics Core Next 3 (Volcanic Islands) is found on the R9 285 (Tonga Pro) branded products.
A GPU implementing Graphics Core Next 2 (Sea Islands) is found on R7 260 (Bonaire), R7 260X (Bonaire XTX), R9 290 (Hawaii Pro), R9 290X (Hawaii XT), and R9 295X2 (Vesuvius) branded products.
A GPU implementing Graphics Core Next 1 (Southern Islands) is found on R9 270, 270X, 280, 280X, R7 240, 250, 250X, 265, and R5 240 branded products.
A GPU implementing TeraScale 2 (VLIW5) (Northern Islands or Evergreen) is found on R5 235X and "below" branded products.
Lijkt mij logisch om dat gewoon aan te houden. Verder zijn er ook reviews van te vinden die de verschillende GCN varianten vergelijken: https://www.computerbase....m-the-witcher-3-1920-1080

Dus ja bij AMD zie ik ook heel wat refreshes, nieuwe architecturen en rebrands (door elkaar heen). Bij Nvidia is het wat dat betreft net even wat eenduidiger. Pak even de 6 serie. De 260 was nieuw, de 460 was nieuw, de 560 was een refresh (andere clocks dus IMO geen rebrand), de 660 was nieuw, de 760 was een refresh, de 960 was nieuw, de 1060 is nieuw.

AMD heeft ook weleens van die minor Mhz upgrades gedaan. Persoonlijk schaar ik hem dan bij refresh, maar dat mag jij ook prima een rebrand noemen.

Hoe ingrijpend de 'architecturen' onderling verschillen is wat mij betreft ondergeschikt. We hebben al jaren een kunstmatige evolutie in plaats van revolutie. Pascal is echter wel een revolutie, kijk maar eens naar die winstcijfers van Nvidia. Dat valt gewoon niet te ontkennen. Nog nooit heeft Nvidia zo goed gedraaid en dat komt vrijwel volledig op rekening van Gaming (1 miljard). Die hadden ons GTX 1080 performance voor 200 dollar kunnen leveren (stelletje krenten :+ ).

Wat betreft Nvidia had ik overigens rond deze tijd al wel een 2080 (non-volta) verwacht. Wellicht hebben ze gewacht op vega. Back-2-school is al geweest dus dan resteert alleen kerst.

[ Voor 9% gewijzigd door sdk1985 op 20-09-2017 02:22 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Nu online

Trygve

Redacteur

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
sdk1985 schreef op woensdag 20 september 2017 @ 01:44:
Wat betreft Nvidia had ik overigens rond deze tijd al wel een 2080 (non-volta) verwacht. Wellicht hebben ze gewacht op vega. Back-2-school is al geweest dus dan resteert alleen kerst.
offtopic:
Tijdens Q2 Earnings call gaf Jensen aan dat gamers dit jaar alleen Pascal 'hoefden', en dat de enige 'nieuwe dingen' in de pipeline 'pascal' waren.
Los daarvan zie ik NV maar weinig adverteren met "IPC" (ja, is niet ladingdekkend) verbeteringen van Pascal naar Volta -- en de artikelen nav de press release voor GV100 wijzen vooral op de enorme die size en de extra transistoren. Maxwell ~= Sandy Bridge met minder doorgroeiruimte, want 30% p/j? ;)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years

sdk1985 schreef op woensdag 20 september 2017 @ 01:15:
[...]

Gameworks is een effect library; https://developer.nvidia.com/what-is-gameworks . Heeft totaal niets met optimalisatie te maken. Het is een manier om snel en met support je game mooier te maken. Als jij een indy game wil maken pak je dan Unity, of ga je eerst bare metal leren programmeren? Het enige rationele antwoord is hier Unity. Zo gaat dat ook met gameworks. Bedrijven zijn geen magische elementen met onuitputtelijke bronnen van talent. Ubi kan het blijkbaar niet zelf of acht het te duur. Gameworks is juist niet optimaal, het is een shortcut.

Verder lijkt het erop dat je niet zo goed in staat bent je in de gedachte gang van iemand anders te verplaatsen op het moment dat je daar niet mee eens bent. Het prisoner dilemma/Noord Korea voorbeeld is op geen enkel vlak een drogreden. Nogmaals; het is mogelijk te kunnen bedenken waarom iets gebeurd zonder de mening te hebben dat het optimaal is dat iets gebeurd. Mocht dat inleven inderdaad lastig zijn dan is dat helemaal prima. Alleen ga dan niet discussiëren, dat wordt dan stoïcijns je mening verkondigen.

Hoe dan ook jij koppelt aan mijn relativering de conclusie 'Je bent hier gewoon sabotage van de concurrent aan het verdedigen, waardoor ze niet meer kunnen inlopen omdat ze inkomsten mis lopen'. Dat zit 100% tussen jouw oren. Gameworks bestaat en het wordt omarmd. Jij lijkt niet te begrijpen waar de kracht ligt van gameworks. Dat is nu net wat ik heb geprobeerd te verduidelijken.
Verduidelijkt is voor mij nu dat je er zelf dus helemaal niks van snapt...
Ten eerste zorgen die libary's voor optimalisaties voor Nvidia GPU's. Dit ontkennen is ronduit dom, en eigenlijk lachwekkend. Vervolgens saboteren prestaties dus voor AMD hardware omdat ze doelbewust bottlenecks creëren voor AMD hardware. Nvidia is hier al jaren mee bezig, en ze kunnen hier door mee blijven gaan omdat mensen zoals jij hun kop in het zand steken en het pikken. Van de tesselation zee onder de mappen van Crysis 2, tot enorme hoeveelheden physics berekeningen die helemaal niks toevoegen qua gameplay, maar wel je CPU overbelasten als je een AMD GPU hebt, tot Hairworks wat een waardeloos alternatief is voor TressFX, want het werkt voor geen meter, en is eigenlijk ook spuuglelijk in de Witcher 3.

Dit alles saboteerde prestaties voor AMD GPU's, en verminderde ook prestaties voor Nvidia GPU's. Als ik een Nvidia GPU had, dan zou ik alsnog zo veel mogelijk Nvidia effecten uit zetten, omdat ze alsnog de framerates verpesten. Dan hebben we het nog niet gehad over die lijst met waardeloos draaiende games, die toevallig allemaal met Gameworks libary's werken.

Het enige geluk is dat buiten Ubisoft de meeste publishers dus wel uit de buurt blijven van Gameworks. Daar zien de developers in dat het alleen voor problemen zorgt, en worden ze ook niet gedwongen door de publishers om die rotzooi van Nvidia te gebruiken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Videokaarten lijken eindelijk weer op vooraad.. watskeburt? Koers van Ethereum is nog steeds vrij hoog.
Prijzen zijn ook nog hoog. :(
sdk1985 schreef op woensdag 20 september 2017 @ 01:44:
Huh wat? Juist met GCN geeft AMD zelf duidelijk aan wat ze als architectuur zien. Waarom zou je daar tegen in willen gaan. Op wiki staan ze zelfs netjes gesorteerd:
AMD maakt tegenwoordig juist duidelijk het onderscheid tussen GCN als ISA (features beschikbaar in software) en de architecturen (features in hardware). Zo zijn Tonga en Fiji beide GCN3, maar kun je Fiji geen refresh van Tonga noemen - of zelfs een grotere broer, want hij heeft even veel gemeen met Hawaii als met Tonga. Hawaii en Tonga op hun beurt zijn echter allebei afgeleid van Tahiti, zij het op geheel andere wijze. Hawaii is de grote broer, Tonga is de refresh. Ze hebben enige "logische" elementen gemeen (shader engines bijvoorbeeld), maar hebben andere features (mede door de andere ISA) en eigenschappen (geometry throughput bijvoorbeeld).

Ga eens terug naar Polaris. AMD heeft het daar telkens over de Polaris architectuur met de Arctic Islands/GCN revision 4 instruction set. "Wij" (tweakers) scharen alles veel te makkelijk onder de GCN noemer, wat gewoon incorrect is. Sterker nog, wat mij betreft mogen we hier nog wel wat verder in gaan dan zelfs ik doe (zie hieronder).
Dus ja bij AMD zie ik ook heel wat refreshes, nieuwe architecturen en rebrands (door elkaar heen). Bij Nvidia is het wat dat betreft net even wat eenduidiger. Pak even de 6 serie. De 260 was nieuw, de 460 was nieuw, de 560 was een refresh (andere clocks dus IMO geen rebrand), de 660 was nieuw, de 760 was een refresh, de 960 was nieuw, de 1060 is nieuw.
Jij kijkt echter wederom naar chip series en niet naar de onderliggende chips en architecturen. En ja, dat is een probleem, aangezien de 770 een "refresh" van de 680 is, de 760 Ti een "refresh" van de 670 en je pas bij de "gewone" 760 weer een directe parallel kunt trekken naar de 660.

De 460 was wel nieuw ten opzichte van de 260, maar het is onmiskenbaar Fermi. Zoals ik al zei is GF1x4 een gevalletje apart door de layout wijziging waardoor de effectieve werking zo veel beter uit pakte. Of je dat nu als architectuur of refresh moet bestempelen vind ik zelf lastig, want hoewel hij dezelfde features als GF100 heeft, gedraagt hij zich geheel anders. En dan kijk ik naar AMD en is wat zij tegenwoordig doen juist vele malen duidelijker. GF100 en GF104 hebben namelijk dezelfde ISA, echter een andere microarchitectuur.

Er is een reden dat ik het zo veel mogelijk over specifieke chips heb. De "6" serie zoals jij hem noemt zegt helemaal niets behalve over in welk segment die specifieke kaart verkocht wordt. Als ik 460 zeg heb jij geen flauw benul waar ik het over heb. De GF104 versie uit 2010? Of de GF114 versie van een jaar later? Want ja, GF114 is ook nog eens opnieuw als GTX 460 in de markt gezet. GTX 560 Ti? Welke? De GF114 van januari 2011, de GF110-352 van mei of de GF110-448 van november die ze gewoon 570 LE hadden moeten noemen? En die presteren alle drie behoorlijk verschillend. Die laatste is een flinke klap sneller, terwijl de middelste hetzelfde als de GTX 465 is, maar dan met dezelfde naam als een veel beter en zuiniger product (de échte 560 Ti met GF114).

Een 460 dan ook wel de opvolger van de 260 qua segmentatie en marketing, maar op technisch vlak (waar wij het als tweakers toch het meest over hebben) hebben die twee niets met elkaar gemeen. Een 260 is eerder zoals de GF110 versies van de 560 Ti. Het is een behoorlijk gecastreerde GT200, maar niettemin is het gewoon GT200. Je kunt het verdedigen zo veel je wilt, maar we zitten hier op een technisch forum en een lijn trekken van de GTX 260 naar de GTX 460 klopt dan gewoon niet. Sterker nog, ook op financieel gebied gaat dat niet. De GT200 op de GTX 260 was een gigantische en dure chip die goedkoop werd verkocht, terwijl de GF104 op de GTX 460 een veel goedkopere en kleinere chip was, waardoor de sprong van een 260 naar 460 ook niet zo groot was als die van een 280/285 naar een 480.
AMD heeft ook weleens van die minor Mhz upgrades gedaan. Persoonlijk schaar ik hem dan bij refresh, maar dat mag jij ook prima een rebrand noemen.
Over rebrands heb ik het niet eens gehad, dan wordt het nog vervelender.

Een refresh wil (mijns inziens) zeggen dat een chip enkele kleine wijzigingen krijgt (of dat nu qua indeling of productie is maakt niet uit) en opnieuw verkocht wordt. Kloksnelheden vereisen in de regel geen wijzigingen aan de chip - dat is een kwestie van de BIOS aanpassen. Dus nee, de 760/770 kaarten zijn geen refreshes wat mij betreft. Dat zijn gewoon keihard rebrands, het zijn exact dezelfde chips als een jaar eerder, maar dan op andere kloksnelheden. Een GF114 op de 560 is dan wel weer een refresh, omdat het gewoon dezelfde architectuur als een half jaar eerder was, maar dan met een sterk verbeterd productie proces. Dus ja, de kloksnelheden liggen hoger, maar de onderliggende chip is ook anders; die trekt namelijk bij net iets hogere spanning en flink hogere kloksnelheden (bij de 336 SP SKU's zo'n 20%) ongeveer even veel sap uit de voeding.

Een 390(X) noem ik ook geen refresh, dat is gewoon een rebrand. Als kloksnelheden het verschil maken tussen rebrand en refresh dan hebben we eigenlijk vrijwel nooit rebrands gehad, aangezien zelfs G92 dan in dusdanig veel vormen met afwijkende kloksnelheden is verschenen dat je ze allemaal als refresh mag bestempelen.
Hoe ingrijpend de 'architecturen' onderling verschillen is wat mij betreft ondergeschikt. We hebben al jaren een kunstmatige evolutie in plaats van revolutie. Pascal is echter wel een revolutie, kijk maar eens naar die winstcijfers van Nvidia. Dat valt gewoon niet te ontkennen. Nog nooit heeft Nvidia zo goed gedraaid en dat komt vrijwel volledig op rekening van Gaming (1 miljard). Die hadden ons GTX 1080 performance voor 200 dollar kunnen leveren (stelletje krenten :+ ).
Dat is echt je reinste onzin. Een revolutie omdat hij goed verkoopt? Dan is Intel wel verdomd revolutionair geweest de afgelopen jaren :+

Ik ben het wel met je eens dat we sinds 2012 aan beide kanten vooral iteratieve en evolutionaire releases krijgen. Aan AMD's kant heeft de ontwikkeling zelfs meer gemeen met software; van Tahiti zijn er twee "branches" in Hawaii en Tonga, die vervolgens in Fiji een "merge" krijgen ;)
Wat betreft Nvidia had ik overigens rond deze tijd al wel een 2080 (non-volta) verwacht. Wellicht hebben ze gewacht op vega. Back-2-school is al geweest dus dan resteert alleen kerst.
offtopic:
Waarom had je dat verwacht? Dat zou juist niet in de lijn der verwachtingen passen. De grote Pascal is pas net uit. Even los van dat Volta nooit zo snel klaar had kunnen zijn, komt GV104 ergens tussen maart en september volgend jaar. Half jaartje daarna GV102 als Titan, half jaartje dáárna GV102 als 2080 Ti.

Verwijderd

1090 mV als minimum om het stabiel te krijgen, dat is best wel hoog, nietwaar? Ik herinner me dat Asten een stuk lager uitkwam. Maar goed, toch 110 mV eraf van de 1200.

[ Voor 4% gewijzigd door Verwijderd op 20-09-2017 14:00 ]


  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 23:25
Verwijderd schreef op woensdag 20 september 2017 @ 13:56:
[...]

1090 mV als minimum om het stabiel te krijgen, dat is best wel hoog, nietwaar? Ik herinner me dat Asten een stuk lager uitkwam. Maar goed, toch 110 mV eraf van de 1200.
Enige wat ze gedaan hebben is gekeken waarop ie op stock clocks nog stabiel loopt.
Astennu heeft de kloks nog verder verlaagd, naar ik geloof ongeveer 1500Mhz en dan dus op iets van 900-950mV.

Met andere woorden, ze hebben bij de buren maar even snel wat in elkaar gezet zonder daadwerkelijk moeite te doen om te kijken wat er allemaal mogelijk is met hun kaartje. En dan ook maar meteen een vergelijking maken met een 1070, 1080 en een vega 56.

[ Voor 5% gewijzigd door Zeara op 20-09-2017 14:26 ]


  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
Zeara schreef op woensdag 20 september 2017 @ 14:25:
[...]


Enige wat ze gedaan hebben is gekeken waarop ie op stock clocks nog stabiel loopt.
Astennu heeft de kloks nog verder verlaagd, naar ik geloof ongeveer 1500Mhz en dan dus op iets van 900-950mV.

Met andere woorden, ze hebben bij de buren maar even snel wat in elkaar gezet zonder daadwerkelijk moeite te doen om te kijken wat er allemaal mogelijk is met hun kaartje. En dan ook maar meteen een vergelijking maken met een 1070, 1080 en een vega 56.
Inderdaad, ik ben normaliter toch wel wat diepgaandere artikelen gewend bij de buren dan dit. Of een flinke undervolt met minimale achteruitgang in clocks haalbaar is, zou serieus mijn aankoop beïnvloeden. Nu verschilt dat natuurlijk per kaart maar hoe meer websites het doen, hoe completer het beeld.

Acties:
  • +1 Henk 'm!
Olaf van der Spek schreef op woensdag 20 september 2017 @ 11:54:
Videokaarten lijken eindelijk weer op vooraad.. watskeburt? Koers van Ethereum is nog steeds vrij hoog.
Prijzen zijn ook nog hoog. :(
De AMD's zijn nog steeds slecht te krijgen. Verder is de prijs van GDDR5 geheugen flink gaan stijgen door tekorten. Goedkope kaart kan je wel vergeten, tenzij je natuurlijk in het buitenland een RX Vega 56 op de kop tikt voor MSRP. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

Verwijderd

offtopic:
2017, het jaar van hardwareinnovaties en het jaar van extreem hoge prijzen voor RAM, SSD's en grafische kaarten. Wat een timing.
Met dank aan telefoontjes die belachelijk overspect zijn voor >90% van de gebruikers. Steeds meer RAM,
elke 2-3 jaar een nieuw model en dat terwijl het scherm te klein is om fatsoenlijk naar video te kijken en het geluid veel te slecht is om naar muziek te luisteren. We consumeren meer maar met een slechtere kwaliteit.

Naar verluidt zouden de meeste AIC-modellen pas vanaf november komen. Een klein lichtpuntje: HBM zal eerder minder duur dan duurder worden nu de productie wordt verhoogd en het van meer dan 1 bedrijf komt. Probleempje: als zo'n 1070 duurder wordt door de hogere prijs voor de GDDR5
Rezk schreef op woensdag 20 september 2017 @ 14:53:
[...]


Inderdaad, ik ben normaliter toch wel wat diepgaandere artikelen gewend bij de buren dan dit. Of een flinke undervolt met minimale achteruitgang in clocks haalbaar is, zou serieus mijn aankoop beïnvloeden. Nu verschilt dat natuurlijk per kaart maar hoe meer websites het doen, hoe completer het beeld.
En hoe meer gewone gebruikers dat doen...
Wat dat betreft laat ook Tweakers het liggen - of laten wij het liggen - want eigenlijk zou er een sticky draad moeten zijn waarin enkel cijfers voor hardware worden gemeld bij gewone gebruikers waarbij bepaalde randvoorwaarden worden gesteld. Denk bij zo'n randvoorwaarde voor een CPU bijvoorbeeld aan dat je voor bepaalde spanningen de klokfrequentie en benchmarks moet weergeven zodat de samples met elkaar te vergelijken zijn, bij een Vega-GPU kan je denken aan de minimale spanning waarmee je 1500 MHz vasthoudt. Hell, de redactie zou er zelfs een artikel over kunnen schrijven wat internationaal interessant wordt gevonden als er genoeg data is verzameld en er zijn hier volgens mij toch gemakkelijk meer dan 10 mensen die zo'n Vega-kaart hebben.
DaniëlWW2 schreef op woensdag 20 september 2017 @ 10:17:
Ten eerste zorgen die libary's voor optimalisaties voor Nvidia GPU's. Dit ontkennen is ronduit dom, en eigenlijk lachwekkend. Vervolgens saboteren prestaties dus voor AMD hardware omdat ze doelbewust bottlenecks creëren voor AMD hardware. Nvidia is hier al jaren mee bezig, en ze kunnen hier door mee blijven gaan omdat mensen zoals jij hun kop in het zand steken en het pikken.
Zonder het op 1 persoon te richten (het is goed dat hij meedoet aan de discussie, hij representeert een aanzienlijke groep mensen en we kunnen beter maar horen wat er leeft bij hen), dat is het grotere probleem, als de gamers het niet zouden pikken dan zou Nvidia het niet doen. Hetzelfde als met die DLC's (content uit het hoofdspel halen en later apart verkopen, pay to win) en pre-order bullshit (geen pre-order => ontbreken van content). Hetzelfde voor het kopen van spellen die niet fatsoenlijk zijn afgewerkt (bugs, slechte performance zoals bij o.a. Dishonored2). Developers blijven het doen omdat de gamers het pikken, omdat gamers te dom zijn - als groep - om een duidelijke grens te trekken. Als gamers wat meer discipline zouden hebben en pas een spel zouden kopen wanneer het goed is afgewerkt, het basisspel compleet is (geen content verwijderd om als DLC te verkopen), het spel goed is geoptimaliseerd en er niet aan pre-orderbullshit wordt gedaan dan zouden developers heel erg snel dit alles niet meer doen.
Van de tesselation zee onder de mappen van Crysis 2, tot enorme hoeveelheden physics berekeningen die helemaal niks toevoegen qua gameplay, maar wel je CPU overbelasten als je een AMD GPU hebt, tot Hairworks wat een waardeloos alternatief is voor TressFX, want het werkt voor geen meter, en is eigenlijk ook spuuglelijk in de Witcher 3.
Vergeet de rope physics in Crysis 3 niet.
https://www.geek.com/game...rate-in-crysis-3-1541058/
In the first level there are a number of ropes hanging down with cargo attached to them. As long as these ropes are not interacted with, performance should remain around 60fps depending on your hardware. But if you shoot them, they start swaying in the wind, or get knocked, the framerate of the game drops, with MaLDo reporting a smooth 60fps dropping to 32fps in some cases.
Het voegt weinig toe aan de visuals (je ziet werkelijk het verschil niet) maar de frames worden twee keer zo traag gegenereerd. Ik weet echter niet of dat Nvidia hier iets mee te maken heeft, het is mogelijk dat de tessellation van het touw net het verschil maakt maar het ligt voor een deel ook bij Crytek die het wellicht een beetje overdreef door hier het touw mee te laten bewegen met de wind. Kudos voor het zo realistisch mogelijk maken maar dat had beter een optie geweest voor in toekomst wanneer de hardware wat meer aankan. ;)

[ Voor 87% gewijzigd door Verwijderd op 20-09-2017 15:55 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Vega FCAT analyse, volgensmij nog niet gepost hier. Conclusie klinkt in ieder geval positief. Is wel eens anders geweest bij AMD .

Radeon RX Vega 64 vs GeForce GTX 1080 FCAT Analysis

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op woensdag 20 september 2017 @ 10:17:
[...]


Verduidelijkt is voor mij nu dat je er zelf dus helemaal niks van snapt...
Ten eerste zorgen die libary's voor optimalisaties voor Nvidia GPU's. Dit ontkennen is ronduit dom, en eigenlijk lachwekkend. Vervolgens saboteren prestaties dus voor AMD hardware omdat ze doelbewust bottlenecks creëren voor AMD hardware. Nvidia is hier al jaren mee bezig, en ze kunnen hier door mee blijven gaan omdat mensen zoals jij hun kop in het zand steken en het pikken. Van de tesselation zee onder de mappen van Crysis 2, tot enorme hoeveelheden physics berekeningen die helemaal niks toevoegen qua gameplay, maar wel je CPU overbelasten als je een AMD GPU hebt, tot Hairworks wat een waardeloos alternatief is voor TressFX, want het werkt voor geen meter, en is eigenlijk ook spuuglelijk in de Witcher 3.

Dit alles saboteerde prestaties voor AMD GPU's, en verminderde ook prestaties voor Nvidia GPU's. Als ik een Nvidia GPU had, dan zou ik alsnog zo veel mogelijk Nvidia effecten uit zetten, omdat ze alsnog de framerates verpesten. Dan hebben we het nog niet gehad over die lijst met waardeloos draaiende games, die toevallig allemaal met Gameworks libary's werken.

Het enige geluk is dat buiten Ubisoft de meeste publishers dus wel uit de buurt blijven van Gameworks. Daar zien de developers in dat het alleen voor problemen zorgt, en worden ze ook niet gedwongen door de publishers om die rotzooi van Nvidia te gebruiken.
Jullie praten vreselijk langs elkaar heen. Hij verduidelijkt het bestaansrecht van gameworks. Dat de methode op z'n minst louche is en wat de effecten ervan zijn staat buiten kijf.

Het is prima het daar niet mee eens te zijn maar met alle respect, de krachttermen die je in je posts neerzet (je begrijpt er niks van, dit is dom, lachwekkend, kop in het zand steken, waardeloos, rotzooi, etc...) doen alleen maar afbreuk aan je geloofwaardigheid.

De inhoud van je posts is onwaardig aan je rode naampje.

[ Voor 3% gewijzigd door Blaat op 20-09-2017 18:24 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Verwijderd

Blaat schreef op woensdag 20 september 2017 @ 18:18:
[...]


Jullie praten vreselijk langs elkaar heen. Hij verduidelijkt het bestaansrecht van gameworks.
Over het bestaansrecht kunnen we kort zijn, het bestaansrecht van Gameworks is dat je de performance op de hardware van de concurrent(en) saboteert via geheime code en daardoor het onmogelijk maken van optimalisatie op die hardware. Een ander bestaansrecht is er niet. Je kan discussiëren over hoe nuttig (of niet) en hoe goed (of slecht) de verschillende visuele effecten zijn uitgewerkt maar dat op zichzelf geeft geen bestaansrecht aan het gebruik van geheime code en dus aan Gimpworks, dat kan ook prima en zelfs veel beter met open code, want met open code kan iedereen bijdragen waardoor de bibliotheek sneller gevuld kan worden (zonder aan kwaliteit in te leveren, dat kan immers simpel worden gegarandeerd met een goed selectiemechanisme) en met open code kunnen zowel programmeurs als hardwarespecialisten en alles wat ertussen in zit (drivers) de code dusdanig tweaken dat het beter werkt voor de hardware in kwestie.

Acties:
  • +2 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op woensdag 20 september 2017 @ 22:55:
[...]

Over het bestaansrecht kunnen we kort zijn, het bestaansrecht van Gameworks is dat je de performance op de hardware van de concurrent(en) saboteert via geheime code en daardoor het onmogelijk maken van optimalisatie op die hardware. Een ander bestaansrecht is er niet. Je kan discussiëren over hoe nuttig (of niet) en hoe goed (of slecht) de verschillende visuele effecten zijn uitgewerkt maar dat op zichzelf geeft geen bestaansrecht aan het gebruik van geheime code en dus aan Gimpworks, dat kan ook prima en zelfs veel beter met open code, want met open code kan iedereen bijdragen waardoor de bibliotheek sneller gevuld kan worden (zonder aan kwaliteit in te leveren, dat kan immers simpel worden gegarandeerd met een goed selectiemechanisme) en met open code kunnen zowel programmeurs als hardwarespecialisten en alles wat ertussen in zit (drivers) de code dusdanig tweaken dat het beter werkt voor de hardware in kwestie.
Maar als developers Gameworks niet zouden adopten was het geen lang leven beschoren.

Wat @sdk1985 uitlegt is waarom Gameworks echter wel wordt geadopt door developers. Er is maar 1 simpele reden; ondersteuning!

Als open standaarden dan zo geweldig zijn, waarom worden die veel minder geimplementeerd? Juist... Bij open standaarden is er niemand om op terug te vallen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:08
Verwijderd schreef op woensdag 20 september 2017 @ 22:55:
[...]

Over het bestaansrecht kunnen we kort zijn, het bestaansrecht van Gameworks is dat je de performance op de hardware van de concurrent(en) saboteert via geheime code en daardoor het onmogelijk maken van optimalisatie op die hardware. Een ander bestaansrecht is er niet. Je kan discussiëren over hoe nuttig (of niet) en hoe goed (of slecht) de verschillende visuele effecten zijn uitgewerkt maar dat op zichzelf geeft geen bestaansrecht aan het gebruik van geheime code en dus aan Gimpworks, dat kan ook prima en zelfs veel beter met open code, want met open code kan iedereen bijdragen waardoor de bibliotheek sneller gevuld kan worden (zonder aan kwaliteit in te leveren, dat kan immers simpel worden gegarandeerd met een goed selectiemechanisme) en met open code kunnen zowel programmeurs als hardwarespecialisten en alles wat ertussen in zit (drivers) de code dusdanig tweaken dat het beter werkt voor de hardware in kwestie.
Dat hoeft zeker niet zo te zijn in alle gevallen, ik heb genoeg voorbeelden gezien van Closed source v.s. Open Source software waarbij de Closed source software vele malen beter presteerde, beter onderhouden werd, bug sneller opgelost e.d. En waarom: Met 100% zekerheid is het natuurlijk niet te zeggen, maar de kans is groot omdat er geld mee word verdiend.

Open source kan geweldig zijn, maar het is vaak maar de vraag of je op support kan rekenen wanneer er wat niet werkt, bugs snel verholpen worden e.d.

Nu zou dat in dit geval mogelijk best via open source kunnen, maar de vraag is en blijft ook dan, hoeveel partijen willen er actief aan mee werken en de boel supporten wanneer er mogelijk geen geld mee wordt verdiend of wordt verdiend door andere partijen (de concurrent). Daar voor iedere commerciële partij het maken van winst (en dus geld verdienen) toch redelijk belangrijk is.

Daarnaast even een serieuze vraag, hoe relevant blijven dit soort zaken met bijv. DX12/Vulkan. Ik heb me er niet direct in verdiept, vandaar de vraag. Wordt het extra relevant omdat veel optimalisaties in de game moeten komen te zitten (daar veel niet meer in de driver afgevangen kan worden) en dus developers sneller geneigd zullen zijn met een GPU maker in zee te gaan die deze optimalisaties voor hun kan doen waardoor de dev's mogelijk kosten kunnen bespraren, of zal de opkomst van deze API's deze support van de GPU makers juist irrelevant worden?
Blaat schreef op woensdag 20 september 2017 @ 23:25:
[...]


Maar als developers Gameworks niet zouden adopten was het geen lang leven beschoren.

Wat @sdk1985 uitlegt is waarom Gameworks echter wel wordt geadopt door developers. Er is maar 1 simpele reden; ondersteuning!

Als open standaarden dan zo geweldig zijn, waarom worden die veel minder geimplementeerd? Juist... Bij open standaarden is er niemand om op terug te vallen.
Behalve dat het nauwelijks wordt ondersteunt. Het is eigenlijk nog maar een publisher die er gebruik van maakt, en daar gaat het game na game mis...

Gameworks is ondertussen wel gedeeltelijk open source gegaan, nadat AMD met GPUOpen kwam waar ze niet alleen al hun libary's openbaar maakte, maar ook een netwerk voor ondersteuning en contributie vanuit AMD en onderling tussen gamedevelopers opzetten. Open source wordt dus wel ondersteunt, door beide kampen. Eentje doet het alleen veel beter dan de ander.

Verder is Gameworks in welke vorm dan ook, gewoon slecht, en dat hebben de meeste game developers gewoon door. Nvidia libary's die prestaties op Nvidia kaarten ook verpesten, geweldig. O-)

[ Voor 3% gewijzigd door DaniëlWW2 op 21-09-2017 01:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Even een simpel vraagje: wie van jullie werkt er in gamedev of heeft anderszins ervaring daarmee? O-)

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Verwijderd schreef op woensdag 20 september 2017 @ 15:35:
Zonder het op 1 persoon te richten (het is goed dat hij meedoet aan de discussie, hij representeert een aanzienlijke groep mensen en we kunnen beter maar horen wat er leeft bij hen)
Knap dat je zo'n bericht durft te plaatsen en eveneens verontwaardigend dat een dergelijk bericht zo mag blijven staan, zeker met de kennis wie dit bericht inmiddels allemaal al niet heeft gelezen...

@DaniëlWW2
Blaat schreef op woensdag 20 september 2017 @ 18:18:
De inhoud van je posts is onwaardig aan je rode naampje.
@Verwijderd
Je praat nu over sdk1985 in de derde persoon alsof het een alienras is waar je meer over te weten wilt komen.

Misschien moeten we ook maar allemaal melden dat we blij zijn dat "bepaalde wezens" hier regelmatig posten, zodat we misschien ooit een keer kunnen gaan begrijpen waarom "bepaalde wezens" er alles aan zullen doen om maar bij een bepaalde club te blijven, met als resultaat dat "bepaalde wezens" de ene keer een mainstream videokaart kopen en de volgende keer een zware enthusiast kaart en tussen deze perioden door zoveel mogelijk berichten te plaatsen waar dan kreten in staan zoals: "ten tijde van Fermi was verbruik niet belangrijk en nu wel!!!1!", "50 dbA? Ik hoor helemaal niets" en alle vergelijkbare berichten die zo vaak langskomen. Uiteraard telt het dan niet, want een club is zielig en de andere doet aan kinderarbeid, oh wacht dat laatste hoort in een ander draadje, andere markt met vergelijkbare ruk discussies... :+

[ Voor 6% gewijzigd door Paprika op 21-09-2017 11:27 ]


Acties:
  • +1 Henk 'm!
@Paprika Blaat en CHBF zijn verschillende wezens, waarbij eerstgenoemd wezen het over het DaniëlWW2 wezen had en niet dat "bepaalde" wezen :+

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op donderdag 21 september 2017 @ 11:12:
@Paprika Blaat en CHBF zijn verschillende wezens, waarbij eerstgenoemd wezen het over het DaniëlWW2 wezen had en niet dat "bepaalde" wezen :+
Danku, ik wilde net posten dat ik de post van Vipeax niet echt begreep. :P

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Weet ik, ik quote Blaat zijn statement, omdat ik het jammer vind dat een moderator dit leest en er geen opmerking over maakt, ongeacht of het zijn onderdeel is van Tweakers of niet...

Verwijderd

Paprika schreef op donderdag 21 september 2017 @ 10:54:
Je praat nu over sdk1985 in de derde persoon alsof het een alienras is waar je meer over te weten wilt komen.
Misschien lijkt het zo maar dat was niet de strekking. Ik denk dat veel mensen zo redeneren zoals hij dat doet en dat wij misschien soms wat uit het oog verliezen dat wij in een bubble zitten met mensen die weten hoe Nvidia de boel manipuleert terwijl de doorsnee gebruiker daar geen boodschap aan heeft, zelfs als die mensen het al zouden weten en begrijpen. De realiteit is dat de doorsnee gamer zich gemakkelijk laat manipuleren: Nvidia zorgt er met geheime code voor dat bepaalde performance voor bepaalde spellen beter is op hun kaarten, de doorsnee gamer hoort dat bepaalde performance beter is op die kaarten en laat zich manipuleren om die kaarten te kopen zonder het ook maar in de gaten te hebben dat hij wordt gemanipuleerd en zonder erbij stil te staan wat de consequenties zijn als straks maar 1 bedrijf GPU's levert voor discrete grafische kaarten.
Blaat schreef op woensdag 20 september 2017 @ 23:25:
[...]


Maar als developers Gameworks niet zouden adopten was het geen lang leven beschoren.
Ik denk dat voor Gimpworks het zelfde geldt als voor DirectX3d, developers gebruiken het omdat het gemakkelijk is voor hen. Was DX11/DX9 beter dan OpenGL? Daar kan je lang over discussiëren maar developers gebruikten het o.a. omdat ze bij MS support konden kopen en dit hen werk uit handen nam, deze MS-medewerkers doen niet anders dan het werken met DX en zij kunnen daarom - in theorie - voor lagere kosten de developers hun problemen oplossen dan wanneer de developers het niet zouden outsourcen.
Wat dat betreft begrijp ik niet waarom de KG niet professionele support heeft opgericht voor Vulkan.

Gimpworks is gemakkelijk voor de developers, want ze krijgen met een minimum aan werk bepaalde visuele effecten. Dat wil natuurlijk niet zeggen dat het een verstandige zet is van de developers, het zou nogal naïef zijn om te veronderstellen dat mensen en bedrijven alleen verstandige beslissingen nemen. De prijs die je betaalt voor het gebruiken van Gimpworks-features is dat oudere generaties Nvidia-kaarten en AMD-kaarten in het algemeen een fors lagere performance halen. Het lijkt erop dat Ubisoft er tot nu toe mee wegkomt ondanks dat de performance van hun spellen vaak veel te wensen overlaat, zeker kort na de release. Of dat gamers het wel of niet op een gegeven moment zat worden zullen we pas over vele jaren te weten komen.
Als open standaarden dan zo geweldig zijn, waarom worden die veel minder geimplementeerd? Juist... Bij open standaarden is er niemand om op terug te vallen.
Met alle respect, nu neem jij twee zaken samen die beter gescheiden besproken worden.
1. Open standaarden
2. De concrete uitvoering zoals die nu is

Open standaarden zijn inderdaad geweldig, daar is geen twijfel over mogelijk. Iedereen kan de code inzien en dus code (niet noodzakelijk de gebruikte code, denk ook aan driveroptimalisatie of de code van de engine waarbinnen het gebruikt wordt) optimaliseren zodat je een goede trade-off hebt tussen enerzijds performance en anderzijds visueel effect, immersie, realisme etc.
Afhankelijk van de opzet kan een developer ook bestaande code verbeteren, bijv. door met een efficiënter algorithme te komen voor exact dezelfde visuele output.
Dat een relatief grote groep gewone mensen de code kan lezen en mee kan denken, bugs kan vinden, tutorials kan opzetten etc. is een voordeel. Als duizenden programmeurs aan die code werken dan kan er beter werk worden geleverd dan wanneer slechts enkele tientallen programmeurs van MS ernaar kijken.
Geen idee of dat het tientlallen of honderden zijn, dat doet er nu weinig toe.

De concrete uitvoering van OpenGL liet in een bepaald opzicht te wensen over. Voor DirectX3d en Gimpworks konden developers werk outsourcen, ze betaalden een leuke som geld aan MS en MS deed hun werk voor hen, Nvidia deed het zelfs zonder dat je ervoor hoefde te betalen omdat de verkoopr van Nvidia-kaarten doet toenemen. Dat is een uitvoeringsprobleem, het feit dat er open code wordt gebruikt staat geheel los van hoe goed of slecht je de support maakt.
GPUOpen kwam voor zo ver ik het begrijp als reactie op Gimpworks en voorgangers. Het is nog te jong om er al te stellige uitspraken over te doen, we kunnen vaststellen dat een deel van de die code wordt gebruikt maar dat eveneens nog steeds proprietary Nvidia code wordt gebruikt in spellen. Hoe dan ook geldt m.i. dat het voor AMD belangrijk is om:
- de bibliotheek zo volledig mogelijk te maken
- het zo gemakkelijk mogelijk is om het te gebruiken

Verder kan je nog discussiëren over de kwaliteit van OpenGL vs. DX9/DX11 maar ik weet daar te weinig van om er een mening over in te nemen, ook dit valt echter onder de uitvoering en niet onder open vs. gesloten.

@Dennism
Jij zegt in jouw reactie in essentie hetzelfde als ik hier, het heeft op zich weinig met open source vs. proprietary te maken, het valt en staat met de uitvoering. Voor Nvidia loont het om het te doen zoals dat het het nu doet omdat ze er meer kaarten door verkopen, voor AMD loont het om open source te werken omdat het over weinig middelen beschikt.
Ik heb helaas geen goed antwoord op jouw vraag.

[ Voor 3% gewijzigd door Verwijderd op 21-09-2017 18:23 ]


Verwijderd

In een aparte reactie omdat het een nieuwsbericht is wat geheel los staat van de discussie die werd gevoerd. AMD heeft via Keller een deal gesloten met Tesla voor het leveren van hardware voor zelfrijdende auto's.
https://www.theverge.com/...amd-chip-self-driving-car

Acties:
  • +1 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Verwijderd schreef op donderdag 21 september 2017 @ 18:28:
In een aparte reactie omdat het een nieuwsbericht is wat geheel los staat van de discussie die werd gevoerd. AMD heeft via Keller een deal gesloten met Tesla voor het leveren van hardware voor zelfrijdende auto's.
https://www.theverge.com/...amd-chip-self-driving-car
Tweakers link van vanochtend: nieuws: 'Tesla werkt samen met AMD aan chip voor zelfrijdende auto'

Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 22:28

edward2

Schieten op de beesten

Niet op voorraad.


Verwijderd

In de andere AMD-nieuws-draad werd er ook al naar verwezen, in dit geval het CNBC-artikel: https://www.cnbc.com/2017...ationship-with-tesla.html

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
17.9.2 is nu te downloaden via de update knop

http://support.amd.com/en...17.9.2-Release-Notes.aspx


Radeon Software Crimson ReLive Edition 17.9.2 Highlights
  • Support For
  • Radeon RX Vega Series
  • Up to 2x Multi GPU support
  • Project CARS 2™
  • Multi GPU profile support added
Fixed Issues
  • Hearts of Iron IV™ may experience a system hang when the campaign scenario is launched.
  • Radeon Software may display an erroneous "1603 Error" after installing Radeon Software. This error will not affect your Radeon Software installation.
Known Issues
  • The drop-down option to enable Enhanced Sync may be missing in Radeon Settings on Radeon RX Vega Series Graphics Products. A clean install of Radeon Software can prevent this issue.
  • Unstable Radeon WattMan profiles may not be restored to default after a system hang. A workaround is to launch Radeon WattMan after reboot and restore settings to default.
  • Radeon Settings may not populate game profiles after Radeon Software's initial install.
  • Overwatch™ may experience a random or intermittent hang on some system configurations.
  • GPU Scaling may fail to work on some DirectX®11 applications.
  • Secondary displays may show corruption or green screen when the display/system enters sleep or hibernate with content playing.
  • Bezel compensation in mixed mode Eyefinity cannot be applied.
  • When recording with Radeon ReLive on Radeon RX Vega Series graphics products GPU usage and clocks may remain in high states.

[ Voor 120% gewijzigd door winwiz op 21-09-2017 22:26 ]

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13-09 12:02
Vreemd. Had juist vernomen dat Musk en Huang (CEO van Nvidia) bevriend zijn en dat er nu al Nvidia apperatuur in o.a. de nieuwere model-x zitten voor het autonomous driving. Maar goed, dat was bij een presentatie van Vincent everts.

edit: Lol @ de voorgaande discussie. Mocht ik tijd hebben dan zal ik er nog eens op reageren.

[ Voor 12% gewijzigd door sdk1985 op 23-09-2017 16:48 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 06-09 14:11
sdk1985 schreef op zaterdag 23 september 2017 @ 16:41:
[...]

Vreemd. Had juist vernomen dat Musk en Huang (CEO van Nvidia) bevriend zijn en dat er nu al Nvidia apperatuur in o.a. de nieuwere model-x zitten voor het autonomous driving. Maar goed, dat was bij een presentatie van Vincent everts.
Ik vind het niet zo vreemd. Het is geen geheim dat Tesla zoveel mogelijk in-house wil hebben en zo min mogelijk afhankelijk wil zijn van anderen (i.e. verticale integratie). Ze gebruiken nu inderdaad het nVidia platform, maar het lijkt er sterk op dat ze voor de toekomst andere plannen hebben. Kijk alleen maar naar het soort mensen wat Tesla heeft aangetrokken, zoals Jim Keller en zijn team. nVidia verkoopt een kant-en-klaar platform (PX2), waar Tesla niet (of beperkt) aan de hardware kan sleutelen. Het lijkt me sterk dat iemand als Jim Keller daar in geïnteresseerd is. Hij is een chip architect/designer, dus dat is ongetwijfeld waarvoor hij is aangetrokken.

Vervolgens is natuurlijk de vraag op welke architectuur het gebaseerd zal zijn. AMD biedt een schatkist aan IP (waar Jim Keller natuurlijk goed mee bekend is, aangezien hij afkomstig is van AMD) en de mogelijkheid op basis hiervan een eigen product te maken (semi-custom). Het resultaat is een chip waarvan ze 100% de eigenaar zijn en wat ze verder in-house kunnen ontwikkelen. Voor zover ik weet biedt nVidia die mogelijk niet. Met een eigen chip zullen ze de kosten flink kunnen drukken. AMD heeft ook al bevestigd dat er een 3e (naast de game consoles) semi-custom product in ontwikkeling is en dat dit 'beyond gaming' is. Dit zou in de loop van volgend jaar inkomsten gaan opleveren, dus qua timing lijkt dat ook wel te passen als ze nu de eerste samples hebben ontvangen (volgens het artikel).

Ik zie het ook nog wel gebeuren dat Tesla het systeem gaat aanbieden aan andere autofabrikanten, wellicht een wat simpelere variant zodat ze zelf de leider in zelf-rijdende segment zullen blijven.

Edit: Tot zover, want dit hoort eigenlijk meer in het AMD topic.

[ Voor 9% gewijzigd door FortyOne op 24-09-2017 13:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Aangezien het voor zo ver ik het begrijp vooral over de grafische kaarten gaat lijkt het mij meer hier thuis te horen. Technisch gezien maakt het weinig verschil of dat je die grafische kaarten gebruikt voor spelletjes, CAD-software/rendering of AI of scientific computing. Onder de kap doet die hardware pretty much hetzelfde, met wat kleine verschillen zoals het aantal bits wat wordt gebruikt voor de operaties (16, 32, 64, combinatie hiervan).
FortyOne schreef op zondag 24 september 2017 @ 13:26:
[...]


Ik vind het niet zo vreemd. Het is geen geheim dat Tesla zoveel mogelijk in-house wil hebben en zo min mogelijk afhankelijk wil zijn van anderen (i.e. verticale integratie). Ze gebruiken nu inderdaad het nVidia platform, maar het lijkt er sterk op dat ze voor de toekomst andere plannen hebben. Kijk alleen maar naar het soort mensen wat Tesla heeft aangetrokken, zoals Jim Keller en zijn team. nVidia verkoopt een kant-en-klaar platform (PX2), waar Tesla niet (of beperkt) aan de hardware kan sleutelen. Het lijkt me sterk dat iemand als Jim Keller daar in geïnteresseerd is. Hij is een chip architect/designer, dus dat is ongetwijfeld waarvoor hij is aangetrokken.

Vervolgens is natuurlijk de vraag op welke architectuur het gebaseerd zal zijn. AMD biedt een schatkist aan IP (waar Jim Keller natuurlijk goed mee bekend is, aangezien hij afkomstig is van AMD) en de mogelijkheid op basis hiervan een eigen product te maken (semi-custom). Het resultaat is een chip waarvan ze 100% de eigenaar zijn en wat ze verder in-house kunnen ontwikkelen. Voor zover ik weet biedt nVidia die mogelijk niet. Met een eigen chip zullen ze de kosten flink kunnen drukken. AMD heeft ook al bevestigd dat er een 3e (naast de game consoles) semi-custom product in ontwikkeling is en dat dit 'beyond gaming' is. Dit zou in de loop van volgend jaar inkomsten gaan opleveren, dus qua timing lijkt dat ook wel te passen als ze nu de eerste samples hebben ontvangen (volgens het artikel).

Ik zie het ook nog wel gebeuren dat Tesla het systeem gaat aanbieden aan andere autofabrikanten, wellicht een wat simpelere variant zodat ze zelf de leider in zelf-rijdende segment zullen blijven.

Edit: Tot zover, want dit hoort eigenlijk meer in het AMD topic.
Jim Keller heeft waarschijnlijk een NDA ondertekend, hij kan niet zomaar IP van AMD delen. Wel kan hij dezelfde principes die hij toepaste bij AMD gebruiken om bij Tesla een hiervan afwijkend product te ontwikkelen. Mogelijk kan hij beter ervoor zorgen dat het maximale uit het gebruik van de producten wordt gehaald doordat hij alle ins en outs van de producten kent.
Of misschien is er een of andere vorm van samenwerking tussen AMD en Tesla (bijvoorbeeld dat Tesla Keller tijdelijk liet gaan onder de voorwaarde dat hij daarna bepaalde kennis mag delen waarbij Tesla weer beloofde dit enkel voor in eigen huis te gebruiken en niet een concurrent te worden, AMD had Keller nodig en voor Tesla was het interessant indien ze de vruchten van zijn werk bij AMD kunnen plukken) waar wij niets over weten. Immers stond Keller daar onder contract en was het dus een gunst van Tesla dat hij terug mocht naar AMD, tenzij ze een quid pro quo deden en hierover niets mededeelden. Het is ook mogelijk dat er bepaalde niet officiële lijntjes lopen, zoals Su en Musk die elkaar privé kennen en die in vertrouwen een dergelijke afspraak hebben gemaakt in het bijzijn van Keller.

Het viel me op dat AMD er een beetje mysterieus over doet (downplaying), je zou eerder verwachten dat AMD het van de daken schreeuwt dat Tesla AMD-hardware kiest voor dit doeleinde. Ik ga niet eens speculeren naar het hoe en wat maar ik ben wel nieuwsgierig waarom AMD hierover stil is in de media. Mogelijk omdat Tesla niet wil dat AMD hier iets over mededeelt? We hebben de laatste maanden al eens ervaren dat AMD meestal open kaart speelt tenzij een ander bedrijf niet wil dat AMD dat doet, denk aan de weigering om bepaalde code open source te maken (Linux gemeenschap), AMD gaf slechts een duidelijke njet zonder een goede motivatie, we weten dat de kans groot is dat andere bedrijven betrokken zijn bij datgene wat open source gemaakt zou worden indien AMD het wel had gedaan.

[ Voor 19% gewijzigd door Verwijderd op 25-09-2017 09:23 ]


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 06-09 14:11
Verwijderd schreef op maandag 25 september 2017 @ 09:07:Jim Keller heeft waarschijnlijk een NDA ondertekend, hij kan niet zomaar IP van AMD delen. Wel kan hij dezelfde principes die hij toepaste bij AMD gebruiken om bij Tesla een hiervan afwijkend product te ontwikkelen. Mogelijk kan hij beter ervoor zorgen dat het maximale uit het gebruik van de producten wordt gehaald doordat hij alle ins en outs van de producten kent.
Klopt, maar dat (zomaar IP gebruiken) bedoelde ik ook niet. Omdat hij zo goed ermee bekend is, heeft AMD al één voet in de deur. Ze hoeven hun 'product' eigenlijk niet te pitchen want Keller weet er het fijne al van.
Verwijderd schreef op maandag 25 september 2017 @ 09:07:Of misschien is er een of andere vorm van samenwerking tussen AMD en Tesla (bijvoorbeeld dat Tesla Keller tijdelijk liet gaan onder de voorwaarde dat hij daarna bepaalde kennis mag delen waarbij Tesla weer beloofde dit enkel voor in eigen huis te gebruiken en niet een concurrent te worden, AMD had Keller nodig en voor Tesla was het interessant indien ze de vruchten van zijn werk bij AMD kunnen plukken) waar wij niets over weten. Immers stond Keller daar onder contract en was het dus een gunst van Tesla dat hij terug mocht naar AMD, tenzij ze een quid pro quo deden en hierover niets mededeelden. Het is ook mogelijk dat er bepaalde niet officiële lijntjes lopen, zoals Su en Musk die elkaar privé kennen en die in vertrouwen een dergelijke afspraak hebben gemaakt in het bijzijn van Keller.
Dat is wel interessant ja, want het viel mij op dat AMD hun 3e semi-custom design win al in 2015 aankondigde en Keller is in januari 2016 naar Tesla verhuisd. Dus wellicht was dat 'part of the deal'. Hoewel volgens zijn wikipedia pagina hij eerst bij AMD wegging, en daarna pas bij Tesla terecht kwam. Hij kwam overigens (terug) bij AMD via Apple, hij werkt nu voor het eerst bij Tesla.
Verwijderd schreef op maandag 25 september 2017 @ 09:07:Het viel me op dat AMD er een beetje mysterieus over doet (downplaying), je zou eerder verwachten dat AMD het van de daken schreeuwt dat Tesla AMD-hardware kiest voor dit doeleinde. Ik ga niet eens speculeren naar het hoe en wat maar ik ben wel nieuwsgierig waarom AMD hierover stil is in de media. Mogelijk omdat Tesla niet wil dat AMD hier iets over mededeelt? We hebben de laatste maanden al eens ervaren dat AMD meestal open kaart speelt tenzij een ander bedrijf niet wil dat AMD dat doet, denk aan de weigering om bepaalde code open source te maken (Linux gemeenschap), AMD gaf slechts een duidelijke njet zonder een goede motivatie, we weten dat de kans groot is dat andere bedrijven betrokken zijn bij datgene wat open source gemaakt zou worden indien AMD het wel had gedaan.
Het uiteindelijk product is van Tesla, niet AMD. Dus het is niet aan hen om te bepalen wanneer dit bekend wordt. Zo zeggen ze dat ook zelf. Zo ging het ook bij de samenwerking met Microsoft en Sony. Daarnaast zal Tesla ook wel een geheimhoudingsplicht hebben afgedwongen tot het moment dat ze het zelf openbaar maken. Hoe dan ook, wanneer AMD hier inkomsten van gaat krijgen zal het toch bekend moeten worden waar die vandaan komen.

Even op een rijtje wat AMD er al over bekend heeft gemaakt: 1) het is een ARM design, 2) 'beyond gaming', 3) 'embedded' en 4) inkomsten in 2018. Tot nu toe lijkt het allemaal te kloppen met Tesla als het artikel ook klopt dat ze nu de eerste samples binnen hebben.

Ik vraag me af of AMD als tegenprestatie (behalve een vergoeding voor elk product) ook de nieuwe vindingen van Tesla op AI gebied mag gebruiken. Soort van cross-licence IP overeenkomst. Ze kunnen elke hulp gebruiken om in te lopen op nVidia en andere bedrijven zoals Google, Apple etc. zitten ook niet bepaald stil met AI technologie.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen goede start voor de AIB-kaarten van Vega (64 uiteraard).

Er zijn duidelijk wat software-problemen. Daarnaast heeft hij blijkbaar pech met de loterij, wat een goed teken is aangezien dat betekent dat er geen cherrypicked sample werd opgestuurd naar deze reviewer.

[ Voor 63% gewijzigd door Verwijderd op 25-09-2017 12:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

FortyOne schreef op maandag 25 september 2017 @ 11:05:
Dat is wel interessant ja, want het viel mij op dat AMD hun 3e semi-custom design win al in 2015 aankondigde en Keller is in januari 2016 naar Tesla verhuisd. Dus wellicht was dat 'part of the deal'. Hoewel volgens zijn wikipedia pagina hij eerst bij AMD wegging, en daarna pas bij Tesla terecht kwam. Hij kwam overigens (terug) bij AMD via Apple, hij werkt nu voor het eerst bij Tesla.
Ik herinner mij van een van die ingenieurs die aan Ryzen werkte dat die van Tesla kwam.
Ik vraag me af of AMD als tegenprestatie (behalve een vergoeding voor elk product) ook de nieuwe vindingen van Tesla op AI gebied mag gebruiken.
Het zou best kunnen, zolang Tesla de rechten daarop heeft.

[ Voor 19% gewijzigd door Verwijderd op 25-09-2017 12:27 ]


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 13-09 15:25
Verwijderd schreef op maandag 25 september 2017 @ 12:21:
Geen goede start voor de AIB-kaarten van Vega (64 uiteraard).
[video]
Er zijn duidelijk wat software-problemen. Daarnaast heeft hij blijkbaar pech met de loterij, wat een goed teken is aangezien dat betekent dat er geen cherrypicked sample werd opgestuurd naar deze reviewer.
Dat zou wat zijn, als het toch een cherrypicked sample is achteraf. Bizar hoe snel de kaart crashed met zo'n mega koelblok erop met 3 fans, je zou denken dat het iets doet voor de temps en mogelijkheden om er meer en stabieler power op te krijgen. Jammer dat ie daar niet heel veel over vertelt, alhoewel ik wel temps van rond de 65graden zie staan in het filmpje, voor korte runs toch al best hoog.

[ Voor 5% gewijzigd door Lord_Dain op 25-09-2017 13:25 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Wellicht ook voor hier interessant. De nieuwe Ataribox die waarschijnlijk een Radeon GPU krijgt:
madmaxnl in "AMD Nieuwsdiscussietopic - Deel 38"

[ Voor 8% gewijzigd door madmaxnl op 26-09-2017 14:06 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 25 september 2017 @ 12:21:
Geen goede start voor de AIB-kaarten van Vega (64 uiteraard).
[video]
Er zijn duidelijk wat software-problemen. Daarnaast heeft hij blijkbaar pech met de loterij, wat een goed teken is aangezien dat betekent dat er geen cherrypicked sample werd opgestuurd naar deze reviewer.
Hij maakt een paar " fouten"
1: met 8x AA belast je de GPU niet vol maar heb je een frond-end bottleneck. Je kan dat aan het verbruik zien dat is met 0x of 2x AA hoger dan met 4 of 8x.
2: Vega clockt ook hoger en lager aan de hand van voltage mits hij niet tegen een TDP of TEMP limit aan loopt.
In zijn geval zal het wel een TDP limit zijn waardoor de kaart zo terugclockt + als de temp omhoog gaat gaat hij sowieso per 5c ongeveer 10MHz omlaag en boven de 70c is dat iets van 5MHz uit het hoofd.

Maar het is wel jammer dat die betere PCB tot nu toe weinig toevoegd wel goed nieuws voor mensen met de refferenced kaart. Die Strix kaart lijkt mij niet goedkoop als in 650+ euro of zo. Is denk ik niet de moeite waard. Het zou mij niets verbazen als een aantal andere merken besluiten alleen refferenced kaarten te leveren.
Lord_Dain schreef op maandag 25 september 2017 @ 13:24:
[...]


Dat zou wat zijn, als het toch een cherrypicked sample is achteraf. Bizar hoe snel de kaart crashed met zo'n mega koelblok erop met 3 fans, je zou denken dat het iets doet voor de temps en mogelijkheden om er meer en stabieler power op te krijgen. Jammer dat ie daar niet heel veel over vertelt, alhoewel ik wel temps van rond de 65graden zie staan in het filmpje, voor korte runs toch al best hoog.
Als refferenced kaarten hoger clocken lijkt mij niet.
Ik haal met 900mv al 1480MHz game stable. Dus hij heeft een niet al te best model. Ik kan met max fan speeds en 1150mv voltages bijna 1700 halen. (piek haalt hij 1700+ maar sustained er net iets onder) wel bensh stable maar dat haalt hij niet eens.

[ Voor 29% gewijzigd door Astennu op 26-09-2017 15:44 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Astennu schreef op dinsdag 26 september 2017 @ 15:41:
Maar het is wel jammer dat die betere PCB tot nu toe weinig toevoegd
Was te verwachten. De stroomvoorziening was op de reference niet bepaald onderbemeten en er valt ook niets te winnen met optimaliseren van de geheugenbanen oid omdat dat allemaal op de interposer zit.

[ Voor 5% gewijzigd door haarbal op 26-09-2017 17:30 ]

Mechwarrior Online: Flapdrol

Pagina: 1 ... 14 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.