Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Blaat schreef op dinsdag 15 januari 2019 @ 13:38:
[...]


Dat kan je alleen niet met elkaar vergelijken omdat de geheugencompressie van nVidia altijd efficienter is geweest dan die van AMD.
Efficiënter of agressiever? Het is in ieder geval bekend dat kleuren er wat anders uit zien bij Nvidia en ik heb diverse mensen onafhankelijk van elkaar horen aangeven dat hun voorkeur uitgaat naar AMD voor hoe het eruit ziet maar ik kan niet beoordelen in welke mate dat subjectief of objectief is.
Maar inderdaad, Nvidia heeft een grotere compressie en dus minder geheugenbandbreedte nodig.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Omega Supreme
  • Registratie: augustus 2002
  • Laatst online: 14-02 22:35

Omega Supreme

The God of Death

XanderDrake schreef op dinsdag 15 januari 2019 @ 11:05:
[...]
Er is een verschil tussen hypen en hier en daar een paar hints. Mensen hopen op een goede goedkope high-end GPU. AMD moet iets doen anders gaan veel mensen gewoon naar de RTX 2060 (1070 prijzen maar dan stuk sneller).
Tja, de enige reden die ik had om een Radeon VII te kopen is weg nu ze hebben aangekondigd dat fp64 bewust vertraagd wordt.

Een MI50 is ver buiten budget, dus ik blijf wel bij de huidige RX580 in mijn workstation.

En de game performance is ook niet voldoende om de 1080Ti uit mijn game pc te vervangen.

"You know you're hanging out with physics geeks when neutronium counts as a "mundane" form of matter."


  • Blaat
  • Registratie: september 2007
  • Nu online

Blaat

Hardware fanaat!

Omega Supreme schreef op dinsdag 15 januari 2019 @ 16:24:
[...]

Tja, de enige reden die ik had om een Radeon VII te kopen is weg nu ze hebben aangekondigd dat fp64 bewust vertraagd wordt.

Een MI50 is ver buiten budget, dus ik blijf wel bij de huidige RX580 in mijn workstation.

En de game performance is ook niet voldoende om de 1080Ti uit mijn game pc te vervangen.
Eens. Daarbij is freesync nu ook geen argument meer. Er is buiten merkgetrouw zijn geen enkele reden om voor AMD te kiezen op dit punt. Radeon VII heeft geen enkel voordeel op nVidia op dit moment. :'(

Asus C7H | AMD Ryzen 7 2700X | 16GB DDR4 3600C15 | AMD Radeon VII | Samsung 970 EVO 1TB | LG 27UK850-W | Corsair HX1000i | Custom Loop


  • Omega Supreme
  • Registratie: augustus 2002
  • Laatst online: 14-02 22:35

Omega Supreme

The God of Death

Blaat schreef op dinsdag 15 januari 2019 @ 16:30:
[...]
Eens. Daarbij is freesync nu ook geen argument meer. Er is buiten merkgetrouw zijn geen enkele reden om voor AMD te kiezen op dit punt. Radeon VII heeft geen enkel voordeel op nVidia op dit moment. :'(
Aaan die 1080Ti hangt een freesync scherm, dus ik ben benieuwd.

Moet overigens wel zeggen dat als niet vorig jaar mijn GPU kapot was gegeaan en ik, omdat ik toch al de hoofdprijs moest betalen, meteen maar het snelste wat ik kon krijgen gekocht heb, mijn GPU dit jaar was vervangen door een Radeon VII, puur door het kwaad bloed dat nVidia met zijn prijsbeledi bij mij gezet heeft en het feit dat RTX vooralsnog een gimmick die ik de eerste paar jaar niet bruikbaar zie worden (hoge fps en hoge resolutie RT of anders niet)

"You know you're hanging out with physics geeks when neutronium counts as a "mundane" form of matter."

Omega Supreme schreef op dinsdag 15 januari 2019 @ 16:24:
[...]

Tja, de enige reden die ik had om een Radeon VII te kopen is weg nu ze hebben aangekondigd dat fp64 bewust vertraagd wordt.
Ik heb altijd een hekel aan het kunstmatig locken. Als hardware beschadigd zou zijn, ok, maar het softwarematig lcoken...dat voelt verkeerd voor mij. Het mileu speelt hierbij ook mee.
Blaat schreef op dinsdag 15 januari 2019 @ 16:30:
Er is buiten merkgetrouw zijn geen enkele reden om voor AMD te kiezen op dit punt. Radeon VII heeft geen enkel voordeel op nVidia op dit moment. :'(
Is dat zo? Volgens mij zijn de RX 570 en RX 580 prima opties, is Vega56 competitief met de 1070 Ti (Sapphire Pulse Vega 64 voor €369 bij Caseking, prima competitief!) en met de huidige prijs van de RTX 2080 gaat Radeon VII ook competitief zijn. Een aantal problemen voor AMD zijn dat AMD daartussen een gat heeft (de Vega64 is niet echt competitief met de GTX 1080 en RTX 2070 tenzij je stevig tunet), dat AMD veel later kwam met deze concurrerende kaarten en dat Vega niet voor gaming is ontwikkelt waardoor de kosten en het vermogen hoger zijn voor deze gaming-performance dan wat nodig is. Navi is wel weer voor gaming, maar ja, dat zijn weer low/midendkaarten. Pas na Navi zal AMD weer echt mee gaan doen.
FairPCsPlease schreef op zaterdag 12 januari 2019 @ 23:33:
Wat is een zouthoudertje? Een zoethoudertje waar niemand blij mee is? Of bedoelen jullie iets anders?
Ik kan enkel voor mijzelf spreken: een zoethouder voor mensen die 1440p ultrawide/4k gaming willen en hiervoor een AMD-kaart willen gebruiken en daarnaast omdat AMD sinds Vega niets heeft uitgebracht en Vega was slechts de concurrent voor de GTX 1070-1080 die halverwege 2016 al op de markt kwam. Ik denk dat het jou niet interesseert maar veel mensen willen graag meer dan 100 FPS en dit op een hoge resolutie. Vega56 is redelijk goed voor 1440p, Vega64 is bruikbaar voor 1440p ultrawide en 4k maar veel te duur en het vermogen ligt te hoog, AMD vult nu dit gat voor dit met de Radeon VII.

CHBF wijzigde deze reactie 15-01-2019 17:06 (67%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • haarbal
  • Registratie: januari 2010
  • Laatst online: 19:38
Blaat schreef op dinsdag 15 januari 2019 @ 16:30:
[...]


Eens. Daarbij is freesync nu ook geen argument meer. Er is buiten merkgetrouw zijn geen enkele reden om voor AMD te kiezen op dit punt. Radeon VII heeft geen enkel voordeel op nVidia op dit moment. :'(
Je hebt de keuze tussen raytracing (die je waarschijnlijk niet gebruikt) bij nvidia of meer vram (waar je waarschijnlijk niets van merkt) bij amd. |:(

Mechwarrior Online: Flapdrol

In ieder geval geeft het extra geheugen misschien nog wat extra longevity. :)
Overigens is meer dan 8 GB misschien wel handig voor 4k textures bij die paar spellen die het ondersteunen?

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 19:36

Sp3ci3s8472

@ 12 graden...

XanderDrake schreef op dinsdag 15 januari 2019 @ 15:53:
[...]

Ik was van gedachte dat AMD ook compressie toepaste. Maar inderdaad, AMD bandbreedte is altijd hoger geweest
Dat doen ze ook; beiden gebruiken Delta Color Compression, alleen is die van Nvidia iets beter. Overigens is AMD efficienter met PCI-E bandbreedte en kakken ze minder snel in als dit minder is.

Battle.net tag


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 16-02 21:35

XanderDrake

Genetics is the key

Omega Supreme schreef op dinsdag 15 januari 2019 @ 16:37:
mijn GPU dit jaar was vervangen door een Radeon VII, puur door het kwaad bloed dat nVidia met zijn prijsbeledi bij mij gezet heeft en het feit dat RTX vooralsnog een gimmick die ik de eerste paar jaar niet bruikbaar zie worden (hoge fps en hoge resolutie RT of anders niet)
Mijn 1080Ti heb ik half november gekocht voor 649€. Vriend van mij had hem voor 629€ een week later en hij is zelfs 599€ in aanbieding. RTX serie was toen al uit en leverbaar. Om niet eens te beginnen over de huidige bodemprijzen van 1070's. Hoe zo slecht prijsbeleid? Je kan als consument die deweg naar benchmarks kent prima keuzes maken.

(ik ben trouwens ook fan van de Vega met software unlocked high voltages >:) )

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Omega Supreme
  • Registratie: augustus 2002
  • Laatst online: 14-02 22:35

Omega Supreme

The God of Death

XanderDrake schreef op dinsdag 15 januari 2019 @ 17:39:
[...]

Mijn 1080Ti heb ik half november gekocht voor 649€. Vriend van mij had hem voor 629€ een week later en hij is zelfs 599€ in aanbieding. RTX serie was toen al uit en leverbaar. Om niet eens te beginnen over de huidige bodemprijzen van 1070's. Hoe zo slecht prijsbeleid? Je kan als consument die deweg naar benchmarks kent prima keuzes maken.

(ik ben trouwens ook fan van de Vega met software unlocked high voltages >:) )
Ik vrees dat ik ca 1000 euro voor mijn 1080Ti heb betaald, maar je moet wat, een iGPU is geen acceptabele vervanging voor gaming. Vega kaarten waren overal uitverkocht en bovendien was een Vega 64 duurder dan een gewone 1080 :/

Als ik koop, koop ik alleen de nieuwste serie, vervolgens sla ik een serie over voor ik weer upgrade. Als ik nu zou moeten kopen was de keuze 2080 of Radeon VII geworden. 2080Ti is pure oplichting.

"You know you're hanging out with physics geeks when neutronium counts as a "mundane" form of matter."

Het zal geen verrassing zijn voor wie het heeft gevolgd: <5000 stuks van Radeon VII en geen AIB-versies. AMD verliest geld per stuk dus als je er een wil kopen, beter snel zijn!

https://www.tweaktown.com...q2Wq-L7sP2Du8njnsVnoZDexM
Since the announcement I reached out to some industry contacts who said there will be "less than 5000" made. The same source said AMD is losing money on each card sold as they are, as I said before, just Radeon Instinct MI50 cards that are being re-purposed into 'new' Radeon VII cards.

The improved cooler will keep it cooler than the Radeon Instinct MI50, while the same 300W TDP applies. Even the Radeon Instinct MI50 performance falls between the GeForce RTX 2070 and RTX 2080, while the new Radeon VII has performance that equals and will sometimes (higher resolutions like 4K and beyond) beat the RTX 2080.

There will also reportedly be NO custom Radeon VII graphics cards made, but I'm still waiting on confirmation of this from AIB partners. They will have to contend with the limited release cards, and I'm sure AMD won't want to give any of them up if there's indeed less than 5000 to be made.


Ook nog wat beter AMD nieuws van AMD zelf, NEC is aan het samenwerken met AMD voor de Duitse aerospace-engineering- en auto-industrie. Epyc met custom waterkoeling.
YouTube: AMD EPYC™ Partner Testimonial: NEC Corporation

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Beaudog
  • Registratie: augustus 2015
  • Nu online
Minder dan 5000 ok
Ik had gehoopt er een te kunnen scoren
Ik had de 1080 ti al te koop gezet .
Beaudog schreef op woensdag 16 januari 2019 @ 09:37:
Minder dan 5000 ok
Ik had gehoopt er een te kunnen scoren
Ik had de 1080 ti al te koop gezet .
Er direct bij zijn zo gauw het wordt geopend. Het zou me niet verbazen als dat binnen een paar uur uitverkocht gaat zijn. :)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Saturnus
  • Registratie: februari 2005
  • Niet online
Misschien wordt het over een aantal jaar wel een collectors item. Dan valt de prijs wel mee. :P

AMD Ryzen 1700X | G.Skill Trident Z 3000MT/s | Asus Prime B350-Plus | Samsung 960 Evo


  • Olaf van der Spek
  • Registratie: september 2000
  • Niet online
Beaudog schreef op woensdag 16 januari 2019 @ 09:37:
Ik had gehoopt er een te kunnen scoren
Ik had de 1080 ti al te koop gezet .
Waarom?
Omega Supreme schreef op dinsdag 15 januari 2019 @ 16:37:
puur door het kwaad bloed dat nVidia met zijn prijsbeledi bij mij gezet
De prijzen die nV kan vragen zijn toch simpelweg het gevolg van AMD's onvermogen fatsoenlijk te concurreren?

Olaf van der Spek wijzigde deze reactie 16-01-2019 10:44 (43%)

Saturnus schreef op woensdag 16 januari 2019 @ 10:29:
Misschien wordt het over een aantal jaar wel een collectors item. Dan valt de prijs wel mee. :P
Over een jaar nog niet maar uiteindelijk...
Het is best mogelijk dat die kaart over 10-20 jaar meer waard is omdat er zo weinig van zijn. Niet voor mij maar je hoeft maar een paar mensen hebben die genoeg te besteden hebben en graag hun collectie volledig maken. :)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Blaat
  • Registratie: september 2007
  • Nu online

Blaat

Hardware fanaat!

CHBF schreef op woensdag 16 januari 2019 @ 10:25:
[...]

Er direct bij zijn zo gauw het wordt geopend. Het zou me niet verbazen als dat binnen een paar uur uitverkocht gaat zijn. :)
Ik denk dat dat een zekerheid is. Dat was bij de Vega launch niet anders namelijk.

Wat ik nog mis in dit verhaal is of de kaart ook na die initiële 5000 kaarten nog geproduceerd zal worden. Mijn gok is van wel, maar dan wel behoorlijk mondjesmaat.

Ik denk dat ik er maar niet aan ga beginnen. Ik wacht wel tot Navi en als mijn geduld op is wordt het alsnog nVidia. Op dit punt heeft AMD ook totaal niets aan mijn centen voor Radeon VII aangezien de kans groot is dat ze er verlies op maken.

Asus C7H | AMD Ryzen 7 2700X | 16GB DDR4 3600C15 | AMD Radeon VII | Samsung 970 EVO 1TB | LG 27UK850-W | Corsair HX1000i | Custom Loop


  • Gelunox
  • Registratie: april 2010
  • Laatst online: 09:21

Gelunox

Hardware addicted

Als je al vega hebt is het volgens mij ook niet zo heel zinnig om te upgraden. 10 ~ 25% meer performance afhankelijk van de editie

Sws verwacht ik zelf momenteel meer bottleneck te hebben op de cpu, i.c.m. wel meer issues die waarschijnlijk met m'n mobo te maken hebben.

PC: R7 1700X@3.8GHz | 32GB G.Skill Trident Z 3466@2933MT/s | VEGA 64 Liquid Edition

Blaat schreef op woensdag 16 januari 2019 @ 10:59:
[...]


Ik denk dat dat een zekerheid is. Dat was bij de Vega launch niet anders namelijk.

Wat ik nog mis in dit verhaal is of de kaart ook na die initiële 5000 kaarten nog geproduceerd zal worden. Mijn gok is van wel, maar dan wel behoorlijk mondjesmaat.
Het gerucht wat tegelijkertijd werd verspreid nadat werd bekend gemaakt dat de oplage klein zou zijn (maar toen werd nog gedacht aan >10000 stuks) is dat er later nog een tweede voorraad zou komen en dat het dan gedaan is. Aangezien het eerste gerucht blijkt te kloppen en dat van dezelfde bron komt speculeer ik dat AMD later nog een keer een voorraad gaat kopen.

Ik vind deze kaart in die zin interessant dat het voor ultrawide 1440p en 4k een goede performance levert waar ook de grotere Navi daar eigenlijk net wat tekort voor schiet maar qua waarde per € is Navi natuurlijk veel beter. Vega is te duur omdat het niet voor gaming is gemaakt.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Beaudog
  • Registratie: augustus 2015
  • Nu online
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 10:42:
[...]

Waarom?
Tijd voor iets nieuws


[...]

De prijzen die nV kan vragen zijn toch simpelweg het gevolg van AMD's onvermogen fatsoenlijk te concurreren?
Of we negeren Tweaktown voorlopig even. Die waren het afgelopen jaar stevig in het Nvidia kamp met veel zaken. Betwijfel of ze dus echt goede bronnen binnen AMD hebben. AMD ontkent ook gewoon. Zie:
https://www.overclock3d.n...ii_short_supply_rumours/1

Vervolgens is een launch van minder dan 5000 units echt extreem weinig. Zo weinig dat ik me afvraag waarom je zou lanceren met zulke aantallen. Ik vermoed dus dat het er beduidend meer zullen zijn, en dat ze nog wel even in productie blijven waardoor ze niet na een paar uur al allemaal zijn verdwenen en vervolgens maanden niet te krijgen zijn.

Ik denk ook niet dat AMD alsnog verlies zal draaien op Vega 20 met een MSRP van $700 en tenminste gedeeltelijke verkoop via hun eigen website. Het is nu maar een 331mm2 chip met waarschijnlijk iets van 30% betere prestaties in gaming. GTX1080Ti/RTX2080 niveau dus en eigenlijk wat Vega 10 had moeten zijn. Er zit dus een zekere meerwaarde in het nieuwe product. Verder zitten de geheugenfabrikanten eindelijk met productieoverschotten waardoor ik betwijfel of HBM2 nog steeds zo extreem duur en schaars is. Als ik de alsmaar dalende prijzen van Vega 10 erbij pak, dan betwijfel ik dat.

In het algemeen zou ik de stepping van een RX Vega VII wel eens willen zien. Mijn launch RX Vega 56 was C3. Dan weet je eigenlijk al dat Vega 10 vrij rampzalig was. De problemen met lekstroom lijken me ook wel duidelijk gezien de gigantische toename in verbruik hitteproductie voor weinig extra clockspeed als je voorbij de 1500MHz gaat. Dat lijkt voor RX Vega VII geen probleem meer te zijn. Verder lijkt het voornamelijk een die shrink te zijn met extra DL/AI features. FP64 is wel kunstmatig kreupel gemaakt. Maakt voor gamers niks uit, voor mensen die geen Instinct MI150 willen kopen, de speciale ondersteuning niet nodig hebben, maar wel met FP64 aan de slag willen wel.


Dat maakt het eigenlijk nog meer dat ik RX Vega VII als een Titan RTX/Titan V concurrent zie, en minder als een RTX2080 concurrent. RX Vega VII zou in workstation applicaties wel eens sneller kunnen blijken dan welke Titan van Nvidia dan ook. Zeker pijnlijk als RX Vega VII het 815mm2 monster in de Titan V verslaat voor niet eens de helft vat de prijs.


Veel interessanter is dat er alweer wordt gewezen op Navi rond juni. Het zou mij eigenlijk niet meer verbazen als we op 1 mei de Ryzen 3000 aankondiging gaan krijgen, of zelfs rond die tijd de launch. 50 jaar AMD moet natuurlijk gevierd worden met een speciale chip die de concurrentie absoluut sloopt. ;)

Daarna zie ik AMD alles snel uitrollen. Ze lijken marketing tussen Ryzen en Radeon eindelijk gelijkgetrokken te hebben. Ik zie ze dus wel een complete 2019 gaming stack presenteren ergens tussen begin mei en voor E3. Ze lijken zich daar ook voor voor te bereiden met de geruchten dat AMD voor RX3060-3070-3080 gaat. Sluit perfect aan bij Ryzen 3600-3700-3800. Verder begrijpen mensen de videokaarten line-up dan ook weer. Dat was sinds HDxxxx vaarwel werd gezegd namelijk een puinzooitje. :P
https://www.overclock3d.n...end_models_coming_later/1

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Jism
  • Registratie: juni 2002
  • Niet online
Voor de wafer is al betaald. Het is gewoon werk om daar goede chips voor de MI lijn eruit te krijgen, en de minder goede deels te disablen en door te zetten naar een gaming kaart.

Zo maximaleer je gewoon de winst op een betaalde wafer.

M'n magische bol werken.

Jism schreef op donderdag 17 januari 2019 @ 20:47:
Voor de wafer is al betaald. Het is gewoon werk om daar goede chips voor de MI lijn eruit te krijgen, en de minder goede deels te disablen en door te zetten naar een gaming kaart.

Zo maximaleer je gewoon de winst op een betaalde wafer.
Oh maar veel van die chips gaan waarschijnlijk niet naar de RX Vega VII kaarten. Nee, het is al een tijdje bekend dat dit jaar er een nieuwe Mac Pro gaat verschijnen. Doe eens een gok welke GPU je daarin verwacht. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

De bron van RedGamingTech vertelde recent (na CES) dat Navi in juni aangekondigd wordt en een paar weken later beschikbaar gaat zijn. Juni wijst voor mij op Computex, we weten dat het gepland was om de X570-moederborden daar aan te kondigen. Het lijkt er dus op dat alles bij Computex gaat worden aangekondigd.

CHBF wijzigde deze reactie 18-01-2019 11:37 (8%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Lindatje1
  • Registratie: januari 2019
  • Laatst online: 20-01 09:52
Al om al zou de Navi kaart sneller worden dan de Vega VII? Ik hoor en lees veel verschillende dingen over navi.

  • Omega Supreme
  • Registratie: augustus 2002
  • Laatst online: 14-02 22:35

Omega Supreme

The God of Death

Oef, 1:8 is nog steeds beter dan alles in die prijsklasse. Alleen is het genoeg verbetering tov een RX580 om zo'n uitgave te rechtvaardigen :(

Ik denk dat ik toch maar bij mijn huidige systeem blijf.

"You know you're hanging out with physics geeks when neutronium counts as a "mundane" form of matter."


  • maratropa
  • Registratie: maart 2000
  • Niet online
DaniëlWW2 schreef op donderdag 17 januari 2019 @ 20:27:
Dat maakt het eigenlijk nog meer dat ik RX Vega VII als een Titan RTX/Titan V concurrent zie, en minder als een RTX2080 concurrent. RX Vega VII zou in workstation applicaties wel eens sneller kunnen blijken dan welke Titan van Nvidia dan ook. Zeker pijnlijk als RX Vega VII het 815mm2 monster in de Titan V verslaat voor niet eens de helft vat de prijs.
Maarja, veel pro apps zijn CUDA of presteren daar beter mee dus dat blijft een probleem voor AMD. Heel jammer want 16GB hbm is awesome voor die prijs.

Ben wel weer benieuwd naar of ze dan de pro apps viewport prestaties in de VII tweaken...

Zonder single fan blower cooler is hij ook meteen minder insteressant voor een aantal pro gebruikers.
Daarmee fucked Nvidia trouwens ook pro gebruikers, met de koeler op de Titan RTX

specs


  • haarbal
  • Registratie: januari 2010
  • Laatst online: 19:38
Lindatje1 schreef op vrijdag 18 januari 2019 @ 15:34:
Al om al zou de Navi kaart sneller worden dan de Vega VII? Ik hoor en lees veel verschillende dingen over navi.
Als ik een wilde gok zou moeten wagen denk ik aan een chip met 8GB gddr6 op een 256bit bus.

Stel de geschiedenis herhaalt zich (1060 vs 480, 192 vs 256bit) geeft amd een kaart die iets sneller is dan de 2060. Of de achterstand is minder omdat ze geen inferieur productieproces hoeven te gebruiken, dan kom je (met 1060 vs 590) op 2070 niveau. Dan blijft de VII sneller, maar te weinig om de enorme meerprijs te kunnen verantwoorden.

Mechwarrior Online: Flapdrol

maratropa schreef op vrijdag 18 januari 2019 @ 17:02:
[...]


Maarja, veel pro apps zijn CUDA of presteren daar beter mee dus dat blijft een probleem voor AMD. Heel jammer want 16GB hbm is awesome voor die prijs.

Ben wel weer benieuwd naar of ze dan de pro apps viewport prestaties in de VII tweaken...
Ik weet het, maar niet alles draait op CUDA. Het is alleen maar heel veel. :P
Verder als je zelf de code schrijft dan is er https://gpuopen.com/compu...-cuda-to-portable-c-code/.

De andere kant op, bijvoorbeeld een exclusief CUDA accelerated progamma gaat niet werken. Zaken zoals Solidworks zou gewoon moeten werken aangezien het OpenGL is. Verder speelt onderhand ook wel mee dat AMD gewoon de CPU cores naar je aan het gooien is waardoor GPU rendering iets minder belangrijk zal worden voor zaken zoals videorendering. Natuurlijk zal een flinke GPU helpen, maar de tijd van quadcores of misschien iets meer is wel voorbij. Nu heb je er gewoon zestien of 32. :+
Zonder single fan blower cooler is hij ook meteen minder insteressant voor een aantal pro gebruikers.
Daarmee fucked Nvidia trouwens ook pro gebruikers, met de koeler op de Titan RTX
Tja, het zijn allemaal videokaarten die dusdanig veel verbruiken dat blower koelers het waarschijnlijk niet meer aankunnen. De trend naar steeds zwaardere koeling is er ook al jaren. Het zat er gewoon aan te komen en ik denk dat de blower koelers aan hun vervanging toe zijn. Ze zijn gewoon inefficiënt als je kijkt naar het hele plaatje. Paar 120/140mm ventilatoren bovenin de kast moeten ook alle hete lucht kunnen afvoeren. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Lindatje1 schreef op vrijdag 18 januari 2019 @ 15:34:
Al om al zou de Navi kaart sneller worden dan de Vega VII? Ik hoor en lees veel verschillende dingen over navi.
Moet dat niet Lindaatje zijn?
Navi wordt voor gaming 'sneller' dan Vega bij dezelfde die-size, hetzelfde aantal transistors...
Het wordt verwacht dat Navi een opvolger wordt van Polaris, dus enkel kaarten die een relatief kleine GPU en een relatief laag vermogen hebben.

Dit wordt de grootste in eerste instantie. Een goede kaart voor spellen t/m 1440p ultrawide resolutie bij spellen t/m 2018, ik vermoed dat dit nu opschuift naar 1440p in 2019 bij nieuwe AAA-spellen.
Hij is niet de enige die dit heeft opgevangen, iemand anders (Coreteks) had eerder al hetzelfde gerucht opgevangen en eerder had WCCFTech zelf een bron die iets soortgelijks meldde.
Met deze specificaties is het duidelijk de opvolger van de RX 580. De node is half zo groot als bij de RX 580 en heeft ongeveer de helft van het vermogen in vergelijking met die voor de RX 580 wordt gebruikt als je net zo snel klokt, wanneer je hetzelfde vermogen beschikbaar stelt dan kan het ongeveer 25% sneller klokken dus AMD zal hiertussen een afweging moeten maken.

Ik denk dat het performance-verschil tussen een GTX 1060 en GTX 1080 ongeveer 1,20*1,4 bedraag (20% tussen de 1070 en 1080, 40% tussen de 1070 en 1060, uit mijn hoofd). De Vega64 is out of the box voor gaming iets minder goed dan de 1080 en de RX 580 is ongeveer net zo goed als de 1060 (iets beter). Ergens tussen de 50 en 60% tussen de RX 580 en Vega64 en dan nog eens 15% erboven op. Ruwe schatting, andere mensen mogen het aanvullen. Dat moet dus komen van de kleinere node (afweging tussen hogere klokfrequentie en meer transistors), het snellere geheugen (GDDR6 vs. GDDR5, merk op dat er verschillende snelheden zijn van al die types van geheugen) en veranderingen in de architectuur. Vega was niet ontwikkeld voor gaming, Navi is wel ontwikkeld voor gaming, het is ontwikkeld voor de PS5.
Er wordt gesproken over een grote broer van deze kaarten voor begin 2020, dat zal dan de opvolger van Radeon Vii worden.

Voor mij is het een aardige kaart, ik zit nog op 60 Hz 1080p en ik wil upgraden naar 1440p wat met deze kaart goed kan voor de eerste paar jaar, zeker als je sommige nieuwe spellen nog even links laat liggen wat ik bij singleplayer spellen sowieso al doe. Als je nu op 1080p 60 Hz zit en langer dan 2 jaar 1440p gaming wil - ik veronderstel >=144 Hz bij zo'n monitor en ik veronderstel dat je dan boven de 90-100 FPS wil uitkomen - met hoge instellingen voor de nieuwe AAA-spellen dan kan je misschien beter wachten op de grotere kaart, het hangt natuurlijk af van wat die kost en hoeveel hoger de performance is of dat dat de moeite waard is.

CHBF wijzigde deze reactie 18-01-2019 20:06 (38%)

Zelfcensuur is de meest schadelijke vorm van censuur.

maratropa schreef op vrijdag 18 januari 2019 @ 17:02:
[...]


Maarja, veel pro apps zijn CUDA of presteren daar beter mee dus dat blijft een probleem voor AMD.
Erger nog, een van die programma's (daVinci uit mijn hoofd) ondersteunt wel AMD's alternatief op Windows maar niet op Linux. Al kunnen we ons iets soepeler opstellen richting hen dan richting Adobe maar dat is offtopic. Ik zou overigens voor die Navi 3080 wel graag meer dan 8 GB zien, dat hoeft niet 16 GB te zijn maar 10 of 12 zou wel fijn zijn gezien wat nodig is voor textures met een hogere resolutie, indien de geheugenbandbreedte goed genoeg zou zijn om die textures ook soepel te streamen zonder dat je dan geheugen(bandbreedte) tekort komt voor arndere features.
Het voorbehoud dat het mogelijk niet zinvol is om het meer geheugen te geven maar met die RX 580 is gebleken dat 8 GB aanzienlijk meer waarde geeft dan 4 GB, nu nog veel meer dan toen het uitkwam.
Zonder single fan blower cooler is hij ook meteen minder insteressant voor een aantal pro gebruikers.
Waarom? :?
Als je kast groot genoeg is (een fatsoenlijke midtower-maat volstaat al) dan zal die kaart een hogere performance halen met een goede koeling van de kast en open koelers op die kaart. Waarom? Die single blower koeler mag dan wel direct de warmte naar buiten de kast pompen (met wat lawaai aangezien het kleine fans zijn) maar het gaat om 1 klein koelertje, een paar open fans staan meer hitte af zolang de termperatuur in de omgeving niet al te hoog wordt wat het geval is wanneer er een goede luchtstroom doorheen de kast is.
Wat ik nu graag wil weten: heeft AMD speciaal voor deze gelegenheid open fans erop geplaatst omdat er geen of weinig AIB-modellen komen of is dit een nieuwe trend? Nvidia gebruikt ook open fans voor hun referentiekaart voor de RTX 2060 dus ik speculeer dat het een nieuwe trend is en dat roept dan weer de vraag op of dat AMD en Nvidia dit uitbesteden aan een ander bedrijf wat overstapte van blowerkoelers naar open fans, het kan bijna geen toeval zijn dat ze onafhankelijk van elkaar tegelijkertijd komen met open fans. Ik ben zelf een voorstander van open fans, laat de casefans die hitte maar afvoeren, dat kunnen die veel beter dan 1 blowerkoelertje op de grafische kaart.
Edit: ik zie nu dat Daniël het ook al opmerkte. Ik ben blij als we nu van die blowerkoeles zijn verlost, laat het maar een plekje krijgen in een museum voor oude techniek. >:)

CHBF wijzigde deze reactie 18-01-2019 21:17 (4%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Lindatje1
  • Registratie: januari 2019
  • Laatst online: 20-01 09:52
CHBF schreef op vrijdag 18 januari 2019 @ 19:52:
[...]

Moet dat niet Lindaatje zijn?
Navi wordt voor gaming 'sneller' dan Vega bij dezelfde die-size, hetzelfde aantal transistors...
Het wordt verwacht dat Navi een opvolger wordt van Polaris, dus enkel kaarten die een relatief kleine GPU en een relatief laag vermogen hebben.
[Afbeelding]
Dit wordt de grootste in eerste instantie. Een goede kaart voor spellen t/m 1440p ultrawide resolutie bij spellen t/m 2018, ik vermoed dat dit nu opschuift naar 1440p in 2019 bij nieuwe AAA-spellen.
Hij is niet de enige die dit heeft opgevangen, iemand anders (Coreteks) had eerder al hetzelfde gerucht opgevangen en eerder had WCCFTech zelf een bron die iets soortgelijks meldde.
Met deze specificaties is het duidelijk de opvolger van de RX 580. De node is half zo groot als bij de RX 580 en heeft ongeveer de helft van het vermogen in vergelijking met die voor de RX 580 wordt gebruikt als je net zo snel klokt, wanneer je hetzelfde vermogen beschikbaar stelt dan kan het ongeveer 25% sneller klokken dus AMD zal hiertussen een afweging moeten maken.

Ik denk dat het performance-verschil tussen een GTX 1060 en GTX 1080 ongeveer 1,20*1,4 bedraag (20% tussen de 1070 en 1080, 40% tussen de 1070 en 1060, uit mijn hoofd). De Vega64 is out of the box voor gaming iets minder goed dan de 1080 en de RX 580 is ongeveer net zo goed als de 1060 (iets beter). Ergens tussen de 50 en 60% tussen de RX 580 en Vega64 en dan nog eens 15% erboven op. Ruwe schatting, andere mensen mogen het aanvullen. Dat moet dus komen van de kleinere node (afweging tussen hogere klokfrequentie en meer transistors), het snellere geheugen (GDDR6 vs. GDDR5, merk op dat er verschillende snelheden zijn van al die types van geheugen) en veranderingen in de architectuur. Vega was niet ontwikkeld voor gaming, Navi is wel ontwikkeld voor gaming, het is ontwikkeld voor de PS5.
Er wordt gesproken over een grote broer van deze kaarten voor begin 2020, dat zal dan de opvolger van Radeon Vii worden.

Voor mij is het een aardige kaart, ik zit nog op 60 Hz 1080p en ik wil upgraden naar 1440p wat met deze kaart goed kan voor de eerste paar jaar, zeker als je sommige nieuwe spellen nog even links laat liggen wat ik bij singleplayer spellen sowieso al doe. Als je nu op 1080p 60 Hz zit en langer dan 2 jaar 1440p gaming wil - ik veronderstel >=144 Hz bij zo'n monitor en ik veronderstel dat je dan boven de 90-100 FPS wil uitkomen - met hoge instellingen voor de nieuwe AAA-spellen dan kan je misschien beter wachten op de grotere kaart, het hangt natuurlijk af van wat die kost en hoeveel hoger de performance is of dat dat de moeite waard is.
Wat zitten sommige toch met Lindaatje? Schijnbaar is er een gebruiker geweest met die naam en die niet erg aardig was als ik dat zo moet gokken gezien de reacties? Moet dat dan betekenen dat iedereen die Linda heet dan ook dezelfde persoon is? Linda was al in gebruik dus deed ik Lindatje en die was ook al in gebruik, na verschillende combinaties kon Lindatje1 wel. Had schijnbaar een fictieve naam moeten nemen.

GDDR6? Ik hoop dat er ook voor Navi gewoon HBM wordt gebruikt.
Ik wil wel eens upgrade maar de prijzen zijn te hoog voor beide (vind ik), had gehoopt dat de Vega VII iets minder duur zou worden gezien AMD’s history.

  • zion
  • Registratie: augustus 1999
  • Laatst online: 20-01 18:36

zion

I GoT my I on U

Lindatje1 schreef op vrijdag 18 januari 2019 @ 20:23:
[...]
GDDR6? Ik hoop dat er ook voor Navi gewoon HBM wordt gebruikt.
Ik wil wel eens upgrade maar de prijzen zijn te hoog voor beide (vind ik), had gehoopt dat de Vega VII iets minder duur zou worden gezien AMD’s history.
Het gaat juist GDDR6 worden om de prijs omlaag te krijgen, 16GB (of 8GB for that matter) HBM2 is gewoon dúúúr, dus dat wil je niet op je midrange kaarten, GDDR6 is veel betere balans tussen performance en prijs.

Wat was eerder, de kip of het ei? Het ei, een kip komt per definitie uit een ei, het eerste ei kon dus niet van een kip zijn...
Is de kop halfvol of halfleeg? Als je hem vult halfvol, als je hem consumeert halfleeg.
I'll be back, Soon.

@zion
Daarnaast heb ik er wat twijfels over of dat HBM wel al net zo betrouwbaar/degelijk is als GDDR5/6. Daniël had die van hem binnen 1 jaar al wat versleten al was dat wel zijn eigen schuld, hij zette de BIOS van de Sapphire Nitro Vega 64 op zijn Sapphire Nitro Vega 56. Misschien heeft AMD niet voor niets een bovengrens voor de spanning ingevoerd en kunnen enkel de cherrypicked stukjes HBM die hogere spanning aan die de Vega64 kaarten krijgen?
Lindatje1 schreef op vrijdag 18 januari 2019 @ 20:23:
[...]

Wat zitten sommige toch met Lindaatje? Schijnbaar is er een gebruiker geweest met die naam en die niet erg aardig was als ik dat zo moet gokken gezien de reacties? Moet dat dan betekenen dat iedereen die Linda heet dan ook dezelfde persoon is? Linda was al in gebruik dus deed ik Lindatje en die was ook al in gebruik, na verschillende combinaties kon Lindatje1 wel. Had schijnbaar een fictieve naam moeten nemen.


GDDR6? Ik hoop dat er ook voor Navi gewoon HBM wordt gebruikt.
Ik wil wel eens upgrade maar de prijzen zijn te hoog voor beide (vind ik), had gehoopt dat de Vega VII iets minder duur zou worden gezien AMD’s history.
offtopic:
Ik ken die andere Linda niet, het ging mij erom dat je bij een verkleinwoord de klinker verdubbelt voor zo ver ik het heb begrepen.

Geen HBM, GDDR6. Of dat dat goed of slecht is en of dat de prijs voor de Radeon VII wel of niet te hoog is weet ik niet.

CHBF wijzigde deze reactie 18-01-2019 21:15 (17%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Lindatje1
  • Registratie: januari 2019
  • Laatst online: 20-01 09:52
CHBF schreef op vrijdag 18 januari 2019 @ 21:11:
@zion
Daarnaast heb ik er wat twijfels over of dat HBM wel al net zo betrouwbaar/degelijk is als GDDR5/6. Daniël had die van hem binnen 1 jaar al wat versleten al was dat wel zijn eigen schuld, hij zette de BIOS van de Sapphire Nitro Vega 64 op zijn Sapphire Nitro Vega 56. Misschien heeft AMD niet voor niets een bovengrens voor de spanning ingevoerd en kunnen enkel de cherrypicked stukjes HBM die hogere spanning aan die de Vega64 kaarten krijgen?


[...]

offtopic:
Ik ken die andere Linda niet, het ging mij erom dat je bij een verkleinwoord de klinker verdubbelt voor zo ver ik het heb begrepen.

Geen HBM, GDDR6. Of dat dat goed of slecht is en of dat de prijs voor de Radeon VII wel of niet te hoog is weet ik niet.
Ah oké, ik kreeg er wel reacties op op de fp dus vandaar.

  • Lindatje1
  • Registratie: januari 2019
  • Laatst online: 20-01 09:52
Blaat schreef op dinsdag 15 januari 2019 @ 16:30:
[...]


Eens. Daarbij is freesync nu ook geen argument meer. Er is buiten merkgetrouw zijn geen enkele reden om voor AMD te kiezen op dit punt. Radeon VII heeft geen enkel voordeel op nVidia op dit moment. :'(
Toch zeer knap dat AMD met het oude GCN architectuur Nvidia’s nieuwe turing architectuur goed kan bij houden. Er zitten als vanouds nog wat limieten aan GCN waar AMD eigenlijk vanaf moet, maar ze doen het nog zeer goed als je het vanuit dat perspectief bekijkt. Dan is de vraag, als ze deze performance nog weten te halen met GCN wat gaan ze dan doen met een nieuwe architectuur? Een ZEN actie bij GPU gebied... who know’s.
Meer Navi leaks. :)
-Skip de eerste tien minuten maar. :P
-Daarna wordt het interesant met wie nu de bronnen zijn van AdoredTV. Mensen binnen AMD dus. ;)
-Waarom is er RX Vega VII? Nou het lijkt erop dat AMD een drie SKU Vega 20 lijn plande totdat Navi bleek te presteren. Vervolgens bleek Turing tegen te vallen waarna er twee SKU's zijn gecanceld. Op Vega wordt ook nog steeds verlies gemaakt door AMD vanwege HBM2.
-Het lijkt erop dat er wel een high end Polaris was. Die is gecanceld om de focus te verleggen op Vega en om midrange Polaris uit de deur te krijgen. Dat is uitgelopen op een drama omdat Vega niet presteerde, een jaar te laat was en veel te duur was.
-Wat is er met Mike Rayfield gebeurd? Nou het lijkt erop dat hij de drijvende kracht achter RX Vega VII was. De kaart die ze hooguit voor de kostprijs gaan verkopen. Er is een Vega 20 ramp up geweest voordat Navi goed bleek te zijn en Turing slecht. Daarna is alles ingezet op Navi.

Navi lijkt alleen een probleem met haar tape-out te hebben. In september kwamen de eerste chips terug naar AMD. Die lijken qua prestaties dus goed te zijn, maar qua productiekwaliteit absoluut niet. Navi is dus teruggestuurd voor een "re-tape" en vertraagd. RX Vega VII lijkt dus een zoethoudertje te zijn die op het laatste moment weer ten tonele kwam voor CES en de komende maanden. Een zoethoudertje dat in DX12 over de RTX2080 zou moeten gaan.

-Navi 10 zou dan een chip zijn die kleiner is dan Polaris en net onder de RTX2070 gaat zitten qua prestaties. De prijsstelling zou extreem agressief zijn en het plan was om Navi al bij CES te laten zien. De uitstel komt door de problemen. Launch zou in de zomer zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

That's quite an opportunity

DaniëlWW2 schreef op zaterdag 19 januari 2019 @ 15:15:
RX Vega VII lijkt dus een zoethoudertje te zijn die op het laatste moment weer ten tonele kwam voor CES en de komende maanden.
Dat verklaart ook waarom AMD vorig jaar nog stelde dat 7nm Vega niet voor gamers beschikbaar zou komen.

It takes two fools to argue.

DaniëlWW2 schreef op zaterdag 19 januari 2019 @ 15:15:
Navi lijkt alleen een probleem met haar tape-out te hebben. In september kwamen de eerste chips terug naar AMD. Die lijken qua prestaties dus goed te zijn, maar qua productiekwaliteit absoluut niet. Navi is dus teruggestuurd voor een "re-tape" en vertraagd.
Dat is overigens niet uniek. De laatste jaren komt het steeds minder voor, maar respins (zo heet dat ;)) waren vroeger hartstikke normaal. Sterker nog, daar werd vaak op gepland, de eerste spin was zelden het doel. Die bestonden juist om de functionaliteit te testen. Dat is een jaar of 10 geleden enigszins veranderd, vanaf toen waren de eerste spins veelal meteen goed genoeg. Dan had je ook nog A- en B-spins, waarbij de B-spin een shrink was, een wijziging in de fysieke constructie van de chip (materialen of dichtheid bijvoorbeeld) of een combinatie van die 2.

B-spins is wat wij refreshes noemden. RV790 was bijvoorbeeld niets meer dan een B-spin van RV790, waarbij iets minder op dichtheid werd ingezet met als resultaat een marginaal grotere chip, maar daardoor ook meteen stabiel 15% sneller kon tikken. G92b (het kán bijna niet duidelijker :+) was dat ook, maar dan juist met een shrink (wat hoogstwaarschijnlijk ook iets andere materialen vergde).

Je hebt natuurlijk ook de andere kant van het spectrum, waar een chip zelfs na meerdere respins nog niet goed genoeg is. Point in question is mijn favoriete wanproduct: GF100. Het was de 3e A-spin die wij konden kopen en er was zelfs nog een B-spin nodig voordat de yields goed genoeg werden om het volledige product op de markt te brengen: dat is GF110, ofwel GTX 580. Ander materiaal, juist een iets hógere dichtheid en voilá: het ding kan eindelijk in vol ornaat op de markt.

Als het waar is dat Navi een respin nodig heeft, is dat in elk geval geenszins zorgwekkend. Sterker nog, in het geval AMD zou ik dat eerder geruststellend vinden. Historisch gezien hebben zij minder problemen gehad met productie (kwaliteit, niet volume sdk :P) dan Nvidia, dus hopelijk betekent het gewoon dat ze het definitieve ontwerp nog een keer wilden testen voordat ze de definitieve spin laten komen.
Werelds schreef op zaterdag 19 januari 2019 @ 16:29:
[...]

Dat is overigens niet uniek. De laatste jaren komt het steeds minder voor, maar respins (zo heet dat ;)) waren vroeger hartstikke normaal. Sterker nog, daar werd vaak op gepland, de eerste spin was zelden het doel. Die bestonden juist om de functionaliteit te testen. Dat is een jaar of 10 geleden enigszins veranderd, vanaf toen waren de eerste spins veelal meteen goed genoeg. Dan had je ook nog A- en B-spins, waarbij de B-spin een shrink was, een wijziging in de fysieke constructie van de chip (materialen of dichtheid bijvoorbeeld) of een combinatie van die 2.

B-spins is wat wij refreshes noemden. RV790 was bijvoorbeeld niets meer dan een B-spin van RV790, waarbij iets minder op dichtheid werd ingezet met als resultaat een marginaal grotere chip, maar daardoor ook meteen stabiel 15% sneller kon tikken. G92b (het kán bijna niet duidelijker :+) was dat ook, maar dan juist met een shrink (wat hoogstwaarschijnlijk ook iets andere materialen vergde).

Je hebt natuurlijk ook de andere kant van het spectrum, waar een chip zelfs na meerdere respins nog niet goed genoeg is. Point in question is mijn favoriete wanproduct: GF100. Het was de 3e A-spin die wij konden kopen en er was zelfs nog een B-spin nodig voordat de yields goed genoeg werden om het volledige product op de markt te brengen: dat is GF110, ofwel GTX 580. Ander materiaal, juist een iets hógere dichtheid en voilá: het ding kan eindelijk in vol ornaat op de markt.

Als het waar is dat Navi een respin nodig heeft, is dat in elk geval geenszins zorgwekkend. Sterker nog, in het geval AMD zou ik dat eerder geruststellend vinden. Historisch gezien hebben zij minder problemen gehad met productie (kwaliteit, niet volume sdk :P) dan Nvidia, dus hopelijk betekent het gewoon dat ze het definitieve ontwerp nog een keer wilden testen voordat ze de definitieve spin laten komen.
Ik maak me ook geen zorgen hoor. :)
Ik weet wel wat van ATi/AMD haar reputatie als het gaat om vrij grote chips, relatief vroeg in de levenscyclus van een node, werkende te krijgen. Verder zou het gaan om een chip kleiner dan Polaris. 7nm DUV blijft een beetje een risicofactor, maar met een dergelijke formaat zouden grote problemen niet te verwachten zijn. Navi 20, tja daar gaat de toepassing van EUV in een paar kritieke lagen denk ik wel een factor zijn. Voor Vega 20 zal het minder uitmaken omdat het product hogere marges zal kennen. Niet dat ze er iets op verdienen, maar de kosten zullen voor een aanzienlijk deel bij de HBM2 stacks liggen.

Verder legde AdoredTV het eigenlijk heel slecht uit waardoor ik verward raakte. Ik dacht al aan GF100, maar dat is het dus. Verder vermoed ik eigenlijk dat Vega 10 dezelfde problemen heeft gehad. Die chip heeft te veel transistoren die eigenlijk allemaal voor hogere clocksspeeds zijn. Verder laten de chips een veel te extreme discrepantie tussen theoretische en praktische clockspeeds zien. Ik kan me echt niet voorstellen dat Vega 10 niet ontworpen was om 1600MHz+ te halen out of the box. Ze doen het wel, maar met zulk bezopen verbruik en power/perf dat je gaat denken aan Fermi. :+

Maar ik wou wel even gezegd hebben dat ik gelijk lijk te gaan krijgen over Navi. Het lijkt meer te zijn dan simpelweg nog een GCN refresh. Anders was AMD denk ik niet zo enthousiast en lekte er niet constant van alles. Lisa Su die persoonlijk alle informatie lekt om hype te creëren. Tja dat denk ik nou ook weer niet. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
DaniëlWW2 schreef op vrijdag 18 januari 2019 @ 18:19:

De andere kant op, bijvoorbeeld een exclusief CUDA accelerated progamma gaat niet werken. Zaken zoals Solidworks zou gewoon moeten werken aangezien het OpenGL is.
Solidworks certificeert dan echter dit soort kaarten weer niet voor zover ik weet. Nu weet ik niet hoe streng ze nu zijn, maar ik weet uit het verleden dat ze vrij moeilijk deden bij support verzoeken van relaties van ons wanneer deze hardware gebruikten die niet op de HCL van Solidworks stond.

Chronia Lvl 110 Warlock Diablo 3

Samenvatting van wat AdoredTV zijn bronnen hem vertelden:

- Vega20 bestond maar werd geschrapt omdat Navi het te goed deed: niet zo krachtig als Vega op dezelfde node maar voldoende dicht erbij dat het met de veel lagere prijs aantrekkelijker is.

- Vega was nooit ontwikkeld voor gaming en het is te duur voor gaming door die HBM. Dat wisten we al.

- AMD was van plan om Navi te laten zien maar er is een ontwerpfout waardoor ze een tweede tape-out moeten doen wat minstens 3 maanden vertraging oplevert, als alles goed gaat dan komt Navi in juli.

- AMD was niet van plan om die RadeonVII uit te brengen maar ze moesten wel omdat Navi uitgesteld wordt en ze toch iets zullen moeten hebben tot die tijd. Voor wie het vroeg, dit bedoel ik met "zoethoudertje".

- De RX 590 was niet echt gepland maar AMD besloot om die in te voeren omdat Turing teleurstelde qua shaderperformance/prijs

- Voor Polaris wilde AMD aanvankelijk ook grotere GPU's maken (het was volledig voorbereid) maar dat werd last minute geschrapt ten faveure van Vega. Waarom? Geen idee!


Mijn gedachte hierbij. Het is zonde dat ze niet een grote Polaris-GPU hebben gemaakt. Dat was veel interessanter geweest voor het 1440p-gaming-segment, zelfs al zou het 10% minder goed presteren dan de Vega56.

Wat betreft die eerste 10 minuten, hij legde in die tijd uit dat mensen wel heel erg snel concluderen dat informatie niet klopt omdat details zijn gewijzigd ten gevolge van marketing/economische beslissingen terwijl er genoeg informatie is bevestigd om het wel serieus te nemen. Niet echt interessant en een open deur. Maar helaas ook niet onterecht want ene Hardware Unboxed junior (Tim) zat al te vieren dat die lekken niet kloppen omdat volgens hem 8c het maximum zou zijn. :')

CHBF wijzigde deze reactie 19-01-2019 22:49 (24%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • maratropa
  • Registratie: maart 2000
  • Niet online
@DaniëlWW2 @CHBF Qua blower koelers, ff veel compute in 4 slots stoppen kan niet met die nieuwe koelers, das jammer. Bij de game gpu's zie je OEMS daar gelukkig nog blowerkoelers voor maken, maar bijv de Titan RTX kun je niet meer met 4 of 8 bij elkaar zetten zonder modden..

Die 30watt extra van een titan rtx tov een V moet ook nog wel met een blower te doen zijn.

Ik denk dat nvidia oa af wil van bedrijven die een case volpleuren met titan's en daarmee geen duurdere pro gpu's van ze kochten :)

En bij de quadro's zullen ze ook gewoon blijven lijkt me, idem bij de AMD tegenhangers. OEM's zijn ook niet zo geintereseerd in die dual fan koelers.

^.^

specs

Dennism schreef op zaterdag 19 januari 2019 @ 21:22:
[...]


Solidworks certificeert dan echter dit soort kaarten weer niet voor zover ik weet. Nu weet ik niet hoe streng ze nu zijn, maar ik weet uit het verleden dat ze vrij moeilijk deden bij support verzoeken van relaties van ons wanneer deze hardware gebruikten die niet op de HCL van Solidworks stond.
En de concurrenten? NX van Siemens bijvoorbeeld.
Ik weet dat dat ook Linux support (een goed teken) maar ik weet niet in hoeverre ze ondersteunende open source software (zoals GPUOpen) goed gebruiken.
maratropa schreef op zaterdag 19 januari 2019 @ 23:05:
@DaniëlWW2 @CHBF Qua blower koelers, ff veel compute in 4 slots stoppen kan niet met die nieuwe koelers, das jammer. Bij de game gpu's zie je OEMS daar gelukkig nog blowerkoelers voor maken, maar bijv de Titan RTX kun je niet meer met 4 of 8 bij elkaar zetten zonder modden..

Die 30watt extra van een titan rtx tov een V moet ook nog wel met een blower te doen zijn.

Ik denk dat nvidia oa af wil van bedrijven die een case volpleuren met titan's en daarmee geen duurdere pro gpu's van ze kochten :)

En bij de quadro's zullen ze ook gewoon blijven lijkt me, idem bij de AMD tegenhangers. OEM's zijn ook niet zo geintereseerd in die dual fan koelers.

^.^
[Afbeelding]
Voor de volledigheid, heb jij het over eATX-moederborden of over ATX-moederborden? Zijn er geen eATX-moederborden die voldoende ruimte bieden voor 4 grafische kaarten met open fans?

Wat mij betreft is op de lange termijn de oplossing dat moederborden meer ruimte geven tussen PCIe-sloten en dus groter worden, in ieder geval bij eATX. Bij ATX kan daar ook nog wel wat aan geschaafd worden want niet elk ATX-moederbord geeft fatsoenlijk de ruimte voor 2,5 slot kaarten. Inderdaad, het vermogen zal niet snel lager worden want zo snel wordt de node niet meer kleiner en mensen blijven wel meer performance willen. Met software valt er nog flink wat winst te boeken maar...

Wat is jouw usecase-scenartio om 4 Radeon VII kaarten te gebruiken (hypothetisch gesproken) in plaats van 1 professionele kaart? FP64 is softwarematig gigantisch beperkt door AMD voor deze kaarten :/ dus het zal voor iets zijn wat geen FP64 gebruikt? Puur praktisch gezien, AMD heeft een beperkte voorraad, naar verluidt maakt AMD verlies op deze kaarten (er wordt gesproken over een productieprijs van $750) en deze kaart is puur op gamers gericht - ondanks dat de hardware is gericht op productiviteit - als stopgap totdat eind 2019 of begin 2020 de grotere Navi uitkomt. Waarom dan niet de kaart aanpassen aan wat gamers willen? Gamers willen graag een goed gekoelde kaart die niet al te lawaaierig is en 300W is nogal wat om te koelen.
Overigens, zoals het er op die foto uitziet, dat zou ik inderdaad niet willen met kaarten met open fans als het al zou passen.

CHBF wijzigde deze reactie 20-01-2019 01:25 (13%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
CHBF schreef op zondag 20 januari 2019 @ 00:40:
[...]

En de concurrenten? NX van Siemens bijvoorbeeld.
Ik weet dat dat ook Linux support (een goed teken) maar ik weet niet in hoeverre ze ondersteunende open source software (zoals GPUOpen) goed gebruiken.
Niet echt ervaring met Siemens NX, maar voor zover ik kan zien lijkt dit hetzelfde te zijn, misschien nog wel strenger, want als ik even snel op de Siemens HCL kijk lijken ze zelfs enkel volledige (mobile) workstations en servers van de grote OEM's te certificeren als zijnde supported.

Chronia Lvl 110 Warlock Diablo 3


  • enchion
  • Registratie: februari 2002
  • Niet online
AMD heeft door hun ongrijpbare strategie dus perfect effectief nVidia uit de tent gelokt om RTX naar voren te trekken.
(nVidia RTX als preemptieve reactie op NAVI terwijl RTX eigenlijk waarschijnlijk voor 7nm gepland was)

Waar AMD zonder 1 kaart te verkopen nVidia in een negatief daglicht heeft kunnen zetten.

enchion wijzigde deze reactie 20-01-2019 11:00 (22%)

How do you save a random generator ?

Dennism schreef op zondag 20 januari 2019 @ 08:38:
[...]


Niet echt ervaring met Siemens NX, maar voor zover ik kan zien lijkt dit hetzelfde te zijn, misschien nog wel strenger, want als ik even snel op de Siemens HCL kijk lijken ze zelfs enkel volledige (mobile) workstations en servers van de grote OEM's te certificeren als zijnde supported.
Altijd weer die OEM's die een blok beton aan AMD hun been zijn. Of een grote bron van inertia indien ze niet meer corrupt zijn (smeergeld Intel) want in dat geval duurt het eerst jaren voordat de OEM's mee zijn wegens langlopende contracten, slecht geïnformeerde en branding-gevoelige klanten en pas wanneer die OEM's eindelijk eens mee zijn komt die software-support.
Het voorbehoud moet ik maken. Fool me once, shame on you. Fool me twice, shame on me. Ik denk dat de OEM's nu niet meer smeergeld aannemen van Intel om AMD te boycotten maar ze zijn wel verdomd traag met systemen met AMD-CPU's aan te bieden. Zelfbouwmarkt: 60-70% AMD. OEM's: <10% AMD. Net zoveel modellen voor heel Ryzen als voor enkel de 7700k of enkel de 8700k. :/

CHBF wijzigde deze reactie 20-01-2019 12:48 (19%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
CHBF schreef op zondag 20 januari 2019 @ 12:45:
[...]

Altijd weer die OEM's die een blok beton aan AMD hun been zijn. Of een grote bron van inertia indien ze niet meer corrupt zijn (smeergeld Intel) want in dat geval duurt het eerst jaren voordat de OEM's mee zijn wegens langlopende contracten, slecht geïnformeerde en branding-gevoelige klanten en pas wanneer die OEM's eindelijk eens mee zijn komt die software-support.
Het voorbehoud moet ik maken. Fool me once, shame on you. Fool me twice, shame on me.
Dit heeft imho niets te maken met de OEM's, ik denk dat je commentaar op de OEMs in dit geval ook misplaatst is. Het heeft juist meer met de software developers te maken. Veel van dit soort developers hebben geen zin om allerlei zelfbouw meuk en consumenten hardware te supporten. Het is dan ook niet dat ze geen AMD kaarten (of systemen met AMD kaarten) supporten, die supporten ze juist wel. Echter wel alleen de FirePro / Radeon Pro ranges. Het wil ook niet zeggen dat de software niet werkt op consumenten Radeon kaarten, alleen dat als je problemen hebt dat de kans aanwezig is dat ze je niet willen helpen tot er enkel gecertificeerde hardware in je systeem zit.

Chronia Lvl 110 Warlock Diablo 3

Dennism schreef op zondag 20 januari 2019 @ 12:54:
Veel van dit soort developers hebben geen zin om allerlei zelfbouw meuk en consumenten hardware te supporten. Het is dan ook niet dat ze geen AMD kaarten (of systemen met AMD kaarten) supporten, die supporten ze juist wel. Echter wel alleen de FirePro / Radeon Pro ranges. Het wil ook niet zeggen dat de software niet werkt op consumenten Radeon kaarten, alleen dat als je problemen hebt dat de kans aanwezig is dat ze je niet willen helpen tot er enkel gecertificeerde hardware in je systeem zit.
Aangezien AMD bij hun gaming-kaarten dezelfde (geen proprietary software) software-stack aanbiedt en de hardware ook nauwelijks verschil...
Het grote verschil tussen die Radeon VII en de 'pro'-kaarten lijkt te zijn dat ze softwarematig FP64 throttlen voor de Radeon VII kaarten maar voor mensen die incidenteel dat 'pro'-werk doen is het best interessant om zo'n kaart daarvoor te gebruiken. Hoeveel werk kan het zijn voor die software-bedrijven om zo'n kaart te ondersteunen aangezien het nagenoeg dezlefde hardware en software is?

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
CHBF schreef op zondag 20 januari 2019 @ 13:04:
[...]

Aangezien AMD bij hun gaming-kaarten dezelfde (geen proprietary software) software-stack aanbiedt en de hardware ook nauwelijks verschil...
Het grote verschil tussen die Radeon VII en de 'pro'-kaarten lijkt te zijn dat ze softwarematig FP64 throttlen voor de Radeon VII kaarten maar voor mensen die incidenteel dat 'pro'-werk doen is het best interessant om zo'n kaart daarvoor te gebruiken. Hoeveel werk kan het zijn voor die software-bedrijven om zo'n kaart te ondersteunen aangezien het nagenoeg dezlefde hardware en software is?
Hoeveel werk dat is, geen idee, ik werk niets voor zo'n software bedrijf :P Of de software stack helemaal hetzelfde is weet ik trouwens niet, normaliter zijn het juist vaak de gecertificeerde drivers die niet beschikbaar zijn voor de consumenten kaarten (zonder modificaties in ieder geval) wat volgens mij altijd een voornaam struikelblok was. Dat kan natuurlijk veranderd zijn, zoveel heb ik ook niet met deze materie te maken.

Chronia Lvl 110 Warlock Diablo 3

Voor zo ver ik het weet zijn de drivers anders maar of dat belangrijk is voor de ondersteuning wanneer de door AMD gebruikte software (GPUOpen) open source software is...

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
CHBF schreef op zondag 20 januari 2019 @ 17:42:
Voor zo ver ik het weet zijn de drivers anders maar of dat belangrijk is voor de ondersteuning wanneer de door AMD gebruikte software (GPUOpen) open source software is...
Volgens mij zit het zo dat enerzijds AMD / Nvidia de professionele drivers extra testen op stabiliteit e.d. maar daarnaast testen en certificeren de software boeren diezelfde drivers drivers ook. Zo zie je vaak ook dat ze aangeven om i.c.m. software versie X.x en Grafische kaart Y driver versie Z gebruikt zou moeten worden voor een "supported" configuratie. In mijn ervaring is het gebruik van de juiste driver dan ook redelijk belangrijk, daar je anders de kans hebt dat de software je gewoon weg geen support wil leveren voordat je configuratie wel "supported" is. Als het hebben van support vanuit de software boer dus belangrijk is voor je bedrijfsvoering zal het dus zeker belangrijk om je aan hun voorschriften te houden.

Chronia Lvl 110 Warlock Diablo 3


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
enchion schreef op zondag 20 januari 2019 @ 10:58:
AMD heeft door hun ongrijpbare strategie dus perfect effectief nVidia uit de tent gelokt om RTX naar voren te trekken.
(nVidia RTX als preemptieve reactie op NAVI terwijl RTX eigenlijk waarschijnlijk voor 7nm gepland was)

Waar AMD zonder 1 kaart te verkopen nVidia in een negatief daglicht heeft kunnen zetten.
Nee ik denk het niet. Nvidia zal daar voor waarschijnlijk met een refresh van turing op 7nm komen als ik de geruchten mag geloven, tenmiste als AMD meer te bieden heeft dan Vega+15%.

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i

Gekke Jantje schreef op maandag 21 januari 2019 @ 11:33:
[...]


Nee ik denk het niet. Nvidia zal daar voor waarschijnlijk met een refresh van turing op 7nm komen als ik de geruchten mag geloven, tenmiste als AMD meer te bieden heeft dan Vega+15%.
De relevante vraag - uitgaande van een concurrentiestrijd - is wanneer die refresh komt. RTX is nog maar net uit dus ik zie die '7 nm' GPU's van Nvidia voor gaming niet komen voor het einde van het jaar.
Verder is dat niet zo relevant want het probleem zal eerder zijn dat AMD te weinig van die kaarten gaat maken, dit zijn rebranded 'professionele' kaarten die als zoethouder dienen totdat Navi uitkomt. AMD komt aan het einde van 2019 of het begin van 2019 met een grote Navi-kaart waar Nvidia het tegen die tijd tegen zal moeten opnemen in de high-end met hun 7 nm. kaart.
offtopic:
Een veel interessantere vraag is waarom Nvidia zo verschrikkelijk veel haast had dat het niet eventjes op de 7 nm. node wachtte en haastig een GPU uitbracht die waarschijnlijk voor de 7nm. node van TSMC/Samsung was gepland. Indien jij hierop wil ingaan dan stel ik voor dat jij dat in de Nvidia-draad doet.

Zelfcensuur is de meest schadelijke vorm van censuur.

Er zijn maanden geleden kennelijk al een aantal Navi ID's opgedoken, voor macOC. ;)
Navi 9
Navi 10
Navi 12
Navi 16
https://www.reddit.com/r/...e_update_includes_device/

Dat zijn waarschijnlijk APU's. We gaan dus naar minstens 16CU APU's. De AdoredTV leaks hadden het over maximaal 20CU's en dit begint erop te lijken. :)

DaniëlWW2 wijzigde deze reactie 21-01-2019 16:07 (10%)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Ik denk dat Jim in zijn laatste video al mogelijke twijfels had weggenomen aangezien hij duidelijk liet weten dat zijn bron eerder correcte informatie had gegeven. Ik heb nooit aan zijn leaks getwijfeld, de enige vraag is of dat die informatie up to date was. Plannen veranderen.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • The Source
  • Registratie: april 2000
  • Laatst online: 15-02 12:58
DaniëlWW2 schreef op donderdag 17 januari 2019 @ 20:51:
[...]


Oh maar veel van die chips gaan waarschijnlijk niet naar de RX Vega VII kaarten. Nee, het is al een tijdje bekend dat dit jaar er een nieuwe Mac Pro gaat verschijnen. Doe eens een gok welke GPU je daarin verwacht. ;)
Als iets bij Apple verschijnt doen eens een gok waar die GPU's niet naar toe gaan?
The Source schreef op dinsdag 22 januari 2019 @ 23:06:
[...]

Als iets bij Apple verschijnt doen eens een gok waar die GPU's niet naar toe gaan?
Ik ga er niet vanuit dat RX Radeon VII een enorm volumeproduct gaat zijn. Betekent niet dat ze helemaal niet zullen bestaan. Die 5000 is gewoon een te laag getal en ik denk dat jij dat ook wel weet. Het lijkt me ook niet rendabel om zulke lage oplages te produceren en te distribueren. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • The Source
  • Registratie: april 2000
  • Laatst online: 15-02 12:58
DaniëlWW2 schreef op dinsdag 22 januari 2019 @ 23:09:
[...]


Ik ga er niet vanuit dat RX Radeon VII een enorm volumeproduct gaat zijn. Betekent niet dat ze helemaal niet zullen bestaan. Die 5000 is gewoon een te laag getal en ik denk dat jij dat ook wel weet. Het lijkt me ook niet rendabel om zulke lage oplages te produceren en te distribueren. ;)
Oh sry... dacht dat je het over navi had. :)
Vega 7.. marketing product.
The Source schreef op dinsdag 22 januari 2019 @ 23:12:
[...]

Oh sry... dacht dat je het over navi had. :)
Tja, die Navi's lijken toch echt een deel van een APU te zijn. Als Apple dan semi custom is gegaan en exclusiviteit heeft afgedwongen dan heb ik er weinig over te vinden. Daarbuiten zouden leuke APU's in leuke laptops natuurlijk welkom zijn. Mijn oude MSI laptop die me redelijk trouw mijn studietijd door heeft geholpen is onderhand ook aan vervanging toe en die vervanging kan best wel eens geforceerd worden dit jaar voor mij. ;)
Vega 7.. marketing product.
Zo ver was ik ook al, hoewel ik denk dat die best wel eens populair kan zijn voor bepaalde workstation applicaties. Het is niet bepaald een zwak presterende chip. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

AMD heeft samengewerkt met Capcom voor Resident Evil 2. Rapid Packed Math, shader Intrinsics en FP16, meer dan 60 FPS bij maximale instellingen @1080p voor de RX5 570. Mooi, dat spel staat op mijn lijst.
YouTube: Resident Evil 2 Recommended Settings

CHBF wijzigde deze reactie 25-01-2019 22:23 (20%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Tjona100
  • Registratie: december 2006
  • Laatst online: 13:30
Zo te zien gaat Sapphire de Vega Vll leveren in ieder geval met het reference design.


http://www.sapphiretech.c...FF4-84881431E725&lang=eng

BBC Radio 1


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
CHBF schreef op vrijdag 25 januari 2019 @ 22:23:
AMD heeft samengewerkt met Capcom voor Resident Evil 2. Rapid Packed Math, shader Intrinsics en FP16, meer dan 60 FPS bij maximale instellingen @1080p voor de RX5 570. Mooi, dat spel staat op mijn lijst.
YouTube: Resident Evil 2 Recommended Settings
Zijn leuke technieken maar voegen nauwelijks wat toe qua extra fps bleek uit eerdere tests met bijvoorbeeld Wolfenstein en FC5. Alle extra fps is natuurlijk wel mooi meegenomen.

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i

Eh, wat? Wolfenstein2 draait juist geweldig op AMD-kaarten. Het spel is matig maar het draait geweldig. Bij Far Cry 5 heb je ook goede resultaten, zeker als je het afzet tegen de voorganger (die versie toen de mensen in grotten leefden).

Zelfcensuur is de meest schadelijke vorm van censuur.


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 19:34
DaniëlWW2 schreef op dinsdag 22 januari 2019 @ 23:17:
[...]

[...]

Zo ver was ik ook al, hoewel ik denk dat die best wel eens populair kan zijn voor bepaalde workstation applicaties. Het is niet bepaald een zwak presterende chip. :)
Het zit er dik in dat hij in het wild straks haast niet te krijgen is. Dat is hetgeen zojuist door the source nog eens werd geïmpliceerd. Ga je populair definiëren als vraag groter dan aanbod dan krijg je ongetwijfeld gelijk. Maar gaan we praten over een marktaandeel groter dan een druppel op een gloeiende plaat dan denk ik dat je er naast zit. Tot heden zien we nog altijd geen volume richting gamers aan de Vega 56/64 kan en die zijn toch echt een stuk voordeliger te maken. (Bovendien zijn ze nu ook voor <350 op voorraad). Lijkt mij heel sterk dat AMD nu meer RX Vega VII gaat bestellen dan dat product. Marketing product lijkt mij een prima samenvatting. Een semi theoretisch product puur voor de naam, niet om daadwerkelijk in volumes naar je klanten te brengen. Tevens mogelijk verliesgevend. AMD zal niet het eerste bedrijf zijn die deze strategie volgt. Een Bugatti Veyron leverde bij lancering iets van 6 miljoen verlies per stuk op. Daarmee is het tegenargument waardoor de oplage van 5000 niet zou werken overigens ook meteen van tafel geveegd. Stel je verliest 200 dollar per kaart dan kost het je, los van overhead, alsnog een miljoen (5000x200). Het is in die strategie echter geen probleem dat het geld kost. Het doel is het merk Radeon versterken.

Polaris begint overigens eindelijk wel op stoom te komen. Daar maakt AMD blijkbaar wel winst op.

sdk1985 wijzigde deze reactie 26-01-2019 19:04 (15%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
CHBF schreef op zaterdag 26 januari 2019 @ 18:29:
Eh, wat? Wolfenstein2 draait juist geweldig op AMD-kaarten. Het spel is matig maar het draait geweldig. Bij Far Cry 5 heb je ook goede resultaten, zeker als je het afzet tegen de voorganger (die versie toen de mensen in grotten leefden).
Het gaat me om de prestatie winst vergeleken met als de functies zijn uitgeschakeld, zijn maar enkele fps's. Dat de games sowieso al geweldig draaien klopt. De features voegen dus niet erg veel toe. Het was geloof ik te zien op een Duitse review site. En Rapid Packed Math FP16 werkt alleen op Vega

Edit

RE 2 loopt overigens ook wel erg lekker.

Max detail 2560x1440
27-01-2019, 11:49:04 re2.exe benchmark completed, 122345 frames rendered in 994.047 s
Average framerate : 123.0 FPS
Minimum framerate : 79.2 FPS
Maximum framerate : 316.2 FPS
1% low framerate : 84.2 FPS
0.1% low framerate : 44.4 FPS

Gekke Jantje wijzigde deze reactie 27-01-2019 12:06 (20%)

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i


  • Olaf van der Spek
  • Registratie: september 2000
  • Niet online
CHBF schreef op vrijdag 25 januari 2019 @ 22:23:
meer dan 60 FPS bij maximale instellingen @1080p voor de RX5 570.
Average FPS? Of minimum FPS? ;)

  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
DaniëlWW2 schreef op maandag 21 januari 2019 @ 16:06:
Er zijn maanden geleden kennelijk al een aantal Navi ID's opgedoken, voor macOC. ;)


[...]

https://www.reddit.com/r/...e_update_includes_device/

Dat zijn waarschijnlijk APU's. We gaan dus naar minstens 16CU APU's. De AdoredTV leaks hadden het over maximaal 20CU's en dit begint erop te lijken. :)
Er staat nu een post op reddit dat er enkel een device ID genoemd wordt en Navi 9,10,12 en 16 niet genoemd worden.Van dezelfde auteur als de door jou gelinkte draad. https://www.reddit.com/r/.../?st=jret0vkr&sh=600d458f

Dat Apple Navi gaat gebruiken lijkt me vrij zeker, APU's vind ik zonder verdere informatie wat ver gezocht trouwens. Ik weet niet of Intel TB nu al licentie kosten vrij gemaakt hebben. Ik hoor echter niets van AMD en TB support, echter zonder TB support zie ik Apple geen AMD apu's gebruiken gezien alle Apple randapparatuur zo'n beetje op TB draait.

Chronia Lvl 110 Warlock Diablo 3


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 19:36

Sp3ci3s8472

@ 12 graden...

Gekke Jantje schreef op zondag 27 januari 2019 @ 10:44:
[...]


Het gaat me om de prestatie winst vergeleken met als de functies zijn uitgeschakeld, zijn maar enkele fps's. Dat de games sowieso al geweldig draaien klopt. De features voegen dus niet erg veel toe. Het was geloof ik te zien op een Duitse review site. En Rapid Packed Math FP16 werkt alleen op Vega

Edit

RE 2 loopt overigens ook wel erg lekker.

Max detail 2560x1440
27-01-2019, 11:49:04 re2.exe benchmark completed, 122345 frames rendered in 994.047 s
Average framerate : 123.0 FPS
Minimum framerate : 79.2 FPS
Maximum framerate : 316.2 FPS
1% low framerate : 84.2 FPS
0.1% low framerate : 44.4 FPS
Heb je daar een bron van dan? Ik ben zelf benieuwd hoeveel procent winst het geeft. AMD geeft aan van 44 naar 50fps te gaan in Wolfenstein met RPM, dat is 13% snelheidswinst. Dat vind ik een prima percentage, als jij dat weinig vind, wat vind jij dan voldoende voordat een feature in een kaart mag zitten?

Battle.net tag


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
Wij van wc eend. Van mij mogen er features in zitten die 0% winst opleverd. Al is het maar een beetje, het is mooi meegenomen.

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i

AMD heeft de laatste jaren geen enkele reden gegeven om niet te geloven wat ze beweren, al hun beweringen die bevestigd of gefalsificeerd konden worden bleken te kloppen. Bovendien is het mogelijk om te testen of dat deze bewering klopt, het zou bijzonder dom zijn van AMD PR om een dergelijke bewering te doen als het niet zou kloppen. Jij laat blijken niet te begrijpen hoe PR en marketing werken. Gebruikelijk is dat bedrijven niet liegen maar selectief zijn met wat ze in het zonlicht zetten en wat ze in de schaduw houden. Spinning is veel succesvoller dan liegen en dat wordt dan ook veel meer gebruikt. Nvidia is en Intel zijn er een meester in, AMD doet het ook. Een goed voorbeeld is dat AMD bij Ryzen1 enkel de 1440p/4k gaming performance liet zien. Er werd niets aan gelogen en iemand die niet onnozel is begreep direct dat waarschijnlijk de FPS bij 1080p gaming lager zou zijn.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 19:36

Sp3ci3s8472

@ 12 graden...

The-Forge Taking Open-Source TressFX Further With Vulkan, Other Framework Improvements
The Forge as a reminder is a cross-platform rendering framework developed by think-tank / consulting firm Confetti and added Linux support last year followed by full-featured Vulkan support. This rendering framework that can be used by gaming engines and more also supports macOS/iOS, Android, Xbox, PlayStation 4, and of course Windows.
Erg leuk dat het nu oud of the box in een rendering framework zit.

Battle.net tag


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
CHBF schreef op maandag 28 januari 2019 @ 16:50:
AMD heeft de laatste jaren geen enkele reden gegeven om niet te geloven wat ze beweren, al hun beweringen die bevestigd of gefalsificeerd konden worden bleken te kloppen. Bovendien is het mogelijk om te testen of dat deze bewering klopt, het zou bijzonder dom zijn van AMD PR om een dergelijke bewering te doen als het niet zou kloppen. Jij laat blijken niet te begrijpen hoe PR en marketing werken. Gebruikelijk is dat bedrijven niet liegen maar selectief zijn met wat ze in het zonlicht zetten en wat ze in de schaduw houden. Spinning is veel succesvoller dan liegen en dat wordt dan ook veel meer gebruikt. Nvidia is en Intel zijn er een meester in, AMD doet het ook. Een goed voorbeeld is dat AMD bij Ryzen1 enkel de 1440p/4k gaming performance liet zien. Er werd niets aan gelogen en iemand die niet onnozel is begreep direct dat waarschijnlijk de FPS bij 1080p gaming lager zou zijn.
Ook AMD maakt het vaak genoeg mooier dan wat het is en dat ik ook vaak zat bewezen met feiten. Ik begrijp maar al te goed dat dit ook pr en marketing is. Verder zeg ik ook nergens dat het liegen is maar het is wel een vorm van misleiding.

Over liegen gesroken. Bulldozer octa core was pas nog in het nieuws

Gekke Jantje wijzigde deze reactie 28-01-2019 19:23 (8%)

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i

https://www.techspot.com/...sident-evil-2-benchmarks/
YouTube: Resident Evil 2 GPU Benchmark, Vega 56 vs. RTX 2060 vs. EVERYTHING!




Hiermee hebben we een antwoord op de door @Olaf van der Spek gestelde vraag: 1% minima boven de 60 FPS voor de RX 570. Helaas niet de 0,1% minima, daarvoor heb je de RX 580 nodig. Ik denk dat vooral de minder grote spreiding tussen het gemiddelde en de 1% en 0,1% een voordeel is van de RX 580, het zal wat vloeiender aanvoelen. Overigens lijkt de RX 570 vooral performance te verliezen (vooral bij de minima?) doordat het slechts 4 GB geheugen heeft.
De Vega56 presteert @stock gelijk met de GTX 1080, een iets betere gemiddelde, een iets lagere 0,1%. Iik ben benieuwd hoe het verbetert met ondervolten, als iemand van jullie dat eens wil uittesten nadat jullie een speellicentie kopen. ;)
Daarnaast is het interessant hoe je de performance verbetert zonder noemenswaardig aan grafische kwaliteit te verliezen door 1 instelling een stand lager te zetten. .
Voor Kepler-GPU's is het spel onspeelbaar. Een of ander probleem waardoor de kleuren niet juist worden afgebeeld. Ik speculeer voorzichtig dat het te maken zou kunnen hebben met hun kleurcompressie.

Het is wel erg jammer dat DX* weer wordt gebruikt. Als ze op een fatsoenlijke manier Vulkan hadden gebruikt dan zou de performance beter zijn, veronderstellende dat ze iemand hebben die er goed mee kan werken.
Het spel gebruikt wel DX12 maar daar hebben ze een rotzooi van gemaakt, ook bij AMD is de performance veel lager bij DX12. Weer een DX12-patchje? :/
TressFX zou ook leuk zijn geweest en TrueAudio zou ik zeer waarderen maar dat kunnen we helaas afschrijven. :/

CHBF wijzigde deze reactie 29-01-2019 13:00 (12%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Zeara
  • Registratie: juni 2009
  • Laatst online: 14:53
CHBF schreef op dinsdag 29 januari 2019 @ 12:46:
De Vega56 presteert @stock gelijk met de GTX 1080, een iets betere gemiddelde, een iets lagere 0,1%. Iik ben benieuwd hoe het verbetert met ondervolten, als iemand van jullie dat eens wil uittesten nadat jullie een speellicentie kopen. ;)
Op mijn vega 64LC met 1625@1050 loopt het in ieder geval ook 144+ op 1080p. En van een vriend met vega 56 (volgens mij ook met undervolt) heb ik ook geen klachten gehoord.
Zeara schreef op dinsdag 29 januari 2019 @ 13:11:
[...]


Op mijn vega 64LC met 1625@1050 loopt het in ieder geval ook 144+ op 1080p. En van een vriend met vega 56 (volgens mij ook met undervolt) heb ik ook geen klachten gehoord.
Als je wil, vergelijk eens de performance tussen stock en undervolted. Misschien wil iemand anders hier dat ook even doen, Je kan nu nog de demo spelen als ik me niet vergis. Ik ben vooral benieuwd naar het verschil in minima FPS voor 1440p tussen stock en overklokt (lees: of dat Vega56 ook voor de 0,1% FPS de GTX 1080 verslaat) en in het bijzonder wanneer ook het gebeugen wordt overklokt aangezien de ROP de zwakke schakel lijkt te zijn vopr gaming (maar voorzichtig daarmee zijn, ik zou niet de spanning op het geheugen verhogen naar hoger dan wat AMD officieel toestaat, dat ging bij Daniël niet lang goed).

CHBF wijzigde deze reactie 29-01-2019 13:25 (10%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 19:36

Sp3ci3s8472

@ 12 graden...

CHBF schreef op dinsdag 29 januari 2019 @ 12:46:
https://www.techspot.com/...sident-evil-2-benchmarks/
YouTube: Resident Evil 2 GPU Benchmark, Vega 56 vs. RTX 2060 vs. EVERYTHING!

[Afbeelding]
[Afbeelding]

Hiermee hebben we een antwoord op de door @Olaf van der Spek gestelde vraag: 1% minima boven de 60 FPS voor de RX 570. Helaas niet de 0,1% minima, daarvoor heb je de RX 580 nodig. Ik denk dat vooral de minder grote spreiding tussen het gemiddelde en de 1% en 0,1% een voordeel is van de RX 580, het zal wat vloeiender aanvoelen. Overigens lijkt de RX 570 vooral performance te verliezen (vooral bij de minima?) doordat het slechts 4 GB geheugen heeft.
De Vega56 presteert @stock gelijk met de GTX 1080, een iets betere gemiddelde, een iets lagere 0,1%. Iik ben benieuwd hoe het verbetert met ondervolten, als iemand van jullie dat eens wil uittesten nadat jullie een speellicentie kopen. ;)
Daarnaast is het interessant hoe je de performance verbetert zonder noemenswaardig aan grafische kwaliteit te verliezen door 1 instelling een stand lager te zetten. .
Voor Kepler-GPU's is het spel onspeelbaar. Een of ander probleem waardoor de kleuren niet juist worden afgebeeld. Ik speculeer voorzichtig dat het te maken zou kunnen hebben met hun kleurcompressie.

Het is wel erg jammer dat DX* weer wordt gebruikt. Als ze op een fatsoenlijke manier Vulkan hadden gebruikt dan zou de performance beter zijn, veronderstellende dat ze iemand hebben die er goed mee kan werken.
Het spel gebruikt wel DX12 maar daar hebben ze een rotzooi van gemaakt, ook bij AMD is de performance veel lager bij DX12. Weer een DX12-patchje? :/
TressFX zou ook leuk zijn geweest en TrueAudio zou ik zeer waarderen maar dat kunnen we helaas afschrijven. :/
Je kan DXVK gebruiken ;). Dit zal waarschijnlijk niet sneller zijn tenzij ze slimmer bepaalde DX11 features aanspreken.

Battle.net tag


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 19:34
Volgens Fudzilla kost de Radeon VII $650 https://fudzilla.com/news...n-vii-production-cost-650 aan materialen. Het is IMO niet heel sterk onderbouwd maar het past wel in lijn met wat we er verder over gehoord hebben (marketing kaart aldus the source, beperkte oplage van 5000 stuks).

Overigens zie ik op dezelfde website een artikel dat mijn vermoeden dat AMD geld verliest op Vega 56/64 deelt. Destijds baseerde ik dat op de lage productie aantallen. Het miner argument, dat die alles zouden opkopen, vond ik toen niet zo sterk aangezien de omzet van AMD na correctie voor het succes van Zen niet echt was gestegen. Dat in tegenstelling tot Nvidia die van 600M naar 3000M per kwartaal ging. Nu de mining hype voorbij is zie ik Vega56 voor prima prijzen (<350 euro) én op voorraad. Echter komen ze nog altijd niet voor in de steam charts. De enige verklaring die ik kan verzinnen blijft dat het volume nog altijd heel erg laag is.

Je zou bijna de SEC eens een mailtje sturen of AMD niet eens netjes die gpu omzetten moet gaan vermelden aangezien RTG management technisch los zou staan. Echter laten ze daar nu net mee gestopt zijn nieuws: AMD stelt nieuwe topman Computing & Graphics-divisie aan . Denk niet dat we er ooit achter gaan komen.

Met dit soort prijzen wordt die Vega overigens wel steeds interessanter. Een Polaris is naar mijn mening echt te traag (ga daar eens Anthem mee spelen) maar dat gaat niet op voor Vega. Nvidia is ondertussen heel erg duur. Als die vega 100 euro onder de 2060 zakt dan wordt het een no-brainer


Op basis hiervan zou een Vega56 nu 0.87*375=326 euro mogen kosten.

Voor mij persoonlijk moet er dan overigens nog wel heel wat vanaf om het energie vebruik te compenseren. Die 30W multimonitor bug kost mij met 10 uur pc tijd per dag 22 euro per jaar. Ik zie dus liever dat ze die bug oplossen. De gemiddelde gamer heeft daar geen last van. Die heeft of geen multi monitor setup of zet zijn pc geen 10 uur per dag aan.

sdk1985 wijzigde deze reactie 29-01-2019 15:12 (17%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

@sdk1985
Aan de andere kant heeft Vega een betere performance wanneer Vulkan of wanneer op een fatsoenlijke wijze DX12 (dus niet een slappe patch) wordt gebruikt of wanneer features zoals RPM worden gebruikt. Dat gebeurt niet vaak maar zoals altijd hangt het af van de spellen die je graag speelt. Ik denk dat we voor nu FreeSync nog als voordeel mogen noteren aangezien Nvidia nog wat last heeft van bugs. Level1techs had hier laatst (afgelopen zondag als ik me niet vergis) een video en artikel voor gemaakt maar dat is hier offtopic, het punt is dat FreeSync nog beter werkt met AMD-kaarten, ik verwacht wel dat Nvidia op de lange termijn die problemen zal oplossen maar je weet het niet zeker.

Wat voor mij vooral telt is dat ik niet de situatie wil dat we over een paar jaar enkel nog Nvidia of Nvidia en nieuwkomer Intel hebben en dat ik niet gecharmeerd ben van bepaalde praktijken van Nvidia die hier uitgebreid zijn besproken. Ik ben geen sucker die dan maar eender wat koopt, ik wacht op een goed moment. Ik vermoed dat Navi een uitstende performance/€ en performance/W gaat geven in vergelijking met Pascal en Turing dus ik zal een grafische kaart met een Navi-GPU gaan kopen, ik hoop dat er duidelijkheid (prijs, performance-niveau, aantal CU's) komt over de big boy Navi voordat die 3080 uitkomt.
Sp3ci3s8472 schreef op dinsdag 29 januari 2019 @ 13:33:
[...]


Je kan DXVK gebruiken ;). Dit zal waarschijnlijk niet sneller zijn tenzij ze slimmer bepaalde DX11 features aanspreken.
DXVK is wonderbaarlijk goed, dat is waar. Maar je blijft inderdaad de beperkingen van DX11 houden en daar gaat het mij ook om.
Ik kan leven met dual booten of virtualisatie als AMD ooit eens SR-IOV regelt voor de gaming-kaarten. O-)
Virtualisatie met passthrough is leuk om mee te spelen maar ik vind het hogere verbruik doordat die tweede kaar de hele tijd wat vermogen trekt niet fijn. Dan maar dual booten?

Met Vulkan heb je niet alleen alle platforms in 1 keer te pakken (ook al zou Apple niet mee willen werken, Sony en MS bezwijken vast wel voor hun consoles) maar je kan ook veel meer performance uit de CPU en de grafische kaart halen. Voor oudere CPU's is het voordeel het grootst maar zelfs met de 'snelste' CPU's zou het voordeel groot zijn. Denk bijvoorbeeld maar aan Starfcraft2, wanneer je met 150 tegen 150 units vecht dan zakt de FPS met elke CPU gigantisch. Het is ook wel fijn als je bij een AAA spel met dezelfde hardware 140 FPS haalt in plaats van 90 of dat developers mooiere graphics kunnen laten zien met die 90 FPS.

CHBF wijzigde deze reactie 29-01-2019 19:46 (51%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • enchion
  • Registratie: februari 2002
  • Niet online
Het is wachten op de benchmarks met "neutrale" titels, FF zit zo diep in nVidia`s kont dat Jensen hun met wat Fantasy kan proeven.

Het verschil tussen Standard en "High" Quality is erbarmelijk en zou eigenlijk Standard en "Low AMD" Quality moeten heten.

Het grote wachten is dus op titels als bv Rage2.

How do you save a random generator ?

enchion schreef op woensdag 30 januari 2019 @ 22:52:
Het is wachten op de benchmarks met "neutrale" titels, FF zit zo diep in nVidia`s kont dat Jensen hun met wat Fantasy kan proeven.

Het verschil tussen Standard en "High" Quality is erbarmelijk en zou eigenlijk Standard en "Low AMD" Quality moeten heten.

Het grote wachten is dus op titels als bv Rage2.
Gelukkig kunnen wij opzoeken wat de performance van het spel is voordat we een speellicentie kopen. Presteert het spel slecht op de hardware die wij hebben of willen kopen dan laat je het spel toch links liggen totdat je hardware hebt die het wel goed kan draaien en tegen die tijd kan je een speellicentie voor dat spel voor een veel lagere prijs kopen. Behalve bij GTA5 wat nauwelijks in prijs daalde omdat mensen het blijven kopen. :/
Ik begrijp niet waarom mensen die een RX580 en R5 2600 hebben PUBG kopen, dat laat je toch links liggen als de FPS niet eens boven de 60 blijft bij een shooter en de FPS zo sterk schommelt. :?
En dat voor een spel wat er bepaald niet goed uitziet.

Wat betreft Square Enix en Nvidia, het valt mij op dat Nvidia bijzonder agressief heeft ingezet op deze serie vanaf Rise of the Tomb Raider (licht, AA, raytracing). Zou het zo zijn dat Nvidia extra agressief Gameworks-features aanbiedt aan nieuwe Tomb Raider spellen juist omdat Tombraider (2012/2013) TressFX gebruikte? Zou dit vooral gaan om mindshare? De associatie van het mooie haar in Tombraider met AMD wegpoetsen door ervoor te zorgen dat gamers bij latere delen van de serie overal Nvidia Gameworks features tegenkomen en een lagere performance bij AMD-kaaten zien wanneer ze benchmarks zien.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 19:14
Multi-player shooters speel je normaal gesproken ook niet op veel eisende instellingen. Sterker nog, veelal zorgen lagere instellingen er juist voor dat je andere spelers makkelijker kan zien op grotere afstanden.

En dan kan een RX580 prima:
https://www.techspot.com/...ics-benchmarks/page3.html
Ja, met "zeer lage instellingen"! Wat voor mij de dealbraker is is dat met zulke slechte graphics nog niet eens 60 FPS wordt vastgehouden (1%) met "normale" instellingen. Dat het op ultra niet lukt doet er weinig toe maar dat het zelfs met medium instellingen niet lukt vind ik problematisch, vooral als je ziet dat het bij de GTX 1060 wel lukt. Dat wijst voor mij erop dat de developer het gigantisch heeft laten liggen wat betreft optimalisatie, dit is geen hardware-probleem maar een software-probleem. Ik vind niet dat zij het geld verdienen met een aankoop als ze niet de moeite nemen om het een beetje te optimaliseren en in hun geval volstaat het wellicht om simpelweg wat instellingen van die Unreal4 engine te wijzigen voor hun spelletje. Bij Assassin's Creed hoef je ook geen >100 FPS te verwachten maar in ieder geval ziet het spel er goed uit.
Ja, als je erg competitief bent met shietspellen dan speel je het juist met lage instellingen maar persoonlijk zou ik dan een ander spel dan PUBG uitkiezen (CS:Go, Overwatch).

Deze vind ik grappig.
This wouldn't be much of a concern if PUBG set a new benchmark for PC game visuals, but instead you could argue that it doesn't really look much better than the original decade-old Crysis -- Crysis 2 from 2011 actually looks better if you ask us.
Is iemand hier van mening dat Crysis er niet veel beter uitziet dan PUBG? :)
Ze zeggen het zelf al, zelfs Crysis2 ziet er beter uit en dat is waarschijnlijk tongue in cheek bedoeld (Crysis2 wat qua graphics een soort van downgrade kreeg voor consoles). De laatste Assassin's Creed mag zo'n performance hebben, dit spel niet. En zet dat dan eens af tegen spellen zoals Doom, Wolfenstein2, Prey,Resident Evil 2 en Far Cry 5. Ik steun graag een independent developer maar die moet dan wel serieus werk leveren.

CHBF wijzigde deze reactie 31-01-2019 17:35 (49%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • DirtyHennessy
  • Registratie: oktober 2001
  • Laatst online: 19:27
CHBF schreef op donderdag 31 januari 2019 @ 17:25:
Ja, met "zeer lage instellingen"! Wat voor mij de dealbraker is is dat met zulke slechte graphics nog niet eens 60 FPS wordt vastgehouden (1%) met "normale" instellingen.

[...]

Is iemand hier van mening dat Crysis er niet veel beter uitziet dan PUBG? :)
Ze zeggen het zelf al, zelfs Crysis2 ziet er beter uit en dat is waarschijnlijk tongue in cheek bedoeld (Crysis2 wat qua graphics een soort van downgrade kreeg voor consoles). De laatste Assassin's Creed mag zo'n performance hebben, dit spel niet. En zet dat dan eens af tegen spellen zoals Doom, Wolfenstein2, Prey,Resident Evil 2 en Far Cry 5. Ik steun graag een independent developer maar die moet dan wel serieus werk leveren.
Let wel op dat deze gelinkte review van begin 2018 is en er het afgelopen jaar veel updates zijn geweest aan de game en de engine. Zelf ben ik van een magere 60-70 FPS naar een solide 120 FPS gegaan.

Veel van de bovenstaande spellen zullen er snel beter uit zien omdat deze spellen veel minder omgeving hoeven te renderen (met uitzondering van FC5 en AC). Komt ook nog bij dat open world in de Unreal engine altijd een zwakke plek is geweest waar je gewoon heel veel tijd in moet steken in optimalisatie om er nog redelijke performance uit te krijgen.
Hier een spotje wat uitstekend is maar wat eigenlijk 3 jaar geleden had moeten komen.
DirtyHennessy schreef op donderdag 31 januari 2019 @ 20:45:
[...]


Let wel op dat deze gelinkte review van begin 2018 is en er het afgelopen jaar veel updates zijn geweest aan de game en de engine. Zelf ben ik van een magere 60-70 FPS naar een solide 120 FPS gegaan.
Mooi! De laatste keer dat ik het spel zag verschijnen in een benchmark (Hardware Unboxed waarschijnlijk) zat de 1% nog onder de 60 bij de RX 580 en "normale instellingen".

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
CHBF schreef op donderdag 31 januari 2019 @ 12:43:
[...]

Gelukkig kunnen wij opzoeken wat de performance van het spel is voordat we een speellicentie kopen. Presteert het spel slecht op de hardware die wij hebben of willen kopen dan laat je het spel toch links liggen totdat je hardware hebt die het wel goed kan draaien en tegen die tijd kan je een speellicentie voor dat spel voor een veel lagere prijs kopen. Behalve bij GTA5 wat nauwelijks in prijs daalde omdat mensen het blijven kopen. :/
Ik begrijp niet waarom mensen die een RX580 en R5 2600 hebben PUBG kopen, dat laat je toch links liggen als de FPS niet eens boven de 60 blijft bij een shooter en de FPS zo sterk schommelt. :?
En dat voor een spel wat er bepaald niet goed uitziet.

Wat betreft Square Enix en Nvidia, het valt mij op dat Nvidia bijzonder agressief heeft ingezet op deze serie vanaf Rise of the Tomb Raider (licht, AA, raytracing). Zou het zo zijn dat Nvidia extra agressief Gameworks-features aanbiedt aan nieuwe Tomb Raider spellen juist omdat Tombraider (2012/2013) TressFX gebruikte? Zou dit vooral gaan om mindshare? De associatie van het mooie haar in Tombraider met AMD wegpoetsen door ervoor te zorgen dat gamers bij latere delen van de serie overal Nvidia Gameworks features tegenkomen en een lagere performance bij AMD-kaaten zien wanneer ze benchmarks zien.
De nieuwe Tomb Raider heeft ook Tress FX of Pure hair. Voor de rest ook geen Gameworks want de Gameworks effecten staan ook niet tussen de settings en de bestanden zijn ook niet aanwezig.

Bij FF kun je de Gameworks effecten uitschakelen en dan doet AMD het ook nog vrij goed tegenover gelijke kaarten van Nvidia.

https://nl.hardware.info/...benchmarks-wqhd-2560x1440

Volgens mij zijn er voor FF ook driver update geweest die de prestaties nog verder opkrikken.

Gekke Jantje wijzigde deze reactie 01-02-2019 09:21 (6%)

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i


  • Dennism
  • Registratie: september 1999
  • Laatst online: 18:56
CHBF schreef op donderdag 31 januari 2019 @ 12:43:

Ik begrijp niet waarom mensen die een RX580 en R5 2600 hebben PUBG kopen, dat laat je toch links liggen als de FPS niet eens boven de 60 blijft bij een shooter en de FPS zo sterk schommelt. :?
En dat voor een spel wat er bepaald niet goed uitziet.
De meeste gamers zullen een spel kopen omdat ze de game (of het genre) leuk vinden en daar hun hardware keuzes op baseren. Ik ken echt geen enkele gamer die eerst hardware koopt en dan gaat kijken welke games hij daar op kan draaien met de instellingen die hij wenst. Dat klinkt erg als de omgekeerde wereld.

Hardware wordt juist verkocht omdat mensen Pubg willen (wilden, volgens mij wordt het langzaam wat minder populair heb ik het idee) spelen, of bijvoorbeeld Fortnite.

Chronia Lvl 110 Warlock Diablo 3

Gekke Jantje schreef op vrijdag 1 februari 2019 @ 09:08:
Bij FF kun je de Gameworks effecten uitschakelen en dan doet AMD het ook nog vrij goed tegenover gelijke kaarten van Nvidia.
De vraag is of dat het volledig uit staat wanneer je het uitzet. GamersNexus heeft ervaren dat dat niet het geval is: Nvidia hun haireffect werd nog gebruikt voor dieren die buiten de getoonde frame staan (waar te nemen met o.a. Ansi). Verder spreek ik me niet uit over dit spel, ik ken de details onvoldoende. Zo weet ik niet in welke mate de graphics ingesteld kunnen worden buiten de Gameworks-functies, dus of dat ze voldoende eye-candy erin hebben gestopt die geen Gameworks gebruiken. Ik vermoed dat er zonder Gameworks weinig overblijft qua tweaking. Een ander puntje, het is voor mij een raadsel waarom deze developers van Square Enix niet TressFX gebruikte. Misschien omdat het meer werk is?
Dennism schreef op vrijdag 1 februari 2019 @ 11:23:
[...]


De meeste gamers zullen een spel kopen omdat ze de game (of het genre) leuk vinden en daar hun hardware keuzes op baseren. Ik ken echt geen enkele gamer die eerst hardware koopt en dan gaat kijken welke games hij daar op kan draaien met de instellingen die hij wenst. Dat klinkt erg als de omgekeerde wereld.
Ik stel dan ook niet dat de meeste gamers dat doen. Ik geef aan dat als je eenmaal bepaalde hardware hebt dat het dan handig is om te kijken naar hoe die spellen op die hardware draaien voordat je al dan niet een speellicentie koopt voor die spellen en dat je een shooter beter links laat liggen als het niet eens constant de FPS boven de 60 houdt terwijl het spel loopt (het inladen zullen we maar niet meetellen).

Gamers selecteren het performance-segment van de hardware op basis van de spellen die ze willen spelen, ik ben er niet van overtuigd dat gamers - zoals jij lijkt te stellen - ook het merk kiezen op basis van wat ze spelen. Immers zal een Vega56 bij elk spel wat niet een complete rotzooi is een aanzienlijk hogere FPS halen dan een GTX 1060 etc.
Ik sluit niet uit dat gamers voor spel X de GTX 1060 en RX 580 vergelijken maar ik zie geen aanwijzingen ervoor dat een groot percentage van de gamers dat doet (ik kom online wel eens gamers teggen die dat wel doen). De meeste gamers lijken slechts op naamsbekenheid en halo-effect af te gaan en op wat er in grote letters op de doos staat (meer geheugen dus beter, hogere klokfrequentie dus beter...).

CHBF wijzigde deze reactie 01-02-2019 11:46 (33%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Gekke Jantje
  • Registratie: november 2017
  • Nu online
CHBF schreef op vrijdag 1 februari 2019 @ 11:37:
[...]

De vraag is of dat het volledig uit staat wanneer je het uitzet. GamersNexus heeft ervaren dat dat niet het geval is: Nvidia hun haireffect werd nog gebruikt voor dieren die buiten de getoonde frame staan (waar te nemen met o.a. Ansi). Verder spreek ik me niet uit over dit spel, ik ken de details onvoldoende. Zo weet ik niet in welke mate de graphics ingesteld kunnen worden buiten de Gameworks-functies, dus of dat ze voldoende eye-candy erin hebben gestopt die geen Gameworks gebruiken. Ik vermoed dat er zonder Gameworks weinig overblijft qua tweaking. Een ander puntje, het is voor mij een raadsel waarom deze developers van Square Enix niet TressFX gebruikte. Misschien omdat het meer werk is?
Ook al staat het niet volledig uit, helemaal geen probleem gezien de performance op AMD meer dan prima is. Sinds veel van Gameworks ook open source is geworden kan AMD er ook voor optimaliseren. Ik ben ook benieuwd of AMD dat ook wel doet, Het zou wel interessant zijn om te zien hoe het zonder en met driver optimalisaties met Gameworks effecten presteert.

Asrock Z370 Extreme4 i7 8700k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Pro 512gb m.2 over chipset pcie lanes Corair hx750i


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

That's quite an opportunity

Hoewel de PlayStation 5 nog lang niet klaar is zijn er mogelijk wel development kits in omloop. De laatste info die de ronde doet is als volgt:
Backward compatibility - Physics game & PS store -ps plus and ps plus premium (premium beta early access, private server creation, 4k free remaster) -specs custom CPU ryzen 8core@3.0-3.2ghz GPU Navi architecture 10TF, Sony in conjunction with Amd for Navi, more raytracing, but that is not the focus. os 16GB Gddr6 + 4gb ddr4, a new mem controller for os ram, we already have 32 GB development kits

It takes two fools to argue.

Dat is een hoop video-geheugen, dat zou me verbazen aangezien Navi10 slecht 8 GB zou krijgen.
Wat betreft de CPU, dat ze 8 Ryzen-kernen zouden gebruiken lag nogal voor de hand maar gaat het Zen1 of Zen2 zijn?

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Derby
  • Registratie: januari 2010
  • Niet online
CHBF schreef op zondag 3 februari 2019 @ 13:03:
Dat is een hoop video-geheugen, dat zou me verbazen aangezien Navi10 slecht 8 GB zou krijgen.
Wat betreft de CPU, dat ze 8 Ryzen-kernen zouden gebruiken lag nogal voor de hand maar gaat het Zen1 of Zen2 zijn?
Als ze naar 4k willen qua resolutie en rekening houden met een levensduur van 5 a 6 jaar dan is 16GB niet heel gek denk ik.
En ik verwacht dat ze eind van het jaar de PS5 gaan aankondigen als ze er nu lekken naar buiten komen over de dev kits. Daarop volgend zal het wel Zen 2 worden mag ik aannemen. Zen 2 was altijd al ontworpen om op 7 nm uit te komen, 7 nm wordt nu al een poos geproduceerd (instinct). Dus ligt het mijn inziens in de verwachting dat het Zen 2 wordt.

If you do not wish to be contacted, do not check this box. euhm...right

Derby schreef op zondag 3 februari 2019 @ 13:18:
[...]

Als ze naar 4k willen qua resolutie en rekening houden met een levensduur van 5 a 6 jaar dan is 16GB niet heel gek denk ik.
Uiteraard maar dan valt die 8 GB die de 3080 (de opvolger van de RX 480/RX 580/RX 590) zou krijgen nogal tegen, nietwaar? In toenemende mate zie je dat meer dan 8 GB wordt aanbevolen voor de hoogste instellingen bij 1440p, de resolutie waarvoor die 3080 het meest geschikt zou zijn. In toenemende mate zie je dat hoge resolutie textures worden aangeboden, jij weet wellicht dat veel spellen niet echt 1440p/4k zijn omdat de textures nog niet verder gaan dan 1080p.
Idem voor wat oudere spellen en 1080p.
Ik zou graag zien dat AMD er genoeg geheugen op laat stoppen dat die kaarten de komende jaren geen beperking hebben om spellen met 1440p goed te draaien, in ieder geval met uitsluitend textures in die resolutie want dat doet enorm veel voor hoe het spel eruit ziet terwijl het niet of nauwelijks de GPU extra belast. Maar ja, met Samsung en Hynix die absurd hoge prijzen vragen met hun pricefixing...

Dit is een van de punten die mij doe overwegen om voor Navi te wachten op de grotere variant die naar verluidt eind 2019 of begin 2020 zou uitkomen maar waar verder nog niets over bekend is, ik zou dan ook graag voor de launch van de 3080 willen weten wanneer die big boy uitkomt en of dat die big boy een enkele GPU is. Ik verwacht niet dat AMD er op Computex iets over gaat mededelen. De 3080 is leuk maar mischien net te weinig. Voor nu een goede 1440p kaart als de leaks kloppen (RTX 2070 performance) maar net wat te licht voor 1440p ultrawide nu en de komende jaren gaat het misschien ook wat te licht worden voor 1440p. Mijn geheel willekeurige criterium: >100 FPS bij de hoogste instellingen van alle spellen die niet gebroken zijn (zoals die Assassin's Creed engine, PUBG of FFXV) waarbij je als speler het verschil niet ziet met hogere instellingen.
En ik verwacht dat ze eind van het jaar de PS5 gaan aankondigen als ze er nu lekken naar buiten komen over de dev kits. Daarop volgend zal het wel Zen 2 worden mag ik aannemen. Zen 2 was altijd al ontworpen om op 7 nm uit te komen, 7 nm wordt nu al een poos geproduceerd (instinct). Dus ligt het mijn inziens in de verwachting dat het Zen 2 wordt.
Eind 2019 of begin 2020. Net voor kerst zou natuurlijk goed uitkomen voor Sony dus ik kan me voorstellen dat dat het streven is. Ik ga ook uit van Zen2, vooral omdat het lage vermogen handig is voor die kleine consolekastjes die slechte PSU's en ventilatie hebben. Het ITX-dilemma: het moet klein zijn en het mag geen lawaai maken dus moet het vermogen laag zijn. :+

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Derby
  • Registratie: januari 2010
  • Niet online
CHBF schreef op zondag 3 februari 2019 @ 13:43:
[...]

Uiteraard maar dan valt die 8 GB die de 3080 (de opvolger van de RX 480/RX 580/RX 590) zou krijgen nogal tegen, nietwaar? In toenemende mate zie je dat meer dan 8 GB wordt aanbevolen voor de hoogste instellingen bij 1440p, de resolutie waarvoor die 3080 het meest geschikt zou zijn. In toenemende mate zie je dat hoge resolutie textures worden aangeboden, jij weet wellicht dat veel spellen niet echt 1440p/4k zijn omdat de textures nog niet verder gaan dan 1080p.
Disclaimer: pure speculatie van mijn kant.

Ik verwacht ook niet dat Navi voor consumenten 16GB zal krijgen. We zijn op videokaarten net van de 4GB af dus halverwege dit jaar al de sprong naar 16 lijkt me wat vroeg. Maar 8GB met een fatsoenlijke bandbreedte (hoeveelheid geheugen is leuk maar zonder bandbreedte is het nog niet echt nuttig) daar kun je de komende 3 a 4 jaar nog wel op gamen verwacht ik. Daarom denk ik dat een Sony eerder zal kiezen voor 16GB ivm lange termijn en misschien op een wat lagere bandbreedte om de kosten van het geheugen te drukken.
Het is tenslotte custom, dus ze kunnen het zo gek maken als ze zelf willen.
Voor AMD is het belangrijk nu niet meteen het beste aan te bieden omdat ze dan de komende jaren niks meer verkopen. En de dev-kits info zijn nog maar geruchten.

If you do not wish to be contacted, do not check this box. euhm...right

Ik denk dat 16GB GDDR6 ook wel zou kunnen, voor een devkit. ;)

Niet alleen omdat de volgende generatie consoles "4K" hard zal pushen, maar ook omdat consoles nu eenmaal semi custom zijn met een eigen software ecosysteem. Je gaat waarschijnlijk een systeem met een Zen 2 chiplet, afgeleide Navi 10 GPU, I/O chip en vram krijgen. Dat zal AMD op een flinke substraat zetten en als pakket verkopen aan Sony. Kloppen de gelekte specs, dan reserveert Sony apart wat DDR4 en waarschijnlijk een Zen 2 core voor PS5 OS. Devkits hebben alleen vaak meer RAM dan de uiteindelijke consoles. De PS5 kan dus zomaar "maar" 8GB of 12GB aan GDDR6 krijgen die dan gedeeld worden tussen de GPU en CPU voor games. VRAM delen gebeurd nu al met de huidige generatie consoles en GDDR is nu eenmaal een stuk sneller dan DDR.

Overigens gaat Microsoft waarschijnlijk ook voor Zen 2 + Radeon. Die geruchten gaan nu ook al lang genoeg en er lijkt niet echt een alternatief te zijn. De vraag is of de volgende Xbox ook gebruik zal maken van Navi, of dat Arcturus, de opvolger van Navi gebruikt zal worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Derby schreef op zondag 3 februari 2019 @ 13:56:
We zijn op videokaarten net van de 4GB af dus halverwege dit jaar al de sprong naar 16 lijkt me wat vroeg.
Net? Het is al 3 jaar geleden dat 8 GB werd geïntroduceerd op een kaart van iets boven de €200.
Voor AMD is het belangrijk nu niet meteen het beste aan te bieden omdat ze dan de komende jaren niks meer verkopen.
Dat is geen spel wat AMD speelt, niet op dit moment in ieder geval. Dat doen ze niet met Ryzen, ik geloof niet dat ze dat wel doen met de grafische kaarten. Het probleem zal eerder zijn dat Samsung en Hynix (samen met Micron maar die is voor zo ver ik het weet geen serieuze speler bij geheugen voor grafische kaarten) illegaal prijsafspraken hebben gemaakt en dat daarom kaarten met 16 GB geheugen te duur zouden zijn. Als het geheugen nu de helft zou kosten dan zou het wel kunnen en zonder die illegale prijsafspraken zou het sowieso veel minder kosten, vergelijk maar de prijs van DDR4 nu met die van 2016.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Derby
  • Registratie: januari 2010
  • Niet online
CHBF schreef op zondag 3 februari 2019 @ 22:09:
[...]

Net? Het is al 3 jaar geleden dat 8 GB werd geïntroduceerd op een kaart van iets boven de €200.
Ja Het is nu eigenlijk niet meer mogelijk om een kaart te kopen met 4GB. Tenminste een serieuze kaart (rx550 kan ik moeilijk een serieuze game kaart noemen). 8GB is net aan mainstream.
Dat is geen spel wat AMD speelt, niet op dit moment in ieder geval. Dat doen ze niet met Ryzen, ik geloof niet dat ze dat wel doen met de grafische kaarten.
Die ryzen 2800 die nooit gekomen is en er zeker wel had kunnen komen met wat binning. De aankomende navi reeks die naar verwachting eerst de mainstream kaarten (hoge volume) gaan zijn. De komende ryzen serie die niet meteen de 3800 of 3850 zal bevatten. Ik snap dat ze het doen om momentum te houden in de media.
Als er een nieuw product gelanceerd wordt is het niet slim om meteen het beste aan te bieden. De ontwikkeltijd neemt te veel tijd in beslag, en wat ga je na 2 jaar laten zien? Het is handig om nu 80% als 100% te verkopen zodat je later, als de concurrentie bij is 90% kan laten zien en nog eens later of als special edition 100%. Waarom kunnen wij de processoren overklokken, omdat de fabrikant wat marge inbouwt. Niet alleen om het productie proces te vergemakkelijken maar ook om later nog wat achter de hand te hebben. Feitelijk was de 5x0 dat voor de 4x0 serie, en die is nu nog eens uitgebreid met de 590.

If you do not wish to be contacted, do not check this box. euhm...right

De Ryzen 2800 was niet zo interessant geweest: 0,1 GHz. extra of een iets lagere spanning voor dezelfde klokfrequentie. Ik speculeer dat die 2800 er nooit kwam omdat AMD in de gaten had gekregen dat ze niet €200 extra kunnen vragen voor dat kleine verschil in performance (1800X vs. 1700). Nu ja, AMD kon dat wel maar de 1700 ging als zoete broodjes over de toonbank en de 1800X bleef liggen. Met de volgende generatie kan AMD wel weer een hogere prijs vragen doordat ze nieuwe segmenten introduceren: 6 kernen aan de bodem en daartussen minstens 8, 12 en 16. Voldoende verschil in performance => voldoende hoge prijsverschillen waar je mee wegkomt.

Ik weet niet of dat die 3800 later komt, ik ken het gerucht dat die betere 16C-variant later zou komen. Hier speelt binning natuurlijk een grote rol, ze zullen eerst voldoende samples moeten hebben die werken, die een tijdlang apart leggen en dan kunnen ze dat model eens introduceren. Voor mij is het de vraag of dat AMD het zich wel kan veroorloven om wat achter te houden voor later, AMD heeft nog steeds weinig naamsbekendheid en een minder goede reputatie dan Intel en Nvidia bij het n00b-publiek, AMD heeft nog steeds een zeer klein marktaandeel. AMD moet m.i. zeer agressief zijn. Wel geleidelijk hogere winstmarges (gecompenseerd doordat de performance sterk genoeg toeneemt) maar daarnaast ook vooral een steeds groeiend marktaandeel. Kijk naar de investorsmeeting, kijk naar Koduri toen hij bij Intel PCPerspective te gast was, kijk naar Su en Papermaster hun presentaties voor het grotere publiek, steeds weer hebben ze het vooral over marktaandeel. Twee redenen die ik hiervoor kan bedenken: softwareoptimalisatie en klanttrouwheid (de prijs vs. vraag wordt minder elastisch).

CHBF wijzigde deze reactie 04-02-2019 00:19 (45%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Randleman
  • Registratie: augustus 2010
  • Laatst online: 15-02 16:48
CHBF schreef op zondag 3 februari 2019 @ 22:09:
[...]

Net? Het is al 3 jaar geleden dat 8 GB werd geïntroduceerd op een kaart van iets boven de €200.


[...]
Ik kan geen kaart vinden die 3 jaar geleden ~€200,- heeft gekost en met 8GB VRAM geleverd werd. Enlighten me, ben erg benieuwd welke dit precies is :o
Pagina: 1 ... 35 36 37 Laatste


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True