CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 139 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 9 ... 11 Laatste
Acties:
  • 61.403 views

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58
Ik weet niet wat het is, maar ik wil opeens de Sapphire Nitro+ RX580 kopen omdat mensen VEGA aan het down hypen zijn :(. Want VEGA is echte next-gen en ik hoop iets te kunnen kopen rond 400 euro.

Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 12-05 08:43
Wie is het aan het 'down-hypen' dan? Ik mis het effe :P
Als je een RX580 wil kopen doe je dat toch? Die kan je over een maandje dan weer verkopen.

Acties:
  • 0 Henk 'm!

Anoniem: 298195

Ventrexe schreef op dinsdag 25 april 2017 @ 20:08:
Een ster genaamd Vega is 25.05 lichtjaar verwijderd van onze aarde, zou wel mooi zijn als ze het dan lanceren. Wie weet ;)
Dat is dan wel weer +/- 0.07

Acties:
  • 0 Henk 'm!

  • Freaky Maus
  • Registratie: Januari 2005
  • Laatst online: 11-05 21:07
Amazigh_N_Ariff schreef op dinsdag 25 april 2017 @ 21:40:
Ik weet niet wat het is, maar ik wil opeens de Sapphire Nitro+ RX580 kopen omdat mensen VEGA aan het down hypen zijn :(. Want VEGA is echte next-gen en ik hoop iets te kunnen kopen rond 400 euro.
Denk niet dat je een Vega videokaart aanschaft met launch voor 400 euro?

Specs


Acties:
  • 0 Henk 'm!
Vega 10 voor 400 euro bij launch is idd totaal niet realistisch dat zou namelijk ook betekenen dat die waarschijnlijk trager is dan een GTX 1070 en dus maar een beetje sneller dan de RX 580. Dat terwijl Vega 10 meer dan 75% zoveel stream processors heeft, met een verbeterde architectuur en dubbel zoveel geheugenbandbreedte. Dan is er ergens iets flink misgegaan als zo'n GPU niet flink sneller is als een RX 580.

[ Voor 37% gewijzigd door -The_Mask- op 26-04-2017 00:04 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Nyren
  • Registratie: Oktober 2016
  • Laatst online: 12-05 00:06
Freaky Maus schreef op dinsdag 25 april 2017 @ 23:55:
[...]

Denk niet dat je een Vega videokaart aanschaft met launch voor 400 euro?
Ik snap zijn reactie in het geheel niet..

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58
-The_Mask- schreef op woensdag 26 april 2017 @ 00:02:
Vega 10 voor 400 euro bij launch is idd totaal niet realistisch dat zou namelijk ook betekenen dat die waarschijnlijk trager is dan een GTX 1070 en dus maar een beetje sneller dan de RX 580. Dat terwijl Vega 10 meer dan 75% zoveel stream processors heeft, met een verbeterde architectuur en dubbel zoveel geheugenbandbreedte. Dan is er ergens iets flink misgegaan als zo'n GPU niet flink sneller is als een RX 580.
Er bestaat nog een chip met naam VEGA 11.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zie AMD Nvidia wel een beetje onder druk zetten qua prijs maar niet al te veel. Dit is een markt waar AMD ook in zal willen breken omdat hier marges gemaakt kunnen worden. Eindigt Vega 10 als een concurrent voor de Titan Xp en/of GTX1080Ti, en dat is een scenario waar gewoon rekening mee gehouden mag worden, dan zie ik AMD iets van €700 vragen voor de volle GPU en €600 voor cut down. Nog steeds een serieuze marge, en een trap naar Nvidia die dan opeens hun GPU's enorm moeten verlagen in prijs. Vega 11 hetzelfde, ik zou €480 en €370 gokken voor een GTX1080 en GTX1070 concurrent. Zo krijg je ook een line up die qua prijs aansluit op Polaris.

De vraag blijft, Vega 10 of Vega 11 als eerste. Ik hoop echt Vega 11 maar betwijfel het. :/

Oh en wij van WC eend. :+
http://wccftech.com/amd-r...nce-gtx-1080-ti-titan-xp/

[ Voor 3% gewijzigd door DaniëlWW2 op 26-04-2017 01:01 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Iemand die hier verstand van fp16/32/64 heeft ?

Het enigste wat ik weet is dat met fp16(storage) als voordeel heeft dat het bandbreedte en dus geheugen gebruik afneemt (iets wat AMD graag wil icm met HBM2/HBC)

Met Shader model 6.0 lijkt het erop dat FP16 voor rendering opnieuw leven wordt ingeblazen.
bij de PS4 pro en Scorpio lag/ligt ook al nadruk op fp16 prestaties.

Vega krijgt 12,5 tflops fp32 en 25 tflop fp16. Bij polaris was dit 6,1 tflop fp32&16.

Nu AMD dus ook de consoles in handen heeft kunnen ze dan niet simpelweg een "AMD's fp16/vega pack math shader optimization pushen.

Ze hebben immers al een demo gedaan met Tress FX waarmee dankzij "fp16" performance het dubbele aantal haren gerenderd kon worden zonder dat er prestaties verloren gingen.

Dus dan krijg je straks mogelijk 2 "render paths" 1 voor Vega/GCN en voor non-Vega/GCN aka Nvidia waarbij Vega dus flink gaat uitblinken...

AMD kan op deze manier nvidia aardig buitenspel zetten lijkt mij.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Bij deze is het definitief bekend dat de bijeenkomst op het AMD-kantoor in Texas op vrijdag niet voor Vega is, het is slechts voor Ryzen.

Acties:
  • +7 Henk 'm!

Anoniem: 444127

Anoniem: 298195 schreef op woensdag 26 april 2017 @ 03:10:
Iemand die hier verstand van fp16/32/64 heeft ?
In een notendop komt het hierop neer.
Stel dat je steeds 32 bits per keer zou versturen, dit is de vaste lengte waarmee je het moet doen (dat noemen ze een woord), maar je hebt slechts 16 bits nodig, dan verspil je 16 bits voor elke instructie.
Als je twee 16 bit instructies in 1 zo'n 32 bits instructie kan stoppen dan kan je in essentie twee keer zo snel werken zolang je enkel die 16 bit instructies nodig hebt. AMD gaf daarom het voorbeeld van het haar, 16 bits (niet 1 keer, waarschijnlijk hebben ze er een flink aantal voor nodig) volstaat blijkbaar voor het renderen van 1 zo'n haartje, als je 32 bits zou kunnen gebruiken dan zou het er waarschijnlijk wel beter uitzien maar het weegt niet op tegen het twee keer zo weinig haren kunnen renderen (of een flinke FPS drop).
AMD's Rapid Packed Math technologie is als ik het goed begrijp dit: 2 kortere instructies (bijvoorbeeld 16 bit) in 1 langere instructie stoppen (bijvoorbeeld 32 bit) en zodoende twee keer zo snel rendereren wanneer 16 bits volstaat. Als ik het goed heb begrepen dan had Nvidia voor Pascal dit al ingevoerd. Het punt is dus niet dat AMD 16 bit instructies kan renderen (volgens mij kan Polaris dat ook), het punt is dat AMD 2 16 bit instructies in 1 32 bit woord kan stoppen. Waarom ze dat niet eerder hebben gedaan? Geen idee maar het klinkt misschien eenvoudiger dan dat het is.

Hoe meer bits je hebt hoe meer nauwkeurigheid er is. Als je bijvoorbeeld kijkt naar het aantal getallen tussen 1 en 2, dat is oneindig groot.
1 + 1/10 , 1 + 1/100 , 1 + 1/1000 ...
Je kan zolang doorgaan als dat je wil. Zelfs het aantal getallen tussen 1 en 1,000000000000000000000001 is oneindig groot volgens hetzelfde principe. Hoe klein het stukje op een getallenlijn ook is, er is een oneindig groot aantal getallen ertussen in.
Bij bits heb je niet die luxe, bij n bits zijn er slechts 2^n mogelijke combinaties. In het geval van 16 bits 65536.
Om deze reden was het een big deal toen ze van 32 bits naar 64 bits gingen voor besturingssytemen, dat stond toe om veel meer RAM-geheugen te gebruiken omdat je een veel groter bereik had voor het adresseren van elk stukje RAM-geheugen. Elke bit erbij is een verdubbeling! Daarom vroeger de hype met 16 bit Nintendo, Nintendo64 etc.
Blijkbaar is het voor AMD efficiënter om met 2 keer zoveel 16 bits instructies haren te renderen dan met 32 bits instructies.


Een bruggetje van hieruit, om deze reden gebruik je voor gehele getallen (integers) een ander instructieformaat in het algemeen (bij programmeren en hoe het op architectuurnieau werkt voor een CPU) dan bij niet gehele getallen. Je offert bij zogenaamde floating variabelen de lengte van de getallenlijn op om meer precisie te hebben op het stuk getallenlijn wat wel beschikbaar is: bijvoorbeeld 32 bits voor de lengte en 32 bits voor het stuk ertussen in.
Het is net iets ingewikkelder dan dat maar dat is het principe en daar gaat het nu even om.

[ Voor 27% gewijzigd door Anoniem: 444127 op 26-04-2017 10:39 ]


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Anoniem: 444127 schreef op woensdag 26 april 2017 @ 08:29:
[...]
In een notendop komt het hierop neer.
Stel dat je steeds 32 bits per keer zou versturen, dit is de vaste lengte waarmee je het moet doen (dat noemen ze een woord), maar je hebt slechts 16 bits nodig, dan verspil je 16 bits voor elke instructie.
Etc.....
Bedankt voor de uitleg, na een nachtje lezen herken ik veel van dit verhaal terug. De hamvraag is eigenlijk een beetje wat de game-industrie gaat doen met betrekkeing tot 16 bit shaders instructies. Met SM6.0 wordt het het 1 en ander opgeklaart of geoptimaliseerd wat betreft fp16 instructies, en AMD toont al aan dat je niet overal fp32 voor nodig hebt. Fp16 gebruiken zou dan efficiënter zijn waardoor gpu zuiniger en goedkoper gemaakt kunnen worden zonder dat het ten koste gaat van precisie/kwaliteit.

In de mobile wereld word er nog veel gebruikt gemaakt van fp16 in games mede vanwege de voordelen in de limieten in stroom en geheugen gebruik.

hoe gemixt zijn moderne games tegenwoordig wat betreft fp16 en fp32 instructies is de vraag dan.

Pascal kan volgens mij ook fp16x2 instructies uitvoeren (dus dubbel fp16 in 1 "tick') maar dit is alleen via cuda aan te spreken en nvidia wil het gebruik ervan limiteren tot "pro" kaarten.

AMD lijkt met Vega zwaar in te zetten op fp16x2 voor gaming aangezien de consoles dit ook nu kunnen.

als de helft van je shaders/effecten /rendering aan fp16 genoeg heeft. (voor veel postptrocessing effecten is 16 bit voldoende, zelfs voor hdr)
Dan zou je een aangename boost in prestaties kunnen verwachten met Vega als een developer hier gebruik van maakt. Pascal moet dan dezelfde instructie via de driver "upgraden" en als fp32 uitvoeren wat uiteindelijk langzamer is.

Het valt en staat weer met de software support vanuit de game industrie maar aangezien de consoles in handen zijn van AMD zal alles veel sneller dit ondersteunen.


Wel moet er worden opgepast met " fp32>fp16 cheating" iets waar nvidia AMD op aansprak tijdens de eerste Farcry, AMD forceerde via de driver dat er 32 bit instructies werden gedowngraded tot 16 bit. Hier door was AMD sneller dan nvidia maar ging het een klein beetje tenkoste van de IQ.
Dat ze dit nu weer gaan gebruiken als een soort backwards compatibilitie modus is niet ondenkbaar.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Anoniem: 298195 schreef op woensdag 26 april 2017 @ 10:50:
[...]


Bedankt voor de uitleg, na een nachtje lezen herken ik veel van dit verhaal terug. De hamvraag is eigenlijk een beetje wat de game-industrie gaat doen met betrekkeing tot 16 bit shaders instructies. Met SM6.0 wordt het het 1 en ander opgeklaart of geoptimaliseerd wat betreft fp16 instructies, en AMD toont al aan dat je niet overal fp32 voor nodig hebt. Fp16 gebruiken zou dan efficiënter zijn waardoor gpu zuiniger en goedkoper gemaakt kunnen worden zonder dat het ten koste gaat van precisie/kwaliteit.

In de mobile wereld word er nog veel gebruikt gemaakt van fp16 in games mede vanwege de voordelen in de limieten in stroom en geheugen gebruik.

hoe gemixt zijn moderne games tegenwoordig wat betreft fp16 en fp32 instructies is de vraag dan.

Pascal kan volgens mij ook fp16x2 instructies uitvoeren (dus dubbel fp16 in 1 "tick') maar dit is alleen via cuda aan te spreken en nvidia wil het gebruik ervan limiteren tot "pro" kaarten.

AMD lijkt met Vega zwaar in te zetten op fp16x2 voor gaming aangezien de consoles dit ook nu kunnen.

als de helft van je shaders/effecten /rendering aan fp16 genoeg heeft. (voor veel postptrocessing effecten is 16 bit voldoende, zelfs voor hdr)
Dan zou je een aangename boost in prestaties kunnen verwachten met Vega als een developer hier gebruik van maakt. Pascal moet dan dezelfde instructie via de driver "upgraden" en als fp32 uitvoeren wat uiteindelijk langzamer is.

Het valt en staat weer met de software support vanuit de game industrie maar aangezien de consoles in handen zijn van AMD zal alles veel sneller dit ondersteunen.
Wat ik ervan heb begrepen, ook uit het artikel van Anandtech, is dat veel van die ontwikkelingen van Vega die aangekondigd zijn vooral leuk zijn voor de verdere toekomst maar nog niet direct toegepast kunnen worden voor de meeste spellen omdat de medewerking van de developer nodig is. Zo'n Rapid Packed Math is wellicht leuk voor het volgende Tomb Raider spel of The Witcher 4 (als die er zou komen) of iets dergelijks, AMD kan bij diverse developers aanbieden om hun haartechniek te gebruiken. Het voordeel van AMD's techniek - de reden dat developers wellicht hier graag gebruik van zullen maken als AMD hierbij helpt - is dat de code open source is, Nvidia kan dit dus ook implementeren en als ik het goed heb begrepen heeft Nvidia een equivalent van Rapid Packed Math in welk geval ze twee vliegen in 1 klap slaan. Dat gaat weer dat Hair Effect onzin (met de tessellation op een absurd hoge en stand wat niet functioneel is) van Nvidia tegen.
Die nieuwe geheugentechniek waarmee je bij sommige spellen pak hem beet de helft van de RAM (op de kaart) nodig hebt is veelbelovend maar voor zo ver ik het begrijp (een medewerker van AMD gaf dit ook aan) moet de developer het ondersteunen. Hartstikke leuk voor een beperkt aantal spellen, bijvoorbeeld een nieuwe Hitman of Deus Ex of misschien een of ander Bethesda spel (voor wat het waard is, bij Bethesda ben je al blij als je geen verplichte VSync hebt (Fallout 4) en het spel niet vol met bugs zit). Zo zijn er nog wat meer ontwikkelingen die nuttig zijn maar waarvoor wel de medewerking van de developer nodig is. Desalniettemin wel erg belangrijk.
Wel moet er worden opgepast met " fp32>fp16 cheating" iets waar nvidia AMD op aansprak tijdens de eerste Farcry, AMD forceerde via de driver dat er 32 bit instructies werden gedowngraded tot 16 bit. Hier door was AMD sneller dan nvidia maar ging het een klein beetje tenkoste van de IQ.
Ik heb dat verhaal niet meegekregen, ik vermoed dat je het met een flinke korrel zout moet nemen. Nvidia is nogal vaak bezig met PR, spinning en marketing, vooral als het om AMD gaat. Dat wil niet zeggen dat ze technisch niet goed bezig zijn. Nvidia heeft tal van kleine nuttige verbeteringen doorgevoerd die heel erg veel helpen met hun performance zoals de tiled based rendering (dat gaat Vega naar verluidt ook krijgen) en een hack via de driver waarmee de belasting van die ene 'hoofd'kern van de CPU die door DX11 wordt aangewezen wordt verminderd. Nvidia combineert het goede technische werk met de marketingcrap van bedrijven zoals Apple en Beats.
Pascal kan volgens mij ook fp16x2 instructies uitvoeren (dus dubbel fp16 in 1 "tick') maar dit is alleen via cuda aan te spreken en nvidia wil het gebruik ervan limiteren tot "pro" kaarten.
Je weet het bij Nvidia nooit, het zou best kunnen dat ze hierop terugkomen nu AMD RPM heeft maar anderzijds zou je ook verwachten dat Nvidia FreeSync zou ondersteunen voor al haar klanten die een FreeSync-monitor hebben.
De prijzen die jij geeft zitten m.i. te dicht bij de prijzen van de Nvidia kaarten.
1080 Ti: $700
1080: vanaf <$500 , https://www.newegg.com/Pr...=gtx+1080&N=-1&isNodeId=1
1070: vanaf <=$370 (ik heb niet de goedkoopste gezocht, even snel gekeken en die prijs staat er in ieder geval)

Ja, in euro's is het hier duurder dankzij de BTW en de retail'fee' die we hebben (we missen hier fatsoenlijke grote winkels die in bulk dit spul direct bij de fabrikanten zelf inkopen en die op andere punten voldoende efficiënt kunnen werken) maar dan nog.
Ik verwacht de volle Vega-kaart voor maximaal $650 (USA-prijs), een aanzienlijk goedkopere cut van de grote Vega-kaart ($500-550) en naar de rest durf ik niet te speculeren maar GTX 1080 prestaties voor het kleine broertje lijkt me wel heel erg optimistisch, ik zou eerder rekenen op GTX 1070 prestaties voor het kleine broertje. Het hangt er natuurlijk van af hoeveel kleiner het is, volgens de berichten die op Videocardz verschenen zou die ongeveer de helft bedragen. Iedereen moet maar voor zichzelf uitzoeken hoeveel waarde hij hecht aan de geruchten op Videocardz, soms zaten ze ernaast (debuut Vega?) maar veel vaker bleek het te kloppen (Ryzen, dubbele 480/580 die nu is uitgekomen, specificaties Polaris).
Het is jouw glazen bol tegen de mijne (en die van ieder ander hier die meespeculeert), dat is allemaal prima en leuk, we zullen het de komende weken vanzelf wel gaan zien. :)
Dit is voor mij zeker: AMD moet aanzienlijk lager zitten met de prijzen dan Nvidia binnen de mate van het mogelijke (lees: ze mogen er geen verlies op maken en ze willen er graag wat winst op maken). AMD is een jaar laat op het feest als je je beperkt tot de 1070 en de 1080 en AMD heeft een veel lager marktaandeel en een minder goede reputatie bij de meeste klanten. Hier op dit forumpje denken wij er wat genuanceerder over en als je bij sooftgelijke websites kijkt dan zie je ook dat AMD-kaarten best populair zijn maar bij de totale groep gamers bestaat de indruk dat Nvidia-kaarten beter zijn en dat krijg je niet snel uit hun koppie. AMD heeft daarom een agressief prijsbeleid nodig om die gamers te overtuigen om hun kaarten te kopen. Bij de RX 480 stelde AMD als eerste de prijs, nu volgt AMD op Nvidia en daarom verwacht ik dat AMD binnen de mate van het mogelijke onder de prijs van Nvidia zal proberen te zitten.

[ Voor 24% gewijzigd door Anoniem: 444127 op 26-04-2017 11:31 ]


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Anoniem: 444127 schreef op woensdag 26 april 2017 @ 11:09:

[...]
Je weet het bij Nvidia nooit, het zou best kunnen dat ze hierop terugkomen nu AMD RPM heeft maar anderzijds zou je ook verwachten dat Nvidia FreeSync zou ondersteunen voor al haar klanten die een FreeSync-monitor hebben.
Je zou zeggen dat ze wel moeten anders krijg je weer een soort dx9/GeForce 6 fiasco.

Stukje geschiedenis:

ATI forceerde bij Microsoft dat de nieuwe dx versie 9 Fp24 precisie opnam in de specs. Ati gpus van toen konden alleen fp24 instructies en nvidia had zowel fp16 en fp32, fp32 was wel een stuk langzamer.

Half life 2 maakte veelvuldig gebruik van deze nieuwe dx9 spec met fp24. AMD gpus blinkten daarom uit omdat nvidia gpus omdat deze fp24 instructies op fp32 uitvoerde (later forceerden ze deze als fp16 maar dit ging ten kosten van de IQ al was het nog steeds beter dan gebruik maken van DX8.1

AMD kan ditzelfde trukje weer uithalen gezien de banden met Microsoft. Volta moet dus ook wel goede fp16x2 prestaties hebben anders kan AMD hier veelvuldig gebruik(misbruik) van maken.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

@Anoniem: 298195
Het is trouwens enkel cheating als de grafische kwaliteit (met het blote oog!) daalt. De tessellation verlagen bij Nvidia's Hair Effect is geen cheating, althans niet als je het verlaagt naar de maximale stand waarbij je nog een grafische verbetering ziet buiten screenshots of zelfs bij screenshots, wat AMD trouwens niet doet zonder dat jij als gebruiker aangeeft (via AMD settings) dat de driver dit moet doen. Wat Nvidia daarentegen deed met Ashes of Singularity, dat was cheaten. Voor wie het zich niet herinnert, bij een Ryzen-demonstratie was er achteraf gemopper omdat kritische kijkers hadden opgemerkt dat er iets niet klopte met de textures. Wat bleek? De Nvidia driver renderde de meer bewerkelijke textures niet.
Nu herinner ik er ook even aan in juli AMD ruim leidde bij dit spel en ineens Nvidia naast AMD kwam te staan. Ik suggereer niets maar ofwel heeft Nvidia zitten te klungen met die driver ofwel heeft Nvidia gecheat. Wat het ook is, dit maakte voor mij duidelijk dat AoS niet meer als benchmark gebruikt zou moeten worden. Het is voor Nvidia teveel een prestigekwestie en een PR-dingetje (omdat mindere prestaties op dit spel duidelijk maken dat Nvidia minder goed is in DX12, dat vindt Nvidia niet leuk, het is slecht voor de marketing) geworden en het spel kan blijkbaar niet controleren of dat elke bit van de output klopt.

[ Voor 4% gewijzigd door Anoniem: 444127 op 26-04-2017 11:53 ]


Acties:
  • 0 Henk 'm!

Anoniem: 298195

@Anoniem: 444127 cheaten=optimaliseren :p

Een recente game op de ps4pro namelijk masseffect andromeda had een boost van 30% gekregen op dezelfde resolutie (1800p) omdat ze checkerboard rendering gebruikten wat dus dankzij de fp16 instructies 30% sneller werkt dan "standaard" 1800p.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:25
Anoniem: 444127 schreef op woensdag 26 april 2017 @ 11:52:
@Anoniem: 298195
Het is trouwens enkel cheating als de grafische kwaliteit (met het blote oog!) daalt. De tessellation verlagen bij Nvidia's Hair Effect is geen cheating, althans niet als je het verlaagt naar de maximale stand waarbij je nog een grafische verbetering ziet buiten screenshots of zelfs bij screenshots
Je moet geen verschil meer zien in bewegend beeld. Niet alleen screenshots, maar ook geen toename in zichtbare LOD switches / gekke animaties.

En het is niet alleen het haar effect waar het verlaagd wordt toch? Volgens mij kapt die optie tessellation af op alles.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Anoniem: 298195 schreef op woensdag 26 april 2017 @ 03:10:
Dus dan krijg je straks mogelijk 2 "render paths" 1 voor Vega/GCN en voor non-Vega/GCN aka Nvidia waarbij Vega dus flink gaat uitblinken...

AMD kan op deze manier nvidia aardig buitenspel zetten lijkt mij.
Gameworks voor AMD dus. En ik maar denken dat zulke praktijken slecht waren voor de industrie.

Acties:
  • +4 Henk 'm!
Anoniem: 298195 schreef op woensdag 26 april 2017 @ 10:50:
hoe gemixt zijn moderne games tegenwoordig wat betreft fp16 en fp32 instructies is de vraag dan.

Pascal kan volgens mij ook fp16x2 instructies uitvoeren (dus dubbel fp16 in 1 "tick') maar dit is alleen via cuda aan te spreken en nvidia wil het gebruik ervan limiteren tot "pro" kaarten.
Totaal niet gemixt. Vrijwel alles gebeurt op FP32 omdat FP16 heel lang niet rendabel is geweest qua prestaties. AMD kan tegenwoordig FP16 op full speed, bij Nvidia niet.

Behalve dan op GP100. Dat is de enige chip van Nvidia waar FP16 niet traag is; die chip kan wel aan packing doen en heeft dus een FP16:FP32 ratio van 2:1. Bij AMD is dit op alles vanaf Cypress 1:1; of het in eerdere TeraScale chips ook al 1:1 was durf ik niet te zeggen.
Wel moet er worden opgepast met " fp32>fp16 cheating" iets waar nvidia AMD op aansprak tijdens de eerste Farcry, AMD forceerde via de driver dat er 32 bit instructies werden gedowngraded tot 16 bit. Hier door was AMD sneller dan nvidia maar ging het een klein beetje tenkoste van de IQ.
Dat ze dit nu weer gaan gebruiken als een soort backwards compatibilitie modus is niet ondenkbaar.
Dat was iets heel anders. Dat had te maken met texture filtering, wat op een andere manier gebeurt. Het heeft wel te maken met 32-bit en 16-bit, maar het is niet zo dat ATI FP32 instructies "downgrade" naar FP16.
Anoniem: 298195 schreef op woensdag 26 april 2017 @ 11:36:
ATI forceerde bij Microsoft dat de nieuwe dx versie 9 Fp24 precisie opnam in de specs. Ati gpus van toen konden alleen fp24 instructies en nvidia had zowel fp16 en fp32, fp32 was wel een stuk langzamer.

Half life 2 maakte veelvuldig gebruik van deze nieuwe dx9 spec met fp24. AMD gpus blinkten daarom uit omdat nvidia gpus omdat deze fp24 instructies op fp32 uitvoerde (later forceerden ze deze als fp16 maar dit ging ten kosten van de IQ al was het nog steeds beter dan gebruik maken van DX8.1
Dit is omgedraaid.

DX9 (nou ja, eigenlijk draait het om SM 2.0) had FP24 en FP32 in de spec al ruim voordat R300 (de chips waar het hier om gaat) op de markt kwam. Het is niet zo dat ATI MS heeft gedwongen FP24 op te nemen in de spec, dat was al zo. FP16 was in die tijd de norm, maar FP32 hardware was in veel gevallen gewoon nog te traag, vandaar dat DX9 FP24 als minimum stelde, met FP32 als optie voor de toekomst. Zowel FP24 als FP32 werden als "full precision" beschouwd. Vanaf SM 3.0, ofwel DX9.0c was FP32 het minimum. Ruim 2,5 jaar later.

ATI speelde daar hard op in en richtte R300 volledig op FP24. Zij zagen het nut van FP32 nog niet en dachten dat FP24 een betere balans gaf. Nvidia daarentegen bouwde juist FP24 niet in. Het is ook niet zo dat hun FP32 implementatie snel was, zoals je zegt kostte dat behoorlijk wat aan prestaties. Het was Nvidia's fout om volledig op FP32 te gaan en FP24 te negeren, terwijl de norm FP16 was, het DX minimum FP24 en hun eigen FP32 hardware niet snel genoeg was.
haarbal schreef op woensdag 26 april 2017 @ 12:01:
En het is niet alleen het haar effect waar het verlaagd wordt toch? Volgens mij kapt die optie tessellation af op alles.
Yep.

Maar meer dan 16xT is sowieso zelden nuttig. Dat zie je alleen op hele grote oppervlakken, waar tessellation het in de meeste gevallen überhaupt niet waard is omdat er goedkopere methoden zijn die het gewenste effect hebben.

Tessellation is bedoeld om kleine, "ronde" oppervlakken vloeiender te laten uit zien. Net zoals MSAA bedoeld is om kartelrandjes weg te werken is er een punt waarbij meer samples pas zichtbaar worden als je in zoomt op een 8 megapixel screenshot. Bij MSAA ligt die grens iets lager; van 4 naar 8 samples is de laatste stap die in sommige situaties nog zichtbaar is, bij tessellation ligt dat ergens tussen de 8 en 32 afhankelijk van het oppervlak, de vorm en vooral ook de kleuren.
Anoniem: 298195 schreef op woensdag 26 april 2017 @ 12:00:
@Anoniem: 444127 cheaten=optimaliseren :p

Een recente game op de ps4pro namelijk masseffect andromeda had een boost van 30% gekregen op dezelfde resolutie (1800p) omdat ze checkerboard rendering gebruikten wat dus dankzij de fp16 instructies 30% sneller werkt dan "standaard" 1800p.
Dit is ook weer veel te kort door de bocht; of wellicht druk je jezelf gewoon onhandig uit. Checkerboard rendering draait niet per se op FP16 instructies. Het is een manier van renderen die op zichzelf geen specifieke precisie af dwingt.

In hun (Frostbite, overigens; niet het team achter het spel ;)) CB implementatie hebben ze echter een deel van de code dusdanig geschreven dat deze aan FP16 genoeg heeft. Het gaat daarbij om delen van hun resolver. Het is echter niet puur FP16, er zit nog altijd meer FP32 in.

Acties:
  • 0 Henk 'm!

Anoniem: 298195

Werelds schreef op woensdag 26 april 2017 @ 13:24:
[...]

Totaal niet gemixt. Vrijwel alles gebeurt op FP32 omdat FP16 heel lang niet rendabel is geweest qua prestaties. AMD kan tegenwoordig FP16 op full speed, bij Nvidia niet.

[...]

Dat was iets heel anders. Dat had te maken met texture filtering, wat op een andere manier gebeurt. Het heeft wel te maken met 32-bit en 16-bit, maar het is niet zo dat ATI FP32 instructies "downgrade" naar FP16.


[...]

Dit is omgedraaid.

DX9 (nou ja, eigenlijk draait het om SM 2.0) had FP24 en FP32 in de spec al ruim voordat R300 (de chips waar het hier om gaat) op de markt kwam. Het is niet zo dat ATI MS heeft gedwongen FP24 op te nemen in de spec, dat was al zo. FP16 was in die tijd de norm, maar FP32 hardware was in veel gevallen gewoon nog te traag, vandaar dat DX9 FP24 als minimum stelde, met FP32 als optie voor de toekomst. Zowel FP24 als FP32 werden als "full precision" beschouwd. Vanaf SM 3.0, ofwel DX9.0c was FP32 het minimum. Ruim 2,5 jaar later.


[...]

Dit is ook weer veel te kort door de bocht; of wellicht druk je jezelf gewoon onhandig uit. Checkerboard rendering draait niet per se op FP16 instructies. Het is een manier van renderen die op zichzelf geen specifieke precisie af dwingt.

In hun (Frostbite, overigens; niet het team achter het spel ;)) CB implementatie hebben ze echter een deel van de code dusdanig geschreven dat deze aan FP16 genoeg heeft. Het gaat daarbij om delen van hun resolver. Het is echter niet puur FP16, er zit nog altijd meer FP32 in.
Bedankt voor de opheldering, zoals ik ergens al aangaf lees ik mij sinds gister pas in op de materie dus mijn uitleg is nogal kort door de bocht op sommige vlakken.

Maar al met al valt er dus wel winst te behalen door fp16 te gebruiken ipv van fp32 waar 32bits data niet van belang is en zeker waneer je 2 fp16 instructies tegelijk kan uitvoeren.

Je gaf wel aan dat bijna alles fp32 is tegenwoordig maar dat betekent niet dat alles ook fp32 nodig heeft. Stel dat de helft van de rendering ook op fp16 gedaan kan worden dan kan je enorm veel prestaties terugwinnen door hierop te optimaliseren. Natuurlijk is dit afhankelijk van game developers.

De adoptie rate hiervan krijgt alleen wel een boost omdat AMD te console markt ook voorziet van hardware.

Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 12-05 10:52
edward2 schreef op maandag 24 april 2017 @ 11:57:
Is er eigenlijk al eens een datum geprikt voor de launch van Vega? 5 mei, Preyday, lijkt me nou ook niet meer waarschijnlijk.. Het gaat wel erg lang duren :(
Ze zouden graag willen launchen maar HBM2 volume is een 'klein' probleempje. Daarbij helpt de stunt die NV heeft uitgehaald met hun HBM2 kaart AMD niet echt :) Dus verwacht na de launch niet teveel volume, remember Fury?

Acties:
  • 0 Henk 'm!

  • Defector
  • Registratie: December 2005
  • Niet online
The Source schreef op woensdag 26 april 2017 @ 15:49:
[...]

Ze zouden graag willen launchen maar HBM2 volume is een 'klein' probleempje. Daarbij helpt de stunt die NV heeft uitgehaald met hun HBM2 kaart AMD niet echt :) Dus verwacht na de launch niet teveel volume, remember Fury?
Dat is jammer, betekend dat nV een bepaalde capaciteit van de HBM2 productie in beslag neemt?

Acties:
  • +1 Henk 'm!
Anoniem: 298195 schreef op woensdag 26 april 2017 @ 13:53:
Bedankt voor de opheldering, zoals ik ergens al aangaf lees ik mij sinds gister pas in op de materie dus mijn uitleg is nogal kort door de bocht op sommige vlakken.
Je verdiept je in elk geval wel ;)

Dit soort dingen is heel veel over te lezen, maar het helpt wel als je een beetje programmeer ervaring hebt. Wat heel erg helpt is als je ook nog op een heel laag niveau programmeer ervaring hebt; als je in ASM en/of met microcontrollers hebt gewerkt waar je direct registers aan moet sturen begrijp je een hoop van dit gedoe al iets meer.
Maar al met al valt er dus wel winst te behalen door fp16 te gebruiken ipv van fp32 waar 32bits data niet van belang is en zeker waneer je 2 fp16 instructies tegelijk kan uitvoeren.

Je gaf wel aan dat bijna alles fp32 is tegenwoordig maar dat betekent niet dat alles ook fp32 nodig heeft. Stel dat de helft van de rendering ook op fp16 gedaan kan worden dan kan je enorm veel prestaties terugwinnen door hierop te optimaliseren. Natuurlijk is dit afhankelijk van game developers.
Zeker. Veel "moet" wel op FP32 wil het resultaat nog een beetje van deze tijd zijn. Maar juist bij dingen als haren, die misschien zelfs maar 1 pixel breed zijn en op z'n hoogst een stuk of 4-5 is FP16 inderdaad een flinke besparing qua bandbreedte. Het kwaliteitsverlies is er daar ook, maar omdat het om zo'n minuscuul klein deel op je scherm gaat zie jij daar geen reet van. En als je GPU dat dan gewoon op volle snelheid kan doen (AMD nu) of zelfs op dubbele snelheid (GP100, Vega) dan win je daar buiten bandbreedte ook kostbare tijd. Een paar honderd micro- of zelfs nanosecondes klinkt als niets, maar als je dat een paar duizend keer moet doen tikt dat flink door.
De adoptie rate hiervan krijgt alleen wel een boost omdat AMD te console markt ook voorziet van hardware.
Het is eigenlijk nog mooier dan dat. FP16 is de laatste jaren opgekomen door de HPC markt, waar men meer met FP16 is gaan doen. Omdat AMD GCN dusdanig gebouwd heeft dat het toepasbaar is in beide sectors, is dat waarom die 1:1 verhouding er is. Vergeet niet dat GCN niet voor de consoles is ontwikkeld, dat was al langer in de maak. En tja, als die FP16 ondersteuning er toch is..;)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
The Source schreef op woensdag 26 april 2017 @ 15:49:
[...]

Ze zouden graag willen launchen maar HBM2 volume is een 'klein' probleempje. Daarbij helpt de stunt die NV heeft uitgehaald met hun HBM2 kaart AMD niet echt :) Dus verwacht na de launch niet teveel volume, remember Fury?
Dan moet ik wel heel erg aan het omgedraaide scenario van dit denken:
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/4850/amd4.png

En daarnaast een beetje het RV770 stuk met betrekking tot erg afhankelijk zijn van de release van GDDR5, alleen nu dan HBM2. Dat pakte des tijds goed uit, maar nu een stuk minder dus...?

Acties:
  • 0 Henk 'm!

Anoniem: 444127

@Anoniem: 298195
Ik denk dat het voor de hand ligt dat AMD haar middleware (GPUOpen) zal inzetten om zoveel mogelijk de hardware te benutten. Zo zouden ze voor TressFX code kunnen opnemen in GPUOpen die ervoor zorgt dat RPM wordt benut wanneer de kaart het ondersteunt.
Dat ze die software open maken lijkt me een briljante zet want op deze manier is er voor developers geen belemmering om het te gebruiken (AMD heeft een minderheidsaandeel) en lost AMD gedeeltelijk haar handicap op dat ze een veel kleiner budget heeft dan Nvidia om medewerkers te sturen naar developers. Het valt en staat met hoe gemakkelijk het voor developers is om het te gebruiken en hoe goed developers op de hoogte zijn van wat er allemaal mee gedaan kan worden. Ik vraag me af waarom niet voor meer spellen TressFX is gebruikt, het werkt hartstikke goed en de FPS drop valt heel erg mee met een beetje een fatsoenlijke (in deze tijd) grafische kaart.
The Source schreef op woensdag 26 april 2017 @ 15:49:
[...]

Ze zouden graag willen launchen maar HBM2 volume is een 'klein' probleempje. Daarbij helpt de stunt die NV heeft uitgehaald met hun HBM2 kaart AMD niet echt :) Dus verwacht na de launch niet teveel volume, remember Fury?
Nvidia is weer eens kinderachtig AMD aan het naaien? En alle gamers die een AMD-kaart willen kopen. Een van de redenen waarom ik de rest van mijn leven niets van Nvidia zal kopen, zelfs via SLI kunnen ze geen geld van mij aftroggelen. Misschien was het deze keer toeval maar ze hebben het in ieder geval vaak wel gedaan. Ik heb een aversie tegen bedrijven en mensen die niet fair spelen.

[ Voor 54% gewijzigd door Anoniem: 444127 op 26-04-2017 16:40 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Anoniem: 444127 schreef op woensdag 26 april 2017 @ 16:32:
@Anoniem: 298195
Nvidia is weer eens kinderachtig AMD aan het naaien? En alle gamers die een AMD-kaart willen kopen. Een van de redenen waarom ik de rest van mijn leven niets van Nvidia zal kopen, zelfs via SLI kunnen ze geen geld van mij aftroggelen. Misschien was het deze keer toeval maar ze hebben het in ieder geval vaak wel gedaan. Ik heb een aversie tegen bedrijven en mensen die niet fair spelen.
Beetje verbitterd niet? Beide bedrijven mogen toch zeker kaarten uitbrengen die HBM2 gebruiken?
Nvidia is nogal vaak bezig met PR, spinning en marketing, vooral als het om AMD gaat.
AMD maakt meer anti-Nvidia marketing dan Nvidia ook maar iets over AMD zegt in hun berichtgeving, zeker voor Vega doet AMD heel erg zijn best. Sterker nog, Nvidia noemt AMD niet eens meer en vergelijkt alleen nog maar met zijn eigen voorgaande kaarten...

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Paprika schreef op woensdag 26 april 2017 @ 16:44:
[...]

Beetje verbitterd niet? Beide bedrijven mogen toch zeker kaarten uitbrengen die HBM2 gebruiken?
Ja, iff Nvidia dat zou doen, enkel omdat Nvidia weet dat er een HBM-kaart van AMD in de pijplijn ligt en niet om een andere reden dan zou het erg kinderachtig zijn. Dat is alles wat ik zeg. Nogmaals, we weten niet wat het motief van Nvidia is of wat de motieven van Nvidia zijn maar ik weet wel dat Nvidia het spel in het verleden vaak smerig heeft gespeeld, denk aan het bewust extreem overdrijven van tessellation, het spelletje met PhysX en Gameworks of het net uitbrengen van de 980 Ti nadat de Fury(X) uitkomt. Het is onsympathiek handelen naar mijn mening maar ieder mag daar het zijne van vinden. Ik kies er in ieder geval voor om niets van dat bedrijf te kopen, tenzij ooit de rollen omgekeerd zouden zijn en AMD zulke spelletjes gaat spelen. Het is trouwens spijtig dat AMD HBM heeft moeten vrijgeven, zij hebben het uitgevonden maar nu grijpt iedereen ernaar en drijft het voor AMD de prijs op.
AMD maakt meer anti-Nvidia marketing dan Nvidia ook maar iets over AMD zegt in hun berichtgeving, zeker voor Vega.
Dat valt toch wel mee? "Forget Volta." Big deal.

[ Voor 6% gewijzigd door Anoniem: 444127 op 26-04-2017 16:52 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Anoniem: 444127 schreef op woensdag 26 april 2017 @ 16:47:
[...]

Dat valt toch wel mee? "Forget Volta." Big deal.
http://techfrag.com/wp-co...re-vs-Nvidia-GTX-1080.jpg
http://hexus.net/media/up...285-a0e4-6368cc0008ae.jpg
http://cdn.segmentnext.co...4/amd-deck-01-620x349.jpg

Ik ga ze niet allemaal zoeken, maar je kunt er zo tientallen vinden van de laatste 12 maanden alleen al ;).

Acties:
  • +1 Henk 'm!
Anoniem: 444127 schreef op woensdag 26 april 2017 @ 16:47:
[...]

Ja, iff Nvidia dat zou doen, enkel omdat Nvidia weet dat er een HBM-kaart van AMD in de pijplijn ligt en niet om een andere reden dan zou het erg kinderachtig zijn.
Je bedenkt niet even een kaart met HBM2 geheugen en brengt hem morgen uit, daar gaat jaren overheen. De reden dat de GP100 GPU 4 stack met HBM2 heeft is omdat het een professionele kaart is waarbij veel geheugenbandbreedte een groot voordeel kan zijn en dan is HBM2 gewoon de meest logische oplossing.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Mask, zoek even op wat iff betekent!
Die laatste is een tikkeltje agressief (dat vind ik eerlijk gezegd niet verkeerd voor de underdog als ze het waarmaken!) maar daarmee naaien ze Nvidia toch niet? Ze zouden Nvidia naaien als ze proprietaray middleware zouden ontwikkelen die erop gericht is om een relatieve zwakte van de Nvidia-kaart t.o.v. de AMD-kaart af te straffen en hierbij de AMD-kaart bewust wat sterker te houden op dit punt zodat ze die kunnen blijven afstraffen (tessellation).
Ik sluit niet uit dat ik enige bias heb - die heeft iedereen - maar ik vind wel dat AMD het de laatste 10 jaar meer fair heeft gespeeld dan Nvidia, waar AMD probeerde te vernieuwen en probeerde zelf zo goed mogelijk te zijn, probeerde Nvidia daarnaast ook regelmatig AMD een hak te zetten via middleware en hardware (PhysX).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Dat is niet waar je bericht over ging. Dat was echt PR/marketing gerelateerd. Heeft niets met die acties bij Crysis (2-3?) in het verleden te maken.

Acties:
  • 0 Henk 'm!

Anoniem: 298195

@Werelds edit: dit was voor @Anoniem: 444127 bedoeld. Je gaf aan dat developers de verschuiving naar meer gebruik van fp16 eerst moeten gaan ondersteunen maar van wat ik heb begrepen is dat dit vrij simpel met compilers en fp16 hints te doen is, of levert dit snel problemen met artifacten op ?

De ps3 maakt geloof ik ook gebruik van fp16 dus geheel onbekend/vergeten in de developer wereld is het niet lijkt mij.

Of zou AMD gebruik maken van dingen zoals fp16 demotion op de driver kant ?

We zullen denk ik wel weer de terug keer van IQ vergelijkingen zien in reviews :p

[ Voor 3% gewijzigd door Anoniem: 298195 op 26-04-2017 19:26 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
-The_Mask- schreef op woensdag 26 april 2017 @ 16:55:
[...]

Je bedenkt niet even een kaart met HBM2 geheugen en brengt hem morgen uit, daar gaat jaren overheen. De reden dat de GP100 GPU 4 stack met HBM2 heeft is omdat het een professionele kaart is waarbij veel geheugenbandbreedte een groot voordeel kan zijn en dan is HBM2 gewoon de meest logische oplossing.
idd, (g)p100 HBM is niet alleen voor de show; dat ding is serieus snel, ook in bepaalde workloads die gewoon fp32 zijn. bijv in vraybenchmark scoren (met renderen) 2 gp100's bijna op het niveau van 4 108ti's terwijl ze evenveel cores hebben. Er spelen natuurlijk allerlei zaken maar HBM is daar deels verantwoordelijk voor. Wel een reden om ook naar vega uit te kijken want gp100 is nou niet echt betaalbare HBM :)

specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is jammer om te zien dat AMD dat naar ik begrijp een belangrijke medeontwikkelaar van de HBM standaard is tegelijkertijd niet in staat is geweest om meer volume in de productie ervan af te dwingen. :'(

Verder even een dienstmededeling: :)
Heb voor het eerst sinds de Athlon weer een AMD cpu gekocht. Het is een Ryzen 1600X icm een Asus HERO mobo geworden. Hopelijk gaat dit zonder teething issues zijn werk doen :)
Nu nog tijd vinden om alles in te bouwen etc.... :X

[ Voor 41% gewijzigd door Help!!!! op 26-04-2017 19:53 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Help!!!! schreef op woensdag 26 april 2017 @ 19:46:
Het is jammer om te zien dat AMD dat naar ik begrijp een belangrijke medeontwikkelaar van de HBM standaard is tegelijkertijd niet in staat is geweest om meer volume in de productie ervan af te dwingen. :'(
HBM2 (Jedec, JESD235A) wordt ook door Samsung geproduceerd. Is er al ergens bekend gemaakt welke fabrikant AMD gaat gebruiken? Ik kwam dit artikel tegen: http://www.isportstimes.c...md-bid-to-beat-nvidia.htm, maar ik durf niet van deze bron uit te gaan.
As collected by VideoCardz.com, Q3 2016 SK Hynix Graphics data book lists two 4-stack 4GB HBM2 models (2.0 GHz, 1.6 GHz) available Q3 2016. By Q4, SK Hynix lists one 4-stack 4GB HBM2 2.0 GHz memory type (availability to be determined). However, SK Hynix listed down one 4-stack 4GB HBM2 1.6 GHz, which is available in the first quarter.

So what is the impact of this sudden change?

Given the example AMD Vega architecture-based graphics card which is integrated with HBM2, its structure has two stacks with 4GB memory. If it comes with only 1.6 GHz, this gives about 8GB and 409.6 GB/s bandwidth. As VideoCardz.com suggested, "That's obviously lower than Fiji, in fact, it's even lower than Pascal GP102 (480 GB/s), so it's unclear if AMD is really going to use Hynix memory, or like NVIDIA use Samsung instead."

Given that AMD is said to get its HBM2 from SK Hynix, this could greatly affect the decision of consumers whether to choose AMD over NVIDIA, which got its HBM2 from Samsung, as suggested by German-based website ComputerBase.de. More importantly, NVIDIA is set to unveil its next generation graphics architecture called Quadro, which is led by NVIDIA Quadro GP100, which has 16GB HBM2 with a full 2.0 GHz bandwidth.

With this latest HBM2 development, this could turn the tide in favor, again, for NVIDIA.

Acties:
  • 0 Henk 'm!
Anoniem: 298195 schreef op woensdag 26 april 2017 @ 19:22:
@Werelds edit: dit was voor @Anoniem: 444127 bedoeld. Je gaf aan dat developers de verschuiving naar meer gebruik van fp16 eerst moeten gaan ondersteunen maar van wat ik heb begrepen is dat dit vrij simpel met compilers en fp16 hints te doen is, of levert dit snel problemen met artifacten op ?

De ps3 maakt geloof ik ook gebruik van fp16 dus geheel onbekend/vergeten in de developer wereld is het niet lijkt mij.

Of zou AMD gebruik maken van dingen zoals fp16 demotion op de driver kant ?

We zullen denk ik wel weer de terug keer van IQ vergelijkingen zien in reviews :p
In sommige gevallen is het genoeg om een hint te geven ja, maar dat geldt alleen voor situaties waar je ook echt genoeg hebt aan FP16. Als jij een algoritme hebt dat gebruik maakt van FP32 maar waar je toevallig twee cijfers hebt die in 16 bits zouden passen, kan AMD dat alsnog niet op FP16 forceren. De uitkomst zou namelijk wel gewoon meer dan 16 bits nodig kunnen hebben. Daarom is het aan de developers om te beslissen wanneer FP16 genoeg is.

IQ vergelijkingen zullen weinig boeiend zijn tenzij developers hele domme keuzes gaan maken.

Acties:
  • 0 Henk 'm!

Anoniem: 298195

Werelds schreef op donderdag 27 april 2017 @ 00:46:
[...]


IQ vergelijkingen zullen weinig boeiend zijn tenzij developers hele domme keuzes gaan maken.
Je bedoelt zoals nvidia deed bij aots :p

[ Voor 46% gewijzigd door Anoniem: 298195 op 27-04-2017 00:53 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit roept bij mij wel een vraag op. Toch Vega 11 dan eerst uitbrengen met SK hynix HBM2 geheugen? 409GB/s is in ieder geval beduidend meer dan een GTX1080 tot haar beschikking heeft, dus daar zou het probleem niet moeten liggen lijkt me. Capaciteit zal het probleem ook niet zijn als Nvidia naar Samsung gaat voor de professionele GP100 GPU. AMD kan dit ook doen voor Vega 10. Capaciteit inkopen bij Samsung en vooral zakelijke GPU's produceren waar de marges veel groter zijn. Dan in het najaar ofzo, als er genoeg HBM2 geheugen is, Vega 10 uitbrengen als consumenten GPU? :)

Verder heeft dit ook niks met Nvidia te maken. Het is ook hun goed recht om HBM2 geheugen te gebruiken voor hun GPU's. Interessanter zal zijn wat Volta gaat doen kwa geheugenopties. SK Hynix GDDR6 zit er ook aan te komen. Maar genoeg offtopic, terug naar AMD. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Waarom heeft sk hynix eigenlijk geen 2ghz hbm2 meer en Samsung wel ? Of zouden die 1.6 ghz chips gemakkelijk 2 ghz aantikken met een overclock ... En misschien produceert hynix wel specifiek voor vega maar is het product naar beneden geschaald om binnen de tbp te blijven voor vega ?

Acties:
  • +1 Henk 'm!

Anoniem: 444127

DaniëlWW2 schreef op donderdag 27 april 2017 @ 13:15:
Dit roept bij mij wel een vraag op. Toch Vega 11 dan eerst uitbrengen met SK hynix HBM2 geheugen? 409GB/s is in ieder geval beduidend meer dan een GTX1080 tot haar beschikking heeft, dus daar zou het probleem niet moeten liggen lijkt me. Capaciteit zal het probleem ook niet zijn als Nvidia naar Samsung gaat voor de professionele GP100 GPU. AMD kan dit ook doen voor Vega 10. Capaciteit inkopen bij Samsung en vooral zakelijke GPU's produceren waar de marges veel groter zijn. Dan in het najaar ofzo, als er genoeg HBM2 geheugen is, Vega 10 uitbrengen als consumenten GPU? :)
Ik hoop het niet! Ik zit al meer dan een jaar te wachten om hedendaagse spellen te kunnen spelen, ik wil niet nog een jaar wachten. Die RX 480 was niet goed genoeg (ook en vooral qua koeling, zie hoeveel lawaai ze maken) + wat te duur in vergelijking met de GTX 1070 (euro/frame) en om nu nog een RX 580 RX 480 te kopen terwijl de technologie al 1 jaar achterloopt maar je wel de volle prijs betaalt, nee, dank je.
Zit AMD überhaupt vast aan HBM? Houdt iets hen tegen om voor Vega11 GDDR5(X) te gebruiken?
Nogmaals, ik ga uit van een cut van Vega (10 dus) die interessant gaat zijn en ik denk dat het heel erg optimistisch (een beleefde manier om erop te wijzen dat ik het onrealistisch vind) is om GTX 1080 prestaties (DX11) te verwachten van de volle Vega11.
We weten bovendien niet wat voor afspraken AMD heeft gemaakt met die bedrijven. Het is best mogelijk dat ze een jaar geleden al hebben afgesproken dat AMD voor Vega-kaarten voor X euro per stack van Y GB HBM2 inkoopt met een minimum van Z stuks en dat dit keurig apart wordt gelegd door dat bedrijf. Een hoop speculatie voor niets (aangezien zelfs educated guesses niet mogelijk zijn), even rustig afwachten. Het enige wat nu zeker is is dat Vega tussen nu en 30 juni uitkomt.
Ik denk dat het tijd is om op te houden met speculeren, over een paar weken weten we het waarschijnlijk al dus laten we het even rustig afwachten.


Het is zonde dat AMD HBM uit handen moest geven vanwege haar financiële positie, mede met dank aan die illegale streken van Intel waarvoor Intel 1 miljard euro boete kreeg van de EU en nog wat andere streken (geen server CPU's verkopen aan Compaq omdat ze AMD-systemen verkochten, betalingen aan winkels om geen AMD-systemen te verkopen). AMD had toen de betere CPU's maar klanten konden het bijna niet kopen, niet als ze een prebuild van een OEM kochten. Als AMD een gunstigere financiële positie had gehad dan hadden ze HBM in eigen huis kunnen houden en dan zouden ze het nu voldoende ter beschikking hebben en zou Nvidia het moeten kopen van AMD. Ik zal vast tot een hele kleine minderheid van de klanten behoren, waar ik dikke schijt aan heb, ik zal omwille van die streken heel erg lang geen CPU of iets anders wat ik kan vermijden (helaas voor de onboard internet moeilijker) van Intel kopen.
Voor het geval Mask weer iets wil lezen wat er niet staat zodat hij een stok heeft om mee te slaan. Nee, ik beweer niet dat dit per se het enige motief voor AMD was om HBM niet binnenshuis te houden.

[ Voor 27% gewijzigd door Anoniem: 444127 op 27-04-2017 17:10 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17

Radeon Software Crimson ReLive Edition 17.4.4 Release Notes

Support For
Warhammer 40,000: Dawn of War III™
Up to 7% performance improvement measured on Radeon RX 580 8GB graphics when compared to Radeon Software Crimson ReLive edition 17.4.3.(RS-131)

Fixed Issues
Some displays may experience corruption when using HDMI® scaling.
Battlefield™1 may experience stuttering in Multi GPU mode with 4K display resolutions when using DirectX®11.
HDR colors may appear incorrect in Mass Effect™: Andromeda on the latest Windows®10 Creators Edition update.
Some incorrect or unavailable feature descriptions may appear in Radeon Settings under the more/less help section.
Radeon RX 550 series graphics products may experience a hard hang when the user's system has not been rebooted for long periods of time.
Reboot prompt may be missing after Radeon Software installation on AMD XConnect™ technology system configurations.

Known Issues
HDTV displays may intermittently lose signal on some Radeon RX 480 series graphics products when connected over HDMI®.
Call of Duty™: Advanced Warfare may experience a game hang when performing a task switch.
Radeon WattMan may fail to apply settings on some Radeon R9 390 series graphics products.
Radeon Settings may crash on switching Windows® user after toggling AMD CrossFire™ technology mode.
A small amount of apps may still experience issues with Borderless Fullscreen mode and AMD FreeSync™ technology if other applications or game launchers are running on the primary screen in the background.
Counter-Strike™: Global Offensive and World of Warcraft™ may experience flickering or performance issues the first time the game is launched on a system boot with AMD FreeSync™ technology enabled. Workarounds include exiting and restarting the application or task switching (alt+tab) in and out of the game to fix the issue.

Known Issues for Radeon ReLive
The XBOX™ DVR application may cause conflicts with Radeon ReLive, users are suggested to disable XBOX™ DVR if Radeon ReLive is experiencing issues.
Radeon ReLive may fail to install on AMD APU Family products or experience a system hang or failure to record when using the recording feature on AMD APU Family products.
Radeon ReLive may intermittently fail to work after performing task switches of applications in multi display system configurations. A work around is to disable and then enable the feature in Radeon Software.
Radeon ReLive may exhibit corruption in recordings when capturing Microsoft Office applications.
Radeon ReLive may experience recording or streaming issues when task switching using ALT+TAB.
http://support.amd.com/en...17.4.4-Release-Notes.aspx
In case you are wondering where that Quake Champions Beta shortcut on your desktop comes from, AMD's 17.4.4 driver installation stealth-adds that to your desktop, with a bit.ly tracking link, instead of directly to the official page. Looks like AMD is making some $$ from it, a referral id is included in the final URL destination, too.
https://www.techpowerup.c...son-relive-17-4-4-drivers

[ Voor 78% gewijzigd door Paprika op 28-04-2017 01:40 ]


Acties:
  • 0 Henk 'm!

  • Bazziek
  • Registratie: December 2011
  • Laatst online: 20:39
Vraag me af waarom ze hiervoor kiezen. Zeker vlak voor een grote aankondiging / release kan het kleine beetje geld dat dit oplevert toch niet opwegen tegen het risico op negatieve publiciteit?

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Bazziek schreef op vrijdag 28 april 2017 @ 01:49:
[...]
Vraag me af waarom ze hiervoor kiezen. Zeker vlak voor een grote aankondiging / release kan het kleine beetje geld dat dit oplevert toch niet opwegen tegen het risico op negatieve publiciteit?
Zoiets? :+ Heel vreemde keus ja. Nvidia trapte hem af met Geforce Experience en AMD volgt nu met dit...

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Ik ben niet blij met deze actie van AMD, maar om het gelijk te stellen met wat Nvidia doet gaat mij te ver. Nvidia draait uitgebreide telemetry-software die van alles volgt over wat je op je PC doet, dat moet je installeren (het is tegenwoordig onderdeel van de driver zelf) en kan alleen uit door in een min of meer verborgen menu een vinkje met een hele vage omschrijving uit te vinken.

AMD plaatst een snelkoppeling op je bureaublad die verwijst naar een URL shortener die statistieken verzamelt. Daar ben ik zoals gezegd niet blij mee, maar feit is wel dat ze veel en veel minder data verzamelen dan Nvidia. Een URL shortener is iets heel anders dan de uitgebreide telemetry van Nvidia.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Eens. Is dat Quake Champions niet een gratis proefdraaien voor wie mee wil doen? Ze moeten niet zonder je toestemming een snelkoppeling op je desktop plaatsen (ik heb mijn desktop zelfs graag helemaal leeg), dat is duidelijk.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@Anoniem: 59888

Nou dat vinkje bij "allow experience improvement program" schijnt het niet uit te zetten hoor.

Hier meer: https://forums.geforce.co...ll-and-always-running-/1/

Al die telemetry en userprofiling waarbij het ook nog onduidelijk is wat er verzameld wordt erger ik me dood aan. Maar ja, privacy is zo 1980.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

AMD Radeon RX 550 2GB Review @ Tomshardware

Radeon RX 550 is AMD’s first graphics card based on new silicon since its Polaris 11-based Radeon RX 460. The company says RX 550 is 1080p-capable in a number of popular e-sports games, adding that the product’s compact dimensions and low power also endear it to home-theater PCs.

Fittingly, the RX 550 slides in behind AMD’s just-announced Radeon RX 560 and starts at $80. That’s an incredibly important price point. In fact, as recently as last year, our Best Graphics recommendations included the $90 Radeon R7 360. Its disappearance forced us up the stack to Radeon RX 460, which started life at $110 last August.
Can Radeon RX 550 carve out a spot on the list of Tom’s Hardware-approved upgrades by serving up viable performance for less money than some of our past picks?
http://www.tomshardware.c...deon-rx-550-2gb,5034.html

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • henkie196
  • Registratie: November 2001
  • Niet online
Help!!!! schreef op vrijdag 28 april 2017 @ 10:02:
Al die telemetry en userprofiling waarbij het ook nog onduidelijk is wat er verzameld wordt erger ik me dood aan. Maar ja, privacy is zo 1980 1984.
FTFY ;)

Is die installatie van Quake Champions (incl referral link, of is het alleen maar de referral link?) voor de AMD drivers optioneel, of wordt plempen ze je PC vol met ongevraagde zooi?

Acties:
  • 0 Henk 'm!
@henkie196 het was alleen een link.

nieuws: AMD zegt sorry voor Quake Champions-link in driver-update

Nu nog wachten op Nvidia die excuses aanbiedt voor het verzamelen van allerlei data, vereisen van een email adres voor het gebruik van nieuwere versies van GFE (ik zit nog lekker op 2.x), waarbij die ook nog eens irritant traag zijn...as if that'll ever happen :+

Acties:
  • 0 Henk 'm!

  • henkie196
  • Registratie: November 2001
  • Niet online
Alleen een link is niet zo erg, dan. Wel irritant, maar hopelijk doen ze het de volgende keer niet meer dan.

Dat van gegevens verzamelen van nVidia wist ik niet, maar is voor mij genoeg reden om nooit meer iets van nVidia in huis te halen.

Acties:
  • +1 Henk 'm!

Anoniem: 298195

henkie196 schreef op vrijdag 28 april 2017 @ 11:23:
Alleen een link is niet zo erg, dan. Wel irritant, maar hopelijk doen ze het de volgende keer niet meer dan.

Dat van gegevens verzamelen van nVidia wist ik niet, maar is voor mij genoeg reden om nooit meer iets van nVidia in huis te halen.
Van mij mag nvidia best weten dat ik veel op vega en ryzen informatie zoek en lees :+

(wil graag van min gtx970 af :P )

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Help!!!! schreef op vrijdag 28 april 2017 @ 10:02:
@Anoniem: 59888

Nou dat vinkje bij "allow experience improvement program" schijnt het niet uit te zetten hoor.

Hier meer: https://forums.geforce.co...ll-and-always-running-/1/
Pfoe, het is dus zelfs nog erger dan ik dacht. :\
henkie196 schreef op vrijdag 28 april 2017 @ 11:23:
Alleen een link is niet zo erg, dan. Wel irritant, maar hopelijk doen ze het de volgende keer niet meer dan.

[...]
Het was inderdaad alleen een snelkoppeling op het bureaublad, die een website met je standaard browser opende. Inmiddels heeft AMD naar de feedback geluisterd, als je de driver nu download wordt die snelkoppeling niet meer geplaatst. Als ze het nu al uit deze driver gehaald hebben ligt het voor de hand dat ze dit niet nog een keer gaan doen. Dat wil niet per se zeggen dat ze zoiets helemaal nooit meer gaan doen, maar ze hebben nu dus wel door dat gebruikers er niet op zitten te wachten dat er ongevraagd dingen op hun PC worden geplaatst, ook niet als het alleen een snelkoppeling is.

Ik denk persoonlijk dat hun inschatting was dat mensen niet allerlei rommel op hun PC wilden maar dat een snelkoppeling minder een probleem zou zijn. Dat was overduidelijk niet het geval, en dus is die snelkoppeling een dag later al weer weg. Jammer van de misser, maar als ze dan toch een keer de plank mis slaan is het wel weer prettig dat dat een dag later al weer wordt rechtgezet. Dat maakt het er niet beter op, maar eerlijk is eerlijk, dat zien we ook wel eens anders. Elk nadeel hep ze voordeel zullen we maar zeggen. ;)

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Anoniem: 59888 schreef op vrijdag 28 april 2017 @ 02:13:
Ik ben niet blij met deze actie van AMD, maar om het gelijk te stellen met wat Nvidia doet gaat mij te ver.
Uiteraard is het niet hetzelfde (Paprika in 'nieuws: GeForce Experience 3.0 bevat aangepaste interface en verei... :+).

Acties:
  • 0 Henk 'm!

Anoniem: 444127

De RX 550 kan ook GTAV met overwegend hoge grafische instellingen spelen met >60 FPS, net eronder met enkel hoge instellingen. Dat vond ik best verrassend. Ik zou het niet aanraden voor gamers maar je kan er zeker veel spellen wel goed mee spelen.

Even geheel offtopic maar te interessant om niet te delen en niet geschikt voor een andere draad:
According to an anonymous NVIDIA engineer, "Nearly Every Game Ships Broken ... In some cases, we’re talking about blatant violations of API rules ... There are lots of optional patches already in the driver that are simply toggled on or off as per-game settings, and then hacks that are more specific to games ... Ever wondered why nearly every major game release is accompanied by a matching driver release from AMD and/or NVIDIA?"
We zagen wel aankomen dat AMD dit zou doen en ermee zou ophouden als de gebruikers klagen maar ik had niet verwacht dat het 1 dag later al zou gebeuren.
Nu nog wachten op Nvidia die excuses aanbiedt voor het verzamelen van allerlei data, vereisen van een email adres voor het gebruik van nieuwere versies van GFE (ik zit nog lekker op 2.x), waarbij die ook nog eens irritant traag zijn...as if that'll ever happen :+
Hoeveel geduld heb jij met dat wachten? :)

[ Voor 82% gewijzigd door Anoniem: 444127 op 28-04-2017 20:19 ]


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NerdTechGasm (zeer toepasselijke gebruikersnaam :P ) deel 2 is er. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58
DaniëlWW2 schreef op zondag 30 april 2017 @ 16:58:
NerdTechGasm (zeer toepasselijke gebruikersnaam :P ) deel 2 is er. :)
[video]
goede samenvatting en herhaling. En:

CHOOOO CHOOOOOO!!!!!

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Amazigh_N_Ariff schreef op zondag 30 april 2017 @ 18:18:
[...]


goede samenvatting en herhaling. En:

CHOOOO CHOOOOOO!!!!!
All aboard the hype train? :+

Inderdaad een mooie analyse.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Amazigh_N_Ariff schreef op zondag 30 april 2017 @ 18:18:
[...]


goede samenvatting en herhaling. En:

CHOOOO CHOOOOOO!!!!!
Ik ga er niet eens inhoudelijk op reageren. Ik heb goed opgelet, begreep daadwerkelijk iets van 90% van wat hij te melden had een soort van en ik heb zo mijn vermoedens over prestaties, die ik lekker voor mijzelf hou. :+

Ik doe niet mee aan de hypetrain. Ik ga toch voor de laagst gepositioneerde Vega 11 of alsnog voor een RX580, omdat alles daarboven zeer waarschijnlijk overkill zal zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58
DaniëlWW2 schreef op zondag 30 april 2017 @ 18:37:
[...]


Ik ga er niet eens inhoudelijk op reageren. Ik heb goed opgelet, begreep daadwerkelijk iets van 90% van wat hij te melden had een soort van en ik heb zo mijn vermoedens over prestaties, die ik lekker voor mijzelf hou. :+

Ik doe niet mee aan de hypetrain. Ik ga toch voor de laagst gepositioneerde Vega 11 of alsnog voor een RX580, omdat alles daarboven zeer waarschijnlijk overkill zal zijn.
Ik zit momenteel ook te twijfelen tussen een RX580 en Vega 11. En ik kan een stukje langer wachten na deze analyse.

Vega voorpelling :P :

4096 SP --> Vega 10 8/16GB HBM2
3584 SP --> Vega 10 8GB HBM2
2816 SP --> Vega 11 8/4GB HBM2
2560 SP --> Vega 11 8/4GB HBM2
2304 SP --> Polaris 10/20 8/4GB DDR5

Edit een paar ''leaks'' op Reddit:

https://www.reddit.com/r/...t_reconfigured_yet_thats/
https://www.reddit.com/r/...timespy_benchmark_result/
&
http://www.guru3d.com/new...spy-benchmark-result.html

[ Voor 27% gewijzigd door Amazigh_N_Ariff op 30-04-2017 21:35 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:49

Damic

Tijd voor Jasmijn thee

Amazigh_N_Ariff schreef op zondag 30 april 2017 @ 19:13:
[...]


Ik zit momenteel ook te twijfelen tussen een RX580 en Vega 11. En ik kan een stukje langer wachten na deze analyse.

Vega voorpelling :P :

4096 SP --> Vega 10 8/16GB HBM2
3584 SP --> Vega 10 8GB HBM2
2816 SP --> Vega 11 8/4GB HBM2
2560 SP --> Vega 11 8/4GB HBM2
2304 SP --> Polaris 10/20 8/4GB DDR5

Edit een paar ''leaks'' op Reddit:

https://www.reddit.com/r/...t_reconfigured_yet_thats/
https://www.reddit.com/r/...timespy_benchmark_result/
&
http://www.guru3d.com/new...spy-benchmark-result.html
Benchmark is niet echt goed, TS op "vega" zou een 5950 opleveren maar een Fury doet er rond de 8800
http://www.3dmark.com/compare/spy/1544741/spy/1314066

[ Voor 3% gewijzigd door Damic op 01-05-2017 00:29 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 12-05 14:35

flessuh

Set sail for fail!

Die benchmark heeft het hardware ID van een eerder engineering sample toch?

Nou ja als die benchmark wel klopt zal het "make some noise" wel gebeuren.. alleen niet het geluid wat AMD wil :+

Ik blijf er bij, laten we gewoon wachten op de aankondiging.. Zelf ben ik van plan eind juni een nieuwe PC te bouwen, hopelijk is Vega er dan... en verkrijgbaar ;)

[ Voor 30% gewijzigd door flessuh op 01-05-2017 09:47 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:07
Ik heb het liever zo, met een lage score dan dat je nu al super hoge waarden ziet er weer een hype van hier tot ginder ontstaat en het uiteindelijk... nou ja wel 'meevalt'

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:49

Damic

Tijd voor Jasmijn thee

Ik heb juist die score tabel van guru3d gezien, euhm vanwaar komen die getallen?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Conpiracy mode: Nvidia/nvidia fan heeft deze 3dmark resusltaten gehackt/gecreëerd om wachten de klanten af te schrikken zodat ze een pascal gpu kopen.

Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
Hoezo zouden ze dat nodig hebben? De gehele Pascal lijn wint het op dit moment op het gebied van performance/watt, staan sterk op het gebied van performance/$, hebben geen concurrentie boven de GTX 1060 (welke alsnog heel erg gewild is), 1080Ti kaarten zijn meer gewild dan er aanbod is etc. etc.

Conspiracy mode: AMD fan heeft deze 3DMark resultaten gefabriceerd om onwetende mensen te laten denken dat Nvidia hierachter zit om zo sympathie te creëren voor AMD...

Misschien gewoon even geduld hebben tot er een echte leak en/of nieuws uitkomt. Wat ik persoonlijk dan weer vreemd vind is dat AMD al lang geleden iets over Vega liet zien, maar het nu alweer heel wat maanden stil is.

[ Voor 19% gewijzigd door Paprika op 01-05-2017 12:15 ]


Acties:
  • +1 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 12-05 09:15

Edmin

Crew Council

get on my horse!

Zullen we anders stoppen met die CT's en de geruchten schatten op wat ze zijn: geruchten? :)

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58
Edmin schreef op maandag 1 mei 2017 @ 12:14:
Zullen we anders stoppen met die CT's en de geruchten schatten op wat ze zijn: geruchten? :)
M'maar... maar anders valt de Choo Choo stil :( .

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Eens kijken.
-HBM2 van SK Hynix kan maximaal op 1,6ghz lopen, Samsung zelfs 2ghz. 700mhz is dan erg, erg onrealistisch. Zeker als je bedenkt wat AMD probeert te bereiken met het gebruik van HBM2, namelijk ronduit gestoorde geheugen bandbreedte. Daar heb je ook clockspeeds voor nodig.
-Vega is gewoon GCN 2.0. Van de 7xxx series tot Polaris was allemaal GCN 1.0, 1.1 etc. Kleine verbeteringen hier en daar, grotere die, dieshrink, hogere clocks. Vega is een nieuwe GCN gebaseerde achitectuur waar onder andere de nadruk is komen te liggen op hogere clockspeeds.
-De Radeon Instinct MI25 loopt op ongeveer 1525mhz om die 12,5 FP32 TFLOPs te halen. De MI25 is een volle Vega 10 GPU die waarschijnlijk gedownclocked is ten opzichte van de consumenten release, zoals zo vaak gebeurd met professionele GPU's.

Dit is of een heel vroege engineering sample of nep...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Donderstraaltje
  • Registratie: Januari 2010
  • Niet online
Ff tussen al dat vega geweld door... er is wel meer. Heeft iemand al passieve rx550's gezien? Die waren min of meer aangekondigd/beloofd naar zie er 0,0 van terug. Dit zou net zo nieuwswaardig of zelfs meer zijn, maar dan voor een veel kleinere groep. Vorige gen hebben we ook maar een passieve rx 460 van XFX gezien die helaas geen single slot was en daarmee voor velen die op dergelijke kaarten met smart wachten geen optie. Denk aan htpc's, (shuttle) barebones, mensen met passieve pc's en mensen die met oudere games zich nog prima vermaken... zo blijft skyrim bijv. nog een prima game die op dergelijke kaarten nog net ff wat beter draaien dan onboard Intel/amd.

Acties:
  • 0 Henk 'm!

Anoniem: 298195

DaniëlWW2 schreef op maandag 1 mei 2017 @ 12:47:

-Vega is gewoon GCN 2.0. Van de 7xxx series tot Polaris was allemaal GCN 1.0, 1.1 etc. Kleine verbeteringen hier en daar, grotere die, dieshrink, hogere clocks. Vega is een nieuwe GCN gebaseerde achitectuur waar onder andere de nadruk is komen te liggen op hogere clockspeeds.

Dit is of een heel vroege engineering sample of nep...
Volgens mij is er onder kap wel wat meer veranderd, fp16 fp32 verhouding is totaal anders, primitive shaders, geoptimaliseerde geometry pipeline waardoor de taken beter over de de 4 shader engines kunnen worden verdeeld. De nadruk ligt vooral op een hogere ipc en waar de dieshrink hogere clocksnelheden mogelijk maakt.

Weet iemand hier hoeveel hoger de ipc van pascal is ten opzichte van maxwell ? Of is het puur de clocksnelheid die pascal zoveel beter maken....

[ Voor 8% gewijzigd door Anoniem: 298195 op 01-05-2017 13:33 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:25
Anoniem: 298195 schreef op maandag 1 mei 2017 @ 13:04:
Weet iemand hier hoeveel hoger de ipc van pascal is ten opzichte van maxwell ? Of is het puur de clocksnelheid die pascal zoveel beter maken....
Clocks en meer "cores".

De ipc is misschien zelfs lager omdat pascal het weer met minder memorybandbreedte moet doen ten opzichte van de rest van de gpu.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Kwam dit filmpje tegen:


Moet hem enigzins gelijk geven, Anandtech is niet meer representatief voor videokaarten. Dit om twee redenen en niet degene die hij geeft, ik vind het namelijk nog wel nuttig om ook oudere games in de lijst terug te zien.
De redenen die ik heb is dat Anandtech laat geen frametimes zien, geen 0.1%, het enige wat ze laten zien is average fps niet eens min fps en dat is ondertussen een behoorlijk achterhaalde manier van testen.
Het aantal spellen wat ze testen is gewoon te weinig, als je kijkt dat andere review sites wel 10+ spellen kunnen reviewen en vaak de API nemen die de beste resultaten geven of dit nu voor AMD(DX12/Vulkan) of Nvidia(DX11) is.
TPU test wellicht nog op de oude manier maar vaak testen ze veel spellen en hebben ze aan het einde mooie performance charts.

Als laatste, ik zou graag oude kaarten terug zien in het lijstje, de R9 290 en de GTX970 zijn nog steeds relevant.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Sp3ci3s8472 schreef op maandag 1 mei 2017 @ 13:45:
Het aantal spellen wat ze testen is gewoon te weinig, als je kijkt dat andere review sites wel 10+ spellen kunnen reviewen en vaak de API nemen die de beste resultaten geven of dit nu voor AMD(DX12/Vulkan) of Nvidia(DX11) is.
10 is al veel te weinig.

Om echt een algemeen goed beeld te krijgen moeten meer dan 100 spellen getest worden.

Dat kan relatief makkelijk als niet elke benchmark vlogger/site precies dezelfde spellen zou testen, of nog beter als Steam een automatische benchmark functie zou hebben waar spellen/gebruikers hun eigen recorded spelsequence voor zouden kunnen aanmelden, waarna je gewoon 100 spellen achter elkaar kan benchen door ze te selecteren en vervolgens 1 knop in te drukken.

Ik mis vooral ook met Ryzen (vanwege betere IPC) de tests met flightsimulators (XPlane en P3D), Eurotruck simulator met Promods, en vooral ook physics spellen zoals Kerbal Space Program. Allemaal spellen die mijn computer met gemak op z`n knieen krijgen. (afhankelijk van de settings natuurlijk.)

Er zijn VEEEEEEEL meer programma`s in de wereld die het een CPU of GPU moeilijk kunnen maken dan alleen de laatste 5 sponsored "AAA" titels.

Er zouden juist meer spellen die Geen specifieke merk gerichte optimalisaties/technieken gebruiken (Vulkan/Gameworks/Physx/TressFX) getest moeten worden dan andersom om een eerlijk beeld te kunnen vormen over de 10000en spellen die dat niet hebben, dan de 10 die dat wel hebben.

Het is precies dat Dolby Atmos, enzzz... fenomeen dat het allemaal geweldig klinkt maar dan alleen getest wordt met speciale Demo-disks maar in elke echte/andere film niet getest wordt, waardoor je voor 99% van de usecase absoluut niks wijzer wordt.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Anoniem: 298195 schreef op maandag 1 mei 2017 @ 13:04:
Volgens mij is er onder kap wel wat meer veranderd, fp16 fp32 verhouding is totaal anders, primitive shaders, geoptimaliseerde geometry pipeline waardoor de taken beter over de de 4 shader engines kunnen worden verdeeld. De nadruk ligt vooral op een hogere ipc en waar de dieshrink hogere clocksnelheden mogelijk maakt.
Ik heb het filmpje waar dit allemaal werd toegelicht zelf gelinkt. :+
Neemt niet weg dat NCU gewoon GCN 2.0 is. Dat bedoel ik echt niet negatief. GCN is gewoon goed, maar kan nu met betere productietechnieken, materialen en aanpassingen nog veel beter. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 298195

DaniëlWW2 schreef op maandag 1 mei 2017 @ 16:07:
[...]


Ik heb het filmpje waar dit allemaal werd toegelicht zelf gelinkt. :+
Neemt niet weg dat NCU gewoon GCN 2.0 is. Dat bedoel ik echt niet negatief. GCN is gewoon goed, maar kan nu met betere productietechnieken, materialen en aanpassingen nog veel beter. :)
tja het is uideindelijk maar een nummertje of het nou NCU of GCN 2.0 is zegt toch niks over de verandering/upgrades ?

Nu lijkt het net alsof jij het de naam NCU niet waardig vind en en niet genoeg geupgraded is dat we het daarom maar GCN 2.0 moeten noemen :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
enchion schreef op maandag 1 mei 2017 @ 14:19:
[...]


10 is al veel te weinig.
Eigenlijk wel.
Er zouden juist meer spellen die Geen specifieke merk gerichte optimalisaties/technieken gebruiken (Vulkan/Gameworks/Physx/TressFX) getest moeten worden dan andersom om een eerlijk beeld te kunnen vormen over de 10000en spellen die dat niet hebben, dan de 10 die dat wel hebben.
Vulkan hoort niet in dat lijstje thuis, dat zou fabrikant onafhankelijk moeten zijn. Dat AMD een betere Vulkan/DX12 implementatie heeft betekent niet dat het een specifiek merk gerichte optimalisatie is.

Edit:
DaniëlWW2 schreef op maandag 1 mei 2017 @ 16:07:
[...]


Ik heb het filmpje waar dit allemaal werd toegelicht zelf gelinkt. :+
Neemt niet weg dat NCU gewoon GCN 2.0 is. Dat bedoel ik echt niet negatief. GCN is gewoon goed, maar kan nu met betere productietechnieken, materialen en aanpassingen nog veel beter. :)
Ik heb het idee dat er met Vega de grootste verandering van GCN komt, sowieso groter dan bijvoorbeeld de stap van Kepler->Maxwel->Pascal, dat is haast allemaal 1 pot nat.

[ Voor 29% gewijzigd door Sp3ci3s8472 op 01-05-2017 16:56 ]


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op maandag 1 mei 2017 @ 12:47:
-HBM2 van SK Hynix kan maximaal op 1,6ghz lopen, Samsung zelfs 2ghz. 700mhz is dan erg, erg onrealistisch. Zeker als je bedenkt wat AMD probeert te bereiken met het gebruik van HBM2, namelijk ronduit gestoorde geheugen bandbreedte. Daar heb je ook clockspeeds voor nodig.
Waar haal je die wijsheid vandaan? SK Hynix heeft gewoon 2 "GHz" HBM2 in hun catalogus staan. Overigens zijn die snelheden incorrect. HBM 1 is 500 MHz ofwel 1 GT/s (1000 MT/s). HBM2 voor die 1,6 en 2,0 is eigenlijk 800 MHz en 1 GHz voor een doorvoersnelheid van 1,6 GT/s en 2,0 GT/s.

Dat hele "effectieve kloksnelheid" is iets dat wij hier op Tweakers wel mogen vermijden naar mijn mening. Het is gewoon grote onzin. Wij horen hier beter te weten ;)

En waarom zou 700 MHz (dus 1,4 GT/s) niet genoeg zijn? Het HBM op Fiji draait ook maar op 500 MHz - 700 MHz zou al 716 GB/s aan bandbreedte betekenen ;)

Daadwerkelijk 2 GHz zou overigens betekenen dat we 2 TB/s aan bandbreedte zouden krijgen. Klinkt lekker maar zo ver zijn we nog niet hoor :+
-De Radeon Instinct MI25 loopt op ongeveer 1525mhz om die 12,5 FP32 TFLOPs te halen. De MI25 is een volle Vega 10 GPU die waarschijnlijk gedownclocked is ten opzichte van de consumenten release, zoals zo vaak gebeurd met professionele GPU's.
Dat valt bij AMD vaak wel mee. De FirePro versies van Hawaii XT draaien allemaal op 900-950 MHz. Dat is maar zo'n 10-15% lager dan de consumenten versies.
Anoniem: 298195 schreef op maandag 1 mei 2017 @ 16:15:
tja het is uideindelijk maar een nummertje of het nou NCU of GCN 2.0 is zegt toch niks over de verandering/upgrades ?

Nu lijkt het net alsof jij het de naam NCU niet waardig vind en en niet genoeg geupgraded is dat we het daarom maar GCN 2.0 moeten noemen :+
Verschillende dingen.

NCU is een onderdeel van deze iteratie van GCN (is nog maar de vraag of AMD het 2.0 noemt ;)). Net als CU een onderdeel van GCN 1.x is.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 1 mei 2017 @ 17:04:
[...]

Waar haal je die wijsheid vandaan? SK Hynix heeft gewoon 2 "GHz" HBM2 in hun catalogus staan. Overigens zijn die snelheden incorrect. HBM 1 is 500 MHz ofwel 1 GT/s (1000 MT/s). HBM2 voor die 1,6 en 2,0 is eigenlijk 800 MHz en 1 GHz voor een doorvoersnelheid van 1,6 GT/s en 2,0 GT/s.

Dat hele "effectieve kloksnelheid" is iets dat wij hier op Tweakers wel mogen vermijden naar mijn mening. Het is gewoon grote onzin. Wij horen hier beter te weten ;)

En waarom zou 700 MHz (dus 1,4 GT/s) niet genoeg zijn? Het HBM op Fiji draait ook maar op 500 MHz - 700 MHz zou al 716 GB/s aan bandbreedte betekenen ;)

Daadwerkelijk 2 GHz zou overigens betekenen dat we 2 TB/s aan bandbreedte zouden krijgen. Klinkt lekker maar zo ver zijn we nog niet hoor :+
Dat kwam hier laatst voorbij, dat SK Hynix problemen had met hun HBM2. Verder derp ik weer eens uit zie ik. Ben stupid, negeer maar. :P
Dat valt bij AMD vaak wel mee. De FirePro versies van Hawaii XT draaien allemaal op 900-950 MHz. Dat is maar zo'n 10-15% lager dan de consumenten versies.
Dat is merkbaar lager geclocked hoor. ;)
Het is dan toch al snel 150 a 200mhz meer. :+
Verschillende dingen.

NCU is een onderdeel van deze iteratie van GCN "2.0" (is nog maar de vraag of AMD het zo noemt ;)). Net als CU een onderdeel van GCN 1.x is.
Ik ben gewoon iemand die niet van prachtige marketingnamen houd. Ik zeg zoals het is. NCU is gewoon een behoorlijke update van GCN, en niet iets radicaal nieuws, GCN 2.0 dus. Bedoel dat wederom echt niet negatief. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op maandag 1 mei 2017 @ 17:09:
Dat kwam hier laatst voorbij, dat SK Hynix problemen had met hun HBM2. Verder derp ik weer eens uit zie ik. Ben stupid, negeer maar. :P
Niet dom, gewoon nog niet genoeg en vaak genoeg over dit soort dingen gelezen ;)
Ik ben gewoon iemand die niet van prachtige marketingnamen houd. Ik zeg zoals het is. NCU is gewoon een behoorlijke update van GCN, en niet iets radicaal nieuws, GCN 2.0 dus. Bedoel dat wederom echt niet negatief. :)
Je mist m'n punt nog steeds.

GCN is de architectuur. De Compute Units (CU) zijn daar een onderdeel van. In Vega's architectuur krijgen die dingen inderdaad een upgrade en dusdanig ingrijpend dat AMD het waard vindt ze nu Next Compute Unit te noemen.

Dat is echter niet alles. Er zijn nog veel meer wijzigingen in de architectuur van Vega; en eigenlijk zijn die wijzigingen juist veel groter en belangrijker dan wat ze met de CU's doen (de grote wijziging daar is dat ze de 32-bits ALU's nu met operands van kleinere groottes kunnen vullen).

Sterker nog, de CU's zijn maar een heel klein onderdeel van GCN als het op de werking aan komt. De reden dat GCN zo'n goede balans treft tussen renderen en compute, of dat ze goed met DX12/Vulkan overweg kunnen ligt juist niet bij de CU's.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 1 mei 2017 @ 17:15:
[...]

Niet dom, gewoon nog niet genoeg en vaak genoeg over dit soort dingen gelezen ;)
Fair enough. :)
Je mist m'n punt nog steeds.

GCN is de architectuur. De Compute Units (CU) zijn daar een onderdeel van. In Vega's architectuur krijgen die dingen inderdaad een upgrade en dusdanig ingrijpend dat AMD het waard vindt ze nu Next Compute Unit te noemen.

Dat is echter niet alles. Er zijn nog veel meer wijzigingen in de architectuur van Vega; en eigenlijk zijn die wijzigingen juist veel groter en belangrijker dan wat ze met de CU's doen (de grote wijziging daar is dat ze de 32-bits ALU's nu met operands van kleinere groottes kunnen vullen).

Sterker nog, de CU's zijn maar een heel klein onderdeel van GCN als het op de werking aan komt. De reden dat GCN zo'n goede balans treft tussen renderen en compute, of dat ze goed met DX12/Vulkan overweg kunnen ligt juist niet bij de CU's.
Wel dom dus. :+ :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Sp3ci3s8472 schreef op maandag 1 mei 2017 @ 16:54:

Vulkan hoort niet in dat lijstje thuis, dat zou fabrikant onafhankelijk moeten zijn. Dat AMD een betere Vulkan/DX12 implementatie heeft betekent niet dat het een specifiek merk gerichte optimalisatie is.
Ik snap wat je zegt maar opzich is Vulkan nog steeds een "3DMark" functie om toekomstige mogelijkheden te laten zien, en niet representatief voor de spellen die nu of binnen korte termijn gespeeld kunnen worden.
En het werkt vooral goed met 1 van de 2 vendors.
Implementatie is nog niet gemeengoed genoeg waardoor vendortypischheid nog niet is uitgeroeid, API is nog teveel in ontwikkelfase en er is ook nog maar 1 game gemaakt die ook nog eens door een bedrijf is gemaakt die veel specifieke GPU vendorinformatie bezit. (dus weet de gebruiker nog absoluut niet wat deze prestatie informatie betekent.)

Ik ben juist benieuwd naar benchmarks van spellen die gemaakt zijn door bedrijven die niet alle of specifieke achter/voor-deurtjes weten, maar meer het gewone programmeerwerk doen op basis van de algemeen bekende gegevens en tools.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Werelds schreef op maandag 1 mei 2017 @ 17:15:
[...]

Niet dom, gewoon nog niet genoeg en vaak genoeg over dit soort dingen gelezen ;)


[...]

Je mist m'n punt nog steeds.

GCN is de architectuur. De Compute Units (CU) zijn daar een onderdeel van. In Vega's architectuur krijgen die dingen inderdaad een upgrade en dusdanig ingrijpend dat AMD het waard vindt ze nu Next Compute Unit te noemen.

Dat is echter niet alles. Er zijn nog veel meer wijzigingen in de architectuur van Vega; en eigenlijk zijn die wijzigingen juist veel groter en belangrijker dan wat ze met de CU's doen (de grote wijziging daar is dat ze de 32-bits ALU's nu met operands van kleinere groottes kunnen vullen).

Sterker nog, de CU's zijn maar een heel klein onderdeel van GCN als het op de werking aan komt. De reden dat GCN zo'n goede balans treft tussen renderen en compute, of dat ze goed met DX12/Vulkan overweg kunnen ligt juist niet bij de CU's.
primitive shaders zijn ook wel interessant, daarmee maak je de IPC effectiever

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:17
enchion schreef op maandag 1 mei 2017 @ 14:19:
[...]
Er zijn VEEEEEEEL meer programma`s in de wereld die het een CPU of GPU moeilijk kunnen maken dan alleen de laatste 5 sponsored "AAA" titels.
Behalve dan dat review websites ook geld willen verdienen. Hoe verdienen ze dat geld? Voornamelijk door advertenties. Welke reviews krijgen de meeste views? Inderdaad, de reviews voor de massa...

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58
Anoniem: 298195 schreef op maandag 1 mei 2017 @ 16:15:
[...]


tja het is uideindelijk maar een nummertje of het nou NCU of GCN 2.0 is zegt toch niks over de verandering/upgrades ?

Nu lijkt het net alsof jij het de naam NCU niet waardig vind en en niet genoeg geupgraded is dat we het daarom maar GCN 2.0 moeten noemen :+
NCU is GCN 1.5 :P. De Stream Proccesor zijn 100% dezelfde. Waar niks mis mee is moet je ook niet veranderen. De rest is allemaal veranderd om deze SP te voeden.

Wikipedia: TeraScale (microarchitecture)
Wikipedia: Graphics Core Next

Acties:
  • +4 Henk 'm!
Nee hoor, gewoon meer lezen ;)

Hoewel Anandtech voor reviews al jaren niet meer zo boeiend is, zijn ze dat voor de technische kant juist wel. Ze gaan diep, maar tegelijkertijd blijven ze "mainstream" en is het goed te volgen. Google de volgende artikelen maar voor leesvoer:
- Reviews van G80 (8800), RV770 (4870), GT200 (GTX 280), Cypress (5870), Fermi (GTX 480), GCN (7970). Alles daarna is niet zo boeiend :P
- The RV770 Story
- The RV870 Story

En misschien even hieronder lezen ;)
Amazigh_N_Ariff schreef op maandag 1 mei 2017 @ 19:11:
NCU is GCN 1.5 :P. De Stream Proccesor zijn 100% dezelfde. Waar niks mis mee is moet je ook niet veranderen. De rest is allemaal veranderd om deze SP te voeden.
Niet dus ;)

Stap 1: terminologie. Shader Processor (oud), Stream Processor (AMD), CUDA Core (Nvidia), EU (Intel) - allemaal hetzelfde. Shader Processors heetten ze vroeger, maar tegenwoordig klopt die term niet meer omdat deze ALU's meer kunnen dan shaders verwerken. En dat is dan ook de juiste universele term: ALU. Al deze termen slaan op niets meer dan de absoluut kleinste rekeneenheden binnen een GPU. Zijn Nvidia's ALU's hetzelfde als die van AMD? Nee. Maar die van Maxwell/Pascal zijn ook niet meer hetzelfde als in Fermi en toch noemt Nvidia ze nog steeds CUDA Core. Hetzelfde geldt voor AMD.

En daar maak je de eerste fout: de ALU's in Vega's NCU's kunnen packed math doen; dat wil zeggen, het zijn 32-bits ALU's waar ze 2x16-bit of wellicht zelfs 4x8-bit in 1 tik kunnen verwerken. Dat kunnen de huidige ALU's in alle vormen van GCN nu niet. Die zijn dus sowieso al niet hetzelfde.

offtopic:
Ik zeg overigens wel meestal SP omdat dat vroeger de afkorting was en AMD's huidige "SP" hetzelfde klinkt en CUDA Core stom klinkt :P



Stap 2: organisatie. Hoewel de ALU's de kleinste rekeneenheid zijn, is dat niet de kleinste werkeenheid. Die eer is voorbehouden aan de SIMD's; AMD groepeert 16 ALU's in 1 SIMD. En 4 SIMD's vormen weer een CU. 4 * 16 = 64 ALU's per CU. Daarnaast zitten er in een CU nog andere rekeneenheden, texture units, een scheduler, cache en ga zo maar door.

In een GPU zit een berg van die CU's, die aan een L2/L3 cache hangen, waar een rasteriser pipeline in zit, een command processor, de ACE's, geometry units, display controllers, video engines, en ook hier kun je weer een hele tijd door gaan. De gehele organisatie van al deze dingen - de indelingen van elk onderdeel apart, maar ook de onderlinge indeling en verbindingen is wat wij een architectuur noemen. Dat is wat GCN is.

Dit is de tweede fout. Je stelt NCU gelijk aan "GCN 1.5", maar NCU is een minuscuul onderdeel van de GCN iteratie in Vega.

We weten nog bij lange na niet genoeg over zowel GCN "2.0" als de NCU's. We hebben geen idee waar de geometry engines zitten, hoe ze nu verbonden zijn met andere onderdelen. Geen flauw benul wat er aan de ACE indeling is veranderd. We weten niet eens hoe een NCU er nu uit ziet, behalve dan dat er nog steeds 64 ALU's in zitten aangezien ze 128 32-bit ops per kloktik kunnen verwerken en ze met een hot clock werken (rise en fall; dus 2 ops per ALU per tik). We weten ook dat er iets is veranderd aan de indeling van de GE's, ACE's enzovoort, maar het hoe en wat is vooralsnog 100% gokken ;)


Hetzelfde geldt voor Nvidia. Ook daar is alles in verschillende groepen ingedeeld, hoewel er bij hen al wat langer geen gigantische wijzigingen zijn geweest. Wel wat naamswijzigingen van de verschillende logische eenheden..omdat het kan.

[ Voor 3% gewijzigd door Werelds op 01-05-2017 19:54 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 1 mei 2017 @ 19:53:
[...]

Nee hoor, gewoon meer lezen ;)

Hoewel Anandtech voor reviews al jaren niet meer zo boeiend is, zijn ze dat voor de technische kant juist wel. Ze gaan diep, maar tegelijkertijd blijven ze "mainstream" en is het goed te volgen. Google de volgende artikelen maar voor leesvoer:
- Reviews van G80 (8800), RV770 (4870), GT200 (GTX 280), Cypress (5870), Fermi (GTX 480), GCN (7970). Alles daarna is niet zo boeiend :P
- The RV770 Story
- The RV870 Story
Ik had de preview van Vega al gevonden. Er zitten er nog wel een paar tussen die interessant zijn zoals G80 of Fermi en natuurlijk GCN. :)
En misschien even hieronder lezen ;)
Nee. >:) :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 1 mei 2017 @ 20:03:
Ik had de preview van Vega al gevonden. Er zitten er nog wel een paar tussen die interessant zijn zoals G80 of Fermi en natuurlijk GCN. :)
RV770/RV870 story zijn beide ook heel leuk om te lezen :)

Heb het altijd jammer gevonden dat Anand dat nooit meer heeft gedaan voor hij naar Apple vertrok. Had heel graag ook zoiets over GCN gelezen.

En met Nvidia natuurlijk, maar daar zou Nvidia nooit aan mee werken :P

Acties:
  • +2 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 11-05 13:35
Anoniem: 444127 schreef op donderdag 27 april 2017 @ 17:00:
[...]

Ik hoop het niet! Ik zit al meer dan een jaar te wachten om hedendaagse spellen te kunnen spelen, ik wil niet nog een jaar wachten. Die RX 480 was niet goed genoeg (ook en vooral qua koeling, zie hoeveel lawaai ze maken) + wat te duur in vergelijking met de GTX 1070 (euro/frame) en om nu nog een RX 580 RX 480 te kopen terwijl de technologie al 1 jaar achterloopt maar je wel de volle prijs betaalt, nee, dank je.
Zit AMD überhaupt vast aan HBM? Houdt iets hen tegen om voor Vega11 GDDR5(X) te gebruiken?
Nogmaals, ik ga uit van een cut van Vega (10 dus) die interessant gaat zijn en ik denk dat het heel erg optimistisch (een beleefde manier om erop te wijzen dat ik het onrealistisch vind) is om GTX 1080 prestaties (DX11) te verwachten van de volle Vega11.
We weten bovendien niet wat voor afspraken AMD heeft gemaakt met die bedrijven. Het is best mogelijk dat ze een jaar geleden al hebben afgesproken dat AMD voor Vega-kaarten voor X euro per stack van Y GB HBM2 inkoopt met een minimum van Z stuks en dat dit keurig apart wordt gelegd door dat bedrijf. Een hoop speculatie voor niets (aangezien zelfs educated guesses niet mogelijk zijn), even rustig afwachten. Het enige wat nu zeker is is dat Vega tussen nu en 30 juni uitkomt.
Ik denk dat het tijd is om op te houden met speculeren, over een paar weken weten we het waarschijnlijk al dus laten we het even rustig afwachten.


Het is zonde dat AMD HBM uit handen moest geven vanwege haar financiële positie, mede met dank aan die illegale streken van Intel waarvoor Intel 1 miljard euro boete kreeg van de EU en nog wat andere streken (geen server CPU's verkopen aan Compaq omdat ze AMD-systemen verkochten, betalingen aan winkels om geen AMD-systemen te verkopen). AMD had toen de betere CPU's maar klanten konden het bijna niet kopen, niet als ze een prebuild van een OEM kochten. Als AMD een gunstigere financiële positie had gehad dan hadden ze HBM in eigen huis kunnen houden en dan zouden ze het nu voldoende ter beschikking hebben en zou Nvidia het moeten kopen van AMD. Ik zal vast tot een hele kleine minderheid van de klanten behoren, waar ik dikke schijt aan heb, ik zal omwille van die streken heel erg lang geen CPU of iets anders wat ik kan vermijden (helaas voor de onboard internet moeilijker) van Intel kopen.
Voor het geval Mask weer iets wil lezen wat er niet staat zodat hij een stok heeft om mee te slaan. Nee, ik beweer niet dat dit per se het enige motief voor AMD was om HBM niet binnenshuis te houden.
AMD zal voor Vega architectuur waarschijnlijk alleen HBM 2 gebruiken. AMD heeft Vega ingrijpende architecturele veranderingen aangebracht dat het onwaarschijnlijk lijkt dat Vega GDDR5X ondersteundt. Zie onderstaande AMD slide

Afbeeldingslocatie: http://assets.hardwarezone.com/img/2016/11/vega_L2.jpg

Aangezien een HBM een speciale memory contoller nodig heeft welke incompatible is met GDDR5(X) geheugen is. De GDDR5X memory controller (256 bit) op de Nvidia GP104 is 33 mm^2 groot. Terwijl de HBM geheugen controller op de GP100 maar 17 mm^2 groot is. Twee geheugen controllers op 1 die kost teveel die ruimte en is onnodig.

Meerdere dies met alleen een specifieke geheugen controller zie ik AMD ook niet doen, maar het is mogelijk. Maar denk dat we in plaats daarvan een grotere Polaris chip zullen zien met GDDR5X geheugen.

De Vega chip die Raja Kaduro heeft laten zien is maar liefst 520 mm groot en dat is meer dan 314mm2 van de 1080 dus denk dat het wat betreft presentaties wel goed gaat komen. Aangezien er twee HBM die stack te zien is dit niet eens de grootste Vega chip.

Acties:
  • +2 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 05-05 13:58

Acties:
  • 0 Henk 'm!

  • Bazziek
  • Registratie: December 2011
  • Laatst online: 20:39

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

polli_ schreef op maandag 1 mei 2017 @ 21:56:

Aangezien een HBM een speciale memory contoller nodig heeft welke incompatible is met GDDR5(X) geheugen is. De GDDR5X memory controller (256 bit) op de Nvidia GP104 is 33 mm^2 groot. Terwijl de HBM geheugen controller op de GP100 maar 17 mm^2 groot is. Twee geheugen controllers op 1 die kost teveel die ruimte en is onnodig.

Meerdere dies met alleen een specifieke geheugen controller zie ik AMD ook niet doen, maar het is mogelijk. Maar denk dat we in plaats daarvan een grotere Polaris chip zullen zien met GDDR5X geheugen.
Hoe meer ik leer, hoe onwaarschijnlijker ik het gebruik van GDDR5X verwacht ja. Ik denk ook dat Nvidia GDDR6 gaat doen met Volta gezien de claims van SK Hynix en HBM2 gebruik in GPU's voornamelijk bij AMD blijft. Het gaat gewoon HBM2 geheugen voor alle Vega GPU's zijn, zo gok ik. Een grotere Polaris GPU zit er denk ik voorlopig niet in. Misschien volgend jaar als RX680.

We weten al dat er een Vega 10 is, een 520mm die monster. Er is ook een Vega 11, en die zal ergens tussen de 300 en 350mm zitten schat ik zo in. Dat zal de GP104 uitdager worden denk ik. Komt er nog een grotere Polaris dan hebben we twee problemen. Hoe heet die, Polaris 20 hebben we al en wat gebeurd er dan met Vega 11?
De Vega chip die Raja Kaduro heeft laten zien is maar liefst 520 mm groot en dat is meer dan 314mm2 van de 1080 dus denk dat het wat betreft presentaties wel goed gaat komen. Aangezien er twee HBM die stack te zien is dit niet eens de grootste Vega chip.
Tenzij AMD met de slechte drivers ooit komt (uiteraard een hele prestatie voor AMD :P ) en/of het voor elkaar krijgen om een nog slechter presterende GPU te produceren voor de omvang van de die dan de Fury X. Nee, denk dat het wel goed zit. :+

Ik vermoed wel dat die 520mm Vega 10 is, en de 1080Ti en Titan X uit moet zal dagen. Hoe dat gaat presteren is afhankelijk van hoe effectief de SIMD's HBM2 geheugen, etc aangesproken worden door de release drivers en daarna. Ik zou het toch eens fijn vinden als AMD haar drivers vanaf dag een redelijk op niveau heeft zodat ze niet alweer moeten inlopen, als ondertussen bijna niemand meer eens de boel reviewed want niet shiny...
Nog steeds verlies. Weliswaar meer omzet en minder verlies, maar nog steeds verlies. Ryzen lijkt een kleine impact te hebben gehad, maar het is nog lang niet genoeg. Q2 getallen zullen we winst moeten zijn voor AMD met de RX5xx en Ryzen 5. -O-

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NINjak
  • Registratie: April 2000
  • Laatst online: 02-05 13:43
Vergeet idd. niet dat Q1 maar een klein stukje Ryzen heeft...Dit is in het verleden al gezegd (geen idee meer of AMD dat zelf was). Het zou MIJ niet verbazen als ze alle Ryzen verkopen niet in/naar Q2 verplaatsen maar ik heb geen idee of dat (boekhoudtechnisch) wel mag 8)

[ Voor 3% gewijzigd door NINjak op 01-05-2017 23:02 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@NINjak
Ben er een beetje uit maar normaal gesproken is het zo dat omzet geboekt wordt op het moment van verkoop. Dus als distributeurs in Q1 hun bestelling doen bij AMD dan zou dat zichtbaar moeten zijn als omzet en (als er niet direct wordt afgerekend) ook onder debiteuren.

Het lijkt verder logisch dat de impact in Q1 relatief klein is. Het hele platform moet nog op gang komen. In Q2 zou je toch wel wat meer impact moeten zien.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Lampuhkap
  • Registratie: Januari 2008
  • Laatst online: 19:38

Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 21:33

MrVegeta

! Dolf is rechtvaardig !

Is al (uitvoerig) besproken ;)

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!

Anoniem: 444127

polli_ schreef op maandag 1 mei 2017 @ 21:56:
[...]


AMD zal voor Vega architectuur waarschijnlijk alleen HBM 1 en 2 gebruiken. AMD heeft Vega ingrijpende architecturele veranderingen aangebracht dat het onwaarschijnlijk lijkt dat Vega GDDR5X ondersteundt. Zie onderstaande AMD slide

[afbeelding]

Aangezien een HBM een speciale memory contoller nodig heeft welke incompatible is met GDDR5(X) geheugen is. De GDDR5X memory controller (256 bit) op de Nvidia GP104 is 33 mm^2 groot. Terwijl de HBM geheugen controller op de GP100 maar 17 mm^2 groot is. Twee geheugen controllers op 1 die kost teveel die ruimte en is onnodig.

Meerdere dies met alleen een specifieke geheugen controller zie ik AMD ook niet doen, maar het is mogelijk. Maar denk dat we in plaats daarvan een grotere Polaris chip zullen zien met GDDR5X geheugen.

De Vega chip die Raja Kaduro heeft laten zien is maar liefst 520 mm groot en dat is meer dan 314mm2 van de 1080 dus denk dat het wat betreft presentaties wel goed gaat komen. Aangezien er twee HBM die stack te zien is dit niet eens de grootste Vega chip.
4 GB HBM1 wordt nogal lastig voor een GTX 1070/1080 concurrent, zelfs voor een RX 580 is 4 GB eigenlijk te weinig, zeker met het oog op de toekomst. Leuk dat AMD zo'n truc heeft om efficiënter met geheugen om te gaan maar zolang de developer dat moet ondersteunen...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

polli_ schreef op maandag 1 mei 2017 @ 21:56:
[...]


AMD zal voor Vega architectuur waarschijnlijk alleen HBM 1 en 2 gebruiken. AMD heeft Vega ingrijpende architecturele veranderingen aangebracht dat het onwaarschijnlijk lijkt dat Vega GDDR5X ondersteundt. Zie onderstaande AMD slide
Waarom nog HBM1? Van wat ik begrijp zijn beide typen behoorlijk kostbaar en is het grootste verschil dat HBM2 nieuwer en gewoon sneller is, voor vergelijkbare prijzen. Zeker als je kijkt wat de Fury en Fury X koste zie ik het punt van HBM1 echt niet meer. Het zal al een uitdaging worden om een sub €400 GPU te krijgen met HBM denk ik, helemaal als twee verschillende typen worden gekocht en bulkvoordelen zo minder worden omdat er twee productielijnen lopen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 444127

DaniëlWW2 schreef op dinsdag 2 mei 2017 @ 18:33:
[...]


Waarom nog HBM1? Van wat ik begrijp zijn beide typen behoorlijk kostbaar en is het grootste verschil dat HBM2 nieuwer en gewoon sneller is, voor vergelijkbare prijzen. Zeker als je kijkt wat de Fury en Fury X koste zie ik het punt van HBM1 echt niet meer. Het zal al een uitdaging worden om een sub €400 GPU te krijgen met HBM denk ik, helemaal als twee verschillende typen worden gekocht en bulkvoordelen zo minder worden omdat er twee productielijnen lopen.
AMD gaf maanden geleden aan dat HBM2 inmiddels voor kaarten van rond die prijs haalbaar zou moeten zijn, voor wat het waard is. De vraag is dan wel of dat het over 4 GB of over 8 GB ging. Kaarten van 4 GB zie ik niet zitten, problemen met longevity en bottlenecking bij hogere resoluties, betere textures en zo. Tenzij AMD een konijn uit de hoge hoed zou toveren en zelf de helft van de data die in de RAM moet zou kunnen wegfilteren, dat lijkt me erg onwaarschijnlijk. Zou AMD een jaar geleden al harde afspraken hebben gemaakt met de leverancier dat AMD het eerste kooprecht heeft in dit stadium?

Wij zijn hier al lang aan het speculeren maar nog steeds weet niemand hier wat dat HBM2 ongeveer kost per 4/8 GB. Hell, we weten niet eens wat 4 GB GDDR5 kost, we kunnen een bovenste grens bepalen (<25 euro voor AMD sowieso, in de winkel bedraagt uiteindelijk het verschil ongeveert $30-35) maar niemand hier weet het precies. Heb jij het ooit wel eens proberen te vinden met een zoekmachine? Het valt niet mee. Het zal duurder zijn dan GDDR5 maar hoeveel duurder per 8 GB?
Ja, de throughput ligt hoger bij HBM2 maar eveneens heeft nog niemand hier onderbouwd dat je daar iets aan hebt, de data moet wel snel genoeg vanuit de systeem-RAM naar de RAM van de grafische kaart kunnen gaan. Die hogere througput stelt me dus ook onvoldoende gerust om 4 GB voldoende te vinden.

[ Voor 23% gewijzigd door Anoniem: 444127 op 02-05-2017 22:40 ]


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 11-05 11:41

Apoca

Array Technology Industry

Zijn der nog mensen die met CrossFire in de weer zijn op het R9 290 platform? Ik kan voor een paar euro een extra R9 290 erbij prikken, echter ben ik na mijn HD 4850 setup niet meer met CF in aanraking geweest. En zou graag weten of CF nog een beetje goed werkt tegenwoordig of dat ik beter er ver van kan blijven gezien de bevindingen van destijds niet echt zijn opgelost.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Pagina: 1 ... 9 ... 11 Laatste

Dit topic is gesloten.