Acties:
  • +1 Henk 'm!

Verwijderd

Op de een of andere manier hebben mensen dit nieuws gemist: AMD heeft in 2017 een patent ingediend voor variable rate shading maar het werd recent (ongeveer een week geleden) bekend.

http://www.freepatentsonline.com/y2019/0066371.html

https://www.techradar.com...r-its-navi-graphics-cards
https://www.pcgamesn.com/...nt-navi-next-gen-consoles

[ Voor 42% gewijzigd door Verwijderd op 05-03-2019 15:54 ]


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op dinsdag 5 maart 2019 @ 01:00:
Op de een of andere manier hebben mensen dit nieuws gemist: AMD heeft in 2017 een patent ingediend voor variable rate shading maar het werdt recent (ongeveer een week geleden) bekend.

http://www.freepatentsonline.com/y2019/0066371.html

https://www.techradar.com...r-its-navi-graphics-cards
https://www.pcgamesn.com/...nt-navi-next-gen-consoles
Het is jammer dat we niet goed kunnen bepalen wat voor winst dit protentieel kan opleveren. Ik zou liever hebben dat ze zich zouden richten op een vorm van tile based rendering, dat bleek toch de heilige graal van Maxwell te zijn.

Of gaan die TBR en VRS hand in hand?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Randleman
  • Registratie: Augustus 2010
  • Laatst online: 18-09 23:13
Verwijderd schreef op dinsdag 5 maart 2019 @ 01:00:
Op de een of andere manier hebben mensen dit nieuws gemist: AMD heeft in 2017 een patent ingediend voor variable rate shading maar het werdt recent (ongeveer een week geleden) bekend.

http://www.freepatentsonline.com/y2019/0066371.html

https://www.techradar.com...r-its-navi-graphics-cards
https://www.pcgamesn.com/...nt-navi-next-gen-consoles
Hoe kunnen mensen dit gemist hebben in 2017 als het nu pas gepubliceerd is? :+

Acties:
  • 0 Henk 'm!
Nog eentje die lijkt te suggereren dat Navi dan eindelijk geen GCN copy/paste meer is. Misschien kan de RTG dan eindelijk eens niet hun eigen launch saboteren omdat het product zelfs na zelfsabotage alsnog goed blijkt te zijn. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Blaat schreef op dinsdag 5 maart 2019 @ 09:25:
[...]


Het is jammer dat we niet goed kunnen bepalen wat voor winst dit protentieel kan opleveren. Ik zou liever hebben dat ze zich zouden richten op een vorm van tile based rendering, dat bleek toch de heilige graal van Maxwell te zijn.

Of gaan die TBR en VRS hand in hand?
Geen idee. Je zal in ieder geval het beeld moeten opdelen in stukjes om VRS toe te passen want het principe van VRS is dat je voor sommige delen minder shaders gebruikt dan voor andere delen. Het zou inderdaad geweldig zijn als AMD een soort van tile based rendering toepast. Maxwell is nu al best oud dus AMD heeft een flink aantal jaren de tijd gehad om het uit te werken.

Ik ben niet zo enthousiast over VRS, het lijkt me vooral interessant voor VR en dat kan mij voor nu nog gestolen worden al zal ik het vast ooit wel gaan gebruiken.
Dat saber-spel lijkt me wel leuk om te doen.
DaniëlWW2 schreef op dinsdag 5 maart 2019 @ 15:11:
Nog eentje die lijkt te suggereren dat Navi dan eindelijk geen GCN copy/paste meer is. Misschien kan de RTG dan eindelijk eens niet hun eigen launch saboteren omdat het product zelfs na zelfsabotage alsnog goed blijkt te zijn. :P
RTG vindt vast wel een manier om het te saboteren. :+

[ Voor 8% gewijzigd door Verwijderd op 05-03-2019 15:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Jim Sterling is zeer tevreden over DMC5. Dat is 2 uit 3 topspellen, nu nog even afwachten hoe The Division 2 wordt gevonden maar voor een game-bundel is dit een topselectie.

[ Voor 13% gewijzigd door Verwijderd op 07-03-2019 00:01 ]


Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 20-09 17:54
Zijn zeker top spellen .
Nieuwe driver is ook uit voor de vii
Vanavond maar kijken bij AMD rewards .

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Verkeerde topic.

[ Voor 96% gewijzigd door Saturnus op 09-03-2019 13:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd


Voor wat het waard is (ik weet niet hoe indrukwekkend jullie de graphics vinden), dit spel draait met ultra instellingen op 1440p met >120 FPS @1080p en >80 FPS @1440p op een 570 of beter en > 60 FPS op een Vega 56 of beter. Had AMD maar meer middelen om samen te werken met developers, wanneer Nvidia dat doet krijg je Gimpworks en draait het spel vaak slechter, wanneer AMD het doet dan is de performance uitstekend, ook voor Nvidia maar in het bijzonder voor AMD.

Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 20-09 17:54
De graphics vindt ik zelf ok,speel zelf op 2160p/60fps .
Zelfde als resident evil remake draait ook prima op amd .

Acties:
  • 0 Henk 'm!

Verwijderd

Waarom is deze monitor van Nixeus al jarenlang niet verkrijgbaar in Nederland? :?
pricewatch: Nixeus EDG 27" Zwart
144 FPS, FreeSync, IPS
Brad Chacos raadde deze monitor aan, het kost blijkbaar slechts $300-400 in de USA en ik zie niet direct nadelen in vergelijking met ASUS en Acer. Is dit zo'n bedrijf wat net als Pixio niet via retail (enkel via Amazon) verkoopt om de kosten te drukken?

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:31
https://wccftech.com/amd-...phics-performance-rumors/

Lijkt wel oké. Maar blijven ze nou echt vasthouden aan hbm?

Acties:
  • 0 Henk 'm!

Verwijderd

RedGamingTech besteedde er 2 dagen aandacht aan. Ik meldde het niet omdat het te speculatief is.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:31
Verwijderd schreef op zondag 10 maart 2019 @ 22:05:
RedGamingTech besteedde er 2 dagen aandacht aan. Ik meldde het niet omdat het te speculatief is.
Oké. Dan voor de boeken. Kunnen we achteraf zien wat enigszins mogelijk waar is geweest
Verwijderd schreef op zondag 10 maart 2019 @ 00:40:
Waarom is deze monitor van Nixeus al jarenlang niet verkrijgbaar in Nederland? :?
pricewatch: Nixeus EDG 27" Zwart
144 FPS, FreeSync, IPS
Brad Chacos raadde deze monitor aan, het kost blijkbaar slechts $300-400 in de USA en ik zie niet direct nadelen in vergelijking met ASUS en Acer. Is dit zo'n bedrijf wat net als Pixio niet via retail (enkel via Amazon) verkoopt om de kosten te drukken?
Is dit niet zo'n Koreaans model waar een heel topic over is?

Koreaanse IPS monitors

Zitten wel interessante modellen tussen, maar wel lastig qua garantie natuurlijk

[ Voor 59% gewijzigd door 418O2 op 10-03-2019 22:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het is op zich wel interessant maar we weten nog niets over de performance aangezien we niet weten hoeveel shaders erop zitten en volgens mij is de klokfrequentie ook onbekend. Al is het wel interessant dat de compute relatief zwak is t.o.v. de graphics.

Geen idee, maar er is inderdaad een draad over Koreaanse B-modellen. Die is al lang niet gebruikt en ik was de titel vergeten.

[ Voor 37% gewijzigd door Verwijderd op 10-03-2019 22:17 ]


Acties:
  • 0 Henk 'm!
418O2 schreef op zondag 10 maart 2019 @ 21:48:
Maar blijven ze nou echt vasthouden aan hbm?
Waarom zou dat geen goed idee zijn?

Acties:
  • +1 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Werelds schreef op maandag 11 maart 2019 @ 11:09:
[...]

Waarom zou dat geen goed idee zijn?
Kosten?

Nvidia kan schijnbaar dezelfde prestaties bereiken met gddr5x/gddr6 met een 352-bit bus (1080Ti) of zelfs maar 256 bits (gddr6 op de 2080)

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:31
vectormatic schreef op maandag 11 maart 2019 @ 12:04:
[...]


Kosten?

Nvidia kan schijnbaar dezelfde prestaties bereiken met gddr5x/gddr6 met een 352-bit bus (1080Ti) of zelfs maar 256 bits (gddr6 op de 2080)
Ik las ergens dat er voor 350 euro aan geheugen op de vega zit. Dat is echt te zot voor woorden.

Acties:
  • 0 Henk 'm!

Verwijderd

418O2 schreef op maandag 11 maart 2019 @ 14:00:
[...]

Ik las ergens dat er voor 350 euro aan geheugen op de vega zit. Dat is echt te zot voor woorden.
Niet echt. Dat was GamersNexus Steve zijn gok voor de Radeon VII op basis van de prijs die bekend was kort na de introductie van de Vega64. Dus nogal speculatief. Hij gaf zelf aan dat je bij het citeren moet vermelden dat dit gebaseerd is op oude informatie. Als je dezelfde prijs neemt dan krijg je €175 voor 8 GB, dat zou problematisch zijn.

Wat ik nu interessant vind: in hoeverre gaat het het om de hoeveelheid geheugen en in hoeverre gaat het om de bandbreedte (bits * klokfrequentie (als het 1 keer per cyclus data ontvangt)? Immers is de bus bij HBM 1024 bits breed terwijl dat bij de RX 580 256 bits is. Een factor 4! Betekent dat dat je van 8 GB naar 2 GB (waarmee je bij dezelfde prijzen op slechts zo'n €44 uitkomt en dan nog wat minder kosten voor de PCB) kan?
Los van de technische beperking dat het met stacks van 4/8 GB komt en dat het niet de moeite waard zou zijn omwille van de kosten van de interposer en de packaging. Dit is hypothetisch for the sake of the argument
Duidelijk niet, want data gaat traag van de RAM naar de HBM op de kaart en de vergelijkende testjes met de FuryX geven dat ook aan wanneer je voor een hoop spellen met een hoop instellingen vergelijkt dan zie je toch wel een probleem doordat die kaart slechts 4 GB geheugen heeft.
Maar misschien kan het wel een beetje compenseren in die zin dat 8 GB HBM gelijk zou presteren met 10 GB GDDR5 of zoiets?

Hoe dan ook, die prijzen moeten fors zijn gedaald om HBM op de Navi-kaartjes te plaatsen want die Navi-kaartjes moeten het opnemen tegen Nvidia hun nieuwe (Turing) GTX-kaarten die niet die RTX en Tensor hebben en toch weer wat efficiënter zijn geworden.
Een deel hiervan hadden ze waarschijnlijk bij Pascal ook al zeer eenvoudig kunnen doen maar hebben ze blijkbaar bewust niet gedaan om een performance-gap te creëren, moet je nagaan hoe ver ze voorlopen.
Dat betekent dat de kaarten niet al te duur kunnen worden want nu moet AMD waarschijnlijk niet enkel concurreren met de RTX 2070 en RTX 2060 maar ook met nieuwe GTX-modellen die ongeveer dezelfde performance gaan halen maar zonder RTX- en Tensor-shaders.

Een bedenking van mij, ook omdat iemand het gisteren aanhaalde. Die 8 GB zit mij niet lekker. Ik zou graag zien dat AMD er wat meer geheugen op zou stoppen, 10 of 12. Dat geeft een betere longevity. Voor nu is 8 GB nog min of meer ok, al kan het bij 1440p aan de krappen kant worden. Over een paar jaar...
Je hoeft het niet te overdrijven maar ik zou best een paar tientjes meer willen betalen voor 4 GB extra geheugen, veronderstellende dat het GDDR6 wordt want ook ik denk dat HBM nog te duur is.

[ Voor 5% gewijzigd door Verwijderd op 11-03-2019 14:38 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
vectormatic schreef op maandag 11 maart 2019 @ 12:04:
[...]


Kosten?

Nvidia kan schijnbaar dezelfde prestaties bereiken met gddr5x/gddr6 met een 352-bit bus (1080Ti) of zelfs maar 256 bits (gddr6 op de 2080)
Denk dat het ook afhangt van de performance klasse van de kaart. Stel dat AMD een kaart heeft die 2x zo snel is als een 2080 Ti (jaja we weten dat dat er niet aan komt :+) doordat ze er HBM2 op plakken; dan kunnen ze ook een stuk meer vragen dan Nvidia nu voor zijn 2080 Ti doet en er winst op maken. Gezien HBM2 waarschijnlijk ook zuiniger is dan GDDR6 zou dat een mooi voordeel kunnen geven.

Nu is dit scenario onrealistisch; waar het om gaat is dat het in de juiste situatie wel een goede optie is.

Acties:
  • 0 Henk 'm!

Verwijderd

Extreem onrealistisch. :)
Ja, in de juiste situatie zou het kunnen maar dan gaat AMD een aanzienlijk grotere diesize moeten gebruiken wat ze nog niet willen doen voor die 7 nm node (yields). Ik vrees dat AMD voor GDDR6 gaat moeten kiezen maar als de kosten van HBM voldoende zijn gedaald...

Zelf zou ik weer 2 modellen aanbieden: 1 met 8 GB geheugen en 1 met 12 GB geheugen voor de klanten die wat meer longevity willen hebben en hierbij wellicht (indien mogelijk) opleggen aan de partners dat ze enkel het kostenverschil aan geheugen mogen rekenen, bijvoorbeeld door het prijsverschil af te spreken bij hetzelfde model en dit te laten schommelen met de prijzen van het geheugen per 4 GB.

Je kan niet enkel meer geheugen erop stoppen want de n00bs begrijpen niet de impact hiervan (dat het met name goed is voor de performance een paar jaar later) maar de mensen die een beetje begrijpen hoe het werkt kan je hiermee wel over de streep trekken.

[ Voor 5% gewijzigd door Verwijderd op 11-03-2019 14:34 ]


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Sp3ci3s8472 schreef op maandag 11 maart 2019 @ 14:28:
[...]


Denk dat het ook afhangt van de performance klasse van de kaart. Stel dat AMD een kaart heeft die 2x zo snel is als een 2080 Ti (jaja we weten dat dat er niet aan komt :+) doordat ze er HBM2 op plakken; dan kunnen ze ook een stuk meer vragen dan Nvidia nu voor zijn 2080 Ti doet en er winst op maken. Gezien HBM2 waarschijnlijk ook zuiniger is dan GDDR6 zou dat een mooi voordeel kunnen geven.

Nu is dit scenario onrealistisch; waar het om gaat is dat het in de juiste situatie wel een goede optie is.
Tuurlijk, mijn punt was dat nvidia met 256 bit gddr6 gewoon dezelfde performance neerzet als AMD met 4 stacks HBM2, en gddr6 daar waarschijnlijk de goedkopere optie is.

Dus als je puur kijkt naar bang/buck, is daar in ieder geval nu geen enkele reden om bij HBM te blijven

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 11 maart 2019 @ 14:32:
Extreem onrealistisch. :)
Ja, in de juiste situatie zou het kunnen maar dan gaat AMD een aanzienlijk grotere diesize moeten gebruiken wat ze nog niet willen doen voor die 7 nm node (yields). Ik vrees dat AMD voor GDDR6 gaat moeten kiezen maar als de kosten van HBM voldoende zijn gedaald...

Zelf zou ik weer 2 modellen aanbieden: 1 met 8 GB geheugen en 1 met 12 GB geheugen voor de klanten die wat meer longevity willen hebben en hierbij wellicht (indien mogelijk) opleggen aan de partners dat ze enkel het kostenverschil aan geheugen mogen rekenen, bijvoorbeeld door het prijsverschil af te spreken bij hetzelfde model en dit te laten schommelen met de prijzen van het geheugen per 4 GB.

Je kan niet enkel meer geheugen erop stoppen want de n00bs begrijpen niet de impact hiervan (dat het met name goed is voor de performance een paar jaar later) maar de mensen die een beetje begrijpen hoe het werkt kan je hiermee wel over de streep trekken.
Met de laatste alinea heb je het over jezelf? 12GB is namelijk niet het dubbele van 8GB dat is nog altijd 16GB. Je kunt dus helemaal niet kiezen tussen 12GB of 8GB dan wordt het 6GB en 12GB of 8GB en 16GB. Anders moet je toch echt delen van de geheugenbus uitzetten of gaan werken met verschillende groottes van geheugenchips maar dat wil je niet.

Daarnaast waarom heb je vrees voor GDDR6 als geheugenkeuze? Dat is met afstand de meest logische keuze voor een mainstream tot high-end videokaart op dit moment. Waarbij GDDR5 een logische keuze is in het goedkoopste segment en HBM2 in (semi-)professioneel/enthousiast segment.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

8 of 16 GB dan als dat qua kosten te doen is. Of misschien alleen 12 GB. Ik heb niets tegen GDDR6 maar het is jammer dat de prijs van HBM nog steeds zo hoog is en dat AMD voor het lagere segment niet kan kiezen.

[ Voor 96% gewijzigd door Verwijderd op 11-03-2019 16:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

vectormatic schreef op maandag 11 maart 2019 @ 12:04:
[...]


Kosten?

Nvidia kan schijnbaar dezelfde prestaties bereiken met gddr5x/gddr6 met een 352-bit bus (1080Ti) of zelfs maar 256 bits (gddr6 op de 2080)
Nee,

Nvidia gebruikt een best aggresieve compressie techniek voor in het geheugen, om zo juist bandbreedte te kunnen besparen en 'meer' uit minder te halen. Ik merk dat de kwaliteit van textures bij Nvidia juist iets doffer lijkt ten opzichte van AMD.
Verwijderd schreef op maandag 11 maart 2019 @ 16:09:
8 of 16 GB dan als dat qua kosten te doen is. Of misschien alleen 12 GB. Ik heb niets tegen GDDR6 maar het is jammer dat de prijs van HBM nog steeds zo hoog is en dat AMD voor het lagere segment niet kan kiezen.
De Vega's zijn gewoon aftakkingen van de pro kaarten. Chips die niet de volle CU's werkend hebben, chips die niet de beoogde kloksnelheden behaalde, gewoon het gebruikelijke binningsproces. Ze kunnen niet ff 1 HBM module strippen van een bestaande kaart. Dan snij je direct ook in de bandbreedte. HBM chips worden ingekocht en gewoon erop geplakt. Werkt het niet? Vega 56 dan maar.

Ze gaan echt niet een fabrieksproces omgooien om puur gamers voor iets minder te kunnen bedienen.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Verwijderd schreef op maandag 11 maart 2019 @ 16:28:
[...]


Nee,

Nvidia gebruikt een best aggresieve compressie techniek voor in het geheugen, om zo juist bandbreedte te kunnen besparen en 'meer' uit minder te halen. Ik merk dat de kwaliteit van textures bij Nvidia juist iets doffer lijkt ten opzichte van AMD.
So? 15 jaar geleden was het al een ding dat Ati kaarten doorgaans net iets betere plaatjes produceerden (ik meen iets vollere kleuren), maar de mainstream doesnt care, en het verschil is ook zodanig klein dat niemand in de pers het er verder over heeft. Ik ben zelf van nvidia naar AMD overgestapt recent, en heb geen verschil gemerkt. waarschijnlijk moet je side-by-side uitvergrote plaatjes gaan bekijken om een verschil te zien.

Kwa performance haalt nvidia er inderdaad genoeg winst uit om dezelfde framerates weg te zetten met minder gb/s, en uiteindelijk is framerate belangrijker dan hoeveel gb/s je vram kan verstouwen, dat is namelijk geen primaire eigenschap van je spelletje.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
vectormatic schreef op maandag 11 maart 2019 @ 12:04:
Kosten?

Nvidia kan schijnbaar dezelfde prestaties bereiken met gddr5x/gddr6 met een 352-bit bus (1080Ti) of zelfs maar 256 bits (gddr6 op de 2080)
Prestaties zijn niet de reden voor HBM. De primaire reden is dat het vele malen zuiniger is.
418O2 schreef op maandag 11 maart 2019 @ 14:00:
[...]

Ik las ergens dat er voor 350 euro aan geheugen op de vega zit. Dat is echt te zot voor woorden.
En hoe veel denk jij dat GDDR6 kost? 1 GB daarvan kost ook makkelijk $10-$11 en dan heb je alleen de chip zelf. Daar moet je ook nog een PCB en dergelijke op bouwen, waardoor het verschil tussen HBM en GDDR6 een stuk kleiner is dan je waarschijnlijk denkt.

Het stuk waar dat bedrag uit komt is overigens gebaseerd op informatie uit 2017. Dat wordt veel te letterlijk genomen. Daarnaast weten wij simpelweg niet wat AMD daadwerkelijke betaalt.
Verwijderd schreef op maandag 11 maart 2019 @ 16:28:
Nee,

Nvidia gebruikt een best aggresieve compressie techniek voor in het geheugen, om zo juist bandbreedte te kunnen besparen en 'meer' uit minder te halen. Ik merk dat de kwaliteit van textures bij Nvidia juist iets doffer lijkt ten opzichte van AMD.
AMD gebruikt ook lossless delta compressie. Ik snap niet waarom dit een dingetje blijft, is dat echt alleen omdat Nvidia er zo op hamerde met Maxwell? Er worden al ontzettend lang allerlei vormen van kleur compressie toegepast in GPU's. DCC in Maxwell was al de derde generatie van die specifieke vorm.

En ik vermoed dat jij het over Nvidia's standaard output hebt: RGB in plaats van full range. Dat zie je wel enigzins op je scherm, maar echt wereldschokkend is het voor de meeste mensen niet.

Acties:
  • 0 Henk 'm!
418O2 schreef op maandag 11 maart 2019 @ 14:00:
[...]

Ik las ergens dat er voor 350 euro aan geheugen op de vega zit. Dat is echt te zot voor woorden.
€350? :P
Oke, dat is echt buiten elke proporties. GamersNexus had na de RX Vega launch eens rondgevraagd en kwam tot de schatting dan 8GB aan HBM2 destijds $150 ish zou zijn. Ish want we hebben geen flauw benul wat de volumes waren die AMD afnam, noch eventuele volumekorting die ze kregen. We weten wel dat HBM2 destijds in een ramp-up fase zat en dat er meer vraag dan aanbod was. Bedrijven zoals Google, Intel en Nvidia waren ook druk bezig om elke HBM2 chip die ze konden krijgen, af te nemen. Dat zal niet hebben geholpen voor de prijzen.

Ondertussen zijn we anderhalf jaar verder en zal de tweede generatie van HBM2 geheugen al in productie zijn. Zeker in combinatie met de overproductie voor geheugen waar Samsung, Hynix en Micron mee zitten, betwijfel ik of het nog steeds $150 ish voor 8GB is. GDDR6 gaat voor bedragen tussen de $9-12 in bulk retail zonder BTW. AMD betaalt zeer waarschijnlijk wat minder aangezien die waarschijnlijk volumes per de miljoen af zullen nemen. Zal de prijs alsnog makkelijk boven de $50 zijn voor 8GB, zelfs het langzaamste 12Gbit spul.

Aan de kant van de GPU chip heb je een andere besparing zitten. Een 256 of 384bit bus zal kleiner zijn dan een 2048, laat staan een 4096bit bus die je op Vega chips kan vinden. Staat tegenover dat een HBM2 voor zover ik het begrijp wel het voordeel heeft van relatief kleinere geheugencontrollers. Het is dus een afweging.

Niet dat ik er van uit ga dat Navi 12 en Navi 10 met HBM2 uitgerust worden. Dit denk ik omdat HBM2 om 2.5D stacking vraagt, een interposer dus. Zeker met Navi 12 is een interposer en het waarschijnlijk alsnog duurdere HBM2 gewoon te veel gevraagd. Zeker omdat Navi 12 best wel eens 4GB GGDR6 kan zijn en niet 8GB. Dan moet je een interposer laten produceren om er vervolgens minder HBM2 op te zetten. Klinkt niet erg kostenefficiënt.

Als laatste lijkt AMD haar zakelijke strategie te bestaan uit volume, volume en nog eens volume. Daar past GDDR6 waarschijnlijk veel beter bij dat HBM2. Uiteindelijk is HBM2 meer een niche, GDDR6 niet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

vectormatic schreef op maandag 11 maart 2019 @ 16:38:
Kwa performance haalt nvidia er inderdaad genoeg winst uit om dezelfde framerates weg te zetten met minder gb/s, en uiteindelijk is framerate belangrijker dan hoeveel gb/s je vram kan verstouwen, dat is namelijk geen primaire eigenschap van je spelletje.
Maar op het moment dat het spel sneller data naar je "vram" moet schuiven dan wat het aankan dan krijg je veelvuldig forse FPS-drops. Speel voor de grap eens Doom (2016) met een grafische kaart die een voldoende goede GPU heeft maar 2 GB bevat. :)
Verwijderd schreef op maandag 11 maart 2019 @ 16:28:
[...]


Nee,

Nvidia gebruikt een best aggresieve compressie techniek voor in het geheugen, om zo juist bandbreedte te kunnen besparen en 'meer' uit minder te halen. Ik merk dat de kwaliteit van textures bij Nvidia juist iets doffer lijkt ten opzichte van AMD.
En Nvidia-kaarten zullen eerder oud worden wanneer 6 GB te weinig is. Die compressie komt pas nadat de data al van de RAM naar de GDDR5(X) is gekopiëerd.
De Vega's zijn gewoon aftakkingen van de pro kaarten. Chips die niet de volle CU's werkend hebben, chips die niet de beoogde kloksnelheden behaalde, gewoon het gebruikelijke binningsproces. Ze kunnen niet ff 1 HBM module strippen van een bestaande kaart. Dan snij je direct ook in de bandbreedte. HBM chips worden ingekocht en gewoon erop geplakt. Werkt het niet? Vega 56 dan maar.

Ze gaan echt niet een fabrieksproces omgooien om puur gamers voor iets minder te kunnen bedienen.
Wij hadden het over Navi.



https://www.neogaf.com/th...specs-was-leaked.1472198/
Afbeeldingslocatie: https://i.snag.gy/i1J8yY.jpg
Zeer grove korrel zout.

[ Voor 33% gewijzigd door Verwijderd op 12-03-2019 02:33 ]


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

In de categorie nieuws:
This evening – or rather this morning in China – AMD is rolling out a new mid-to-entry level Radeon RX video card. Dubbed the Radeon RX 560 XT, the new part is a lower-tier Polaris 10-based card that’s designed to fill the gap between the RX 560 and the RX 570 in the Chinese market. This new SKU will only be sold in China – don’t expect to see it come to North America – with AMD’s close partner Sapphire being the sole vender of the card.

By the numbers, the Radeon RX 560 XT is a relatively straightforward cutting down of the Radeon RX 570, itself a cut-down Polaris 10 SKU. Relative to the 570, the 560 XT drops another 4 CUs, bringing it down to 28 CUs. Past that, the clockspeeds have also taken a hit; the 560 XT will top out at just 1073MHz for the boost clock, instead of 1244MHz like its fuller-fledged 570 sibling. So for shader and texture performance, it will deliver around 75% of the throughput of the RX 570.
https://www.anandtech.com...hina-only-radeon-rx-560xt

Ik zou het persoonlijk best tof vinden als deze kaart ook in europe terecht zou komen, ik zit nu op een RX560(D), maar heb een astmatisch mITX kastje en beperkte voeding, dus een RX570 zou een gevalletje gatenzaag en undervolting worden, deze 560XT zou standaard onder de 100W moeten blijven (12% minder shaders actief, 15% minder clockspeed zou toch makkelijk 20% minder stroomverbruik moeten zijn)

Een RX570 vind ik (tenzij de prijzen echt drastisch dalen, en ik de sapphire mITX kaart cheapo kan vinden) toch net te ver gaan, en zodoende zit ik dus in de "wait for navi" boot, maar als deze 560XT hier uit zou komen en je voor ~€140 een kaart met 6-pin en redelijke koeler kan krijgen, wordt het misschien toch dat, en kan ik straks wel fatsoenlijk Doom 2 spelen, in plaats van wachten op een RX3060

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
vectormatic schreef op woensdag 13 maart 2019 @ 09:58:
In de categorie nieuws:


[...]


https://www.anandtech.com...hina-only-radeon-rx-560xt

Ik zou het persoonlijk best tof vinden als deze kaart ook in europe terecht zou komen, ik zit nu op een RX560(D), maar heb een astmatisch mITX kastje en beperkte voeding, dus een RX570 zou een gevalletje gatenzaag en undervolting worden, deze 560XT zou standaard onder de 100W moeten blijven (12% minder shaders actief, 15% minder clockspeed zou toch makkelijk 20% minder stroomverbruik moeten zijn)

Een RX570 vind ik (tenzij de prijzen echt drastisch dalen, en ik de sapphire mITX kaart cheapo kan vinden) toch net te ver gaan, en zodoende zit ik dus in de "wait for navi" boot, maar als deze 560XT hier uit zou komen en je voor ~€140 een kaart met 6-pin en redelijke koeler kan krijgen, wordt het misschien toch dat, en kan ik straks wel fatsoenlijk Doom 2 spelen, in plaats van wachten op een RX3060
Tja, ik heb liever Navi 12 hoor. Polaris is uit 2016. Onderhand is het tijd voor wat nieuws. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

DaniëlWW2 schreef op woensdag 13 maart 2019 @ 10:07:
[...]


Tja, ik heb liever Navi 12 hoor. Polaris is uit 2016. Onderhand is het tijd voor wat nieuws. :P
Tuurlijk, maar ik zou voor de RX3060 gaan dan, waarvan dan meteen de vraag is of die kaart tegelijk met de 3070/3080 uitkomt (of een half jaartje later), en van Navi is het ook nog maar de vraag wanneer we dat gaan zien, zomer, of misschien wel pas Q4 dit jaar.

Al met al gok ik dat het nog wel een jaartje kan duren voor ik die RX3060 kan kopen, of ik tot die tijd vrolijk blijf met mijn 2gb RX560.... i dont know. En dan zou deze 560XT een fijnere tussenpaus zijn dan een 570 (in mijn specifieke geval)

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 13 maart 2019 @ 10:07:
[...]


Tja, ik heb liever Navi 12 hoor.
Oh vertel. Wat maakt Navi 12 zo goed? Niemand hier weet wat Navi 12 is, dus kun je het ons vertellen.
Modbreak:Minder sneer mag ook wel. Hou het zakelijk, dat komt je eigen argument alleen maar ten goede.

[ Voor 17% gewijzigd door dion_b op 14-03-2019 01:26 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op woensdag 13 maart 2019 @ 10:25:
[...]

Oh vertel. Wat maakt Navi 12 zo goed? Niemand hier weet wat Navi 12 is, dus kun je het ons vertellen.
Ach is er ooit een release van AMD geweest die slechter dan het vorige model was? :+

Acties:
  • 0 Henk 'm!
Slechter/beter in welk opzicht? Prestaties in games, pure rekenkracht, prijs/prestatie, performance/watt? Want als je pure rekenkracht of prestaties in games bedoelt dan gebeurt het bijna elke generatie wel dat niet alle modellen sneller zijn bij zowel AMD als nVidia.

Zover ik weet weten we niks over Navi 12. Is het een GPU voor een gaming videokaart? Is het een GPU voor een professionele videokaart? Is het een IGP en dus onderdeel van een APU? Is het de GPU van een console? Bestaat die überhaupt wel of is het niet meer dan misinformatie?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

@-The_Mask- zullen we dan stoppen met praten in dit topic totdat we alles zeker weten?

Het wordt hier dan knap rustig dat wel.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!
Blaat schreef op woensdag 13 maart 2019 @ 11:14:
@-The_Mask- zullen we dan stoppen met praten in dit topic totdat we alles zeker weten?
Waarom dat?

Waarom niet betere posts in plaats van niets zeggende oneliners, vreemde conclusies of wilde aannames?

Het is toch veel interessanter om te weten wat Navi 12 is en waarom die zo goed is en daar een discussie over te voeren? In plaats van zeggen dat Navi 12 beter is, maar vervolgens niemand vertellen waarom of wat Navi 12 überhaupt is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

-The_Mask- schreef op woensdag 13 maart 2019 @ 11:25:
[...]
Waarom dat?

Waarom niet betere posts in plaats van niets zeggende oneliners, vreemde conclusies of wilde aannames?

Het is toch veel interessanter om te weten wat Navi 12 is en waarom die zo goed is en daar een discussie over te voeren? In plaats van zeggen dat Navi 12 beter is, maar vervolgens niemand vertellen waarom of wat Navi 12 überhaupt is.
Omdat je net zegt dat niemand iets weet over Navi 12. Dat is waar want we hebben alleen maar geruchten. En dan mag @DaniëlWW2 er alleen maar iets over zeggen als hij uitlegt wat het is? Je spreekt jezelf tegen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Nee hij geeft aan dingen te weten die anderen niet weten lijkt mij, anders doe je niet de conclusie die hij nu doet. Vandaar de vraag of hij die conclusie kan uitleggen in plaats de huidige nietszeggende oneliner.

Mocht Navi 12 bijvoorbeeld de GPU in de PS5 blijken te zijn dan ga je als PC gamer bijvoorbeeld niet zeggen dat je die liever hebt. Je hebt er immers niks aan.

[ Voor 27% gewijzigd door -The_Mask- op 13-03-2019 11:44 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

vectormatic schreef op woensdag 13 maart 2019 @ 10:21:
[...]


Tuurlijk, maar ik zou voor de RX3060 gaan dan, waarvan dan meteen de vraag is of die kaart tegelijk met de 3070/3080 uitkomt (of een half jaartje later), en van Navi is het ook nog maar de vraag wanneer we dat gaan zien, zomer, of misschien wel pas Q4 dit jaar.

Al met al gok ik dat het nog wel een jaartje kan duren voor ik die RX3060 kan kopen, of ik tot die tijd vrolijk blijf met mijn 2gb RX560.... i dont know. En dan zou deze 560XT een fijnere tussenpaus zijn dan een 570 (in mijn specifieke geval)
Het zal ook afhangen van wat voor opdrachten andere bedrijven aan TSMC willen geven in de komende maanden. AMD wil graag Navi over een paar maanden laten uitkomen, als het tegenzit dan kan het inderdaad oktober worden. De beste graadmeter voor wanneer die cut uitkomt is door te kijken naar het verleden, het biedt geen garantie maar het geeft de beste gok. Bij de vorige ronde zat er twee maanden tussen: Wikipedia: AMD Radeon 400 series
Dan kom je uit op uiterlijk december voor de cuts.
offtopic:
Afhankelijk van je budget zou je ook de kast en voeding kunnen upgraden.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Verwijderd schreef op woensdag 13 maart 2019 @ 12:53:

offtopic:
Afhankelijk van je budget zou je ook de kast en voeding kunnen upgraden.
Heb je helemaal gelijk in!

Echter was juist de kast (pricewatch: Raijintek Metis Rood) de reden voor de hele build, en speel ik liever mn spelletjes iets langer op lagere settings dan dat ik een zwarte SG13 op mn bureau zet.

PSU upgrade is ook zeker een optie, ik verwacht eigenlijk wel dat de huidige PSU een 570 trekt, dus dat is niet de echte bottleneck, maar toch, wat meer marge is fijn.


Either, terug on topic: ik verwacht zelf ook niet dat we deze kaart hier gaan zien (net zoals dat de 580 2048SP hier nog niet gesignaleerd is), maar wel interessant om te zien dat er nog een polaris variant op de markt wordt gebracht

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Van de SFF cases zijn de Raijintek Metis zowat de slechtste qua airflow met maar één plek voor intake óf exhaust. Het doet ten onrechte mensen geloven dat SFF builds automatisch slechte airflow hebben. In jouw geval zal een betere case wel zorgen voor veel meer opties. Maar helaas vind je geen SFF case met dat volume, met goede airflow en een raam zonder in de project cases te shoppen zoals de Ncase M1 of de Loque Ghost S1.

Daar kan je dan ook niet eender wat in pleuren en verwachten dat het past of werkt zoals verwacht: SFF cases hebben planning en voorbereiding nodig. Referenties: heb een RX460 in een In-Win Chopin (support geen PCIe kaarten) en een R9 290X in een Ncase M1 gehad.

Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Phuncz schreef op woensdag 13 maart 2019 @ 17:02:
Van de SFF cases zijn de Raijintek Metis zowat de slechtste qua airflow met maar één plek voor intake óf exhaust. Het doet ten onrechte mensen geloven dat SFF builds automatisch slechte airflow hebben. In jouw geval zal een betere case wel zorgen voor veel meer opties. Maar helaas vind je geen SFF case met dat volume, met goede airflow en een raam zonder in de project cases te shoppen zoals de Ncase M1 of de Loque Ghost S1.

Daar kan je dan ook niet eender wat in pleuren en verwachten dat het past of werkt zoals verwacht: SFF cases hebben planning en voorbereiding nodig. Referenties: heb een RX460 in een In-Win Chopin (support geen PCIe kaarten) en een R9 290X in een Ncase M1 gehad.
offtopic maar ik vind de Silverstone SFF cases uitermate succesvol. Je hoeft geen compromissen te sluiten, top of the range videokaarten passen en worden goed gekoeld als je je goed voorbereid. Je kan het zelfs met een raampje krijgen als je daar blij van wordt :) Ik heb de ML07 al weer meer dan 6 jaar!

Acties:
  • 0 Henk 'm!

Verwijderd

https://wccftech.com/excl...a-month-after-ryzen-3000/
AMD’s 7nm Navi GPU will launch mid-Q3, a month after 7nm Ryzen – most likely event: Gamescom 2019
"I have been told that AMD’s Navi GPU is at least one whole month behind AMD’s 7nm Ryzen launch...
Some rumors previously had suggested an October launch, but as of now, AMD is telling its partners to expect the launch exactly a month after the Ryzen 7nm launch. Those who read my original exclusive will remember that I talked about how Navi is going to be the first non-GCN GPU and the first card to break free of the 4096 SP limit imposed by the GCN macro-architecture.

Rumors about the RX 3000 series have been swirling for a while now with some that said that the company might even launch the cards at CES early in 2019. This is something I did not include in my pre-CES AMD agenda article and that is because I had been told that yields aren’t good enough for a consumer card yet – and that is where the Radeon VII entered the stage. Now that enough time has passed for yields to improve, we could see the first batch of 7nm Navi GPUs hit the shelves before the third quarter of 2019 is up."

[ Voor 60% gewijzigd door Verwijderd op 14-03-2019 01:59 ]


Acties:
  • 0 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:01
Verwijderd schreef op donderdag 14 maart 2019 @ 01:58:
https://wccftech.com/excl...a-month-after-ryzen-3000/
AMD’s 7nm Navi GPU will launch mid-Q3, a month after 7nm Ryzen – most likely event: Gamescom 2019
Dat zou 20-24 augustus zijn, als de schrijver van het artikel gelijk heeft. Ik raad echter aan niet naar beneden te scrollen om te kijken wat voor reacties er geschreven zijn, daar wordt je niet wijzer van, wat een laag niveau 8)7 .

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is te speuclatief, het "Gamescon"-deel. Alsof AMD het niet eerder kan aankondigen. Ze kunnen het bijvoorbeeld ook op Computex aankondigen.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

@Verwijderd Was sowieso niet al het vigerende gerucht dat Navi alsnog wel GCN was?

Als ik zo op andere fora kijk wordt wccftech nu niet bepaald als waardevol of betrouwbaar gezien

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +2 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:01
Ik ken de reputatie van WCCFTech, het 'als' de schrijver gelijk heeft wat ik schreef, moet dan ook gelezen als: ik leg er een kilo zout op.

Tegelijk voedt het stiekem toch mijn wensdroom, mijn vakantiegeld te investeren in een krachtiger maar even zuinige vervanger voor mijn RX460. Of én de stap naar 7nm én een treetje hoger in performance, zodat ik langer dan 3 jaar doe met een gpu, door gelijk een stevige upgrade te doen ('RX3070' i.p.v. 'RX3060') .

[mijn GPU geschiedenis tot nu toe: 2005 GeForce 6200 (2 jaar), 2007 GeForce 8500 (5 jaar), 2012 HD 6670 (4 jaar), 2016 RX 460 (3 jaar tot nu toe). Een zuinigheidsprijs verdient een upgrade na 3 jaar niet :| ].

[ Voor 72% gewijzigd door FairPCsPlease op 14-03-2019 13:23 ]


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 20-09 22:45
@Verwijderd

Dus de yields waren niet goed genoeg voor Navi customer card op 7nm, maar wel voor Radeon VII op die zelfde 7nm, is die 7nm kieskeurig..?

@-The_Mask- Oeps.. ja hebt gelijk dat was ik even vergeten, thanks

[ Voor 19% gewijzigd door Habana op 14-03-2019 13:14 ]


Acties:
  • +1 Henk 'm!
Het is niet hetzelfde productieproces. Volgende generatie van AMD krijgt een nieuw productieproces, 7nm EUV oftewel CN7FF+.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
vectormatic schreef op woensdag 13 maart 2019 @ 10:21:
[...]


Tuurlijk, maar ik zou voor de RX3060 gaan dan, waarvan dan meteen de vraag is of die kaart tegelijk met de 3070/3080 uitkomt (of een half jaartje later), en van Navi is het ook nog maar de vraag wanneer we dat gaan zien, zomer, of misschien wel pas Q4 dit jaar.

Al met al gok ik dat het nog wel een jaartje kan duren voor ik die RX3060 kan kopen, of ik tot die tijd vrolijk blijf met mijn 2gb RX560.... i dont know. En dan zou deze 560XT een fijnere tussenpaus zijn dan een 570 (in mijn specifieke geval)
Ik denk (en hoop) dus niet dat het zo lang zal duren. We hebben nu al zoveel geruchten gehad uit zoveel hoeken die allemaal spreken over een Navi 10, Navi 12 en later een Navi 20. Daarnaast zou er voor tenminste Sony een semi custom versie van Navi 10 worden ontwikkeld. Pas je simpele deductie toe, dan kan je redelijk inschatten hoe de prestatieniveaus zullen liggen.

Navi 10 zal op prestatieniveau Vega 10 moeten vervangen en Navi 12 dan Polaris 10. Dat kan je deduceren omdat Vega 20 al gelanceerd en gepositioneerd is. Het is niet erg waarschijnlijk dat Navi 10, Vega 20 zal matchen en dus vervangen in de tijdspanne van een halfjaar. Daardoor kom je een, niet twee segmenten lager te zitten. Twee segmenten lager zou aangeven dat Navi 10 vergelijkbaar presteert met Polaris 10. Dat is ook niet logisch. Zelfs een die shrink, 7nm Polaris 10 zou nog fors sneller zijn dan 14nm Polaris 10, puur op extra clockspeeds die je uit een nieuw productieproces zou kunnen halen. Daarom denk ik Navi 12 op dat prestatieniveau zit, maar dan zuiniger. Verder weet ik ook niet precies wat de RTG van plan is. Meer heb ik ook nooit geclaimd.

Sterker nog, je kan onderhand een aardig argument maken dat het zekerder is dat er een Navi 10 en Navi 12 zijn rond deze prestatiepunten, dan op welk productieproces Navi geproduceerd zal worden. Niemand buiten AMD en TSMC die werkelijk met enige zekerheid kan zeggen of het CN7FF (DUV only) of CN7FF+ (maximaal vier lagen EUV+DUV) zal zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

FairPCsPlease schreef op donderdag 14 maart 2019 @ 11:31:
Ik ken de reputatie van WCCFTech, het 'als' de schrijver gelijk heeft wat ik schreef, moet dan ook gelezen als: ik leg er een kilo zout op.
Er moet sowieso wat zout worden genomen maar dat heeft meer te maken met dat ook AMD en TSMC mogelijk nog niet zeker weten wanneer de launch is. Het gaat om plannen, hoe minder ver in de toekomst hoe minder er zal wijzigen maar er kan altijd iets verkeerd gaan. Er kan een bug worden gevonden in Navi (misschien niet meer zo laat?), TSMC kan ineens een grote zak geld krijgen van Samsung of Huawei voor nieuwe telefoonchipjes...
Die reputatie van WCCFTech is verbeterd sinds een paar jaar geleden. Veel leaks die bleken te kloppen kwamen van WCCFTech, Videocardz of via WCCFTech (omdat een van hen of iemand die hen informeert Standaardmandarijn kan lezen).

Zeker is dat insiders in S2 van 2018 lekten aan RedGamingTech en Coreteks dat AMD ernaar streefde om de volle Navi Navi10 (opvolger van RX 480) rond RTX 2070 niveau te laten presteren in spellen. Nu zal je denken: "leuk hoor, dat streven, maar je moet maar zien of dat het lukt". Ja, maar je kan aardig berekenen wat de performance in functie van gekozen parameters, het zal niet exact zo uitkomen omdat modellen niet een perfecte representatie van de werkelijkheid zijn (dit geldt overigens ook voor veel modellen waarvan veel mensen denken dat het een correcte representatie is zoals electronen in een stroomkring waar je een dik boek over kan schrijven) maar ze zullen waarschijnlijk wel in de buurt komen.

offtopic:
Als je zo zuinig mogelijk je geld wil besteden en zo weinig mogelijk het milieu wil belasten dan kan je beter een kaart met de volle GPU dan een kleine cut hiervan kopen. De eerste cut kan nog interessant zijn qua prijs. Dit is een van de redenen waarom ik je een PSU met een hoger vermogen aanraade. Als je direct de RX 570/580 had gekocht dan zou je minder besteden dan met een RX 460 en straks die kleinste cut van de Navi terwijl de performance waarschijnlijk niet slechter is en de productie van die kaarten kost mogelijk meer 'energie' dan het extra stroomverbruik. Overigens kan je met een goede 450 W voeding erg gemakkelijk een RX 480/580/590 gebruiken. Aangezien jij die ecologische overwegingen belangrijk vindt...

[ Voor 36% gewijzigd door Verwijderd op 15-03-2019 15:55 ]


Acties:
  • 0 Henk 'm!
So, this happened. :P
Crytek komt gewoon even met een realtime raytracing demo die op een RX Vega 56 draait.


Ik moet eerlijk toegeven dat ik niet de beste persoon ben om in een keer alle grafische details te zien. Dat gezegd hebbende, ik zie de ray tracing elementen overduidelijk. Geen flauw idee wat de framerate of resolutie is, of de impact van techdemo vs. speelbare gameplay, maar dat Crytek kennelijk denkt dat het kan en een demo online zet, is op zijn zachts gezegd hoopgevend. Verder is het een gigantische win voor AMD en een gigantische afgang voor Nvidia als Vega al enige realtime raytracing kan uitvoeren zonder speciale hardware.


Maar ook nog een vraag. Anderen zin om te kijken of ze bijzonderheden in de demo zien? Ik zie met name reflecties die overduidelijk raytraced zijn. Ik heb alleen moeite om in te schatten hoe het schaalt tegenover RTX. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Dat begreep ik ook meteen. Mijn punt is dan ook niet hoe ze het doen, maar wat het resultaat is. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Rendered on a Vega56 GPU. Well done, Crytek! Ik kan ook niet beoordelen in welke mate het goed gefaked is en in welke mate er raytracing wordt gebruikt maar in ieder geval ziet het er goed uit, de kenners zullen het ook beter kunnen beoordelen wanneer ze zelf de camerapositie in de demo kunnen aanpassen.

Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Het ziet er nice uit net als de unreal demo's, nu nog in games. Raytracing was al jaren mogelijk maar goed.

[ Voor 25% gewijzigd door Gekke Jantje op 15-03-2019 20:51 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

Iedereen en zijn moeder begreep dat het om realtracing voor vele tientallen frames per seconde gaat. Ik denk dat we mogen aannemen dat Crytek ons de live rendering laat zien en niet a la console eerst die scenes rendert en dan pas al die frames afspeelt. Ja, raytracing was al mogelijk in begin jaren 0 alleen heb je daar niets aan voor spellen.

[ Voor 28% gewijzigd door Verwijderd op 15-03-2019 22:30 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Alleen zal het waarschijnlijk zonder hardwarematige versnelling als dikke str*nt door een trechter. Er word echter wel beweerd door Crytek dat het fatsoenlijk op alle hardware zal draaien, laten we het hopen.

[ Voor 34% gewijzigd door Gekke Jantje op 16-03-2019 11:11 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • 0 Henk 'm!

Verwijderd

"hardwarematige versnelling"?
Het draait allemaal via hardware, de vraag is hoe groot de overhead is als je wat die RTX-shaders en Tensor-cores doen via de gewone shaders doet. Het gaat in essentie allemaal om vermenigvuldigen en optellen van getallen, mogelijk nog wat shift-operaties of zo (een getal met 2 vermenigvuldigen of door twee delen kan je doen door alle bits met 1 positie te verschuiven). Je moet er ook rekening mee houden dat de hoeveelheid hardware die uit RTX- en Tensor bestaat nogal klein is, dat geeft eveneens beperkingen. Mogelijk helpt een goede implementatie van Vulkan of DX12 wel meer dan DX11 en RTX + Tensor want Vulkan en DX12 (als het goed wordt gebruikt en niet slechts een slappe patch is wat meestal het geval is) verminderen gigantisch de overhead. Ik wacht het rustig af wat Crytek precies doet. Dat zal de komende dagen tot maanden vast wel veel duidelijker worden. Wat telt is dat het er goed uitziet, dat ogenschijnlijk Crytek een goede balans heeft tussen FPS en visuele kwaliteit en dat het werkt met shaders.
Het kan best dat specifieke aparte hardware helpt voor raytracing, of beter pathtracing als dat ooit komt, maar dat wordt pas interessant op veel kleinere nodes of wanneer je meerdere GPU's goed kan combineren wat ongetwijfeld in de toekomst gaat komen omdat het de enige manier is om dan nog vooruitgang te maken. Met de huidige stand van de techniek wordt die diesize veel te groot met die aparte hardware wat leidt tot te hoge kosten voor de meeste gamers en zolang de meeste gamers geen hardware hebben waarmee die RTX werkt gaan developers het niet op grote schaal gebruiken.

Jij zal waarschijnlijk weten dat de Crytek engine revolutionair was en de tijd ver vooruit was en dat Ubisoft deze engine (met wat modificaties) gebruikt voor hun Far Cry spellen. Als ze Crysis2 (vooral die) en Crysis3 niet hadden aangepast aan de consoles dan had het er nog veel beter uitgezien. Allemaal 'fake' maar het ziet er goed uit. Dat deden ze voor hardware die in veel opzichten veel primitiever is dan de huidige GPU's en die een veel lagere geheugen-bandbreedte hadden, als er 1 groep developers is die in staat is om hetzelfde effect als de raytracing van Nvidia te bereiken met shaders dan zijn zij het maar de komende maanden zullen we wel gaan zien hoe het precies werkt en wat de overeenkomsten en verschillen zijn met hoe Nvidia het doet. Het spreekt voor zich dat het voor ons gamers goed is als er platform-agnostische oplossingen zijn die niet specifieke hardware van bedrijf X vereisen, of dat het Nvidia, AMD of Intel is. We willen geen verdeeldheid zoals met PhysX (kunstmatig geregeld door het via X87 te renderen) of Gameworks, we willen oplossingen die op elk merk grafische kaart goed werken met technologie die al die bedrijven kunnen gebruiken. Voor ons gamers is het zeer ongunstig als eender welk bedrijf een monopolie krijgt want een monopolie leidt altijd tot hogere prijzen en minder innovatie.

offtopic:
Overheidsmonopolies kunnen wel goed zijn, bijvoorbeeld single payer gezondheidszorg (betaald uit belastingen in plaats van private en winstgevende verzekeringsbedrijven), infrastructuur...

[ Voor 17% gewijzigd door Verwijderd op 16-03-2019 15:30 ]


Acties:
  • 0 Henk 'm!

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Je weet wel wat ik bedoel met hardware matige versnelling. Dat alles via hardware draait (de GPU) dat weet zo'n beetje iedereen wel.

En ja Crytek heeft een goede engine maar ook dat zie je niet altijd terug in iedere Cry engine game. Neem bijvoorbeeld Sniper Ghost Warrior 3.

Ik heb er overigens wel vertrouwen in dat raytracing wat beter zal draaien door waarschijnlijk minder berekeningen maar ik verwacht niet dat de fps impact minimaal zal zijn, maar goed dat blijft afwachten.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Aantal kleine puntjes, physics (PhysX) render je niet maar simuleer je.

Sluit ik me bij aan, PUBG draait voor geen meter en dat draait op de Unreal Engine. Als je een slechte ontwikkelaar hebt dan maakt het niet uit welke engine je pakt het zal ruk draaien.

Er zit een verschil tussen fixed function hardware en generiekere hardware versnelling. Twee mooie voorbeelden zijn dat er vroeger onderscheid was tussen pixel en vertex shaders, dat is nu generieker geworden met (programeerbare) unified shaders die beiden kunnen (en waarschijnlijk daardoor iets minder efficient zijn). Een ander voorbeeld is dat vroeger MSAA ook via fixed function hardware ging. Dat is een van de redenen dat de x1xxx serie van ATI daar zo snel in was en dit een stuk minder snel was met de HD 2xxx serie.

Je zal dus prima ray tracing kunnen doen met de normale shaders, het is alleen minder efficient dan het met de RT shaders van Nvidia zal zijn. Daarnaast zal je met RT shaders weinig andere berekeningen kunnen doen en als er geen Ray Tracing wordt gebruikt dan staan ze uit en uit hun neus te vreten, op zo'n moment neemt het dus onnodig ruimte in op de chip.

Stukje over MSAA.
https://mynameismjp.wordpress.com/2012/10/24/msaa-overview/


Shaders, dus shader-cores/units maar dat kost meer tijd om te tikken :P.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zaterdag 16 maart 2019 @ 18:10:
Aantal kleine puntjes, physics (PhysX) render je niet maar simuleer je.
Noted. (y)
Sluit ik me bij aan, PUBG draait voor geen meter en dat is de Unreal Engine. Als je een slechte ontwikkelaar hebt dan maakt het niet uit welke engine je pakt het zal ruk draaien.
Ben jij het woordje "niet" vergeten te typen voor "de Unreal Engine"?
Daarnaast zal je met RT shaders weinig andere berekeningen kunnen doen en als er geen Ray Tracing wordt gebruikt dan staan ze uit en uit hun neus te vreten, op zo'n moment neemt het dus onnodig ruimte in op de chip.
Nvidia zou mogelijk wel andere toepassingen kunnen bedenken (Gameworks) waarvoor dezelfde berekeningen nuttig zijn. Mogelijk!

[ Voor 67% gewijzigd door Verwijderd op 16-03-2019 19:46 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op zaterdag 16 maart 2019 @ 19:26:
[...]

Noted. (y)


[...]

Ben jij het woordje "niet" vergeten te typen voor "de Unreal Engine"?


[...]

Nvidia zou mogelijk wel andere toepassingen kunnen bedenken (Gameworks) waarvoor dezelfde berekeningen nuttig zijn. Mogelijk!
Ik begrijp de vraag niet helemaal. Wat ik wilde zeggen is dat PUBG draait op de Unreal Engine, wat verder niks uitmaakt want het loopt nog steeds voor geen meter.
https://en.wikipedia.org/...erUnknown's_Battlegrounds

Acties:
  • 0 Henk 'm!

Verwijderd

Sluit ik me bij aan, PUBG draait voor geen meter en dat draait op de Unreal Engine. Als je een slechte ontwikkelaar hebt dan maakt het niet uit welke engine je pakt het zal ruk draaien.
Ik had een andere interpretatie van wat jij bedoelde. Ik interpreteerde dat jij bedoelde dat het niet aan de Unreal Engine ligt dat PUBG zo slecht draait en ik interpreteerde daarom "en dat is de Unreal Engine" als "het ligt aan de Unreal Engine dat het slecht draait". Een andere interpretatie van hoe het verwijswoord "dat" gebruikt was. Jij bedoelde het geheel blijkbaar wat ik interpreteerde (alleen gaf ik een andere interpretatie aan dat ene stukje van die zin): als de developer incompetent is dan doet het er niet toe welke engine wordt gebruikt.

[ Voor 5% gewijzigd door Verwijderd op 17-03-2019 19:25 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op zondag 17 maart 2019 @ 19:24:
[...]

Ik had een andere interpretatie van wat jij bedoelde. Ik interpreteerde dat jij bedoelde dat het niet aan de Unreal Engine ligt dat PUBG zo slecht draait en ik interpreteerde daarom "en dat is de Unreal Engine" als "het ligt aan de Unreal Engine dat het slecht draait". Een andere interpretatie van hoe het verwijswoord "dat" gebruikt was. Jij bedoelde het geheel blijkbaar wat ik interpreteerde (alleen gaf ik een andere interpretatie aan dat ene stukje van die zin): als de developer incompetent is dan doet het er niet toe welke engine wordt gebruikt.
Dat was inderdaad wat ik bedoelde :P. Als het een zelfgemaakte engine was dan kon je daar nog de schuld aangeven. Alleen gebruiken ze UE wat een goed geoptimaliseerde engine is, dus is het waarschijnlijk de schuld van de developer dat het slecht draait.

Acties:
  • 0 Henk 'm!

Verwijderd

In het geval van PUBG ligt het zonder enige twijfel grotendeels aan de developers dat het voor geen meter draait (al is het van zeer slecht naar slecht geëvolueerd :p) maar er moet nog eens goed worden onderzocht waarom bijna alle spellen die met die UE4-engine zijn gemaakt slechter draaien op AMD-kaarten. Gameworks-features die nu by default aan staan (Epic gaf aanvankelijk aan dat dat toen niet zo was: https://www.extremetech.c...core-says-nvidia-and-epic) of developers die ze enablen en dan slechte instellingen kiezen?

Terug naar het onderwerp waar we het over hadden. Het is geweldig dat Crytek die mooie effecten heeft ingebouwd, hopelijk gaan developers hier op een handige manier gebruik van maken. Ik ben benieuwd hoeveel of hoe weinig werk het is voor Ubisoft om dat in hun fork van de Crytek-engine (Dungia?) te implementeren. Het is voor mij nog onvoldoende duidelijk wat Crytek precies heeft gedaan, ik hoop dat we daar meer over leren in de komende tijd. Crytek gaf overigens aan dat wat zij deden zowel platform- als API-agnostisch (Vulkan/DX12). Goed nieuws voor gamers met een AMD-kaart en mogelijk (als DRM geen roet in het eten gooit :/) ook goed nieuws voor Linux-gamers.

[ Voor 36% gewijzigd door Verwijderd op 17-03-2019 19:47 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het lijkt erop dat de cryengine, voxels gebruikt om te raytracen ipv het tracen van polygonen.

Acties:
  • 0 Henk 'm!

Verwijderd

Het lijkt erop dat de cryengine, voxels gebruikt om te raytracen ipv het tracen van polygonen.

Ik meende altijd dat voxels best "duur" waren zeker bij gedetailleerde objecten

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Verwijderd schreef op maandag 18 maart 2019 @ 03:59:
Het lijkt erop dat de cryengine, voxels gebruikt om te raytracen ipv het tracen van polygonen.
Klopt SVOGI :).
Verwijderd schreef op maandag 18 maart 2019 @ 04:04:
Het lijkt erop dat de cryengine, voxels gebruikt om te raytracen ipv het tracen van polygonen.

Ik meende altijd dat voxels best "duur" waren zeker bij gedetailleerde objecten
Hangt van de "resolutie" van de voxels af denk ik.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Weer een leakje, ditmaal over een Gonzalo-platform ???

https://twitter.com/tum_a.../1107809675448246272?s=21
https://www.reddit.com/r/...o_gpu_18_13f8_vs_10_13e9/

Afbeeldingslocatie: https://i.imgur.com/3dUG1BK.jpg

Reacties stellen dat het om een console APU "chiplet?" concept gaat.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
enchion schreef op dinsdag 19 maart 2019 @ 17:17:
Weer een leakje, ditmaal over een Gonzalo-platform ???

https://twitter.com/tum_a.../1107809675448246272?s=21
https://www.reddit.com/r/...o_gpu_18_13f8_vs_10_13e9/

[Afbeelding]

Reacties stellen dat het om een console APU "chiplet?" concept gaat.
Toevallig dat dit aan het ligt komt nu Atari heeft aangegeven op een nieuwe APU zit te wachten.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Sp3ci3s8472 schreef op dinsdag 19 maart 2019 @ 21:06:
[...]


Toevallig dat dit aan het ligt komt nu Atari heeft aangegeven op een nieuwe APU zit te wachten.
Dat ging toch een dual core worden? bovenstaand PN lijkt mij een 8-core

Atari zal waarschijnlijk een cut-down Raven ridge/opvolger van RR krijgen.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 18:29
Sp3ci3s8472 schreef op dinsdag 19 maart 2019 @ 21:06:
[...]


Toevallig dat dit aan het ligt komt nu Atari heeft aangegeven op een nieuwe APU zit te wachten.
Vind dat Atari verhaal wel een beetje vreemd.....

Een "spannend", nieuw 14nm product met 2 zen cores en een vega gpu. Ik vraag me toch echt af wat daar "spannend" aan kan zijn met de 7nm producten op komst.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 21:03
Gewoon een Athlon 200GE apu.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
Ik denk eerder een custom SOC speciaal voor Atari dan een Raven Ridge APU waarvan de helft van de CPU core's en bijna drie kwart van de GPU core's zijn uitgeschakeld.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op maandag 18 maart 2019 @ 12:16:
[...]


Klopt SVOGI :).


[...]


Hangt van de "resolutie" van de voxels af denk ik.
Als ik het goed begrepen had wil je uiteindelijk path tracing in games gaan doen omdat dan ook global lumination goed gedaan kan worden.

Alleen de compute power die daar voor nodig is kan nog ver weg zijn. Ik hoop dat AMD daar op gaat in zetten. Al zullen ze in de tussentijd wel met iets moeten komen wat DXR kan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!
Ondertussen heeft Google een nieuwe cloud based gameplatform aangekondigd. 4k 60Hz streaming van games. De hardware? Nou het lijkt sterk op een semi custom variant op RX Vega 56. Semi custom want de clockspeeds zijn hoger, HBM2 is hoger geclocked en er lijkt sprake te zijn van ECC HBM2 wat een Radeon Pro feature is. Alweer een "win" voor AMD semi custom die tegenwoordig binnen de RTG zijn geschoven.
https://www.tomshardware....-stadia-gaming,38865.html

Dan Apple die flink doorzet met hun iMac 2019 met Polaris GPU's waarmee ze de inventaris aardig zullen leegkopen, maar ook een 48CU Vega die nog niet bestond. Zal waarschijnlijk wel weer een verdere cut down van Vega 10 zijn. Zeker na de aankondiging van Google zal Vega 10 nog wel even in productie blijven.
nieuws: Apple geeft iMac cpu- en gpu-upgrade

Wat is nu nou weer je punt vraag je? Fijn dat je het vraagt.
Het moet toch onderhand op gaan vallen dat de RTG na jaren van miserabele stilte, opeens ook dingen voor elkaar lijkt te krijgen? Natuurlijk was er altijd Apple die niet snel meer iets van Nvidia af zullen nemen na "bumpgate". Google zal ook niet snel naar Nvidia stappen aangezien Nvidia hardware levert op hun termen en hun ecosysteem, niet die van de klant zoals AMD doet. Apple zal dat waarschijnlijk ook niet waarderen. Los daarvan staat het concurrerende GeForce Now, waardoor Google waarschijnlijk al helemaal niet eens naar Nvidia zal kijken.

Het begint onderhand wel op te tellen als we de constante geruchtenstroom voor de consoles er nog eens bij pakken. De RTG lijkt zichzelf te hebben gepositioneerd als een leverancier van semi custom GPU's aan een aantal enorme klanten. Ze ontwikkelen de hardware voor hun klanten, maken de software open source en verkopen het product. Met het geld dat ze hier verdienen en de hardware al ontwikkeld, gaan ze vervolgens de markt op voor hun eigen winst. Vega 10 was daar het eerste voorbeeld van. Een chip die de eerste maanden massaal werd opgekocht door Apple en nog steeds weinig moeite lijkt te hebben om grote afnames te realiseren buiten de discrete GPU markt.

In het geval van Google komt er nog eens bij dat ze iets opzetten wat over een aantal jaar waarschijnlijk heel normaal gaat worden. Online streamen van bepaalde, meer simplistische games die enorme groepen mensen aantrekken is een logische volgende stap in de cloud wereld. Denk aan je PUGB, Fortnite, Apex etc als titels. Ik zie Google er ook niet na een ronde hardware aanschaffen er de stekker uittrekken. Nee, die kunnen best wel eens verder gaan met de afname van Navi's na de Vega's en verder. Ik begin dan ook erg sterk te vermoeden dat de RTG in 2019 wel eens een heel goed jaar kan krijgen. De oude producten worden nog steeds verkocht, de nieuwe lijn zit eraan te komen en omdat semi custom er tegenwoordig ook onder valt, kunnen er wel eens nog meer verassingen uit de pijplijn komen.

Natuurlijk is dit voor ons ook goed omdat het de R&D budgetten voor de komende jaren veilig stelt. Krijgen we hopelijk niet weer over een paar jaar rebrands omdat het budget op was toen nieuwe producten ontwikkeld moesten worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Ik vind de GPU keuze ontzettend vreemd. Bij mijlen afstand is en blijft de grootste kostenpost voor datacenter toepassingen het verbruik. Dan lijkt het meer en meer erop dat de marge niet fantastisch zal zijn.

[ Voor 13% gewijzigd door Paprika op 22-03-2019 09:11 ]


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 22:38

vectormatic

Warlock of the doorlock

Paprika schreef op vrijdag 22 maart 2019 @ 09:11:
Ik vind de GPU keuze ontzettend vreemd. Bij mijlen afstand is en blijft de grootste kostenpost voor datacenter toepassingen het verbruik. Dan lijkt het meer en meer erop dat de marge niet fantastisch zal zijn.
Ligt er natuurlijk aan wat voor chips AMD voor google bint. Veel Vegas kunnen een heel stuk zuiniger draaien dan dat ze out of the box verkocht worden. Als AMD nou stiekem aan het voltage binnen is geweest en de zuinige chips achter houdt voor google, kan het best zijn dat die GPUs voor google wel op een redelijke vcore draaien.

Daarnaast, misschien wilde nvidia wel niet eens leveren vanwege concurrentie met geforcenow, dan hou je defacto 1 keuze over..

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
Paprika schreef op vrijdag 22 maart 2019 @ 09:11:
Ik vind de GPU keuze ontzettend vreemd. Bij mijlen afstand is en blijft de grootste kostenpost voor datacenter toepassingen het verbruik. Dan lijkt het meer en meer erop dat de marge niet fantastisch zal zijn.
Ik ga er niet vanuit dat het "normale" chips zijn. :)
Niet alleen lijkt het gebruik van ECC geheugen te wijzen op Radeon Pro's, maar we zijn inmiddels bijna twee jaar in Vega 10 haar productiecyclus. Zelfs releasekwaliteit Vega 10's haalden nog wel 1500MHz met 1000mv. Ik ga er echt niet vanuit dat dit de beste chips waren die destijds beschikbaar waren. Onderhand zijn we ver in de productiecyclus waardoor yields en algemene kwaliteit van de chips toegenomen zal zijn. Ik zou niet verbaast zijn als ze op sub 1000mv draaien. Dan zit je opeens in een efficiëntiecurve van Vega.

Het helpt ook niet in wat voor een beschamende staat RX Vega is gelanceerd. Met de RX480 was het nog naar het extreme punt van de efficiëntiecurve gaan voor 100 a 150MHz meer die je anders niet haalt. Met Vega 10 lijkt het meer een absolute wanhoopsdaad te zijn geweest om voltage maar ver buiten elke realistisch punt op een efficiëntiecurve op te schroeven in de hoop er nog wat prestaties uit te halen. De koeling van de reference kaarten kunnen het niet aan waardoor ze zeer snel throttlen. Effectieve prestaties in veel benchmarks zijn ook lager dan ze werkelijk kunnen door simpelweg het voltage flink te verlagen. Ik blijf erbij dat 1000mv/1400MHz een veel realistische binning was geweest. Zeker omdat zelfs veel AIB modellen nog onder de 1400MHz throttlen met de standaard 1200mv terwijl je ze met 1000mv rond of over de 1500MHz krijgt.

Ik ben ook nog geen Vega tegengekomen die 1000mv/1400MHz niet haalt. Met zulke binning zit je al snel in de buurt van een GP104 qua efficiëntie. Je kan nog veel lager zonder verlies in prestaties, maar ik denk niet dat AMD de chips zo kan binnen. Op 950mv binnen is denk ik wel het maximum wat realistisch is voor 1400MHz, na twee jaar productie.

Ik denk dus dat het verbruik nauwelijks zal verschillen van een GTX1080. Dan is het voor Google waarschijnlijk wel duidelijk welke ze moeten kiezen. Het project zal al een tijdje lopen waardoor Turing waarschijnlijk te laat kwam. Verder heeft Turing heel veel hardware die Google waarschijnlijk niet wil hebben, maar wel voor zou moeten betalen. Een Radeon Pro zal gezien de marktpositie van AMD, goedkoper zijn dan partijen GP104 chips afnemen van Nvidia, nota bene de directe concurrent van Google in een gamestreaming dienst. Wie zegt dat Nvidia hieraan wil meewerken? Zijn de Vega's ook nog eens sneller in geoptimaliseerde titels dan GP104 en biedt AMD waarschijnlijk veel betere open source support voor Google hun wensen. Ik begrijp de keuze wel. Denk eigenlijk niet dat er echt een keuze was. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Ik heb me eens wat meer verdiept in Google Stadia. Holy sh*t, dit heeft echt potentie. :o
Natuurlijk niet direct voor "ons" met onze eigen systemen, maar voor veel anderen wel. Niet alleen gewoon een game zien op YT en er een paar seconden later in zitten, maar ook wat Google waarschijnlijk allemaal kan. Het lijkt erop dat ze zo advertenties in die games kunnen plaatsen als verdienmodel. Dan kan het wel eens zo gaan zijn dat de dienst een paar euro per maand kost of zelfs helemaal gratis is. Google krijgt haar inkomsten dan uit reclames, reclames die je niet kan overslaan. Een deel van de inkomsten gaat naar de EA's, Ubisofts etc, de rest houd Google zelf.

Google zal verder een bijna onuitputtelijke vraag naar GPU's gaan ontwikkelen voor deze dienst. GPU's die ze van de RTG zullen kopen. Die keuze is allang gemaakt gezien Google haar duidelijke uitspraak dat de GPU van AMD is, terwijl ze zeer mysterieus deden over de CPU. Het lijkt nu een Intel te zijn gezien HT en 9,5MB cache, maar het kan zomaar een Zen 2 Epyc worden. Hier gaat het denk ik meer afhangen wat de plannen voor de verschillende datacentra's van Google zijn. Het netwerk hebben ze gewoon liggen en ik zie ze niet CPU's vervangen die ze al hebben. De GPU's toevoegen is iets waar ze niet omheen kunnen.

Bij mij roept het meteen de volgende vraag op. Gaat Google de RTG betalen voor nieuwe architectuur na nieuwe architectuur? Constant pushen op sneller en snellere hardware en zuiniger voor de servers? Het zal AMD IP blijven waardoor ze de architectuur zelf ook zullen verkopen als discrete chips. Zo kan de focus wel eens heel erg op Google Stadia en het geld uit die bron komen te liggen, voor de gehele GPU industrie. Krijg je dadelijk games die ontwikkeld zijn voor de PS5 (AMD), nieuwe Xbox (waarschijnlijk AMD), Google Stadia (AMD) en het restant PC ports die waarschijnlijk goed draaien op jawel AMD.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Als Google het financieert is het juist aannemelijk dat zij de eigenaar worden van het ontwerp en niet AMD, immers is Google er niet bij gebaat z'n concurrenten te helpen. Verder is reclames in games wel best lastig gezien welke games nu hip zijn. Dan kun je ze dus alleen tonen in het hoofdmenu terwijl je niet in een queue zit. Daarnaast blijft latency een probleem en is de directe concurrent niet de pc maar de consoles en laat nou net Microsoft daar een gigantisch voordeel hebben over zowel Nvidia als Google.

[ Voor 32% gewijzigd door Paprika op 23-03-2019 18:42 ]


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 21:03
Ik zie Google, AMD nog wel opkopen in de nabije toekomst voor alle GPU patenten. De x86 licentie hoeven ze waarschijnlijk niet gezien de steeds betere prestaties van ARM. Gekoppeld met Android heb je dan binnenkort geen pc meer, maar een Googlebox (TM).

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
NitroX infinity schreef op zaterdag 23 maart 2019 @ 19:58:
Ik zie Google, AMD nog wel opkopen in de nabije toekomst voor alle GPU patenten. De x86 licentie hoeven ze waarschijnlijk niet gezien de steeds betere prestaties van ARM. Gekoppeld met Android heb je dan binnenkort geen pc meer, maar een Googlebox (TM).
Ik vind dat niet een hele vreemde gedachtengang, maar ik zie het niet gebeuren, omdat Google nu al links en rechts boetes opgelegd krijgt voor machtsmisbruik, en dan hadden ze dat beter kunnen doen vóórdat ze dit nieuws over Stadia hadden uitgebracht, want eerst Stadia opzetten, en dan MS & Sony uit de markt drukken door AMD op te kopen terwijl zij daar hun chips vandaan halen? denk niet dat de verschillende waakhonden daar echt mee akkoord zullen gaan.

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • +1 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

AdoredTV heeft recentelijk ook een interessante video gepubliceerd over Google's Stadia en de impact daarvan op de GPU en gaming industrie (31 minuten): YouTube: Google Stadia - Gaming REVOLUTION

Acties:
  • 0 Henk 'm!

Verwijderd

Toch wel mooi om te zien hoe belangrijk AMD de komende jaren zal zijn wat betreft gaming-eco-system. Knap gedaan. Ook op gebied van software (Mantle) is er een hoop verschuiving geweest. Daarom, #amd

Acties:
  • 0 Henk 'm!
Paprika schreef op zaterdag 23 maart 2019 @ 18:39:
Als Google het financieert is het juist aannemelijk dat zij de eigenaar worden van het ontwerp en niet AMD, immers is Google er niet bij gebaat z'n concurrenten te helpen. Verder is reclames in games wel best lastig gezien welke games nu hip zijn. Dan kun je ze dus alleen tonen in het hoofdmenu terwijl je niet in een queue zit. Daarnaast blijft latency een probleem en is de directe concurrent niet de pc maar de consoles en laat nou net Microsoft daar een gigantisch voordeel hebben over zowel Nvidia als Google.
En in welk aspect concurreert AMD met Google? ;)
Ja, ik weet van de TPUv2 ASIC die Google heeft ontwikkeld voor tensorflow. Google haar zakelijk model is het vergaren van data en dit monetariseren door de verkoop van gerichte advertenties. Als ze dat kunnen doen met Intel of AMD x86 CPU's, dan doen ze dat. Ze zijn geen hardware ontwikkelaar. In het geval van tensorflow deden ze het omdat Nvidia geen geschikt product leverde en het ook niet uit AMD leek te gaan komen. Nu heeft Google opeens vraag naar enorme volumes aan GPU's. AMD kan voor Google een bevredigend product leveren, dus Google koopt het gewoon.

AMD is een hardware leverancier die op bestelling best bereid is een CPU, GPU of een combinatiepakket te ontwikkelen. Misschien had ik het beter kunnen verwoorden, maar ik denk dan al snel aan zoiets als de XBONE of PS4. Beiden draaien op een semi custom Jaguar + Pitcairn APU configuratie. PS4 Pro heeft een semi custom Polaris 10 GPU i.p.v de Pitcairn en de XBONE X een 44CU "super Polaris". Een tijdje terug is via een leak ook duidelijk geworden dat AMD wel een grotere Polaris in ontwikkeling had, maar die werd gecanceld voor Vega. Duikt er toch een semi custom "super Polaris" op in de XBONE X. Toeval? Denk het niet.

In beide gevallen pakt AMD een afgeleide van hun architecturen en ontwikkeld de semi custom chip. Dit doen ze omdat ze weten dat ze er zoveel miljoen kunnen bestellen en verkopen aan de klant. R&D krijgen ze wel terug en ze maken ook wel wat winst op de chips zelf. Sony en Microsoft vragen dan nog om mainstream hardware, Google zal om high end vragen. Als je weet dat Google graag een aantal miljoen van die chips afneemt, je een contract voor de levering hebt, dan weet AMD dat ze gegarandeerd hun investering terugkrijgen. Dan ontwikkelen ze wel de volgende GPU architectuur en krijgt Google haar semi custom variant. Vervolgens creëert de RTG uit de nieuwe architectuur tenminste een discrete high end en mainstream chip en een APU chip. Daar doel ik op.

De RTG heeft ook al jaren problemen om hun producten verkocht te krijgen. De discrete GPU markt krimpt en de klappen vielen voornamelijk bij de RTG. Als je niet langer zeker bent of je R&D terug te verdienen is, dan ga je conservatiever opereren. Dan kom je al snel achter te liggen en kom je in een vicieuze cirkel terecht. Het hielp ook niet dat Zen moest slagen en dat de RTG het maar even vol moest houden.


Vervolgens heeft Google Stadia Style Transfer ML. Ze kunnen de hele artstyle van een game zo veranderen. Denk je nu echt dat ze niet wat billboards kunnen aanpassen met reclame erop? ;)
YouTube: Google Stadia - Style Transfer ML Demo

Daarnaast kunnen ze gewoon ingame banners gaan gebruiken, reclame voor het laden, periodieke reclame tijdens het spelen etc. Ik denk echt niet dat Google Stadia duur gaat zijn, als je er al voor hoeft te betalen. Al mag je maar een paar uur per dag spelen, dan alsnog zal het doel bereikt zijn. Het doel zal uiteindelijk zijn om gamers van een trailer zien, naar in de game te reduceren tot luttele seconden. Mensen die iets kunnen proberen, kopen het sneller. Daarom hebben zoveel games ook een demo, uh sorry, beta. Wordt de game fysiek gekocht, dan zal Google wel een deel van de prijs pakken. Publischer blij want extra verkopen, Google blij want geld.

Als laatste latency. Tja ik ga echt niet mijn game PC het huis uitgooien en ik denk dat niemand hier dit gaat doen. Als Stadia gewoon gratis is, dan ga ik er denk ik wel gebruik van maken. Kan je gewoon games proberen, of games spelen die je anders nooit zou spelen. Ik heb ook veel liever 10ns frametimes dan 100ns latency, maar gratis is een sterk argument.

Hier stapt AMD dan volwaardig in aan de hardware kant. Het gaat ze gigantisch veel opleveren omdat ze eindelijk een manier gevonden lijken te hebben om hun hardwareverkopen dramatisch toe te laten nemen en zo de R&D voor de toekomstige generaties hardware te betalen. Je mag er ook vanuit gaan dan Google Stadia bij de uitrol meteen wereldwijd beschikbaar is. GeForce Now heeft iets van 15 datacentra's op de hele planeet, Google denk ik net wat meer. Ik zie Google dus zeker een standaard bieden die we niet kennen van eerdere diensten. Niet PC gaming kwaliteit, maar zeker beter dan GeForce Now.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
@DaniëlWW2, in drawcalls hooken om zo de output te veranderen zoals in 't voorbeeld kun je zelf ook met bv Reshade. Sterker nog, Nvidia biedt deze optie in hun software voor mensen die niet zelf met de variabelen willen spelen:
https://www.geforce.com/e...eforce-experience-article

Dat is echt wel andere koek dan in-place een heel ander object renderen.

[ Voor 9% gewijzigd door Paprika op 24-03-2019 11:16 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Halloween is toch nog lang niet? Dan vanwaar al die horror verhalen hierzo? Het klinkt allemaal leuk hoor, voor AMD. Maar voor de consument? Spellen gevuld met advertenties wordt ik niet heel blij van. En ja, als e dat op advertenties wil laten drijven moeten ze ermee gevuld zijn, kijkt hoeveel advertenties websites nodig hebben om te overleven, en aan een spel zitten wel wat meer kosten verbonden. En maar een paar uur per dag spelen om te zorgen dat het uit kan? Als je een paar uur per dag speelt ben je al een behoorlijk fanatieke gamer.

En natuurlijk, in een spel als GTA kan je zolang het redelijke advertenties blijven daar een heel eind mee komen. Maar een Assassins Creed, en in het algemeen het merendeel van de spellen? Nee echt niet.

Een Google die AMD opkoopt is helemaal een worst case scenario. Google heeft nul interesse in de consumenten videokaart markt. Als dat gebeurd zal AMD zich puur richten op de zakelijke kant, voor de Google datacenters. Sowieso, als Stadia een succes zou zijn, dan concurreren AMD videokaarten daarmee, dus als ze AMD in handen hebben is consumenten videokaarten ontwikkelen echt geen hoge prioriteit.

Anyway, gelukkig is dit geheel gebaseerd op de veronderstelling dat Stadia een enorm succes gaat worden, want dit keer is het echt anders als alle andere game streaming diensten die nooit uit de marge zijn gekomen. Persoonlijk zie ik die paar leuke dingetjes die Google toevoegt niet als significante game changer, en vermoed ik dat als zoveel Google projectjes ook hier over 3 jaar de stekker weer wordt uitgetrokken. Kan ik toch nog gerust slapen ;).

Acties:
  • 0 Henk 'm!
Paprika schreef op zondag 24 maart 2019 @ 11:14:
@DaniëlWW2, in drawcalls hooken om zo de output te veranderen zoals in 't voorbeeld kun je zelf ook met bv Reshade. Sterker nog, Nvidia biedt deze optie in hun software voor mensen die niet zelf met de variabelen willen spelen:
https://www.geforce.com/e...eforce-experience-article

Dat is echt wel andere koek dan in-place een heel ander object renderen.
Ja, dit is mijn punt gewoon. :P
Pak bijvoorbeeld een open world game. Grote stad, billboards en reclame overal. Dat is nu nog allemaal bedachte nepreclame of soms hier en daar wat echte reclame, maar Google gaat daar gewoon overal reclame van echte bedrijven plaatsen. Die reclame gaan ze gewoon vervangen ingame en dat gaan ze echt niet met de hand doen, nee daar heeft Google hun AI focus voor. Deze dag wil bijvoorbeeld Thuisbezorgd.nl wat reclame maken. Ze betalen Google voor de advertentie, en Google gooit die advertentie in games op servers waar Nederlandse spelers spelen en waar mogelijk geïnteresseerden voor wat afhaaleten het zien. Hoe weet Google wie geïnteresseerd is? Nou, je zal in moeten loggen met een Google account, op een Google website dus Google zal je browsergedrag gewoon tracken. Volgende dag komt bijvoorbeeld Razer met een advertentie voor de zoveelste Deathadder iteratie.

Wil je dit niet? Tja, dan koop je maar een licentie op de game. Uiteraard zal Google je vriendelijk helpen met een ingame referal link naar Steam of een van de publisher exclusive webshops. Google pikt dan gewoon een deel van de opbrengst mee. ;)

Dit soort gerichte advertenties in games gebeurd nu nog niet, maar gaat wel het doel zijn. We hebben het hier over Google, het bedrijf dat werkelijk overal advertenties aanbrengt. Zo gaan ze de enorme investering in hardware en operationele kosten betalen. Als je een flink abonnementsbedrag krijgt voor Google Stadia, dan gaan mensen eisen stellen. Bijvoorbeeld de latency moet verbeterd worden. Kan niet, dus weg abonnement. Google werkt verder niet met abonnementen. In principe is alles van Google gratis, en toch verdienen ze miljarden. Dat gaat hier echt niet anders zijn.

Wederom gaan jij en ik onze gaming PC's het huis uitzetten? Nah, maar miljoenen mensen gaan hier gebruik van maken als het ook maar enigszins functioneert. Google kwam niet aanzetten met holle beloften, maar met een functionerende techdemo. In Google's demo was de latency ongeveer 100ns. Komt niet eens in de buurt van wat je op de PC krijgt als je zelf een licentie op de game hebt gekocht, maar het is beter dan helemaal niks zal de redenatie van velen zijn. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:56
DaniëlWW2 schreef op zondag 24 maart 2019 @ 12:39:
Google kwam niet aanzetten met holle beloften, maar met een functionerende techdemo. In Google's demo was de latency ongeveer 100ns. Komt niet eens in de buurt van wat je op de PC krijgt als je zelf een licentie op de game hebt gekocht, maar het is beter dan helemaal niks zal de redenatie van velen zijn. ;)
Maar die techdemo draaide om "joepie we kunnen van afspeeldevice wisselen". Niet om goede beeldkwaliteit en lage latency.

Ze hebben digital foundry laten testen, compressie artifacts, 166ms of 188ms op 15 mbit. Wat dat betreft is er geen verbetering ten opzichte van geforce now of andere cloudgaming aanbieders.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
haarbal schreef op zondag 24 maart 2019 @ 13:07:
[...]

Maar die techdemo draaide om "joepie we kunnen van afspeeldevice wisselen". Niet om goede beeldkwaliteit en lage latency.

Ze hebben digital foundry laten testen, compressie artifacts, 166ms of 188ms op 15 mbit. Wat dat betreft is er geen verbetering ten opzichte van geforce now of andere cloudgaming aanbieders.
Precies. En dat is leuk hoor, eigenlijk lijkt het wel op de Switch. En er zijn scenarios waarbij ik me kan bedenken dat het best een handige feature is. Maar is het nou echt de game-changer die ervoor zorgt dat game streaming het gaat worden? Nee.

Dus wat blijft er dan over? Google heeft meer datacentra. Dat is zeker een plus, als ze ze allemaal met game streaming opties gaan uitrusten. Want dat is het probleem hier, het is niet dat ze zomaar een datacentrum met een software update kunnen herconfigureren en dat hij geschikt is, de hardware moet aangepast worden. En het is momenteel nou niet dat in een cirkel van 250km rond elke Geforce Now datacentrum iedereen aan het cloudgamen is, en daar buiten de latency te groot wordt.

Dus waarom zou het deze keer nou wil doorbreken? En het blijft dat slechts een kleine subset van de games geschikt is voor advertenties in de spelwereld.

Acties:
  • 0 Henk 'm!
Sissors schreef op zondag 24 maart 2019 @ 15:54:
[...]

Precies. En dat is leuk hoor, eigenlijk lijkt het wel op de Switch. En er zijn scenarios waarbij ik me kan bedenken dat het best een handige feature is. Maar is het nou echt de game-changer die ervoor zorgt dat game streaming het gaat worden? Nee.

Dus wat blijft er dan over? Google heeft meer datacentra. Dat is zeker een plus, als ze ze allemaal met game streaming opties gaan uitrusten. Want dat is het probleem hier, het is niet dat ze zomaar een datacentrum met een software update kunnen herconfigureren en dat hij geschikt is, de hardware moet aangepast worden. En het is momenteel nou niet dat in een cirkel van 250km rond elke Geforce Now datacentrum iedereen aan het cloudgamen is, en daar buiten de latency te groot wordt.
Tja, weten we echt wat de cycli van Google datacentra is? Daarmee bedoel ik de geïnstalleerde hardware nu, verwachte levensduur en upgradebaarheid? Ik ga er overigens volledig vanuit dat de GPU's die AMD zal leveren, geconfigureerd zullen zijn voor standaard serverracks. Heb je PCI-E lanes over dan is het een kwestie van voeding wisselen, GPU's installeren en servers herconfigureren. Het kost tijd, maar het kan.

Vervolgens denk ik niet dat Google een maand geleden eens bedacht heeft dat ze dit willen doen. Nee, ik denk dat dit project al jaren loopt en dat Google al tijdenlang bezig is om datacentra's te selecteren, in fasen alvast voor te bereiden, upgrades toepast en te stresstesten voor launch. Je kan veel zeggen over Google, maar ze hebben hun zaakjes over het algemeen gewoon uitstekend op orde.
Dus waarom zou het deze keer nou wil doorbreken? En het blijft dat slechts een kleine subset van de games geschikt is voor advertenties in de spelwereld.
Omdat Unreal en Unity al hun toezegging hebben voor ondersteuning? Omdat ze een demo van AC Odyssey lieten zien waardoor we weten dat Ubisoft aan boord is? Omdat Google zelf games gaat ontwikkelen? Omdat Google waarschijnlijk een goed financieel plan zal aanbieden aan uitgevers zodat ze allemaal meedoen?

Verder onderschat ik absoluut niet Google haar talent om alles in advertenties te veranderen. Die fout zou ik niet maken als ik jou was. :P
haarbal schreef op zondag 24 maart 2019 @ 13:07:
[...]

Maar die techdemo draaide om "joepie we kunnen van afspeeldevice wisselen". Niet om goede beeldkwaliteit en lage latency.

Ze hebben digital foundry laten testen, compressie artifacts, 166ms of 188ms op 15 mbit. Wat dat betreft is er geen verbetering ten opzichte van geforce now of andere cloudgaming aanbieders.
Interessant, ga ik ook maar eens naar kijken. :)
Ik had juist begrepen dat het meer rond de 100ms was. Nog steeds fors, maar beter dan. Verder heb ik ook de nodige ervaring met controllers en ik denk dat dit ook zal helpen. Je hebt gewoon minder fijne en snelle controle. Voor heel veel games maakt het niks uit en verstaat de ergonomie van een controller voor mij makkelijk de precisie van de muis. De uitzondering zijn schooters en RTS. Die hoor je gewoon te spelen op PC met een muis, dus. :+


Ik het algemeen dan. Wederom, ik merk het verschil ik latency ook echt wel en ik gooi mijn #Teamred PC ook niet het raam uit. Betekent niet dat dit de norm is. Besef je dat PC gamers een relatief kleine groep zijn. Ja wij zien latency delay's meteen, we voelen imputlag het en het verpest onze ervaring. Dat is niet iedereen. Google gaat dit pushen naar de causual gamer die geen €1000+ gamesysteem heeft. Dat kunnen ze gewoon doen met een simpele link in YT. Iets dat GeForce Now, OnLive etc nooit heeft kunnen doen. Google zorgt er wel voor dat iedereen weet van Google Stadia en ze zorgen er wel voor dat mensen het proberen en het bevalt. Voor Google zal de speler ook het product zijn, niet de game.

Heb ik er als gamer verder wat problemen mee en voorzie ik problemen in de toekomst? Yup. Kan ik er wat aan doen? Niet echt. Ik blijf gewoon primair bij mijn gaming PC hoewel ik misschien met Black Friday een XBONE S heb gekocht. Is ook AMD hardware dus dit mag. :> :P

Ik ben de doelgroep niet, nee dat zijn miljoenen anderen die soms eens een game spelen. Die gaan dit zien en er gebruik van maken. Voor ons PC gamers heeft het ook voordeel omdat het de RTG hopelijk enorm zal helpen om echt keihard te gaan concurreren met Nvidia. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
DaniëlWW2 schreef op zondag 24 maart 2019 @ 11:08:
[...]

AMD is een hardware leverancier die op bestelling best bereid is een CPU, GPU of een combinatiepakket te ontwikkelen.
Het is nog niet zeker of bij de huidige specificaties die zijn genoemd, de CPU een AMD of Intel model is. Google zal ook wel een leuke deal met Intel kunnen sluiten, zowel voor CPU's als voor GPU's.

Acties:
  • 0 Henk 'm!
madmaxnl schreef op maandag 25 maart 2019 @ 21:48:
[...]


Het is nog niet zeker of bij de huidige specificaties die zijn genoemd, de CPU een AMD of Intel model is. Google zal ook wel een leuke deal met Intel kunnen sluiten, zowel voor CPU's als voor GPU's.
Tja, Google had het over HT wat een Intel trademark is. Overigens deed Google wel haar best om geen CPU of CPU fabrikant te specificeren, terwijl Lisa Su wel in de zaal zat en Google duidelijk maakte dat het AMD GPU's zijn. Het kan dus beide kanten opgaan. Verder kan Google zomaar wel eens wat datacentra's gaan vullen met Epyc Rome's. Zeker nadat Google tijdelijke exclusiviteit had voor Skylake SP, en toen kwam Meltdown en kon Google waarschijnlijk HT uitzetten. Dat is alleen een ander verhaal voor het andere topic. :)

Ik denk eigenlijk niet dat Google echt heel veel interesse zal tonen welke CPU het is. Het enige dat zal tellen is of die snel genoeg is. 2,7GHz klinkt natuurlijk alsof het niks is, maar voor servers is het best fors. Het zullen zeker niet de zeer hoge corecount CPU's zijn die Google zal willen gebruiken. Denk eerder 6c/12t of 8c/16t CPU's. :)

[ Voor 10% gewijzigd door DaniëlWW2 op 25-03-2019 21:58 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
DaniëlWW2 schreef op maandag 25 maart 2019 @ 21:55:
[...]


Tja, Google had het over HT wat een Intel trademark is. Overigens deed Google wel haar best om geen CPU of CPU fabrikant te specificeren, terwijl Lisa Su wel in de zaal zat en Google duidelijk maakte dat het AMD GPU's zijn. Het kan dus beide kanten opgaan. Verder kan Google zomaar wel eens wat datacentra's gaan vullen met Epyc Rome's. Zeker nadat Google tijdelijke exclusiviteit had voor Skylake SP, en toen kwam Meltdown en kon Google waarschijnlijk HT uitzetten. Dat is alleen een ander verhaal voor het andere topic. :)

Ik denk eigenlijk niet dat Google echt heel veel interesse zal tonen welke CPU het is. Het enige dat zal tellen is of die snel genoeg is. 2,7GHz klinkt natuurlijk alsof het niks is, maar voor servers is het best fors. Het zullen zeker niet de zeer hoge corecount CPU's zijn die Google zal willen gebruiken. Denk eerder 6c/12t of 8c/16t CPU's. :)
AMD heeft zelf aangegeven dat het Intel cpus zijn. Volgens mij een van de laatste nieuwsberichten van HardOCP.

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op maandag 25 maart 2019 @ 23:48:
[...]


AMD heeft zelf aangegeven dat het Intel cpus zijn. Volgens mij een van de laatste nieuwsberichten van HardOCP.
Ik weet het. ;)
Mijn punt is juist dat ik denk dat Google ook bestaande systemen zal upgraden met voedingen en de GPU's. Dat zullen Intel CPU's zijn aangezien Google een van de grootste Intel klanten is. De toekomst is alleen ongewisser omdat Google niet duidelijk zei dat ze Intel CPU's gaan gebruiken. Het werd geïmpliceerd, maar niet uitgesproken zoals de AMD GPU's. Ik geloof niet zo in dergelijke toevalligheden bij zulke grote prestaties. Als Google een slag om de arm houdt, dan is daar waarschijnlijk een reden voor. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 18:29
DaniëlWW2 schreef op maandag 25 maart 2019 @ 21:55:
Het zullen zeker niet de zeer hoge corecount CPU's zijn die Google zal willen gebruiken. Denk eerder 6c/12t of 8c/16t CPU's. :)
Dat is natuurlijk maar de vraag, voor density zijn juist hoge core counts wel erg prettig. Ik verwacht eigenlijk juist totaal niet dat Google Sku's gebruikt hiervoor met lage corecounts. Volgens mij is het aantal cores per instance nog niet bekend (misschien gaat dat ook wel verschillend zijn of zelfs flexibel). Maar ik verwacht eigenlijk gewoon hoge corecount Sku's (Intel heeft op ARK scalable Xeons tot 24 cores met een 2,7Ghz base clock, Cascade lake zelfs de 28 core modellen ook volgens wat er nu bekend is https://en.wikichip.org/wiki/intel/xeon_platinum/8280 )

Dit zie je ook bijvoorbeeld bij Werkstations uitgerold via VDI, pak een berg cores in een cluster, gooi een paar GPU's in dat zelfde cluster. Deel deze netjes op in virtuele instances en je kan heel mooi werkstation performance uitrollen naar Laptops, Thinclients, tablets en zelfs telefoontjes.

Acties:
  • 0 Henk 'm!
Dennism schreef op dinsdag 26 maart 2019 @ 13:38:
[...]


Dat is natuurlijk maar de vraag, voor density zijn juist hoge core counts wel erg prettig. Ik verwacht eigenlijk juist totaal niet dat Google Sku's gebruikt hiervoor met lage corecounts. Volgens mij is het aantal cores per instance nog niet bekend (misschien gaat dat ook wel verschillend zijn of zelfs flexibel). Maar ik verwacht eigenlijk gewoon hoge corecount Sku's (Intel heeft op ARK scalable Xeons tot 24 cores met een 2,7Ghz base clock, Cascade lake zelfs de 28 core modellen ook volgens wat er nu bekend is https://en.wikichip.org/wiki/intel/xeon_platinum/8280 )

Dit zie je ook bijvoorbeeld bij Werkstations uitgerold via VDI, pak een berg cores in een cluster, gooi een paar GPU's in dat zelfde cluster. Deel deze netjes op in virtuele instances en je kan heel mooi werkstation performance uitrollen naar Laptops, Thinclients, tablets en zelfs telefoontjes.
Het is even de vraag hoe de workload is. Kan mij voorstellen dat het wel wat anders is dan gamen op een lokale pc. Maar het lijk mij inderdaad ook dat ze wel high density willen want anders heb je veel meer blades en server racks nodig om genoeg mensen te bedienen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 ... 38 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.