Acties:
  • 0 Henk 'm!

  • jgj82
  • Registratie: Juli 2006
  • Laatst online: 20:20

jgj82

Ja, maar = nee

Met het vertrouwen van de financiële markt in AMD zit het wel goed geloof ik.. AMD stock rendament is +50% sinds januari.. Ik had er nog veel meer moeten kopen.. |:(

Acties:
  • +2 Henk 'm!

  • JappieR
  • Registratie: Februari 2005
  • Laatst online: 20:44
jgj82 schreef op donderdag 4 april 2019 @ 12:25:
Met het vertrouwen van de financiële markt in AMD zit het wel goed geloof ik.. AMD stock rendament is +50% sinds januari.. Ik had er nog veel meer moeten kopen.. |:(
De waarde van AMD aandelen zijn niet gebaseerd op marktwaarde, AMD is juist een speelbal van de grote jongens(pump en dump)
Ik verwacht dat het voor de presentatie van Q1 resulaten, eind april, weer laag in de 20 zit.

Acties:
  • 0 Henk 'm!
JappieR schreef op donderdag 4 april 2019 @ 18:28:
[...]


De waarde van AMD aandelen is niet gebaseerd op marktwaarde, AMD is juist een speelbal van de grote jongens(pump en dump)
Ik verwacht dat het voor de presentatie van Q1 resulaten, eind april, weer laag in de 20 zit.
Yup, dat gebeurd eigenlijk nu al een jaar. Kwartaalcijfers en keihard onderuit. De vraag is alleen wanneer dat gaat stoppen. Het portfolio en de klandizie van AMD wordt alleen maar beter en beter. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • jgj82
  • Registratie: Juli 2006
  • Laatst online: 20:20

jgj82

Ja, maar = nee

DaniëlWW2 schreef op donderdag 4 april 2019 @ 19:47:
[...]


Yup, dat gebeurd eigenlijk nu al een jaar. Kwartaalcijfers en keihard onderuit. De vraag is alleen wanneer dat gaat stoppen. Het portfolio en de klandizie van AMD wordt alleen maar beter en beter. :)
Nou laat nog maar één gebeuren dan.. Ik heb een zak geld klaar staan.. :Y)

Acties:
  • +3 Henk 'm!
Kwam dit tegen. Eigenlijk een korte uitleg wat het verschil is tussen GDDR en HBM. Het komt ongeveer neer op GDDR is goedkoper en simpeler, HBM is veel efficiënter en vraagt minder ruimte op je rekenchip, ondanks de veel grotere geheugenbus. Ook een minder belicht punt namelijk dat HBM betere signaal integriteit heeft juist omdat het langzamer en bredere connecties heeft tussen geheugen en de rekenchip. Verder gewoon interessant als je een kwartiertje hebt. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
Pak de strooiwagen afgeladen met zout er maar bij, maar toch ga ik het delen. :P
Volgens Tweaktown zou Navi 10 wel eens aangekondigd kunnen worden tijdens E3 in juni en release zou 7 juli zijn. Dat laatste geloof ik eigenlijk niet omdat het een zondag is, E3 zou kunnen gezien de hardnekkige geruchten dat de PS5 een Zen+Navi APU zal hebben.

Het echt interessante is dat volgens Tweaktown, Navi 10 makkelijk sneller zou zijn dan Vega 10 en richting de RTX2080 zal gaan. Het zou ook echt een post GCN architectuur worden, en niet de zoveelste iteratie op de GCN architectuur. :)
https://www.tweaktown.com...-cards-e3-2019/index.html

Oh en die PS5 APU? Tja het lijkt erop dat dit Gonzalo is met een Zen op 1,6GHz met 3,2GHz boost en een Navi 10 Lite op 1,8GHz.
https://www.techspot.com/...p-moves-closer-final.html

[ Voor 19% gewijzigd door DaniëlWW2 op 15-04-2019 11:50 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 15:23

Edmin

Crew Council

get on my horse!

DaniëlWW2 schreef op maandag 15 april 2019 @ 11:45:
Pak de strooiwagen afgeladen met zout er maar bij, maar toch ga ik het delen. :P
Volgens Tweaktown zou Navi 10 wel eens aangekondigd kunnen worden tijdens E3 in juni en release zou 7 juli zijn. Dat laatste geloof ik eigenlijk niet omdat het een zondag is, E3 zou kunnen gezien de hardnekkige geruchten dat de PS5 een Zen+Navi APU zal hebben.
Dit zie ik al een tijdje op verschillende andere sites terugkomen, maar een bron kan ik er niet bij achterhalen.

Acties:
  • 0 Henk 'm!
Edmin schreef op maandag 15 april 2019 @ 12:38:
[...]

Dit zie ik al een tijdje op verschillende andere sites terugkomen, maar een bron kan ik er niet bij achterhalen.
Waarom denk je de strooiwagen met zout? :P
Maar voor zover ik weet zijn er meerdere aparte bronnen in omloop. In ieder geval AdoredTV die nu een aardige tracklrecord op aan het bouwen was, Redtechgaming, maar er duiken ook steeds andere bronnen op, ES samples die dingen lijken te bevestigen etc. De echte details weten we gewoon niet, maar het lijkt er wel op dat Navi iets meer zal zijn dan weer een GCN iteratie met de gebruikelijke teleurstelling. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 15:23

Edmin

Crew Council

get on my horse!

Die gebruikelijke teleurstelling kunnen we natuurlijk zelf ook voorkomen, door:
Het echt interessante is dat volgens Tweaktown, Navi 10 makkelijk sneller zou zijn dan Vega 10 en richting de RTX2080 zal gaan.
dit soort statements niet meer te geloven :P

Acties:
  • 0 Henk 'm!
Edmin schreef op maandag 15 april 2019 @ 14:08:
Die gebruikelijke teleurstelling kunnen we natuurlijk zelf ook voorkomen, door:

[...]
dit soort statements niet meer te geloven :P
Ik geloof dat dan ook niet echt. Laat het gewoon op mij afkomen. :P

[ Voor 5% gewijzigd door DaniëlWW2 op 15-04-2019 15:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:01
Mijn houding is er meer één van: ik verwacht dat er gpu's komen op 7 nm, ik verwacht dat deze de codenaam Navi zullen dragen en ik verwacht óók dat er een tip van de sluier wordt opgericht bij Computex op 27 mei, omdat er dan een keynote is van Lisa Su zelf (https://computex-forum.az...net/Forum/PressConference) - al is het ook mogelijk dat ze alleen nieuws over de nieuwe 7 nm cpu's komt brengen - en ik acht het goed mogelijk dat er op 12-14 juni bij E3 een grotere tip van de sluier wordt opgelicht (omdat gaming dan wél centraal staat, is er dan meer kans er ook echt gpu-nieuws komt, denk ik).

Maar qua inhoud, welke kaarten op welk niveau, negeer ik elk nieuws eigenlijk als koffiedik kijken. En zo erg vind ik dat ook niet, want ik weet zelf ook nog niet wat ik wil, daarvoor moet ik eerst maar eens zien wat er echt komt. Ik wil grotere prestaties dan mijn RX460, maar misschien laat ik mijn principe varen (zoals @Verwijderd suggereerde) dat ik een kaart wil met een hoger verbruik dan 75 W en daarvan af stappend met een krachtiger kaart méér dan 3 jaar kan doen. Maar wat voor vermogen en wat voor prijs ik acceptabel vind voor meer prestaties, kan ik toch alleen maar wat over zeggen als er echte kaarten te zien zijn. Geruchten kan ik geen berekening op los laten.

Anderzijds ben ik wel een pietje ongeduld, ik abonneerde me deze maand op de Humble Monthly voor Assassins Creed Origins, dat ik pas zal kunnen spélen als ik een krachtiger kaart heb dan de RX 460. :|

[ Voor 11% gewijzigd door FairPCsPlease op 15-04-2019 18:41 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Navi will be a muhc better GPU architecture
nd it plans to capitlize on that
a little damage with teh first-gen Navi
Iets met (gratis) spellchecker als je een dergelijke clickbait gaat plaatsen... (@TweakTown dus)

Acties:
  • 0 Henk 'm!
Het zou mij niets verbazen als Navi gewoon GCN is. In de periode dat het ontwerp van Navi gestart was AMD full focus met CPU's bezig dus er zal weinig geld geweest zijn. Ik kan mij voorstellen dat ze nu wel met een GPU ontwerp bezig zijn waar meer budget achter zit.

Ik denk zelf dat het toch een GCN GPU wordt maar dan met alle issues die er qua efficientie zijn aangepakt. Nu worden ook lang niet alle shaders van Vega goed benut. Een 56 is even snel als een 64 mits de core clocks maar gelijk zijn. Kortom die 8 extra CU's doen in gaming workloads maar weinig. Bij compute is het een ander verhaal. Het frondend en de backend zijn de beperkende factor. Als je die kan aanpakken, de CU's wat efficienter kan maken en dingen zoals de rasterizer beter kan laten werken kan je best nog wel wat extra uit GCN halen.

Het is niet genoeg om nVidia te verslaan maar in ieder geval om iets interessants neer te zetten. 2080 Ti prestaties zijn best mogelijk zie ook waar Radeon VII zonder die aanpassingen komt.
Maar nVidia zit ook niet stil en die gaan ook met de RTX 30x0 generatie komen welke weer sneller zal zijn.

Ik sluit een uitzwaai GCN chip met GDDR6 niet uit. 384 Bit memory interface voor het top model (welke waarschijnlijk later pas komt) 256 voor de andere versies die de Vega 10 en Vega 20 gaan vervangen.

Maar we gaan het over een paar maanden zien. Ik ben er benieuwd :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +3 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 18:29
DaniëlWW2 schreef op maandag 15 april 2019 @ 11:45:
gezien de hardnekkige geruchten dat de PS5 een Zen+Navi APU zal hebben.
Geen gerucht meer :P

In ieder geval Zen 2 + Navi dan.

[ Voor 26% gewijzigd door Dennism op 16-04-2019 16:28 ]


Acties:
  • 0 Henk 'm!
Dennism schreef op dinsdag 16 april 2019 @ 16:09:
[...]


Geen gerucht meer :P

In ieder geval Zen 2 + Navi dan.

[Twitter]
Die is dan bevestigd ja. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Dennism schreef op dinsdag 16 april 2019 @ 16:09:
[...]


Geen gerucht meer :P

In ieder geval Zen 2 + Navi dan.

[Twitter]
Wat ik nog het meest interessante vind is dat Navi dus focus op RayTracing lijkt te hebben. Daar heeft het artikel het over waar lisa naar linkt. De geruchten gingen al rond maar het lijkt dus echt te kloppen.
Mogelijk dus Navi 10 een versie zonder die Raytracing hardware en Navi 20 dedicated spul aan boord. En de custom versies blijkbaar ook? of ze toen het toch met de bestaande shaders op een efficiente manier. Anyway good stuf comming.

En ook goed om te zien dat ze SSD's gaan gebruiken. Ik ben benieuwd wie straks de meest krachtige console heeft. Ik denk dat MS er deze keer alles aan doet om niet weer met tragere hardwar dan sony op de proppen te komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 19:05

vectormatic

Warlock of the doorlock

@FairPCsPlease Volgens mij voldoet een 460 net aan de min-specs voor AC origins, zou het gewoon proberen als ik jou was, misschien dat 1080p er niet inzit, maar als een xbox 1 het kan, moet een RX460 het ook kunnen draaien

Overigens sluit ik me geheel bij je aan, ik heb een RX560 (lees, RX460, want het is de gegimpte 896-shader variant met 2gb), en wil ook liever geen kaart die meer dan 75w verstookt, dus als er een navi kaart komt die netjes onder de 75w blijft, maar wel de 7nm slag gebruikt om meer performance neer te zetten ben ik zeer geinteresseerd. Als het puur om performance ging had ik al lang een 570 gekocht

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 16 april 2019 @ 17:04:
[...]


Wat ik nog het meest interessante vind is dat Navi dus focus op RayTracing lijkt te hebben. Daar heeft het artikel het over waar lisa naar linkt. De geruchten gingen al rond maar het lijkt dus echt te kloppen.
Mogelijk dus Navi 10 een versie zonder die Raytracing hardware en Navi 20 dedicated spul aan boord. En de custom versies blijkbaar ook? of ze toen het toch met de bestaande shaders op een efficiente manier.
Serieuze ray tracing lijkt mij nog meer dan 5 jaar weg. Ray tracing stelt nu immers ook niks, lijkt mij sterk dat Navi daar iets aan zal veranderen. De focus op ray tracing zie ik dan ook totaal niet gebeuren. Het is alleen hip en daarom wordt het genoemd.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
-The_Mask- schreef op dinsdag 16 april 2019 @ 20:58:
[...]

Serieuze ray tracing lijkt mij nog meer dan 5 jaar weg. Ray tracing stelt nu immers ook niks, lijkt mij sterk dat Navi daar iets aan zal veranderen. De focus op ray tracing zie ik dan ook totaal niet gebeuren. Het is alleen hip en daarom wordt het genoemd.
Als het om dedicated hardware gaat en je kan het slim doen kan het wel mooier zijn zonder dat het te veel impact heeft op de prestaties. Dus who knows kunnen console dev's er wel wat leuks mee doen. Het gaat idd alleen om bepaalde effecten en geen volledige RT.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
-The_Mask- schreef op dinsdag 16 april 2019 @ 20:58:
[...]

Serieuze ray tracing lijkt mij nog meer dan 5 jaar weg. Ray tracing stelt nu immers ook niks, lijkt mij sterk dat Navi daar iets aan zal veranderen. De focus op ray tracing zie ik dan ook totaal niet gebeuren. Het is alleen hip en daarom wordt het genoemd.
^ i'm with stu.... -The_Mask- ;)

Sowieso, introductie RTX series: Q4-2018, verwachte launch Navi Q2/3-2019....
Dus óf AMD was aan het spyen en heeft al jaren HW Raytracing in ontwikkeling maar heeft dat angstvallig stilgehouden, en komt opeens met 10x performance over Nvidia RTX2080TI Raytracing wise (not bloody-likely ;)) of het is idd hype/gimmick en het word een SW implementatie met misschien wat optimisaties die zo laat in het ontwerpproces nog doorgevoerd konden worden (=niet veel)

Enniehouw: ik prefereer high-fps 4K over RT elke dag, en ik denk Sony/MS ook want er zijn zat 120Hz 4K schermen daar in het wild die wachten op een gameconsole die dat kan aansturen, en daar win je veel meer mee als die paar nog in ontwikkeling zijnde titels met RT....

Ik zie RT als VR uit de jaren 80, leuk concept, maar probeer het over een paar generaties nog eens.... (tenzij er vol op ingezet word, dan zou het *misschien* idd over een jaar of 5 wel al eens iets kunnen worden....)

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!
Ze weten van elkaar natuurlijk wel wat eerder waar de andere mee bezig is. Neemt echter niet weg dat ray tracking gewoon heel zwaar is. Waarmee het logisch is dat het de komende tijd vooral een gimmick zal zijn.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2 Henk 'm!
Ik stel voor dat degenen die denken dat RT binnen nu en enkele jaren gemeengoed wordt eens hier naar kijken: YouTube: A Hands-on Look at Using Ray Tracing in Games with UE 4.22 | GDC 201...

Zet het maar uit je hoofd, dat gaat niet gebeuren.

Een paar hoofdpunten:
- Meer dan één bounce gaat over het algemeen niet op de huidige hardware
- Gevolg is dat ook veel dingen extreem noisy zijn (meer bounces vermindert noise; denoising zal altijd nodig zijn, maar noise is nu wel extreem op sommige dingen)
- Compleet andere aanpak nodig door alle artists: level designers moeten heel bewust kiezen wat wel of niet raytraced is, waar de RT lichtpunten zijn, de materialen die je gebruikt kunnen veel invloed hebben
- Framerates kunnen idioot veel fluctueren omdat er ergens wat rays "lekken"

De volgende generatie GPU's verandert hier nog niets aan - er moet nog te veel op de "oude" manier gedaan worden, dus RT zal bijzaak blijven. Die zullen alleen baseline RT performance acceptabel maken. We zullen soft shadows van GI zien, harde spiegels zullen waarschijnlijk RT krijgen, maar veel meer dan dat wordt het voorlopig niet. Raytraced point lights bijvoorbeeld kosten voorlopig nog te veel, dus zaklampen zullen dat niet gaan doen. Of erger nog, ze produceren helemaal geen schaduw meer, zoals in Metro.

Vergeet niet dat je met baked lights heel ver kunt komen. Het kost alleen heel veel tijd, waardoor we helaas in sommige games (lees: Metro) zullen moeten kiezen tussen íets of niets. Metro heeft 0,0 fallback als RT uit staat. Ineens helemaal geen AO meer, geen vervangende baked lights. Is wellicht gewoon een beperking van hun engine, maar lelijk is het wel. In UE kun je dat allemaal afhankelijk van je settings maken.

Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:07

Damic

Tijd voor Jasmijn thee

Interesting :Y :Y :Y

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
-The_Mask- schreef op woensdag 17 april 2019 @ 09:52:
Ze weten van elkaar natuurlijk wel wat eerder waar de andere mee bezig is. Neemt echter niet weg dat ray tracking gewoon heel zwaar is. Waarmee het logisch is dat het de komende tijd vooral een gimmick zal zijn.
Het verbaast mij sowieso wel hoevaak mensen denken dat de grote jongens niet van elkaar weten waar ze mee bezig zijn en hoe iedere actie puur als doel heeft de ander voor de gek te houden, terwijl de realiteit gewoon is dat dit soort partijen al lang van elkaar weten waar ze mee bezig zijn.

Wij hebben hetzelfde probleem richting onze concurrenten (en zij dan weer richting ons), maar de realiteit is ook dat het dan al lang te laat is om daar nog iets aan te doen. Stel jij bent Nvidia en weet wat AMD over 'n jaar gaat uitbrengen. Dat is leuk, maar jullie (Nvidia) ontwerp ligt al lang klaar. Dan kun je nog zoveel "tweaken", dat gat ga je nooit vullen. De GTX680 is hier 'n perfect voorbeeld van. Nvidia had iets beters klaarliggen, maar toen ze wisten waar AMD mee zou komen hebben ze die plannen in de kast gestopt, omdat ze nu met lagere kosten een prima omzet konden behalen.

[ Voor 32% gewijzigd door Paprika op 18-04-2019 23:43 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Paprika schreef op donderdag 18 april 2019 @ 23:38:
[...]


Het verbaast mij sowieso wel hoevaak mensen denken dat de grote jongens niet van elkaar weten waar ze mee bezig zijn en hoe iedere actie puur als doel heeft de ander voor de gek te houden, terwijl de realiteit gewoon is dat dit soort partijen al lang van elkaar weten waar ze mee bezig zijn.

Wij hebben hetzelfde probleem richting onze concurrenten (en zij dan weer richting ons), maar de realiteit is ook dat het dan al lang te laat is om daar nog iets aan te doen. Stel jij bent Nvidia en weet wat AMD over 'n jaar gaat uitbrengen. Dat is leuk, maar jullie (Nvidia) ontwerp ligt al lang klaar. Dan kun je nog zoveel "tweaken", dat gat ga je nooit vullen. Juist de GTX680 is hier 'n perfect voorbeeld van. Nvidia had iets beters klaarliggen, maar toen ze wisten waar AMD mee zou komen hebben ze die plannen terug in de kast gestopt.
Vaak hebben ze wel een globaal idee waar het andere bedrijf mee bezig is. Er zijn ook voorbeelden van dingen waar het andere bedrijf helemaal niks van wist.
Je bent vast nog wel bekend met het Eyefinity verhaal:
https://www.anandtech.com/show/2937/10

Wat hieruit wel blijkt is dat ze best ver moeten gaan om zoiets geheim te houden.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Sp3ci3s8472 schreef op donderdag 18 april 2019 @ 23:45:
[...]


Vaak hebben ze wel een globaal idee waar het andere bedrijf mee bezig is. Er zijn ook voorbeelden van dingen waar het andere bedrijf helemaal niks van wist.
Je bent vast nog wel bekend met het Eyefinity verhaal:
https://www.anandtech.com/show/2937/10

Wat hieruit wel blijkt is dat ze best ver moeten gaan om zoiets geheim te houden.
De publieke announcement (september) en de eerste demo's vanuit Nvidia (januari) scheelde niet eens heel veel, dus zelfs daarbij durf ik de aanname te maken dat dit buiten AMD gelekt werd, voordat dit intern bij de gehele staff bekend was. Dit is overigens geen verassing, omdat veel partijen een "NDA" moesten ondertekenen.

Acties:
  • 0 Henk 'm!
Paprika schreef op donderdag 18 april 2019 @ 23:38:
[...]


Het verbaast mij sowieso wel hoevaak mensen denken dat de grote jongens niet van elkaar weten waar ze mee bezig zijn en hoe iedere actie puur als doel heeft de ander voor de gek te houden, terwijl de realiteit gewoon is dat dit soort partijen al lang van elkaar weten waar ze mee bezig zijn.

Wij hebben hetzelfde probleem richting onze concurrenten (en zij dan weer richting ons), maar de realiteit is ook dat het dan al lang te laat is om daar nog iets aan te doen. Stel jij bent Nvidia en weet wat AMD over 'n jaar gaat uitbrengen. Dat is leuk, maar jullie (Nvidia) ontwerp ligt al lang klaar. Dan kun je nog zoveel "tweaken", dat gat ga je nooit vullen. De GTX680 is hier 'n perfect voorbeeld van. Nvidia had iets beters klaarliggen, maar toen ze wisten waar AMD mee zou komen hebben ze die plannen in de kast gestopt, omdat ze nu met lagere kosten een prima omzet konden behalen.
Aan de andere kant staat AMD er toch een beetje bekend om konijnen uit de hoge hoed te toveren. Nvidia reageerde met Kelper op GCN, maar zag Hawaï pas aankomen nadat ze hun GTX780 en GTX Titan hadden gelanceerd. Toen verscheen Hawaï opeens op hun radar en materialiseerde de volledige GK110 ineens vlak na de lancering van Hawaï. ;)

Natuurlijk zat er enkele maanden tussen, maar het zal na de lancering van de GTX Titan zijn geweest toen Nvidia opeens erachter kwam dat AMD iets veel beters dan Tahiti had.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Paprika schreef op donderdag 18 april 2019 @ 23:51:
[...]

De publieke announcement (september) en de eerste demo's vanuit Nvidia (januari) scheelde niet eens heel veel, dus zelfs daarbij durf ik de aanname te maken dat dit buiten AMD gelekt werd, voordat dit intern bij de gehele staff bekend was. Dit is overigens geen verassing, omdat veel partijen een "NDA" moesten ondertekenen.
Nvidia had een houwtje touwtje software oplossing die alleen met SLI werkte, pas later kwamen ze met een echte oplossing. Laat niet weg dat het vast is uitgelekt op het moment dat meer mensen mee moesten werken hieraan.

Acties:
  • 0 Henk 'm!
Zeker! dit is eerlijk gezegd ook een beetje wat ik er van verwacht. 64CU versie die inderdaad een stukl sneller is als de RTX2080 misschien net wat onder de 2080 Ti. Die rek zit nog wel in GCN. Vind de CU counts voor Navi 10 en 12 wel appart vooral 12. Die van 10 vs 20 is nog wel te verklaren als de Navi 20 hardware RT heeft en dat Navi 10 dan de goedkopere traditionele chip is. Net als de 16xx serie van nVidia.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op vrijdag 19 april 2019 @ 00:10:
[...]


Aan de andere kant staat AMD er toch een beetje bekend om konijnen uit de hoge hoed te toveren. Nvidia reageerde met Kelper op GCN, maar zag Hawaï pas aankomen nadat ze hun GTX780 en GTX Titan hadden gelanceerd. Toen verscheen Hawaï opeens op hun radar en materialiseerde de volledige GK110 ineens vlak na de lancering van Hawaï. ;)

Natuurlijk zat er enkele maanden tussen, maar het zal na de lancering van de GTX Titan zijn geweest toen Nvidia opeens erachter kwam dat AMD iets veel beters dan Tahiti had.
Vreemde conclusie.

Eerst kwam de GTX Titan voor 1000 dollar, daarna een GTX 780 voor 650 dollar welke dezelfde GPU gebruikte met minder cudacores ingeschakeld. Bijna een half jaar later kwam AMD pas met een reactie, al die tijd kon nVidia dus een flink bedrag vragen. Waarbij nVidia enkele dagen later al weer met een snellere GTX 780 Ti kwam waarvoor ze 700 dollar vroegen. Hierdoor konden ze dus weer de hoge verkoopprijs instandhouden. nVidia was dus perfect voorbereid op AMD, ze wisten duidelijk wel wat eraan kwam.

[ Voor 6% gewijzigd door -The_Mask- op 19-04-2019 12:10 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 20-09 17:54
Dit kwam ik tegen op overclockers .
AMD's ROCm 2.3 update performance left me speechless. My Radeon VII is outperforming a RTX 2080's Tensor core performance with this update.

Acties:
  • 0 Henk 'm!
-The_Mask- schreef op vrijdag 19 april 2019 @ 12:07:
[...]

Vreemde conclusie.

Eerst kwam de GTX Titan voor 1000 dollar, daarna een GTX 780 voor 650 dollar welke dezelfde GPU gebruikte met minder cudacores ingeschakeld. Bijna een half jaar later kwam AMD pas met een reactie, al die tijd kon nVidia dus een flink bedrag vragen. Waarbij nVidia enkele dagen later al weer met een snellere GTX 780 Ti kwam waarvoor ze 700 dollar vroegen. Hierdoor konden ze dus weer de hoge verkoopprijs instandhouden. nVidia was dus perfect voorbereid op AMD, ze wisten duidelijk wel wat eraan kwam.
Als Nvidia had geweten van Hawaï, dan hadden ze de cut down GK110 die de GTX Titan werd, de GTX780Ti genoemd en alsnog verkocht voor $1000. Bij de lancering van Hawaï laat je dan de prijzen zakken en zet je de volledige GK110 chip in de markt als de GTX Titan op het hogere $1000 prijspunt. Destijds moest Nvidia de GTX Titan Black voor lanceren omdat de oorspronkelijke Titan overbodig was geworden. Dat is alleen maar verwarrend in je line-up en zou niet nodig zijn geweest als Nvidia had geweten van Hawaï en erop had kunnen plannen.

Voor Nvidia die hun branding normaal gesproken perfect op orde heeft, klopt er niks van. Nvidia gaat niet een speciale naam bedenken voor de een na beste SKU in de line-up en er vervolgens een GTX780 met een suffix boven zetten. Nee, de Ti was nooit gepland en was een noodgreep in lancering en branding. Die noodgreep zal ook pas getroffen zijn nadat Nvidia eindelijk te horen kreeg dat Hawaï bestond en hoe goed het was.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
Niemand weet de precieze prestaties tijden van te voren, ook AMD niet. Die hangen namelijk af van de klokfrequentie. Dat wil niet zeggen dat nVidia niet wist van Hawaï, lijkt mij duidelijk dat ze dat wel wisten, anders kun je niet binnen enkele dagen een antwoord klaar hebben.

Je vergeet ook even dat de R9 290 en R9 290X beide een dynamische klokfrequentie hadden, afhankelijk van de temperatuur en verbruik. Dit is echter zo uit mijn hoofd, bij de tweede driver die uitkwam voor deze videokaarten al terug gedraaid. Toen is gekozen om gewoon de videokaarten op de max frequentie te draaien, het verbruik dus veel minder te beperken en gewoon de fan van de videokaart sneller te laten draaien dan de max 40% die men in het begin aanhield.

Zelfs AMD was dus bij launch er nog niet helemaal uit hoe de kaart precies ging presteren. Ze kozen immers zelf heel snel voor meer prestaties ten faveure van meer geluid.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Ik ben het niet eens met de stelling wat betreft branding. Wat zou dan de reden zijn voor de dubbele Titans bij Pascal? Nvidia verkoopt gewoon maar al te graag tweemaal een Titan voor een absurd bedrag.

Acties:
  • +1 Henk 'm!
Dat zal idd vast niet het idee vooraf zijn geweest, maar ja zoals gezegd precieze prestaties en ook prijs wordt pas zeer laat bepaald. Neemt niet weg dat "uit de hoge hoed toveren" iets heel anders is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Beaudog schreef op vrijdag 19 april 2019 @ 12:22:
Dit kwam ik tegen op overclockers .
AMD's ROCm 2.3 update performance left me speechless. My Radeon VII is outperforming a RTX 2080's Tensor core performance with this update.
Ben wel benieuwd, heb je een link?

Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 20-09 17:54
Sp3ci3s8472 schreef op vrijdag 19 april 2019 @ 17:15:
[...]


Ben wel benieuwd, heb je een link?
Je kan het beste naar overclockers.net gaan
En dan naar de Radeon vii topic gaan vanaf pagina 104 dacht ik .
EDIT:
https://www.overclock.net...eon-vii-owner-s-club.html

[ Voor 15% gewijzigd door Beaudog op 19-04-2019 20:25 ]


Acties:
  • 0 Henk 'm!
Paprika schreef op vrijdag 19 april 2019 @ 15:08:
Ik ben het niet eens met de stelling wat betreft branding. Wat zou dan de reden zijn voor de dubbele Titans bij Pascal? Nvidia verkoopt gewoon maar al te graag tweemaal een Titan voor een absurd bedrag.
Ze introduceerde eerst een cut down Titan, daarna de Ti die min of meer hetzelfde was en daarna de volledige Titan. Ze lanceerde niet eerst een cut down als Titan, daarna de volledige chip als Ti en dan de volledige chip weer als Titan. Subtiel verschil, maar wel een verschil.

Verder zeg ik ook helemaal niet dat Nvidia twee dagen voor launch opeens ontdekte dat Hawaï bestond. Ze zullen het waarschijnlijk ergens pas tussen april en juli/augustus hebben ontdekt dat AMD met Hawaï kwam. GTX Titan was er al, het gaf Nvidia tijd om de GTX780Ti voor te bereiden, wetende dat die kaart hun productlijn in de war zou schoppen. Dat is mijn punt juist. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:07

Damic

Tijd voor Jasmijn thee

Astennu schreef op vrijdag 19 april 2019 @ 11:59:
[...]


Zeker! dit is eerlijk gezegd ook een beetje wat ik er van verwacht. 64CU versie die inderdaad een stukl sneller is als de RTX2080 misschien net wat onder de 2080 Ti. Die rek zit nog wel in GCN. Vind de CU counts voor Navi 10 en 12 wel appart vooral 12. Die van 10 vs 20 is nog wel te verklaren als de Navi 20 hardware RT heeft en dat Navi 10 dan de goedkopere traditionele chip is. Net als de 16xx serie van nVidia.
Navi is normaal de laatste versie van GCN, die met de 64cu limiet zit, ben eens benieuwd, maar dat wil niet zeggen dat navi niets nieuws brengt, naar alle waarschijnlijkheid dus 1 navi chiplet met een IO-die (waar dus de juiste geheugen controller in zit).

Dit zou een mooi nieuw begin zijn voor een nieuwe race :)

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op vrijdag 19 april 2019 @ 19:22:
[...]


Ze introduceerde eerst een cut down Titan, daarna de Ti die min of meer hetzelfde was en daarna de volledige Titan. Ze lanceerde niet eerst een cut down als Titan, daarna de volledige chip als Ti en dan de volledige chip weer als Titan. Subtiel verschil, maar wel een verschil.

Verder zeg ik ook helemaal niet dat Nvidia twee dagen voor launch opeens ontdekte dat Hawaï bestond. Ze zullen het waarschijnlijk ergens pas tussen april en juli/augustus hebben ontdekt dat AMD met Hawaï kwam. GTX Titan was er al, het gaf Nvidia tijd om de GTX780Ti voor te bereiden, wetende dat die kaart hun productlijn in de war zou schoppen. Dat is mijn punt juist. ;)
En dat is dus waarom je punt niet klopt. Heb even in de vorige delen rond gekeken en ver van te voren werd zelfs al in de topics over de GPU gesproken. Als het ons al bekend was hoe kan het nVidia dan ontgaan?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Inmiddels ook maar gekeken. :)
Tja, ik heb er een beetje gemengde gevoelens bij. Ik zie geen reden om aan AdoredTV zijn bronnen te twijfelen aangezien dezelfde bronnen met Zen 2 chiplets kwamen, maanden voordat iemand ook maar enig idee had. Een 56CU Navi 10 op 7nm zou potentieel een zeer krachtige chip kunnen zijn, nauwelijks zwakker dan RX Vega VII en dus ook rond de RTX2080. Vega 20 is een 331mm² chip met HBM2. Waarschijnlijk zal Navi 10 dan ergens tussen de 300-350mm² uitkomen. GDDR vraagt nu eenmaal om meer oppervlakte op de chip dan HBM. Helaas kan het verbruik ook hoger te komen liggen omdat HBM ook beduidend efficiënter is.

Dat zou verholpen kunnen worden met een veel efficiënter punt op de voltage/prestatiecurve. De TDP rating van 180W voor de volle chip en 150W voor de 48CU Navi 10 lijken daar ook op te wijzen. Hopelijk betekend het dat we eindelijk eens videokaarten krijgen die out of the box koel draaien. Het zal ook belangrijk zijn voor de prijsdoelen die AMD zet. Een Polaris of Vega was niet te koelen op het gestelde budget, met de prestaties van die kaarten. De extreme voltages maakte dat onmogelijk waardoor je mocht kiezen tussen een goedkope en luidruchtige kaart of een Sapphire Nitro+. Met meer realistische TDP waarden voor het prijs en prestatiepunt, zou het weer mogelijk moeten zijn om met simpele dualslot kaarten, de boel koel en stil te houden. Zal ook flink schelen in PCB kosten en dat is belangrijk als je voor de prijs/kwaliteit gaat.

AMD is er ook alles aan gelegen om de zwakte van Turing aan te grijpen met een prijzenoorlog om marktaandeel te pakken. Ze weten dat Nvidia gecommitteerd is aan RTX, waardoor ze de komende generaties verplicht zullen zijn om onnodig veel extra transistoren op hun chips te plaatsen. Elke generatie zal Nvidia zich ook genoodzaakt zien om meer transistorbudget aan RTX uit te geven, en steeds lager in hun productlijn RTX introduceren. Het is de komende generaties onnodig omdat een beetje fatsoenlijk realtime raytracing nog jaren gaat duren, als het al de toekomst blijkt te zijn. Dat geeft de RTG de opening die ze nodig hebben om het speelveld weer gelijk te trekken en vervolgens met compactere chips marktaandeel te gaan pakken.

De echte klapper daarin zou ook wel eens de "RX3070" kunnen zijn. 40CU's, 8GB GDDR6, 120TDP, $200 MSRP en RX Vega 56 niveau. Dat sloopt min of meer de hele Turing lijn van de RTX2060 naar beneden.


Mijn twijfel zit in anderen zaken. Ten eerste zou weer een GCN niks doen aan een aantal fundamentele problemen die GCN heeft. Het meest problematische hiervan is de inconsistente prestaties. Je bent eigenlijk te afhankelijk van developers die er geen puinzooi van maken, en soms is dat echt frustrerend. Inefficiënties van de architectuur zouden deze, hopelijk dan laatste ronde van GCN, gemaskeerd kunnen worden door de overstap naar 7nm en hopelijk minder extreme voltages.

Een tweede twijfelpunt is monolithisch vs. heterogeen. Het zou kunnen dat Navi wel een heterogene GPU is. Dat zou al flink moeten helpen want 7nm EUV wafers zullen niet goedkoop zijn, helemaal niet als je deze moet krijgen ten koste van bedrijven zoals Qualcomm of Apple. Ook betwijfel ik of de winst wel zo groot zal zijn als met Zen 2. Die Navi 10 zie ik niet ver onder de 300mm² uitkomen als alle I/O naar een aparte 14nm chiplet gaat. Natuurlijk is het wat en AMD heeft al laten zien dat ze dit kunnen zonder interposer, maar ik heb geen flauw benul of het zomaar gaat, of dat het kostentechnisch interessant is. GPU's blijven relatief beperkt volume vergeleken met CPU's en volume maakt chiplets nou juist zo interessant.

Het laatste twijfelpunt is meer marketing. Alsjeblieft ga niet beginnen met eerst een cut down "RTX3080" lanceren en later pas de volle chip als "special edition". Ik heb nog liever een verkapte paperlaunch waar je meteen de eerste uren een videokaart moet kopen dan die zinloze segmentatie. Komt nog eens bij dat die "special edition" mijn interesse aardig heeft gewekt.

Voor mij gaat de keuze waarschijnlijk die "Navi 10 special edition" worden. Heb nu al maanden sporadische crashes die ik niet kan reproduceren en er treden ook sporadische memory artifacts op. Combineer dat met de paar honderd maal dat ik nu al mijn undervolt profiel opnieuw heb moeten instellen bij boot, het irritante clockgedrag van Vega en dan is de conclusie dat het tijd is voor iets nieuws. :)
-The_Mask- schreef op vrijdag 19 april 2019 @ 21:27:
[...]

En dat is dus waarom je punt niet klopt. Heb even in de vorige delen rond gekeken en ver van te voren werd zelfs al in de topics over de GPU gesproken. Als het ons al bekend was hoe kan het nVidia dan ontgaan?
En je wou nu beweren dat Nvidia haar productlijn niet voor de release van de GTX Titan op 19 februari 2013 klaar had? ;)
Die productlijn zal uiterlijk eind 2012 al voltooid moeten zijn waarna Nvidia met haar traditionele, gespreide top down launch kwam in H1/2013. Wanneer werden de geruchten over Hawai een beetje concreet? Augustus 2013 zoiets? Dat is dus maanden te laat. Natuurlijk weet Nvidia eerder meer dan wat leaks aangeven, maar zelfs dan nog waren ze al snel een halfjaar te laat. De GTX 700 lijn was al uitgeplant en waarschijnlijk was een aanzienlijk deel al gelanceerd voor dat Hawaï haar specificaties en prestaties echt op Nvidia haar radar kwam. Dat is het moment dan Nvidia weer eens de Ti suffex van stal gehaald zal hebben en hun Kepler line-up verwarrend moest maken om maar een antwoord te hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Damic schreef op vrijdag 19 april 2019 @ 19:47:
[...]

Navi is normaal de laatste versie van GCN, die met de 64cu limiet zit, ben eens benieuwd, maar dat wil niet zeggen dat navi niets nieuws brengt, naar alle waarschijnlijkheid dus 1 navi chiplet met een IO-die (waar dus de juiste geheugen controller in zit).

Dit zou een mooi nieuw begin zijn voor een nieuwe race :)
Ik denk niet dat we die IO die in het hoge segment gaan zien ik denk dat dat gewoon een "grote" chip is. (op 7nm valt de grote mee met max 64 CU's tenzij het eventuele Hardware RT gedeelte van Navi 20 groot is)

Ik zeg ook niet dat Navi niets nieuws gaat brengen. In tegendeel. GCN heeft nog aardig wat bottelneks. Ik heb al langere tijd gezegd dat als ze die oplossen ik een 64CU chip met GDDR6 prima richting 2080 TI prestaties zie gaan. Bij Vega doen die laaste 8 CU's voor gaming na genoeg niets op gelijke clocks zie je gewoon geen verschil tussen een 56 en 64. Een hele enkele keer wel iets maar meestal niets. Daar hebben ze dus sowieso wat laten liggen qua gaming (met compute workload schalen ze wel).

En zo zijn er nog wel meer zaken die ze aan kunnen pakken. BV de rasterizer waar we nog weinig voordeel van gezien hebben tov Fiji die hem niet heeft. Op gelijke clocks is Fiji nog steeds wel eens sneller dan Vega dat zou eigenlijk niet moeten gezien de extra features van Vega. Dus er valt veel te optimaliseren voor gaming. Vega was gewoon duidelijk gemaakt voor Compute.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 19:05

vectormatic

Warlock of the doorlock

Mja, ik heb toch best mn twijfels bij een hoop van die tabelletjes

Een R5 3500G met 20 CUs is leuk en aardig, maar je merkt nu met Vega 11 al dat dual channel DDR4 gewoon de bottleneck is, dan doodleuk de GPU power verdubbelen win je echt zo veel niet meer mee.

En dan de rx3060 en 3070, respectievelijk circa een 580 en een V56 kwa performance, maar wel uit dezelfde chip? Als de 3070 dan een full navi-12 is, moet op een 3060 40% van de CU gedisabled worden, dat zijn dan dure plakjes silicium voor de performance. Ik kan me ook moeilijk voorstellen dat die twee kaarten dezelfde bus-width krijgen, dus dan mag ook de halve mem-controller uit...

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
vectormatic schreef op vrijdag 19 april 2019 @ 23:15:
Mja, ik heb toch best mn twijfels bij een hoop van die tabelletjes

Een R5 3500G met 20 CUs is leuk en aardig, maar je merkt nu met Vega 11 al dat dual channel DDR4 gewoon de bottleneck is, dan doodleuk de GPU power verdubbelen win je echt zo veel niet meer mee.

En dan de rx3060 en 3070, respectievelijk circa een 580 en een V56 kwa performance, maar wel uit dezelfde chip? Als de 3070 dan een full navi-12 is, moet op een 3060 40% van de CU gedisabled worden, dat zijn dan dure plakjes silicium voor de performance. Ik kan me ook moeilijk voorstellen dat die twee kaarten dezelfde bus-width krijgen, dus dan mag ook de halve mem-controller uit...
Eens. :)
Hoe ik het alleen begrijp is dat AdoredTV denkt dat er APU's gaan komen die bestaan uit een Zen 2 chiplet, Navi 12 en een I/O chip. Tja, ik ben daar echt niet zeker van. Navi 12 zou dan 40 CU's zijn, waarschijnlijk dus 200mm2+ als deze monolithische is. Dat is veel te groot voor een APU die zelf met een zware cut down nog tegen een gigantische bottleneck aan zal lopen. Verder is een GDDR geheugencontroller denk ik net wat anders dan een DDR geheugencontroller. :P

Navi 12 kan denk ik alleen zo breed ingezet worden als het een chiplet is met meerdere CU chiplets. Minstens twee lijkt me. Waarom Navi 10 er dan nog is als Navi 12 wel chiplets based is, waar ik niet vanuit ga, is helemaal een raadsel.

Aan de andere kant lijken zijn bronnen voornamelijk aan de CPU kant van AMD te zitten, dus misschien zit die er wel naast als het om GPU codenamen en details gaat. Er zou ook misschien een Navi 11 kunnen bestaan die het mysterie oplost.

Dan de RX580 en RX Vega 56. Tja, die kan ik ook moeilijk verklaren aangezien RX Vega 56 al snel 50% sneller is en de cut tussen de RX3070 en RX3080 hier niet eens 25% is. Je zal wel een gigantische geheugen bottleneck en dan ook nog eens een zware beperking op clockspeeds moeten hebben om 50% te verliezen met 20% minder CU's.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik kan me goed voorstellen dat ze de kleinste Navi chiplet pakken om APU's mee te maken. Deze APU bestaat effectief uit drie chiplets, Zen 2 CPU, I/O chiplet en een Navi GPU.

Stel ze maken hier een monolithische chip van en willen hier t.z.t. een DDR5 geheugencontroller inbouwen? Juist ja, dat kost klauwen vol met geld zonder dat de CPU prestaties daarbij gebaad zijn. Dit is dus nagenoeg de moeite niet waard.

Stel ze maken deze APU met drie chiplets. De DDR4 geheugencontroller is op het moment een achilleshiel, maar dit probleem kan heel snel opgelost worden door enkel en alleen de I/O chiplet te upgraden met een DDR5 geheugen controller. Plots heb je twee keer zoveel geheugenbandbreedte ter beschikking t.o.v. DDR4 (~100GB/s t.o.v. ~50GB/s). Resultaat is een APU die aanzienlijk beter presteert en voor veel meer verkocht kan worden, zonder dat het kosten met zich meebrengt die moeilijk of niet terug te verdienen zijn. Immers zal er uiteindelijk toch een I/O chiplet moeten komen die DDR5 aanbiedt. Deze I/O chiplet zal vervolgens ook weer meegenomen worden voor Zen 3 CPU's en APU's etc.

De Navi chiplet zal met DDR4 wellicht geheugenbandbreedte te kort komen, maar de Navi chiplet precies op de hoeveelheid geheugenbandbreedte dimensioneren leidt tot aanzienlijk hogere kosten aangezien men met de komst van DDR5 je weer een nieuwe chiplet kan gaan bouwen. Een paar CU's uitschakelen en de kloksnelheden optimaliseren voor verbruik kunnen ervoor zorgen dat de beschikbare geheugenbandbreedte met DDR4 beter past bij de prestaties. Verder kan deze Navi chiplet ook op discrete kaarten gebruikt worden, maar dan met alle CU's aan en veel hogere, maar minder efficiënte, klokfrequentie en voltage.

Vervolgens kan dezelfde Navi chiplet weer gebruikt worden voor de volgende generatie APU's met DDR5, maar deze keer meer CU's ingeschakeld en een hogere klokfrequentie.

[ Voor 26% gewijzigd door madmaxnl op 23-04-2019 03:02 ]


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 19:05

vectormatic

Warlock of the doorlock

@madmaxnl

Behalve dan dat je voor DDR5 een compleet nieuw socket nodig hebt, en AM5 (of whatever het wordt) pas rond 2021 een ding wordt. Tot die tijd is AM4 met dual channel ddr4 gewoon de bottleneck voor APUs.

Wat dat betreft zijn high performance APUs ook gewoon strijdig met de andere belangen van een general purpose socket. AMD zou in theorie ook een quad channel DDR4 socket kunnen maken voor high performance APUs, dan kom je in de buurt van een RX560. Probleem is alleen dat die extra kosten voor 95% van de klanten geen toegevoegde waarde hebben, en je ook voor de budget gamers je je kan afvragen of een dure quad channel setup het waard is TOV een losse GPU. En dan hebben we het nog niet over de ontwikkel/support kosten van een extra platform voor AMD.

Voor entry level stuff, dus kantoor en alles tot wat een 2400g aankan, en higher end gaming (alles waarvoor je een RX560 of meer wilt hebben) is AM4 helemaal prima

En wat chiplets op de GPU betreft, ik ben benieuwd, dat zal op zn minst extra complicaties met zich meebrengen kwa packaging (zie de hoofdpijntjes bij vega+hbm), en ik weet ook niet of meerdere GPU chiplets te combineren zijn zonder dat je crossfire achtige truuks en bijbehorende problemen over jezelf afroept, maar we gaan het zien.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
vectormatic schreef op dinsdag 23 april 2019 @ 09:16:
@madmaxnl

Behalve dan dat je voor DDR5 een compleet nieuw socket nodig hebt, en AM5 (of whatever het wordt) pas rond 2021 een ding wordt. Tot die tijd is AM4 met dual channel ddr4 gewoon de bottleneck voor APUs.

Wat dat betreft zijn high performance APUs ook gewoon strijdig met de andere belangen van een general purpose socket. AMD zou in theorie ook een quad channel DDR4 socket kunnen maken voor high performance APUs, dan kom je in de buurt van een RX560. Probleem is alleen dat die extra kosten voor 95% van de klanten geen toegevoegde waarde hebben, en je ook voor de budget gamers je je kan afvragen of een dure quad channel setup het waard is TOV een losse GPU. En dan hebben we het nog niet over de ontwikkel/support kosten van een extra platform voor AMD.

Voor entry level stuff, dus kantoor en alles tot wat een 2400g aankan, en higher end gaming (alles waarvoor je een RX560 of meer wilt hebben) is AM4 helemaal prima
Eens. :)
Ik denk dat de enige oplossing de introductie van SRAM zou zijn om de bottleneck te verlichten.
En wat chiplets op de GPU betreft, ik ben benieuwd, dat zal op zn minst extra complicaties met zich meebrengen kwa packaging (zie de hoofdpijntjes bij vega+hbm), en ik weet ook niet of meerdere GPU chiplets te combineren zijn zonder dat je crossfire achtige truuks en bijbehorende problemen over jezelf afroept, maar we gaan het zien.
Tja, APU's gebruiken wel een IHS dus dat zou al een minder groot probleem moeten zijn. Direct contact is problematischer. Verder gaan AMD en Intel de komende jaren helemaal over op heterogeen, dus ze zullen wel moeten.

Qua CF ontwijking is denk ik de enige mogelijkheid het loshalen van de scheduler in weer een aparte chiplet of als onderdeel van de I/O chiplet maken. Dan zou je in principe meerdere pipeline chiplets kunnen maken zonder dat je CF op een substraat introduceert. Voor Vega was dat eigenlijk ook best mogelijk omdat GCN destijds het beeldscherm gewoon in vier stukken hakte en elke pipeline een stuk deed. Vanaf Vega is er meer deling van rekeneenheden tussen de pipelines wat het lastiger zal maken als je deze fysiek van elkaar scheid. Ik weet verder ook niet wat voor latency penalty's je kan verwachten als je dit doet, of dat je tegen forse problemen aanloopt bij je framebuffer of als een chiplet informatie nodig heeft uit een andere chiplet haar cache.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 19:05

vectormatic

Warlock of the doorlock

DaniëlWW2 schreef op dinsdag 23 april 2019 @ 10:39:

Ik denk dat de enige oplossing de introductie van SRAM zou zijn om de bottleneck te verlichten.
(E)SRAM op de die/package zou inderdaad nog een optie zijn, kijk naar de xbox-one die ondanks het gebruik van DDR3 nog prima meekomt dankzij 32mb ESRAM. Nu heeft de X1 wel een behoorlijk brede geheugenbus, maar het DDR3 haalt ondanks maar 68 gb/s, minder dan 128 bit gddr5.

Vraag me wel af hoe dat moet gaan werken met software dan, ik kan me voorstellen dat de X1 ook in de SDK al behoorlijk wat trickery heeft om dat ESRAM correct en maximaal te benutten voor games, om dat geheel transparant op driverniveau te doen kan nog wel eens spannend worden.

Interessante info trouwens WBT GCN en pipelines, als je CF-achtige oplossingen wil voorkomen zal je dan inderdaad de losse componenten uit je in verschillende chiplets met schaalbare interfacing moeten stoppen, wel een grappig idee. (vraag me af of het omgekeerde niet mogelijk is, lithografie met modulaire masks, zodat je zonder dure specifieke maskers gewoon een digitaal design laad en het ding nu een die maakt met 24 CUs ipv 12 of zo)

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 21:03
Jullie zien allemaal de meest logische oplossing over het hoofd;

GDDR geheugenmodules in het PCIe slot.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
vectormatic schreef op dinsdag 23 april 2019 @ 12:11:
(E)SRAM op de die/package zou inderdaad nog een optie zijn, kijk naar de xbox-one die ondanks het gebruik van DDR3 nog prima meekomt dankzij 32mb ESRAM. Nu heeft de X1 wel een behoorlijk brede geheugenbus, maar het DDR3 haalt ondanks maar 68 gb/s, minder dan 128 bit gddr5.

Vraag me wel af hoe dat moet gaan werken met software dan, ik kan me voorstellen dat de X1 ook in de SDK al behoorlijk wat trickery heeft om dat ESRAM correct en maximaal te benutten voor games, om dat geheel transparant op driverniveau te doen kan nog wel eens spannend worden.
Of gebruik het als grote cache zonder specifieke driver optimalisaties. Ik denk dat het onder DX11 niet zal lukken om er iets anders van te maken. Onder DX12 waarschijnlijk wel en dan zou het onderdeel moeten zijn van AMD specifieke instructies als onderdeel van de command list die je toch moet gebruiken.
Interessante info trouwens WBT GCN en pipelines, als je CF-achtige oplossingen wil voorkomen zal je dan inderdaad de losse componenten uit je in verschillende chiplets met schaalbare interfacing moeten stoppen, wel een grappig idee. (vraag me af of het omgekeerde niet mogelijk is, lithografie met modulaire masks, zodat je zonder dure specifieke maskers gewoon een digitaal design laad en het ding nu een die maakt met 24 CUs ipv 12 of zo)
Het is hoe ik het me voorstel. :)
GCN is hardware scheduled en die scheduler bepaalt uiteindelijk welke taak, welke pipeline doet. Omdat je onder een scheduler zit zou er geen CF, AFR dus plaats moeten vinden en kan elke frame opgebouwd worden door pipeline chiplets die uiteindelijk steeds een frame afleveren aan de framebuffer. Ik vraag me alleen af of dat op korte termijn al gaat gebeuren en wie eerst gaat zijn. Het zou ook zomaar Intel of Nvidia kunnen zijn die als eerste met een chiplet based GPU komt.

[ Voor 6% gewijzigd door DaniëlWW2 op 23-04-2019 14:54 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 19:05

vectormatic

Warlock of the doorlock

NitroX infinity schreef op dinsdag 23 april 2019 @ 12:45:
Jullie zien allemaal de meest logische oplossing over het hoofd;

GDDR geheugenmodules in het PCIe slot.
Mwa, als ik het goed snap is PCIe-3.0 16x goed voor 16 GB/s, een 2400G heeft dus 8GB/s ter beschikking via het 16x slot (want maar 8 lanes), dat is als ik het goed zeg een zesde van ddr4-3200 dual channel

Met PCI-e 4.0 op 16x zou je op 32 GB/s uitkomen, wat samen met de pakweg 50 GB/s van een nette DDR4-set best aardig wordt, maar ik vermoed dat je met RAM-over-PCIe ook nog best een berg latency te pakken hebt.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Om maar niet over de prijs te spreken. Een dergelijke GDDR kaart moet ook een memory controller mee krijgen en dat zal niet goedkoop worden.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
vectormatic schreef op dinsdag 23 april 2019 @ 12:11:
[...]
Interessante info trouwens WBT GCN en pipelines, als je CF-achtige oplossingen wil voorkomen zal je dan inderdaad de losse componenten uit je in verschillende chiplets met schaalbare interfacing moeten stoppen, wel een grappig idee. (vraag me af of het omgekeerde niet mogelijk is, lithografie met modulaire masks, zodat je zonder dure specifieke maskers gewoon een digitaal design laad en het ding nu een die maakt met 24 CUs ipv 12 of zo)
Ook vanwege het eerder genoemde idee om chiplets te gebruiken voor de geheugen controller: Zijn masks nu echt zo duur? Ja, ze worden steeds prijziger natuurlijk. Maar laten we wel wezen, bedrijven als NXP, TI, STM, etc hebben op zijn minst honderden verschillende chips in productie. En natuurlijk, de meeste zijn daarvan op veel oudere nodes, en ik denk dat geen van die bedrijven 7nm nodes gebruikt nog. Tegelijk vraag ik me dan wel af of een paar verschillende masker sets nou echt een probleem is voor een bedrijf als AMD. Bij https://semiengineering.c...k-tools-for-mature-nodes/ noemen ze $5M-$8M voor de masker kosten van 7nm. Een hoop geld, maar op de totale design kosten van een nieuwe generatie CPUs/GPUs is dat denk ik niet echt problematisch.

Acties:
  • 0 Henk 'm!

Verwijderd

AMD stuurt affiliate links mee in de upgrade advisor, kwam ik net achter. Ga naar radeon settings > upgrade advisor > wordt bij mij een Radeon VII aangeraden (duh), volg het pijltje naar boven, deze spawnt een browser tab:

code:
1
https://www.amazon.com/s?k=%22Radeon+VII%22&rh=n%3A284822&tag=row-amd-radeon-setting-20&ref=nb_sb_noss


Strippen we het gedeelte eruit: &rh=n%3A284822

code:
1
https://www.amazon.com/s?k=%22Radeon+VII%22&tag=row-amd-radeon-setting-20&ref=nb_sb_noss


Goh. Blijkbaar iemand bij driver department die commisie zien wil op ieder gekocht/verkocht product. :')

Al gepost @ reddit: https://www.reddit.com/r/..._links_in_radeon_drivers/

Niet dat het een ramp is, maar vermeld wel even (net zoals tomshardware.com ) dat er geld verdiend kan worden aan de hand van zulke links.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 27 april 2019 @ 06:07:
Strippen we het gedeelte eruit: &rh=n%3A284822
Waarom je dat er uit stript is me een raadsel. Volledig irrelevant. Het is de tag parameter waar het om gaat.

Acties:
  • 0 Henk 'm!

Verwijderd

Waarschijnlijk krijgt Navi GDDR6 geheugen en dat vindt ik jammer. AMD zal HBM geheugen moeten gebruiken, dat is sneller en zuiniger.

Ik heb nu een Vega 56 en die krijgt meer performance met het geheugen overklokken dan de core te verhogen. Dat lijkt mij op een geheugen snelheid bottleneck en dat gaat meer worden met GDDR6. Navi is ook GCN is net als Vega dus verwacht ook hier weer een geheugen bottleneck.

Desondanks ben ik erg benieuwd naar Navi ook al zal ik die niet aanschaffen, een videokaart zal minimaal 50% sneller moeten zijn voor hetzelfde bedrag wil ik upgraden.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 18:29
Verwijderd schreef op zaterdag 27 april 2019 @ 06:07:
AMD stuurt affiliate links mee in de upgrade advisor, kwam ik net achter. Ga naar radeon settings > upgrade advisor > wordt bij mij een Radeon VII aangeraden (duh), volg het pijltje naar boven, deze spawnt een browser tab:

code:
1
https://www.amazon.com/s?k=%22Radeon+VII%22&rh=n%3A284822&tag=row-amd-radeon-setting-20&ref=nb_sb_noss


Strippen we het gedeelte eruit: &rh=n%3A284822

code:
1
https://www.amazon.com/s?k=%22Radeon+VII%22&tag=row-amd-radeon-setting-20&ref=nb_sb_noss


Goh. Blijkbaar iemand bij driver department die commisie zien wil op ieder gekocht/verkocht product. :')

Al gepost @ reddit: https://www.reddit.com/r/..._links_in_radeon_drivers/

Niet dat het een ramp is, maar vermeld wel even (net zoals tomshardware.com ) dat er geld verdiend kan worden aan de hand van zulke links.
AMD heeft al eerder wat gehad met Affiliate links. Zo hadden ze ook op de Radeon site een affiliate link van PCper staan op een gegeven moment :D

https://twitter.com/RyanSmithAT/status/938503539533406208

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zaterdag 27 april 2019 @ 11:06:
[...]

Waarom je dat er uit stript is me een raadsel. Volledig irrelevant. Het is de tag parameter waar het om gaat.
Het is een affiliate code, waarom denk je dat de link ook zonder die code werkt? :P

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Verwijderd schreef op zaterdag 27 april 2019 @ 20:23:
[...]
Het is een affiliate code, waarom denk je dat de link ook zonder die code werkt? :P
Wat @Werelds probeert uit te leggen is dat bij Amazon de tag parameter wordt gebruikt voor affiliate doeleinden en die heb je dus niet weggehaald.

De 'rh' parameter wordt gebruikt voor filtering:
Afbeeldingslocatie: https://i.imgur.com/qW2HEkD.png

[ Voor 13% gewijzigd door Paprika op 27-04-2019 22:18 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Verwijderd schreef op zaterdag 27 april 2019 @ 17:37:
Waarschijnlijk krijgt Navi GDDR6 geheugen en dat vindt ik jammer. AMD zal HBM geheugen moeten gebruiken, dat is sneller en zuiniger.

Ik heb nu een Vega 56 en die krijgt meer performance met het geheugen overklokken dan de core te verhogen. Dat lijkt mij op een geheugen snelheid bottleneck en dat gaat meer worden met GDDR6. Navi is ook GCN is net als Vega dus verwacht ook hier weer een geheugen bottleneck.

Desondanks ben ik erg benieuwd naar Navi ook al zal ik die niet aanschaffen, een videokaart zal minimaal 50% sneller moeten zijn voor hetzelfde bedrag wil ik upgraden.
Waar ik dan benieuwd naar ben, hoeveel energie bespaard HBM vs GDDR? Want als HBM 2x zuiniger is, en dat dat onder de streep 10W scheelt, dan is dat niet bijzonder significant.

En HBM is wel een stuk prijziger.

Acties:
  • 0 Henk 'm!
Hallo RTG, is dat een Navi PCB? Daar lijkt het wel op. :P

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2019/04/AMD-Navi-GPU-Radeon-RX-Graphics-Card-PCB_1-e1556359117299-740x555.jpg

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2019/04/AMD-Navi-GPU-Radeon-RX-Graphics-Card-PCB_2-e1556359147530-740x555.jpg

En zinloze speculatie. :P
Het is in ieder geval GDDR6 en 256bit bus. De 2x8 pin zegt voorlopig niks, maar het gaat waarschijnlijk niet om een low end SKU. VRM's lijken een 8 phase te zijn, maar niet rechtstreeks van Polaris of Vega gekopieerd. Volgens Buildzoid zijn het traces voor een smart powertages package en de laatste keer dat AMD deze pakte waren het 70A stages. Oftewel bizarre AMD overkill VRM's voor iedereen met hun waterblokken en stroom is er om verbruikt te worden. :+

De GPU zelf lijkt een vrij kleine chip te zijn wat ook niet buiten verwachtingen is. Als laatste is er die grote open plek op het PCB met een paar gaten voor schroeven. Tja, daar zitten die geweldige koeloplossingen waar je totaal niet doof van word...

[ Voor 16% gewijzigd door DaniëlWW2 op 28-04-2019 09:21 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op zaterdag 27 april 2019 @ 22:31:
Hallo RTG, is dat een Navi PCB? Daar lijkt het wel op. :P

[Afbeelding]

[Afbeelding]

En zinloze speculatie. :P
Het is in ieder geval GDDR6 en 256bit but. De 2x8 pin zegt voorlopig niks, maar het gaat waarschijnlijk niet om een low end SKU. VRM's lijken een 8 phase te zijn, maar niet rechtstreeks van Polaris of Vega gekopieerd. Volgens Buildzoid zijn het traces voor een smart powertages package en de laatste keer dat AMD deze pakte waren het 70A stages. Oftewel bizarre AMD overkill VRM's voor iedereen met hun waterblokken en stroom is er om verbruikt te worden. :+

De GPU zelf lijkt een vrij kleine chip te zijn wat ook niet buiten verwachtingen is. Als laatste is er die grote open plek op het PCB met een paar gaten voor schroeven. Tja, daar zitten die geweldige koeloplossingen waar je totaal niet doof van word...
[YouTube: Baseless speculation over a GDDR6 AMD GPU PCB]
Volgens HWI kan het ook een ontwikkelaarsbord zijn.
Verdere analyse toont een forse vrm met acht fasen, en twee 8-pins pcie-stroomconnectors. Dit komt overeen met een maximaal tdp van zo'n 250 tot 300 Watt, niet echt aantallen die in het middensegment (waar Navi door velen wordt verwacht) thuishoren. Echter zou het hier ook om een experimenteel ontwikkelaarsbord kunnen gaan, wat nog niet representatief is voor het eindproduct.
https://nl.hardware.info/...chijnt-online-is-dit-navi

Er zit er ook een aardig te trollen in de reacties daar helaas. Detailer. (Viel me gewoon erg op)

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 27 april 2019 @ 22:48:
[...]

Volgens HWI kan het ook een ontwikkelaarsbord zijn.
Ongetwijfeld is het een ontwikkelings PCB. Betekent niet dat het niet in de buurt zal komen van het uiteindelijke product. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 27 april 2019 @ 20:23:
[...]


Het is een affiliate code, waarom denk je dat de link ook zonder die code werkt? :P
Wat @Paprika zegt dus ;)

Acties:
  • 0 Henk 'm!

  • Richo999
  • Registratie: November 2016
  • Laatst online: 19-09 11:55
DaniëlWW2 schreef op zaterdag 27 april 2019 @ 22:31:
Hallo RTG, is dat een Navi PCB? Daar lijkt het wel op. :P

En zinloze speculatie. :P
Het is in ieder geval GDDR6 en 256bit but. De 2x8 pin zegt voorlopig niks, maar het gaat waarschijnlijk niet om een low end SKU. VRM's lijken een 8 phase te zijn, maar niet rechtstreeks van Polaris of Vega gekopieerd. Volgens Buildzoid zijn het traces voor een smart powertages package en de laatste keer dat AMD deze pakte waren het 70A stages. Oftewel bizarre AMD overkill VRM's voor iedereen met hun waterblokken en stroom is er om verbruikt te worden. :+
Tenminste positief dat AMD daar aan denkt. Overkill gaan met vrm en stroom is nooit weg (max verbruik van mijn vega... Heerlijk) een, Nvidia kaarten zijn lang niet zo leuk om mee te spelen als AMD.

AMD Ryzen 5800X,BeQuiet Darkrock Pro4, Asus B550-E ROG Strix, AMD 6800XT, 32Gb G.Skill TridentZ 3600MHz, Seasonic Focus Plus Gold 850W, Kingston KC3000 1 TB, Samsung Evo 960 500Gb, Samsung Evo 850 1Tb / Samsung 860 Evo 1 Tb, be quiet! Light Base 600 LX


Acties:
  • 0 Henk 'm!
Richo999 schreef op zaterdag 27 april 2019 @ 23:38:
[...]


Tenminste positief dat AMD daar aan denkt. Overkill gaan met vrm en stroom is nooit weg (max verbruik van mijn vega... Heerlijk) een, Nvidia kaarten zijn lang niet zo leuk om mee te spelen als AMD.
Het is alleen wel te hopen dat we eens bij launch meteen al kaarten krijgen met AIB koeloplossingen. AIB's bezuinigen meestal op de PCB's als ze hun eigen modellen lanceren, want stupide overkill. Daarom zou het wel eens leuk zijn als ze wel met koeloplossingen kwamen, maar niet de tijd hebben om een eigen PCB te ontwikkelen. Kan je bij launch eentje halen en lekker spelen, zonder dat je zorgen hoeft te maken over VRM's etc. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik vind het wel een beetje heel optimistisch hoor, er is een AMD PCB wat een enorme hoeveelheid stroom kan leveren aan een nog aan te kondigen GPU: Conclusie: Ze houden dus heel goed rekening met mensen die hem willen gaan overklokken. Conclusie 2 zou zijn dat dat ding dus gewoon een enorme hoeveelheid stroom verbruikt, toch wat minder positief.

Of dus conclusie 3: Het is ontwikkelaars PCB, waarbij je zeker niet beperkt wil worden door je VRMs en je alle mogelijke kloksnelheden wil kunnen testen, en bij definitieve versies worden er toch een paar fases uitgegooid.

Acties:
  • 0 Henk 'm!
Sissors schreef op zondag 28 april 2019 @ 09:55:
Ik vind het wel een beetje heel optimistisch hoor, er is een AMD PCB wat een enorme hoeveelheid stroom kan leveren aan een nog aan te kondigen GPU: Conclusie: Ze houden dus heel goed rekening met mensen die hem willen gaan overklokken. Conclusie 2 zou zijn dat dat ding dus gewoon een enorme hoeveelheid stroom verbruikt, toch wat minder positief.

Of dus conclusie 3: Het is ontwikkelaars PCB, waarbij je zeker niet beperkt wil worden door je VRMs en je alle mogelijke kloksnelheden wil kunnen testen, en bij definitieve versies worden er toch een paar fases uitgegooid.
Ga eens kijken naar de PCB's van Fiji, Polaris of Vega. :P
Het is normaal dat AMD met bezopen overkill PCB's komt aanzetten die later vaak worden gedowngrade door AIB's. Bij Nvidia was het tot Turing eigenlijk precies het tegenovergestelde. Daar gingen de AIB's aan de slag met de boel verbeteren. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Richo999 schreef op zaterdag 27 april 2019 @ 23:38:
[...]


Tenminste positief dat AMD daar aan denkt. Overkill gaan met vrm en stroom is nooit weg (max verbruik van mijn vega... Heerlijk) een, Nvidia kaarten zijn lang niet zo leuk om mee te spelen als AMD.
Volgens mij kun je met kaarten van beide merken hetzelfde doen, alleen kun je er bij AMD exemplaren meer uit halen, omdat ze standaard een belabberde set aan instellingen krijgen vanuit de bios...

Acties:
  • 0 Henk 'm!
Paprika schreef op zondag 28 april 2019 @ 10:43:
[...]

Volgens mij kun je met kaarten van beide merken hetzelfde doen, alleen kun je er bij AMD exemplaren meer uit halen, omdat ze standaard een belabberde set aan instellingen krijgen vanuit de bios...
Met AMD kan je wel wat meer bereiken. Je krijgt gewoon een OC tool in je driver met P states, ruimere voltagemogelijkheden, fan curve, memory OC inclusief een paar preset timings, OC profielen die je per game kan instellen, auto OC en auto UV. Ja, AMD heeft de boodschap ook begrepen en heeft die optie is er nu ook. :+

Zet dat af tegen Nvidia haar voltagebeperkingen, vermogenslimiet, temperatuurbekerkringen etc. Het is echt wel een verschil. Natuurlijk heb je bij AMD wat meer vrijheid in de standaardopties nodig, maar dan kan je ook meer uit je videokaart halen. Vervolgens krijg je er nog wat bonus bij. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27

Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Tja, Q3 begint over 31 dagen, 3 dagen na Lisa's toespraak, dus we wisten allemaal dat het niet éérder zou zijn :+

Oeps, 61 dagen...

* zion wordt steeds gelukkiger dat ie het wachten zat was en zijn computer budget voor nieuwe monster PC bij zijn bakje "nieuwe auto" heeft gegooid, en daar nu erg gelukkig in rondrijdt (als ik thuis ben tenminste ;))

[ Voor 27% gewijzigd door zion op 01-05-2019 01:25 ]

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • JappieR
  • Registratie: Februari 2005
  • Laatst online: 20:44
Dat kan dan nog steeds Juli zijn, 7-7-2019, zoals de geruchten hun ronde doen. :)

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
JappieR schreef op woensdag 1 mei 2019 @ 05:09:
[...]


Dat kan dan nog steeds Juli zijn, 7-7-2019, zoals de geruchten hun ronde doen. :)
Ah ja, tuurlijk! OK, minder dramatisch dan ik dacht ;)

Acties:
  • 0 Henk 'm!
Als een techbedrijf Q3 zegt, dan bedoelen ze meestal september...
Het zou heel goed kunnen aangezien Navi waarschijnlijk geproduceerd word op TSMC haar 7FF+. Die node recentelijk pas in massaproductie gegaan en waarschijnlijk hebben bedrijven zoals Apple en Qualcomm eerste afnamerecht. Die geruchten gingen ook rond, en Q3 zou wijzen dat AMD moet wachten totdat er capaciteit is voor hun producten. Het zou heel goed kunnen dat de eerste Navi's nu al geproduceerd worden, maar dan zien we ze waarschijnlijk niet voor augustus in de winkel. Van wafer naar videokaart duurt gewoon enkele maanden.

Ja, ik ben er ook niet erg blij mee. Het is alleen niet anders.

[ Voor 7% gewijzigd door DaniëlWW2 op 01-05-2019 11:29 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Het valt mij positief mee aangezien er ook geruchten waren die spraken over vertragingen naar nog later in het jaar. Ik denk dat ik een tweedehands Vega 56 nu maar laat liggen. Ook een gok want die Navi's kunnen net zo goed zo gepositioneerd worden dat ze behoorlijk duurder zijn dan (eventueel tweedehands) Vega. Hopelijk lukt het in ieder geval een kaart zonder coil whine te scoren. :X

Acties:
  • 0 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:01
Ik vraag me af wat ik aan moet met dit nieuws van de frontpage: AMD: de eerste 7nm-Navi-gpu wordt goedkoper dan de Radeon VII. Dat is een breed begrip. Kijk ik naar de Pricewatch, dan zie ik dat alles onder de €700,- onder die noemer kan vallen, van gratis weggeven tot een high-end kaart die alleen is weggelegd voor mensen met een grote beurs. Ik volg al het nieuws, met de wens om mijn vakantiegeld te investeren in een upgrade van mijn RX460, maar tenzij de nieuwe kaart véél minder kost dan een Radeon VII, wordt het een kaart die bijna net zo duur is, als de rest van het systeem dat er omheen zit! En ik heb geen zin om mijn volledige vakantiegeld uit te geven aan een videokaart. Ik wil ook wat overhouden voor andere zaken.

"De eerste Navi kost minder dan een Radeon VII" is al net zulk rekbaar nieuws als "de eerste Navi verschijnt in Q3": dat is begin zomer (zoals het gerucht van 7 juli als verschijningsdatum) tot in de herfst (30 sept. is ook nog Q3).

[ Voor 18% gewijzigd door FairPCsPlease op 01-05-2019 16:13 ]


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:34
FairPCsPlease schreef op woensdag 1 mei 2019 @ 16:08:En ik heb geen zin om mijn volledige vakantiegeld uit te geven aan een videokaart. Ik wil ook wat overhouden voor andere zaken.
Tja vakantiegeld is ook behoorlijk rekbaar :9
De 1 krijg 600 euro en de ander 2600 euro.

Maar eerlijk is eerlijk er is geen mooiere tijd om een gpu te kopen.
Vroeger was een gpu altijd behappen en compromis maken nu heb je met een 1660 of 1660ti al een kaart waarmee je iedere game 1080p ultra kan spelen mocht navi niks worden.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
@FairPCsPlease, als ze ook maar iets meer detail toevoegen gaan mensen performance conclusies trekken op basis van de prijs :+.

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
computerjunky schreef op woensdag 1 mei 2019 @ 17:21:
[...]

Maar eerlijk is eerlijk er is geen mooiere tijd om een gpu te kopen.
Vroeger was een gpu altijd behappen en compromis maken nu heb je met een 1660 of 1660ti al een kaart waarmee je iedere game 1080p ultra kan spelen mocht navi niks worden.
1080p is inmiddels ook behoorlijk 'vroeger.'

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:34
Saturnus schreef op woensdag 1 mei 2019 @ 20:59:
[...]

1080p is inmiddels ook behoorlijk 'vroeger.'
Welnee 90% van de stream gebruikers zit nog op 1080p of lager.
1440p is gewoon nog best veeleisend en de monitoren duur ten opzichte van 1080p.
En 4k is gewoon onbetaalbaar.
Het is dus nog altijd de standaard en dat lijkt nog wel even zo te blijven. Wel zie je dat 144 hz meer mainstream aan het worden is.

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
computerjunky schreef op woensdag 1 mei 2019 @ 21:12:
[...]


Welnee 90% van de stream gebruikers zit nog op 1080p of lager.
1440p is gewoon nog best veeleisend en de monitoren duur ten opzichte van 1080p.
En 4k is gewoon onbetaalbaar.
Het is dus nog altijd de standaard en dat lijkt nog wel even zo te blijven. Wel zie je dat 144 hz meer mainstream aan het worden is.
90%...dat valt tegen. :')
Maar onbetaalbaar is UHD zeker niet. pricewatch: LG 27UD59-B Zwart.

Wat dat betreft...ik had niet verwacht dat zoveel nog op een lage resolutie zitten (al heb ik ook 'maar' 3x1920x1200 :+), maar ik blijf wel bij het statement dat het ouderwets is. Het punt van 144Hz klinkt dan wel weer logisch.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:34
Saturnus schreef op woensdag 1 mei 2019 @ 21:20:
[...]

90%...dat valt tegen. :')
Maar onbetaalbaar is UHD zeker niet. pricewatch: LG 27UD59-B Zwart.

Wat dat betreft...ik had niet verwacht dat zoveel nog op een lage resolutie zitten (al heb ik ook 'maar' 3x1920x1200 :+), maar ik blijf wel bij het statement dat het ouderwets is. Het punt van 144Hz klinkt dan wel weer logisch.
Tja als je een 2080+ kan betalen valt 275 wel mee idd en de monitoren zijn redelijk betaalbaar idd.
Ik ga met mijn volgende build over van 1x 75 hz 1080p tn naar een dual monitor ips 4k en 144 hz tn/va 1080p.
Maar voor velen is dat onbetaalbaar of ze willen het niet betalen omdat ze het het niet waard vinden.
Tweakers zijn toch echt niet het gemiddelde van alle gamers maar eerder die overige 10%

Acties:
  • +1 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:01
Saturnus schreef op woensdag 1 mei 2019 @ 20:59:
[...]

1080p is inmiddels ook behoorlijk 'vroeger.'
1080p is 'nu' voor mij sinds een paar maanden pas (bij MyCom gekocht, vlak voor ze failliet gingen), daarvoor had ik een 900p monitor. Als 1080p vroeger was, laat mij dan maar lekker in vroeger leven, ik heb geen behoefte aan meer pixels. Wat voor leuks ik aan afbeeldingen en filmpjes vind op internet om te kijken, ziet er vaak al heel low-res uit op een 24" 1080p monitor, dat wordt met een forsere monitor alleen maar erger.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:31
Saturnus schreef op woensdag 1 mei 2019 @ 21:20:
[...]

90%...dat valt tegen. :')
Maar onbetaalbaar is UHD zeker niet. pricewatch: LG 27UD59-B Zwart.

Wat dat betreft...ik had niet verwacht dat zoveel nog op een lage resolutie zitten (al heb ik ook 'maar' 3x1920x1200 :+), maar ik blijf wel bij het statement dat het ouderwets is. Het punt van 144Hz klinkt dan wel weer logisch.
Die steam survey zegt echt heel weinig

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
FairPCsPlease schreef op woensdag 1 mei 2019 @ 21:42:
[...]


1080p is 'nu' voor mij sinds een paar maanden pas (bij MyCom gekocht, vlak voor ze failliet gingen), daarvoor had ik een 900p monitor. Als 1080p vroeger was, laat mij dan maar lekker in vroeger leven, ik heb geen behoefte aan meer pixels. Wat voor leuks ik aan afbeeldingen en filmpjes vind op internet om te kijken, ziet er vaak al heel low-res uit op een 24" 1080p monitor, dat wordt met een forsere monitor alleen maar erger.
Tweeedehands Vega is dan een idee lijkt mij.
418O2 schreef op woensdag 1 mei 2019 @ 21:56:
[...]

Die steam survey zegt echt heel weinig
Ok dan zou ik dat even melden aan @computerjunky plus waarom dat zo is. :P

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 20:31
Saturnus schreef op woensdag 1 mei 2019 @ 21:57:
[...]

Tweeedehands Vega is dan een idee lijkt mij.

[...]

Ok dan zou ik dat even melden aan @computerjunky plus waarom dat zo is. :P
Omdat heel veel systemen dubbel worden geteld en het weinig relevant is dat er 100.000 gare systemen in Aziatische gamecafes staan die alleen maar Starcraft draaien op een hd6770 of iets van die strekking.

Ik zou het zelf relevanter vinden als ze een survey van de 1e wereld zouden uitbrengen

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Saturnus schreef op woensdag 1 mei 2019 @ 20:59:
[...]

1080p is inmiddels ook behoorlijk 'vroeger.'
Ik heb nog slechter nieuws voor je. Je browser deelt best veel gegevens, waaronder de gebruikte resolutie en dus heeft bijvoorbeeld Google (Google Analytics) een gigantische dataset aan veel gebruikte resoluties en dan zul je zien dat de realiteit er nog slechter aan toe is wereldwijd gezien. :+

Om even een voorbeeld te noemen:
http://gs.statcounter.com...n-stats/desktop/worldwide
StatCounter is a web analytics service. Our tracking code is installed on more than 2 million sites globally. These sites cover various activities and geographic locations. Every month, we record billions of page views to these sites. For each page view, we analyse the browser/operating system/screen resolution used and we establish if the page view is from a mobile device. For our search engine stats, we analyze every page view referred by a search engine. For our social media stats, we analyze every page view referred by a social media site. We summarize all this data to get our Global Stats information.

We provide independent, unbiased stats on internet usage trends. We do not collate our stats with any other information sources. No artificial weightings are used. We remove bot activity and make a small adjustment to our browser stats for prerendering in Google Chrome. Aside from those adjustments, we publish the data as we record it.

In other words we calculate our Global Stats on the basis of more than 10 billion page views per month, by people from all over the world onto our 2 million+ member sites.

By collating our data in this way, we track the activity of third party visitors to our member websites. We do not calculate our stats based on the activity of our members alone. This helps to minimise bias in the data and achieve a random sample.

In September 2015, our global sample consisted of 16.3 billion page views (US: 2.7 billion); 2.3 billion of these were search engine referrals (US: 404 million); 576 million of these were social media referrals (US: 155 million).

[ Voor 68% gewijzigd door Paprika op 01-05-2019 22:13 ]


Acties:
  • 0 Henk 'm!
FairPCsPlease schreef op woensdag 1 mei 2019 @ 16:08:
Ik vraag me af wat ik aan moet met dit nieuws van de frontpage: AMD: de eerste 7nm-Navi-gpu wordt goedkoper dan de Radeon VII. Dat is een breed begrip. Kijk ik naar de Pricewatch, dan zie ik dat alles onder de €700,- onder die noemer kan vallen, van gratis weggeven tot een high-end kaart die alleen is weggelegd voor mensen met een grote beurs. Ik volg al het nieuws, met de wens om mijn vakantiegeld te investeren in een upgrade van mijn RX460, maar tenzij de nieuwe kaart véél minder kost dan een Radeon VII, wordt het een kaart die bijna net zo duur is, als de rest van het systeem dat er omheen zit! En ik heb geen zin om mijn volledige vakantiegeld uit te geven aan een videokaart. Ik wil ook wat overhouden voor andere zaken.

"De eerste Navi kost minder dan een Radeon VII" is al net zulk rekbaar nieuws als "de eerste Navi verschijnt in Q3": dat is begin zomer (zoals het gerucht van 7 juli als verschijningsdatum) tot in de herfst (30 sept. is ook nog Q3).
Tja, voorlopig ga ik uit van €400 ish voor de absolute high end met een prestatieniveau tussen de RX Vega 64 en RX Vega VII. Dat lijkt me een redelijk neutrale inschatting wat nu nu weten via leaks en wat je ongeveer in zal kunnen schatten. Krijgt AdoredTV met zijn bronnen binnen AMD gelijk over de prijsstelling, dan zal het minder zijn.

Ik ga voor deze aanname uit van:
Navi 10 is 56CU's
Clockspeeds zijn 1800MHz ish
256 bit GDDR6 bus met waarschijnlijk 12gbps chips levert je 445GB's aan geheugenbrandbreedte op.

Zelfs als de RTG werkelijk niks meer doet dan Vega voorzien van GDDR6 ondersteuning en de boel een tape-out op 7nm geeft, dan zou het al beter moeten zijn dan RX Vega 64 nu is. Dan zit je eigenlijk al rond of beter dan een RTX2070. Komt de RTG met ook maar iets noemenswaardigs aan verbeteringen over Vega, dan is de RTX2080 opeens binnen bereik. Dat is de verdienste van hoe zwak de Turing lijn eigenlijk is. De hele lijn is op prijspunt vervangen met iets vergelijkbaars uit 2016, al dan niet met enkele procenten erbij.

Ik zie ook niet hoe Navi op technisch vlak kan falen met zulke zwakke concurrentie. Ik betwijfel ook of Navi werkelijk niks meer is dan Vega 2.0. Al verhogen ze alleen L1 caches substantieel, dat zal waarschijnlijk al een verschil maken. Nvidia is dan ook nog eens een bedrijf dat eigenlijk nooit meteen op de nieuwste productieprocessen overgaat, en daar ook erg slechte ervaringen mee heeft. Voor 2020 verwacht ik geen Turing vervanger.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Paprika schreef op woensdag 1 mei 2019 @ 22:11:
[...]

Ik heb nog slechter nieuws voor je. Je browser deelt best veel gegevens, waaronder de gebruikte resolutie en dus heeft bijvoorbeeld Google een gigantische dataset aan veel gebruikte resoluties en dan zul je zien dat de realiteit er nog slechter aan toe is wereldwijd gezien. :+

Om even een voorbeeld te noemen:
http://gs.statcounter.com...n-stats/desktop/worldwide
Ja maar in Zuid-Amerika gebruiken ze nog ezels. Dat maakt een 1990 auto niet niet-ouderwets. :+
De testgroep moet wel enigszins als gamers te omschrijven zijn lijkt mij.

Acties:
  • 0 Henk 'm!
Saturnus schreef op woensdag 1 mei 2019 @ 22:15:
[...]

Ja maar in Zuid-Amerika gebruiken ze nog ezels. Dat maakt een 1990 auto niet niet-ouderwets. :+
De testgroep moet wel enigszins als gamers te omschrijven zijn lijkt mij.
Er bestaat ook zoiets als laptops. Kijk nog eens goed naar de resoluties en bedenk je welke resoluties de meeste laptops hebben. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
DaniëlWW2 schreef op woensdag 1 mei 2019 @ 22:17:
[...]


Er bestaat ook zoiets als laptops. Kijk nog eens goed naar de resoluties en bedenk je welke resoluties de meeste laptops hebben. ;)
Er zijn ook best veel studenten die "maar" 1 apparaat hebben (een laptop dus), maar realistisch gezien zal 1080p ook op desktops daadwerkelijk de meest gebruikte resolutie zijn. Bij verre het merendeel van de hedendaagse "gamers" speelt Fornite en varianten met bijpassende (budget)hardware.

[ Voor 3% gewijzigd door Paprika op 01-05-2019 22:21 ]


Acties:
  • 0 Henk 'm!
Paprika schreef op woensdag 1 mei 2019 @ 22:20:
[...]

Er zijn ook best veel studenten die "maar" 1 apparaat hebben (een laptop dus), maar realistisch gezien zal 1080p ook op desktops daadwerkelijk de meest gebruikte resolutie zijn. Bij verre het merendeel van de hedendaagse "gamers" speelt Fornite en varianten met bijpassende (budget)hardware.
Of 1080p 144Hz. ;)
In mijn geval zou ik voor RTS games op zich best naar 1440p willen, maar ik zit hier met een bureau naast een schuin dak waardoor mijn 1080p scherm al nauwelijks past. Ik heb er dus maar een dual 1080p setup van gemaakt. Dat is eigenlijk ook best fijn. Niet zozeer voor games, maar wel voor andere zaken. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
computerjunky schreef op woensdag 1 mei 2019 @ 17:21:
[...]


Tja vakantiegeld is ook behoorlijk rekbaar :9
De 1 krijg 600 euro en de ander 2600 euro.

Maar eerlijk is eerlijk er is geen mooiere tijd om een gpu te kopen.
Vroeger was een gpu altijd behappen en compromis maken nu heb je met een 1660 of 1660ti al een kaart waarmee je iedere game 1080p ultra kan spelen mocht navi niks worden.
Of dat nou heel indrukwekkend echter is? Ruim 2.5 jaar geleden heb ik een R9 Fury gekocht voor de prijs waarop je nu een 1660 ti koopt. Als ik snel wat benchmarks bekijk is een 1660 ti wel wat sneller, en zal een 1660 beter vergelijkbaar zijn, en die is weer goedkoper. Tegelijk als dat nu alles is wat we in ruim 2.5 jaar hebben bereikt is het ook niet heel indrukwekkend. De prijs - performance verhouding is wel iets beter geworden, maar spellen zullen ook weer iets zwaarder zijn geworden. Dus om nou te stellen dat er geen mooiere tijd is geweest.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:34
Sissors schreef op woensdag 1 mei 2019 @ 23:04:
[...]

Of dat nou heel indrukwekkend echter is? Ruim 2.5 jaar geleden heb ik een R9 Fury gekocht voor de prijs waarop je nu een 1660 ti koopt. Als ik snel wat benchmarks bekijk is een 1660 ti wel wat sneller, en zal een 1660 beter vergelijkbaar zijn, en die is weer goedkoper. Tegelijk als dat nu alles is wat we in ruim 2.5 jaar hebben bereikt is het ook niet heel indrukwekkend. De prijs - performance verhouding is wel iets beter geworden, maar spellen zullen ook weer iets zwaarder zijn geworden. Dus om nou te stellen dat er geen mooiere tijd is geweest.
Wat is indrukwekken. Komend van een rx460 (dat had degene waar ik op reageerde) is het een mega vooruitgang natuurlijk.
De 1660ti is immers bijna 2,5x zo snel.
418O2 schreef op woensdag 1 mei 2019 @ 22:03:
[...]

Omdat heel veel systemen dubbel worden geteld en het weinig relevant is dat er 100.000 gare systemen in Aziatische gamecafes staan die alleen maar Starcraft draaien op een hd6770 of iets van die strekking.

Ik zou het zelf relevanter vinden als ze een survey van de 1e wereld zouden uitbrengen
Dit is een probleem dat al meer als een half jaar geleden gefixed is en dus niet meer relevant.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
computerjunky schreef op woensdag 1 mei 2019 @ 23:40:
[...]


Wat is indrukwekken. Komend van een rx460 (dat had degene waar ik op reageerde) is het een mega vooruitgang natuurlijk.
De 1660ti is immers bijna 2,5x zo snel.
Nu haal je echter je eigen punt nogal onderuit ;). Immers de RX460 is ook 2.5 keer zo goedkoop als de 1660ti. Oké, eerlijk is eerlijk, je krijgt normaal niet twee keer de rekenkracht voor twee keer de prijs. Maar dan nog steeds is het natuurlijk een vergelijking van niks, een kaart van ruim €300 vergelijken met eentje van ruim €100.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:34
Sissors schreef op donderdag 2 mei 2019 @ 07:49:
[...]

Nu haal je echter je eigen punt nogal onderuit ;). Immers de RX460 is ook 2.5 keer zo goedkoop als de 1660ti. Oké, eerlijk is eerlijk, je krijgt normaal niet twee keer de rekenkracht voor twee keer de prijs. Maar dan nog steeds is het natuurlijk een vergelijking van niks, een kaart van ruim €300 vergelijken met eentje van ruim €100.
Ik heb nooit gezegd dat het prijstechnisch interresanter is.
Maar we zitten in een tijd waar je voor nog redelijk acceptabele prijzen meerdere jaren op ultra kan gamen daar waar dat jaren gelden gewoon niet het geval was en je gewoon high end en diep in de buidel moest tasten voor iets dat zo pang mee ging.
Dit komt doordat consoles oud zijn en de vooruitgang in games iets stagneert daar waar de videokaarten wel langzaam beter worden.

En voor degene waar ik in het begin op reageerde is het gewoon een geweldige kaart upgrade waarbij hij ook nog geld over houd zoals hij wou.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
computerjunky schreef op donderdag 2 mei 2019 @ 11:43:
[...]


Ik heb nooit gezegd dat het prijstechnisch interresanter is.
Maar we zitten in een tijd waar je voor nog redelijk acceptabele prijzen meerdere jaren op ultra kan gamen daar waar dat jaren gelden gewoon niet het geval was en je gewoon high end en diep in de buidel moest tasten voor iets dat zo pang mee ging.
Dit komt doordat consoles oud zijn en de vooruitgang in games iets stagneert daar waar de videokaarten wel langzaam beter worden.

En voor degene waar ik in het begin op reageerde is het gewoon een geweldige kaart upgrade waarbij hij ook nog geld over houd zoals hij wou.
Maar mijn hele punt is dus dat we 2-3 jaar geleden ook al in diezelfde tijd zaten. En dat er geen significante vooruitgang is geboekt in die tijd, en we dus nu per definitie eigenlijk in een slechtere tijd zitten als toen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
Sissors schreef op donderdag 2 mei 2019 @ 11:59:
[...]

Maar mijn hele punt is dus dat we 2-3 jaar geleden ook al in diezelfde tijd zaten. En dat er geen significante vooruitgang is geboekt in die tijd, en we dus nu per definitie eigenlijk in een slechtere tijd zitten als toen.
Er is op sommige vlakken zeker wel voortgang geweest. Volgens mij zit je met een GTX 1660Ti op precies 50% van het verbruik en 50% van de die-size van een R9 Fury. Helaas heeft AMD hier niet in kunnen volgen (de R7 is 'uit de fabriek' praktisch een GTX1080Ti met een verbruik dat hoger is dan dat van een RTX2080Ti) en dus zit Nvidia nog altijd uit hun neus te vreten in plaats van druk te voelen om ook snel iets uit te brengen op basis van het 7nm procede.

Daarmee wil ik dus overigens niet beweren dat ik het niet eens ben met je conclusie, maar alleen met je formulering voor die conclusie :p.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Sissors schreef op donderdag 2 mei 2019 @ 11:59:
[...]

Maar mijn hele punt is dus dat we 2-3 jaar geleden ook al in diezelfde tijd zaten. En dat er geen significante vooruitgang is geboekt in die tijd, en we dus nu per definitie eigenlijk in een slechtere tijd zitten als toen.
Wen er maar aan.. de perf/$ vooruitgang is de laatste jaren overal (ook CPUs en SoCs) gewoon veel lager dan wat het vroeger was en het wordt nooit meer beter.
Pagina: 1 ... 39 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.