Acties:
  • 0 Henk 'm!

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

DoubleYouPee schreef op woensdag 8 augustus 2018 @ 08:31:
In Duitsland is de Vega 64 al een tijdje 519 euro. Helaas bij webshops die niet naar NL versturen.

In NL zitten we nog rond de 700 voor dezelfde kaart... Leven de EU :/
Bovenaan de lijst van Vega's staat nu de Gigabyte RX Vega 64 Gaming OC 8G die op een of andere manier bij Amazon.de €536,10 kost (€538 op de productpagina. Maar in het winkelmandje komt er op een of andere manier juist weer korting over een iets hogere prijs).

Ik had voor mezelf een maximumprijs van €500 gezet voor een Vega 56. Maar nu ik deze zag (met volgens mij een nette base overclock) kon ik het niet laten. Maandag zal hij bezorgd moeten worden (even Prime gekocht voor "gratis" bezorgkosten).

[ Voor 0% gewijzigd door ArmEagle op 12-08-2018 11:52 . Reden: kleine verduidelijking in tekst ]


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
ArmEagle schreef op zaterdag 11 augustus 2018 @ 09:40:
[...]


Bovenaan de lijst van Vega's staat nu de Gigabyte RX Vega 64 Gaming OC 8G die op een of andere manier bij Amazon.de €536,10 kost (€538 op de productpagina. Maar in het winkelmandje komt er op een of andere manier juist weer korting over een iets hogere prijs).

Ik had voor mezelf een maximumprijs van €500 gezet voor een Vega 56. Maar nu ik deze zag (met volgens mij een nette base overclock) kon ik het niet laten. Maandag zal hij bezorgd moeten worden (even Prime gekocht voor "gratis" bezorgkosten).
Helaas is de Gigabyte de slechste versie. Ik ga daar echt geen 500 euro voor betalen (helemaal gezien de leeftijd van Vega, en nieuwe NVIDIA volgende week...)

Acties:
  • 0 Henk 'm!
hubhib schreef op woensdag 8 augustus 2018 @ 15:18:
[...]


Als ik tests bekijk met nieuwere games valt het mij op dat Vega het toch niet heel slecht doet tegenover Pascal. De Vega 64 zie ik toch best vaak voorbij de GTX 1080 kruipen en niet heel ver van de GTX 1080Ti uit komen.

Ik ben ook benieuwd hoe AMD het gaat doen tegenover nVidia als er nieuwe technieken zoals ray-tracing aan games toegevoegd gaan worden. Volgens mij vereist dit best veel compute kracht en hier zou AMD het wel eens makkelijker mee kunnen hebben.

En het is nog maar de vraag of de komende generatie GeForce gpu's heel veel sneller gaat worden dan Pascal. Als ze gebaseerd worden op Volta dan krijgen we volgens mij niet zo'n enorme sprong in prestaties als van Maxwell naar Pascal.
Klopt Vega is best krachtig. Zeker als het spel gebruik maakt van de mogelijkheden dan kan hij de 1080 Ti soms evenaren. Helaas zijn er maar weinig games die op die manier geoptimaliseerd zijn.

Zou mij niets verbazen als nVidia er met Gameworks voor gaat zorgen dat dit op Tensor Cores moet die AMD niet heeft waardoor de performance dan vervolgens ruk is op AMD kaarten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Earzz
  • Registratie: December 2006
  • Laatst online: 12-09 23:23
DoubleYouPee schreef op maandag 13 augustus 2018 @ 08:17:
[...]

Helaas is de Gigabyte de slechste versie.
Dat is niet alleen met AMD kaarten :X

XboxLive: Dave 130R


Acties:
  • 0 Henk 'm!

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

DoubleYouPee schreef op maandag 13 augustus 2018 @ 08:17:
[...]

Helaas is de Gigabyte de slechste versie. Ik ga daar echt geen 500 euro voor betalen (helemaal gezien de leeftijd van Vega, en nieuwe NVIDIA volgende week...)
Waarin is de Gigabyte versie slechter dan die van andere fabrikanten? Ik heb hier zelf misschien niet lang genoeg naar gekeken voordat ik de koop gestart ben.

En dit is het AMD topic. Mij boeien Nvidia kaarten niet, behalve om de prijs/kwaliteit te vergelijken.

En ja. Vega is niet zo nieuw meer. Maar de prijs van deze '64 is op dit moment vergelijkbaar met vergelijkbare Nvidia kaarten. Allemaal €100 te duur.

Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
ArmEagle schreef op maandag 13 augustus 2018 @ 13:31:
[...]

Waarin is de Gigabyte versie slechter dan die van andere fabrikanten? Ik heb hier zelf misschien niet lang genoeg naar gekeken voordat ik de koop gestart ben.

En dit is het AMD topic. Mij boeien Nvidia kaarten niet, behalve om de prijs/kwaliteit te vergelijken.

En ja. Vega is niet zo nieuw meer. Maar de prijs van deze '64 is op dit moment vergelijkbaar met vergelijkbare Nvidia kaarten. Allemaal €100 te duur.
Koeling, coil-whine, kwaliteit... De chip blijft hetzelfde natuurlijk...

Acties:
  • 0 Henk 'm!

Verwijderd

Wat let je om een ander profiel erin te zetten dan die van de fabrikant die de kaarten vaak rond 80 graden laat zitten. Je verteld mij niet dat op een gigabyte kaart met 100 procent snelheid de kaart niet koelgehouden worden.

Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op maandag 13 augustus 2018 @ 13:58:
Wat let je om een ander profiel erin te zetten dan die van de fabrikant die de kaarten vaak rond 80 graden laat zitten. Je verteld mij niet dat op een gigabyte kaart met 100 procent snelheid de kaart niet koelgehouden worden.
Waarschijnlijk bedoelt @DoubleYouPee dat de componenten die Gigabyte gebruikt van mindere kwaliteit zijn. Dat kan niet zo zeer met een andere firmware versie worden opgelost.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

DoubleYouPee schreef op maandag 13 augustus 2018 @ 13:36:
[...]

Koeling, coil-whine, kwaliteit... De chip blijft hetzelfde natuurlijk...
Dank. Ik zal de boel eens goed testen als de rest van de nieuwe hardware ook binnen is. Bij teveel coil whine gaat hij dan maar weer terug.

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op maandag 13 augustus 2018 @ 13:04:
Zou mij niets verbazen als nVidia er met Gameworks voor gaat zorgen dat dit op Tensor Cores moet die AMD niet heeft waardoor de performance dan vervolgens ruk is op AMD kaarten.
Het zou me verbazen als Nvidia-medewerkers niet ijverig hebben gezocht naar gimmicks met proprietary software waarvoor Tensor-cores nodig zijn. ;)
ArmEagle schreef op maandag 13 augustus 2018 @ 13:31:
En dit is het AMD topic. Mij boeien Nvidia kaarten niet, behalve om de prijs/kwaliteit te vergelijken.
Nieuwe Nvidia-kaarten zouden jou echter wel moeten interesseren omdat het een prijsverlagende (lagere winstmarges) invloed kan hebben op de AMD-kaarten.
Derby schreef op maandag 13 augustus 2018 @ 14:10:
[...]

Waarschijnlijk bedoelt @DoubleYouPee dat de componenten die Gigabyte gebruikt van mindere kwaliteit zijn.
De heatsink speelt ook een grote rol: de hoeveelheid metaal, het ontwerp ervan en hoe goed het aansluit op de PCB (een groot probleem voor de MSI RX 480).

[ Voor 48% gewijzigd door Verwijderd op 13-08-2018 18:55 ]


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op maandag 13 augustus 2018 @ 18:34:
[...]

Nieuwe Nvidia-kaarten zouden jou echter wel moeten interesseren omdat het een prijsverlagende (lagere winstmarges) invloed kan hebben op de AMD-kaarten.


[...]
Zeer onwaarschijnlijk. nVidia zal door o.a. gebrek aan concurrentie de prijzen van de nieuwe kaarten hoog inschieten. Voeg daar aan toe dat het huidige nVidia aanbod al goedkoper is dan het AMD aanbod.

Als AMD nog marge over had om de prijzen te verlagen, hadden ze dat allang gedaan. Je hoeft er niet op te rekenen dat een nieuwe veel te dure nVidia serie daar verandering in gaat brengen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

Blaat schreef op dinsdag 14 augustus 2018 @ 07:36:
[...]


Zeer onwaarschijnlijk. nVidia zal door o.a. gebrek aan concurrentie de prijzen van de nieuwe kaarten hoog inschieten. Voeg daar aan toe dat het huidige nVidia aanbod al goedkoper is dan het AMD aanbod.

Als AMD nog marge over had om de prijzen te verlagen, hadden ze dat allang gedaan. Je hoeft er niet op te rekenen dat een nieuwe veel te dure nVidia serie daar verandering in gaat brengen.
Ik verwacht ook weinig prijsverlaging (inderdaad, AMD heeft weinig marge) maar ik zie enige ruimte bij retailers/distributeurs. Zie de discussie die we eerder hadden omtrent prijsverschillen voor AMD-kaarten tussen Duitsland en hier, grotere prijsverschillen dan dat door het verschil van 2 procentpunt voor de BTW kan worden verklaard.

Acties:
  • 0 Henk 'm!

Verwijderd

Aangezien het van een moderator niet mocht in de Nvidia-draad doe ik het hier ontopic. Ik zou het naar hier hebben verplaatst als mij de gelegenheid was gegeven maar aangezien er werd gesneden is dat niet mogelijk.
Laurens91 gaf aan dat hij hoopte dat AMD een deel van de investeringen gebruikt voor RTG. Ik gaf daarom aan dat AMD reed medewerkers had overgeplaatst van Zen naar RTG en dat AMD dit aangaf in deze video van hen.

Dat was het enige wat er stond. Dat en de duiding dat het een paar jaar duurt voordat je het resultaat van investeringen ziet en dat het waarschijnlijk pas bij de generatie die na Navi uitkomt zichtbaar zal worden en dat dit waarschijnlijk niet voor 2021 gaat zijn. Niets nieuws onder de zon.

[ Voor 4% gewijzigd door Verwijderd op 15-08-2018 13:41 ]


  • rcthans
  • Registratie: Juli 2007
  • Laatst online: 22-09 20:44
Na wat zoekwerk toch blijkbaar niet een geheel eerlijke vergelijking. Maar als ze bij bij AMD toch wat meer budget voor optimaliseren hadden.

Mijn broertje en ik hebben afgelopen week naast elkaar de single player van Far Cry 5 uitgespeeld.

Hij was toch wel een beetje jaloers op mijn vrij stabiele 55/56 fps (4K Ultra met freesync)
hij heeft een vergelijkbare pc maar met een 1080 gtx (oc) maar hij kwam toch echt niet verder dan 45 fps. En dat zonder gsync scherm is toch wel echt een wereld van verschil.

Wel een pc die elk moment lijkt op te stijgen wat fan noise betreft. Maar toch een beste voorsprong.

  • Maulwurfje
  • Registratie: April 2014
  • Laatst online: 27-07 14:25
*knip* aub geen V&A op het forum :X

[ Voor 91% gewijzigd door br00ky op 16-08-2018 14:07 ]


  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Waarom niet wachten tot na de aankondigigng van NVIDIA? :'(
En waarom haal je niet de Sapphire, die is veel beter en netzo duur

https://www.mindfactory.d...Full-Retail-_1235216.html

[ Voor 44% gewijzigd door br00ky op 16-08-2018 14:07 ]


Acties:
  • +1 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 13:30

br00ky

Moderator Harde Waren
Modbreak:Even een stukje V&A weggehaald. AUB niet hier.

Acties:
  • +1 Henk 'm!

Verwijderd

rcthans schreef op donderdag 16 augustus 2018 @ 06:31:
Na wat zoekwerk toch blijkbaar niet een geheel eerlijke vergelijking. Maar als ze bij bij AMD toch wat meer budget voor optimaliseren hadden.

Mijn broertje en ik hebben afgelopen week naast elkaar de single player van Far Cry 5 uitgespeeld.

Hij was toch wel een beetje jaloers op mijn vrij stabiele 55/56 fps (4K Ultra met freesync)
hij heeft een vergelijkbare pc maar met een 1080 gtx (oc) maar hij kwam toch echt niet verder dan 45 fps. En dat zonder gsync scherm is toch wel echt een wereld van verschil.

Wel een pc die elk moment lijkt op te stijgen wat fan noise betreft. Maar toch een beste voorsprong.
Dit is een achterhaald verhaal, tegenwoordig zijn de drivers bij AMD minstens zo goed als bij Nvidia.

Wat betreft jouw specifieke voorbeeld, het is nietszeggend aangezien jij niet vermeldt welke kaart jij gebruikt en welke instellingen in het spel je gebruikt. Bij sommige instellingen draait de ene kaart wat beter, bij andere instellingen de andere. Zet maar eens bij de beide kaarten de MSAA 1 of 2 standen lager, ik voorspel dat de AMD-kaart relatief aan performance wint.

Ik zie er overigens niet het nut van in om met deze kaarten met 4k te gamen met ultra-instellingen. Doe jezelf een plezier en zet de instellingen lager, grafisch verlies je weinig of niets maar het speelt beter, op jullie beide systemen. Wat lekkerder zou spelen, bijvoorbeeld 70 FPS zonder tearing of 80 FPS met tearing, hangt af van hoe goed je het ziet. De een ziet het helemaal niet omdat het te kort is dat hij het waarneemt, de ander ziet het wel goed en ergert zich aan al die gedeeltelijke plaatjes.

[ Voor 9% gewijzigd door Verwijderd op 16-08-2018 18:32 ]


  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 21-09 19:33
Ik heb een RX Vega 56 reference model van Powercolor.
Ik heb deze vorig jaar al snel onder water gezet want van dat vliegtuig onder mijn buro werd ik ook niet blij >:)
Nu staat mijn PC óp mijn buro en draait deze als een zonnetje, Vega wordt nooit warmer dan 45-46 graden!

Wat me wel opvalt is dat hij op maximale belasting coilwhine geluid maakt. Ik merk dit echter alleen met de case open en de fans héel lag, met de case dicht en casefans hoor ik helemaal niets. Ik denk daarom dat op een reference PCB je altijd wel iets van coilwhine hebt alleen lijkt dit versterkt te worden door AIB's die goedkope componenten op de PCB solderen en/of de stroomvoorziening slechter reguleren.

Anyways, mijn tip zou zijn, kijk naar een 2e hands Vega 56 reference en zet hier een waterblok op, dan heb je een stillere (en makkelijker overklokbare) GPU dan dat je nu een AIB met luchtkoeling koopt die even duur is.

Oh en ik liet net mijn rechteroogje op de V&A vallen, worden veel 1080ti's gedumpt nu! Vega kan denk ik niet veel meer zakken door de kostprijs, maar ik ben wel benieuwd wat dit doet met de 2e hands markt én de nieuwprijzen van GPU's die nog uit moeten komen!
rcthans schreef op donderdag 16 augustus 2018 @ 06:31:
Hij was toch wel een beetje jaloers op mijn vrij stabiele 55/56 fps (4K Ultra met freesync)
Hoeveel inch is jouw 4k monitor? Heb je (indien 27" of kleiner) geen last van móeten scalen?

[ Voor 22% gewijzigd door Lord_Dain op 16-08-2018 16:30 ]


  • rcthans
  • Registratie: Juli 2007
  • Laatst online: 22-09 20:44
Verwijderd schreef op donderdag 16 augustus 2018 @ 15:53:
[...]

Dit is een achterhaald verhaal, tegenwoordig zijn de drivers bij AMD minstens zo goed als bij Nvidia.

Wat betreft jouw specifieke voorbeeld, het is nietszeggend aangezien jij niet vermeldt welke kaart jouw broer gebruikt en welke instellingen in het spel je gebruikt. Bij sommige instellingen draait de ene kaart wat beter, bij andere instellingen de andere. Zet maar eens bij de beide kaarten de MSAA 1 of 2 standen lager, ik voorspel dat het verschil kleiner wordt.

Ik zie er overigens niet het nut van in om met deze kaarten met 4k te gamen met ultra-instellingen. Doe jezelf een plezier en zet de instellingen lager, grafisch verlies je weinig of niets maar het speelt beter, op jullie beide systemen. Wat lekkerder zou spelen, bijvoorbeeld 70 FPS zonder tearing of 80 FPS met tearing, hangt af van hoe goed je het ziet. De een ziet het helemaal niet omdat het te kort is dat hij het waarneemt, de ander ziet het wel goed en ergert zich aan al die gedeeltelijke plaatjes.
Mijn broertje heeft een Gigabyte GeForce GTX 1080 WINDFORCE OC 8G

We zaten naast elkaar en hebben de settings naast elkaar gelijk gezet. Beide hadden we AA uit staan, te weinig verschil op 4K en wel een enorme hap uit je performance. Moet wel zeggen dat de 1080GTX met AA aan dichter bij kwam.

Verder begrijp ik je verhaal niet. We spelen een single player die er gaaf uit ziet. Ik begrijp dat je zonder g-sync of freesync liever 70 fps hebt. Dus mijn broertje is later naar medium instellingen gegaan.

Maar voor een singleplayer campaign heb ik liever de ultra instelling met 50 fps en dan met freesync dan de textures ofzo naar beneden.

natuurlijk speel ik competitieve spelen wel met de settings lager op mijn andere scherm (144hz) en zoveel mogelijk fps.
[b]Lord_Dain schreef op donderdag 16 augustus 2018 @ 16:26:

Hoeveel inch is jouw 4k monitor? Heb je (indien 27" of kleiner) geen last van móeten scalen?
Heb 2 schermen
pricewatch: LG 27UK600-W Zwart

27 inch 4k scherm, dat idd in windows op 150% draait.
Deze heeft ook een lichte vorm van HDR. Voor films heb je er weinig aan, te weinig nits denk ik.
maar moet zeggen dat de HDR stand in farcry5 wel erg mooi was.

Voor PUBG etc speel ik op een 144hz 1ms 27 inch AOC scherm van 1440p.

[ Voor 14% gewijzigd door rcthans op 16-08-2018 17:03 ]


Acties:
  • +1 Henk 'm!

Verwijderd

rcthans schreef op donderdag 16 augustus 2018 @ 17:00:
[...]


Mijn broertje heeft een Gigabyte GeForce GTX 1080 WINDFORCE OC 8G

We zaten naast elkaar en hebben de settings naast elkaar gelijk gezet. Beide hadden we AA uit staan, te weinig verschil op 4K en wel een enorme hap uit je performance. Moet wel zeggen dat de 1080GTX met AA aan dichter bij kwam.
Sorry, ik had jouw reactie verkeerd gelezen. Ik bedoel welke kaart jij had. Jij vermeldde slechts een van de twee kaarten en doordat jij begon met de opmerking dat AMD niet voldoende zou optimaliseren ("Maar als ze bij bij AMD toch wat meer budget voor optimaliseren hadden.") had ik een bepaalde verwachting en las ik per ongeluk dat jij (met je hogere FPS) die 1080 kaart hebt en hij FreeSync. :$
Verder begrijp ik je verhaal niet. We spelen een single player die er gaaf uit ziet. Ik begrijp dat je zonder g-sync of freesync liever 70 fps hebt. Dus mijn broertje is later naar medium instellingen gegaan.
Dat was het punt van dat deel van mijn reactie. Voor vergelijken is het prima maar ik denk niet dat je gaming-ervaring er beter door wordt als je een lage FPS hebt met hogere instellingen, vooral omdat je voor de meeste instellingen echt niet het verschil ziet tussen ultra en zeer hoog. Er zijn hier een paar mensen die het veel beter kunnen uitleggen dan ik, het komt erop neer dat bij ultra de GPU belachelijk veel extra werk doet voor minimale verschillen die vaak met het blote oog niet zichtbaar zijn. Als je op een screenshot (geen compressie anders dan 100% kwaliteit bij JPG) al het verschil niet ziet of daar lang moet zoeken om verschillen te zien dan zie je het bij gaming zeker niet. Veel gamers hebben een obsessie met ultra-instellingen en zetten alles op ultra uit angst wat te missen in plaats van te experimenteren met de diverse instellingen. Dat is een beetje jammer voor hen want zo krijg je niet de beste gaming-ervaring die die hardware kan leveren. Textures is een uitzondering, dat is een instelling waarbij het wel kan lonen om de hoogste stand te kiezen maar bij allerlei vormen van AA zou ik dat zeker niet aanraden.

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

DoubleYouPee schreef op donderdag 16 augustus 2018 @ 11:43:
[...]

Waarom niet wachten tot na de aankondigigng van NVIDIA? :'(
En waarom haal je niet de Sapphire, die is veel beter en netzo duur

https://www.mindfactory.d...Full-Retail-_1235216.html
Lekker scherpe prijzen daar! Maar deze Sapphire is toch wel erg lang met die 310mm.
Ik mijn midi ATX kast moeten het HDD deel er daarvoor uit! En dat is alles of niets (behalve de 5.25" sloten). Nu redden de maximaal 2 extra SSD's (naast de M.2) het ook wel zonder montering. Maar fijn is toch anders.

Uiteindelijk moet alle hardware naar mijn meer draagbare zelf gemaakte houten kast. Ook daarin moet de HDD bracket dan anders.

Ik moet mijn Gigabyte RX Vega 64 Gaming OC 8G dit weekend maar eens goed aan de tand voelen.
Bij bepaalde load geeft die toch wel wat geluid (zoals mensen hier al aangaven). Coil whine wil ik het niet eens noemen. Het is meer een soort coil tik, wat volgens mij toch echt niet de fans zijn. Op zich minder irritant dan een frequentie wisselende coil whine.

Edit:
In mijn huidige/oude PC heb ik de RX480 Sapphire Nitro 4G en die vind ik wel erg fijn. Had ik maar eerder van deze shop gehoord. Dan had ik die misschien wel meteen gekocht.
Micro Edit2:
Hoewel je daar wel met (terecht) serieuze verzendkosten te maken krijgt.
Nouja-nogmaareen-Edit3:
Oh. Wordt niet aan consumenten buiten Duitsland verzonden. Dus je verliest je Europese consumentenbescherming. Dan mag hij nog zo goedkoop zijn. Dat is het hem nu nog niet waard.

[ Voor 18% gewijzigd door ArmEagle op 16-08-2018 23:42 . Reden: kleine toevoeging 3e ]


Acties:
  • 0 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 21-09 19:33
ArmEagle schreef op donderdag 16 augustus 2018 @ 22:12:
Oh. Wordt niet aan consumenten buiten Duitsland verzonden. Dus je verliest je Europese consumentenbescherming. Dan mag hij nog zo goedkoop zijn. Dat is het hem nu nog niet waard.
Helemaal mee eens, butt winkel dat ze niet naar NL versturen.. dan zou ik lekker deze kiezen:
https://www.caseking.de/s...192-mb-hbm2-gcsp-186.html

Acties:
  • +1 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
ArmEagle schreef op donderdag 16 augustus 2018 @ 22:12:

Nouja-nogmaareen-Edit3:
Oh. Wordt niet aan consumenten buiten Duitsland verzonden. Dus je verliest je Europese consumentenbescherming. Dan mag hij nog zo goedkoop zijn. Dat is het hem nu nog niet waard.
Daarom gaat hij ze ophalen en niet laten verzenden

Acties:
  • +1 Henk 'm!

Verwijderd

1 offtopic reactie, hier laat ik het bij.

Wat betreft de verzendkosten. Als Tweakers nu gewoon deze winkels zou opnemen in de PW - in ieder geval de Duitse winkels die naar Nederland verzenden - dan zouden die verzendkosten fors lager kunnen liggen. Veel mensen weten niet dat ze daar hardware kunnen bestellen terwijl ze bij Casekings Engels en Nederlands sprekende werknemers hebben en de website ook Engelstalig is. Het is gek dat we in 2018 nog steeds zo aan landsgrensjes zitten voor aankopen terwijl er al lang een vrij verkeerd van goederen, diensten en personen is.
ArmEagle schreef op donderdag 16 augustus 2018 @ 22:12:
[...]

Lekker scherpe prijzen daar! Maar deze Sapphire is toch wel erg lang met die 310mm.
Daarom kies ik voor een normale/grote midtowerkast die ruimte biedt voor goede koelers voor zowel de CPU (zoals een Noctua D15 of een BQDRP4) als de grafische kaart (stevige en grote heatsink). In mijn geval 425 mm voor de grafische kaart en 180 mm voor de koeler. Helaas is het tegenwoordig weer de trend om kasten klein te maken. De Sapphire R580 en Vega kaarten lijken goed te presteren, een grote heatsinks helpt daar zeker bij. Wil ik de kaart maximaal overklokken? Nee, ik heb het graag stil.

[ Voor 30% gewijzigd door Verwijderd op 17-08-2018 16:22 ]


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Verwijderd schreef op vrijdag 17 augustus 2018 @ 16:17:
Wat betreft de verzendkosten. Als Tweakers nu gewoon deze winkels zou opnemen in de PW - in ieder geval de Duitse winkels die naar Nederland verzenden - dan zouden die verzendkosten fors lager kunnen liggen.
Wat heeft de PW met verzendkosten te maken?
Als die shops in de PW willen kunnen ze toch gewoon betalen?

Acties:
  • 0 Henk 'm!

Verwijderd

Olaf van der Spek schreef op zaterdag 18 augustus 2018 @ 00:10:
[...]

Wat heeft de PW met verzendkosten te maken?
Afzet. Hoe meer Nederlanders er iets kopen, hoe meer stuks ze per keer kunnen verzenden, hoe minder het hoeft te kosten.
Als die shops in de PW willen kunnen ze toch gewoon betalen?
Dan moet Tweakers hen eerst die optie bieden! Heeft Tweakers het al eens voorgelegd aan hen. Ik denk dat Casekings dat best interessant zou vinden.
Daarnaast kan je hen ook opnemen zonder dat ze betalen als service naar de bezoekers omdat je graag wil dat ze niet meer betalen dan wat nodig is wanneer je in Duitsland wel en hier niet een goede aanbieding hebt.

Dit is Europa op haar kleinst, Europeanen denken nog steeds in termen van hun landsgrensjes. Ook al is Duitsland voor veel Nederlanders veel minder ver dan Amsterdam, nog steeds zijn er wel veel contacten met Amsterdam en aanzienlijk minder contacten met Duitsland. Duitse winkels die niet naar Nederland verzenden (Casekings wel) en een Nederlandse website (van een media-bedrijf) die geen Duitse winkels opneemt in de PW, dat stadium zouden we voorbij moeten zijn. Ik schop nu even tegen de benen aan in de hoop wat beweging te krijgen. Sommige mensen doen dat met diplomatie, zelf kies ik er liever voor om eens de knuppel in het hoenderhok te gooien.
Hier laat ik het bij.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Verwijderd schreef op zaterdag 18 augustus 2018 @ 00:23:
Dan moet Tweakers hen eerst die optie bieden! Heeft Tweakers het al eens voorgelegd aan hen. Ik denk dat Casekings dat best interessant zou vinden.
Vraag het eens aan Tweakers zou ik zeggen. ;)

Acties:
  • 0 Henk 'm!

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

Olaf van der Spek schreef op zaterdag 18 augustus 2018 @ 00:36:
[...]

Vraag het eens aan Tweakers zou ik zeggen. ;)
Nou ja. Amazon.de heeft in PW gestaan. (Totdat ik een prijscorrectie door had gegeven., daarna waren ze verdwenen. Dan zal casekings het toch ook wel weten?

Acties:
  • +1 Henk 'm!
Verwijderd schreef op zaterdag 18 augustus 2018 @ 00:23:
[...]

Dan moet Tweakers hen eerst die optie bieden! Heeft Tweakers het al eens voorgelegd aan hen. Ik denk dat Casekings dat best interessant zou vinden.
Caseking is naast een webshop ook een distributeur, door een heel groot deel van Europa. Veel Nederlandse webshops hebben dan Caseking ook als distributeur. Caseking richt zich voor de rest zelf niet op de Nederlandse markt. Zouden ze dat wel gaan doen, dan concurreren ze ook alleen maar met hun klanten hier, ook niet heel slim om te doen. Reichelt.de en Amazon.de richten zich wel een beetje op de Nederlandse markt en die staan beide dan ook in de pricewatch.
ArmEagle schreef op zaterdag 18 augustus 2018 @ 02:28:
[...]

Nou ja. Amazon.de heeft in PW gestaan. (Totdat ik een prijscorrectie door had gegeven., daarna waren ze verdwenen. Dan zal casekings het toch ook wel weten?
Amazon.de is nog nooit verdwenen. Om even een willekeurig product aan te klikken: pricewatch: Gigabyte Aorus GeForce GTX 1080Ti Xtreme Edition 11G Hier zie je Amazon ook gewoon tussen staan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

-The_Mask- schreef op zaterdag 18 augustus 2018 @ 13:17:
Caseking is naast een webshop ook een distributeur, door een heel groot deel van Europa. Veel Nederlandse webshops hebben dan Caseking ook als distributeur...
Ah. Dank voor de informatie
Amazon.de is nog nooit verdwenen. Om even een willekeurig product aan te klikken: pricewatch: Gigabyte Aorus GeForce GTX 1080Ti Xtreme Edition 11G Hier zie je Amazon ook gewoon tussen staan.
Ik bedoelde hier niet Amazon.de in het geheel, maar slechts de vermelding van de door mij al gekochte Gigabyte RX Vega 64 Gaming OC 8G. Na twee meldingen voor prijscorrectie van videokaarten (niet alleen Amazon.de) was de vermelding bij die videokaart een paar dagen later verdwenen. Dat is waarschijnlijk simpele toeval.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Nu online
Verwijderd schreef op woensdag 15 augustus 2018 @ 13:40:
Aangezien het van een moderator niet mocht in de Nvidia-draad doe ik het hier ontopic. Ik zou het naar hier hebben verplaatst als mij de gelegenheid was gegeven maar aangezien er werd gesneden is dat niet mogelijk.
Laurens91 gaf aan dat hij hoopte dat AMD een deel van de investeringen gebruikt voor RTG. Ik gaf daarom aan dat AMD reed medewerkers had overgeplaatst van Zen naar RTG en dat AMD dit aangaf in deze video van hen.
[video]
Dat was het enige wat er stond. Dat en de duiding dat het een paar jaar duurt voordat je het resultaat van investeringen ziet en dat het waarschijnlijk pas bij de generatie die na Navi uitkomt zichtbaar zal worden en dat dit waarschijnlijk niet voor 2021 gaat zijn. Niets nieuws onder de zon.
Ik zou 2021 niet durven noemen. Reken op 4 a 5 jaar voor het effect zichtbaar is. Omgekeerd heeft het ook lang geduurd voor het krappe budget problematisch werd. Pas bij de trippel rebrands gingen echt de alarmbellen rinkelen en toen draaide de r&d al 5 jaar op een lager pitje. Toen was Radeon echter nog steeds competitief in high end.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op zaterdag 18 augustus 2018 @ 20:06:
[...]

Ik zou 2021 niet durven noemen. Reken op 4 a 5 jaar voor het effect zichtbaar is.
Daarom stelde ik dat het "niet voor 2021" is. Dat is het meest optimistische scenario. Hierbij speelt mee dat wij niet alles weten wat daar speelt, er zijn aanwijzingen dat AMD meer inzette op Navi dan op Vega voor gaming en we weten dat AMD al een flinke tijd een opvolger van GCN heeft klaarliggen. Het is best mogelijk dat die mensen die van Zen op RTG zijn geplaats pas bij het latere deel van het proces betrokken hoeven te worden, bijvoorbeeld voor de powermanagement, misschien krijgen we eens geen kaarten die een te hoge spanning krijgen vanuit de fabriek maar dat netjes zelf ondervolten in functie van wat allerlei sensoren meten. Zelf ga ik in ieder geval niet langer wachten dan Navi. Als ik van tevoren had geweten dat Vega voor Apple was ontwikkeld dan had ik bij de RX 480 (XFX) gehapt.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Nu online
Navi zelf kan best eerder komen maar de kans dat het een gamechanger wordt is nihil. Wellicht kun je na de lancering van de 2xxx reeks van nvidia voor een leuke prijs een 480 op v&a vinden. Zag ze nu al voor 160 euro (1070 voor 250 kun je na gaan).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

Verwijderd

sdk1985 schreef op zondag 19 augustus 2018 @ 15:26:
Navi zelf kan best eerder komen maar de kans dat het een gamechanger wordt is nihil.
Dat is nogal betrekkelijk. Een Vega 64 met een veel lager vermogen voor €200-300 is geen gamechanger maar wel een mooie kaart.
Wellicht kun je na de lancering van de 2xxx reeks van nvidia voor een leuke prijs een 480 op v&a vinden. Zag ze nu al voor 160 euro (1070 voor 250 kun je na gaan).
Ik koop in principe geen tweedehands kaarten. Zeker niet in Nederland en zeker niet na die mining. Als de prijs genoeg is, ja, maar dan moet het minder dan €160 zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwachten jullie dat AMD ook speciale hardware gaat toevoegen om Raytracing the acceleren ?

Ik zie nu namelijk ook een scenario mogelijk met deze hoge prijzen van nvidia dat AMD een kaart uitbrengt die niet gemaakt is voor raytracing maar wel Turing/pascal voorbij gaat in non raytracing content voor een veel lagere prijs. Dan gooien ze roet in het eten bij Nvidia met de Raytracing adoptie en kunnen ze marktaandeel terug pakken.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 21 augustus 2018 @ 00:21:
Verwachten jullie dat AMD ook speciale hardware gaat toevoegen op Raytracing the acceleren ?

Ik zie nu namelijk ook een scenario mogelijk met deze hoge prijzen van nvidia dat AMD een kaart uitbrengt die niet gemaakt is voor raytracing maar wel Turing/pascal voorbij gaat in non raytracing content voor een veel lagere prijs. Dan gooien ze roet in het eten bij Nvidia met de Raytracing adoptie en kunnen ze marktaandeel terug pakken.
Praktisch gezien wordt raytracing de komende generatie nog niet relevant. Nvidia zal het pushen maar bovenal is het een marketingstunt, laten zien wat je met 4 TitanV kaarten kan maar ondertussen kan je met 1 2080 voor 1 klein detail met moeite raytracing gebruiken en dan is het effect vergelijkbaar met hoe het gefaket zou worden maar ongetwijfeld zakt de FPS flink. :)

Wat AMD gaat doen? Geen idee, maar het zou m.i. technisch gezien geen probleem zijn als AMD geen aparte hardware heeft voor dat doeleinde. Het is wel mogelijk dat je dezelfde hardware die daarvoor gebruikt kan worden ook voor andere zaken gebruikt kan worden. Helaas over dat stukje nieuwe hardware op de Nvidia-kaarten. Ik had verwacht dat er tensor-cores (multiply add) op die nieuwe kaarten zouden zitten maar met dat nieuwe stukje hardware verrassen ze me. Eerst maar eens zien wat het technisch gezien precies doet.

Acties:
  • +1 Henk 'm!
AMD heeft gewoon Radeon Rays maar daar hoor je niemand over. Werkt als in Vulcan en OpenCL1.2.
De vraag is alleen hoe dat zich qua prestaties verhoud met wat een 1080 Ti en de nieuwe RTX kaarten kunnen. Wellicht is het wel wat sneller dan wat de 1080 Ti kan maar gok wel veel trager dan Fixed function hardware. Want dit zal op de shaders draaien. Nu is Vega meer een compute architectuur. Als je ziet dat die Tensor cores int4 zijn helpt AMD's rapid pack math al wel want daar mee kunnen ze int8 snel doen. Niet zo snel als nVidia met de tensor cores maar veel sneller dan shaders die alleen int32 kunnen.

Ik ben er banger voor dat nVidia Gameworks hard pushed en dan kan AMD het gewoon niet goed doen.
Hopelijk krijgt AMD wel support voor Microsoft DXR.

[ Voor 24% gewijzigd door Astennu op 21-08-2018 12:15 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

Astennu schreef op dinsdag 21 augustus 2018 @ 12:14:
AMD heeft gewoon Radeon Rays maar daar hoor je niemand over. Werkt als in Vulcan en OpenCL1.2.
De vraag is alleen hoe dat zich qua prestaties verhoud met wat een 1080 Ti en de nieuwe RTX kaarten kunnen. Wellicht is het wel wat sneller dan wat de 1080 Ti kan maar gok wel veel trager dan Fixed function hardware. Want dit zal op de shaders draaien. Nu is Vega meer een compute architectuur. Als je ziet dat die Tensor cores int4 zijn helpt AMD's rapid pack math al wel want daar mee kunnen ze int8 snel doen. Niet zo snel als nVidia met de tensor cores maar veel sneller dan shaders die alleen int32 kunnen.

Ik ben er banger voor dat nVidia Gameworks hard pushed en dan kan AMD het gewoon niet goed doen.
Hopelijk krijgt AMD wel support voor Microsoft DXR.
Grote kans dat AMD dit gaat doen want de hardware voor de xbox is nu ook van AMD, developments kits voor de xbox lijken ook steeds meer op die van de PC. Dus het zou voor AMD een win-win zijn. Weer de opdracht om hardware te leveren voor de xbox en goede performance in de games op de pc. Dit omdat het voor ontwikkelaars makkelijker is om voor zowel de xbox als de pc te ontwikkelen als deze grofweg de zelfde soort hardware technieken gebruiken.

Acties:
  • +1 Henk 'm!
Brilsmurfffje schreef op dinsdag 21 augustus 2018 @ 12:27:
[...]


Grote kans dat AMD dit gaat doen want de hardware voor de xbox is nu ook van AMD, developments kits voor de xbox lijken ook steeds meer op die van de PC. Dus het zou voor AMD een win-win zijn. Weer de opdracht om hardware te leveren voor de xbox en goede performance in de games op de pc. Dit omdat het voor ontwikkelaars makkelijker is om voor zowel de xbox als de pc te ontwikkelen als deze grofweg de zelfde soort hardware technieken gebruiken.
Sterker nog er gaan geruchten dat Navi vooral voor de PS5 ontworpen is. Het design is wel voor andere dingen te gebruiken maar zal daar als eerste het levenslicht zien.
Grote kans dat de volgende Xbox ook een Navi GPU krijgt met Zen2 CPU cores net als de PS5.

In dat opzicht heeft AMD wel een aardige markt te pakken qua aantallen. Alleen de winst marges zijn daar klein. Het is wel een manier om er voor te zorgen dat je architectuur genoeg in de markt aanwezig is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!
Astennu schreef op dinsdag 21 augustus 2018 @ 12:33:
[...]


Sterker nog er gaan geruchten dat Navi vooral voor de PS5 ontworpen is. Het design is wel voor andere dingen te gebruiken maar zal daar als eerste het levenslicht zien.
Grote kans dat de volgende Xbox ook een Navi GPU krijgt met Zen2 CPU cores net als de PS5.

In dat opzicht heeft AMD wel een aardige markt te pakken qua aantallen. Alleen de winst marges zijn daar klein. Het is wel een manier om er voor te zorgen dat je architectuur genoeg in de markt aanwezig is.
Winstmarges be dammed. Je hebt de architectuur ontwikkeld, Sony en Microsoft betalen je R&D terug en je kan chips verschepen om aan de WSA met GloFo te voldoen zodat je daar geen boete krijgt. De architectuur naar de PC brengen en daar winst maken is je bonus. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 12:42:
[...]


Winstmarges be dammed. Je hebt de architectuur ontwikkeld, Sony en Microsoft betalen je R&D terug en je kan chips verschepen om aan de WSA met GloFo te voldoen zodat je daar geen boete krijgt. De architectuur naar de PC brengen en daar winst maken is je bonus. ;)
Helemaal waar. Ondertussen hebben ze de tijd de CPU en servermarkt weer op orde te krijgen en dat lukt tot nu toe heel erg goed. Dan is het financiële plaatje straks ook beter en kan je weer meer in GPU ontwikkeling steken.

Dus nu even niet goed mee toen om straks een kans te maken wel terug te komen. (in it for the long game)
Lijkt mij erg verstandig. Financieel gezien staat AMD er nu heel erg goed voor (afgelopen jaren was dat niet best). Dus in dat opzicht weet Lisa Su wel wat ze doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 21 augustus 2018 @ 12:47:
[...]


Helemaal waar. Ondertussen hebben ze de tijd de CPU en servermarkt weer op orde te krijgen en dat lukt tot nu toe heel erg goed. Dan is het financiële plaatje straks ook beter en kan je weer meer in GPU ontwikkeling steken.

Dus nu even niet goed mee toen om straks een kans te maken wel terug te komen. (in it for the long game)
Lijkt mij erg verstandig. Financieel gezien staat AMD er nu heel erg goed voor (afgelopen jaren was dat niet best). Dus in dat opzicht weet Lisa Su wel wat ze doen.
Ik zou niet zeggen dat de financiën nu geweldig zijn. Het is eerder dat ze niet afstevenen op faillissement. :P
Maar ik hoop vooral dat Navi geen GCN architectuur meer is. Zeker omdat Nvidia lijkt te hebben gekozen voor stilstand in architectuur, en weinig extra's gaat leveren buiten ray tracing om. Een kaart die 15% over de RX Vega 64 gaat zal de RTX2080 waarschijnlijk al matchen of verslaan in traditionele shader en rasterization. Dat zou goed te doen moeten zijn, zelfs als AMD niet voor een enorme chip gaat. Opeens is een herhaling van een 48xx scenario geen onmogelijkheid meer. Als de Pascal kaarten weg zijn, en je met een RTX2070 zit, dan is Vega opeens zelfs competitief als de prijzen nog een beetje dalen. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Wat mooi zou zijn als Intel in de markt komt van videokaarten dat ze met AMD meedoen aan het beschikbaar stellen van opensource tooling. Dus in feite meedoen aan het gpuopen programma.
Denk dat de twee samen genoeg tegengas kunnen geven tegen gameworks. Ik vermoed namelijk niet dat Raja Koduri ondertussen een voorstander is van gameworks :p. Hij zal dan waarschijnlijk eerder voor AMD kiezen.

Acties:
  • +1 Henk 'm!

Verwijderd

DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 12:42:
[...]


Winstmarges be dammed. Je hebt de architectuur ontwikkeld, Sony en Microsoft betalen je R&D terug en je kan chips verschepen om aan de WSA met GloFo te voldoen zodat je daar geen boete krijgt. De architectuur naar de PC brengen en daar winst maken is je bonus. ;)
ja en ipv veel geld uit te geven om developers jou kant uit te krijgen pak je nu de meest interessante markt voor developers en forceer je ze om met jou architectuur te werken.

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 13:04:
[...]


Ik zou niet zeggen dat de financiën nu geweldig zijn. Het is eerder dat ze niet afstevenen op faillissement. :P
Maar ik hoop vooral dat Navi geen GCN architectuur meer is. Zeker omdat Nvidia lijkt te hebben gekozen voor stilstand in architectuur, en weinig extra's gaat leveren buiten ray tracing om. Een kaart die 15% over de RX Vega 64 gaat zal de RTX2080 waarschijnlijk al matchen of verslaan in traditionele shader en rasterization. Dat zou goed te doen moeten zijn, zelfs als AMD niet voor een enorme chip gaat. Opeens is een herhaling van een 48xx scenario geen onmogelijkheid meer. Als de Pascal kaarten weg zijn, en je met een RTX2070 zit, dan is Vega opeens zelfs competitief als de prijzen nog een beetje dalen. :P
Nja tov eerst nu dik in het groen dat is wat mij betreft goed. Zeker als ze dat dit jaar en volgend jaar het hele jaar vol kunnen houden. Je ziet het ook wel terug in dat ze weer meer marketing aan het doen zijn. Dus je merkt gewoon dat het beter gaat.

Inderdaad maar ik weet het gewoon niet of dat al haalbaar is. Ze moeten de boel wel verder op de schop gooien willen ze iets kunnen maken wat veel sneller is als Vega. Want GCN heeft tot nu toe de limitatie voor max 64 CU's en dus 4096 shaders. En de frond end is niet snel genoeg voor al die 4096 shaders zie ook Fiji en Vega waarbij de cut down versies op gelijke clocks amper trager zijn.

je ziet dat nVidia nu wel weer voor grotere chips met fixed function units gaat. Dat is een nadeel als een game ze niet gebruikt. Maar zodra ze wel gebruikt worden krijg je het omgekeerde.
Hopelijk kan AMD iets maken wat goed genoeg op de shaders kan draaien zonder een al te extreme hit.

Vega zal niet veel dalen HBM is gewoon te duur. Ik denk dat ze die schrappen. En dat er hooguit een 12nm Polaris refresh komt die wat sneller is. Al vraag ik mij af hoe groot die kans is gezien de kosten van een mask. Aan de andere kant zou je eigenlijk ook makkelijk een iets grotere polaris uit kunnen brengen met GDDR5x of 6 zie ook de Xbox One X die een grotere versie van polaris aan boord heeft. Maar ook dit zie ik niet snel gebeuren. Dus het is afwachten wat AMD gaat doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Het zou echt grappig zijn als AMD nu voor de software oplossing gaat waar ze traditioneel gezien juist voor een hardware oplossing gaan en Nvidia juist voor de software oplossing en nu dus hardware oplossing.

[ Voor 8% gewijzigd door Verwijderd op 21-08-2018 14:17 ]


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Verwijderd schreef op dinsdag 21 augustus 2018 @ 14:17:
Het zou echt grappig zijn als AMD nu voor de software oplossing gaat waar ze traditioneel gezien juist voor een hardware oplossing gaan en Nvidia juist voor de software oplossing en nu dus hardware oplossing.
Re-release van Vega op 7nm met GDDR6 zal wel grappig zijn ja :+

Acties:
  • 0 Henk 'm!

  • _Dune_
  • Registratie: September 2003
  • Laatst online: 14:43

_Dune_

Moderator Harde Waren

RAID is geen BACKUP

DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 14:45:
[...]

Re-release van Vega op 7nm met GDDR6 zal wel grappig zijn ja :+
Goedkoper en sneller... ik ga ervoor... :)

Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/


Acties:
  • 0 Henk 'm!

Verwijderd

Ben even zeer speculatief bezig en dit hoorde meer in het AMD topic dan Nvidia topic....
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 15:20:
[...]


Om nu een nieuwe videokaart architectuur uitbrengen zonder fatsoenlijke software stacks is gewoon geldverspilling. Nou is Intel daar vrij goed in, maar zo dom zijn ze nou ook weer niet, hoop ik dan. Nee, dat is het soort stupiditeit dat ik associeer met AMD in het pre Lisa Su tijdperk. :P

Nu hebben ze een jaar geleden een zeker hoofd van de GPU divisie van AMD overgenomen. Onder zijn leiding is AMD begonnen met de opbouw van een software stack voor deep learning, en zijn de drivers voor de gaming kaarten ook flink verbeterd en uitgebreid. Verder zet AMD de tools, documentatie en hun kennis voor low level API's gewoon online om die barrière te slechten. Het is ook allemaal open source.

Intel kan dus kiezen om zelf hun eigen software stacks op te gaan bouwen, of open source gaan, zich aansluiten bij AMD hun werk en zelf bij gaan dragen aan bijvoorbeeld het "Boltzmann Initiative" en dan eigen drivers ontwikkelen die hier vervolgens gebruik van maken. Ik gok dat optie twee zeker niet onrealistisch is. Zeker omdat Intel en AMD tegenwoordig meer "frenemies" zijn dan aartsvijanden. Ze hebben een gezamenlijke vijand, Nvidia. Intel en AMD kunnen niet zonder elkaar bestaan, maar wel zonder Nvidia. ;)
Hoe groot is de kans dat AMD en Intel samen 1 product uit brengen ?

kennen jullie Larrabee nog wat uitendelijk in Knight Ferry omgedoopt is.

YouTube: Intel Labs: Wolfenstein Gets Ray Traced, On a Laptop! | Intel

Stel je voor AMD en Intel die samen een GPU uitbrengen voor Raytracing of gezamelijk er aan werken voor elk hun eigen doeleinden.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op dinsdag 21 augustus 2018 @ 16:27:
Ben even zeer speculatief bezig en dit hoorde meer in het AMD topic dan Nvidia topic....


[...]


Hoe groot is de kans dat AMD en Intel samen 1 product uit brengen ?

kennen jullie Larrabee nog wat uitendelijk in Knight Ferry omgedoopt is.

YouTube: Intel Labs: Wolfenstein Gets Ray Traced, On a Laptop! | Intel

Stel je voor AMD en Intel die samen een GPU uitbrengen voor Raytracing of gezamelijk er aan werken voor elk hun eigen doeleinden.
Nul. :P
Maar dat betekent niet dat ze elkaar niet kunnen aanvullen in software standaarden. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

The enemy of my enemy is my friend.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 16:29:
[...]


Nul. :P
Maar dat betekent niet dat ze elkaar niet kunnen aanvullen in software standaarden. ;)
Een man mag dromen :+

Nee maar serieus er speelt vast veel in de raytracing hoek bij Intel als ze in 2010 al een realtime demonstatie konden doen. Ik hoop alleen dat AMD niet achtergelaten wordt, een samenwerking zou een mooie uitkomst zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op dinsdag 21 augustus 2018 @ 12:33:
[...]


Sterker nog er gaan geruchten dat Navi vooral voor de PS5 ontworpen is. Het design is wel voor andere dingen te gebruiken maar zal daar als eerste het levenslicht zien.
Dat Navi is ontworpen voor de PS5 wil niet zeggen dat die eerst in de PS5 opduikt en pas dan in onze computers. Het is mogelijk dat het wat eerder klaar is dan dat de PS5 uitkomt en dat het alvast wordt verkocht aan PC-gamers. Achteraf gezien zou het me niet verbazen als Polaris ook al custom made was voor de PS4 Pro en mogelijk ook de X1X. Het kwam ongeveer tegelijkertijd uit (op zichzelf zegt dat niets) en het ging maar t/m 36 CU's met 40 voor de console terwijl ze best grotere GPU's op basis van dat ontwerp hadden kunnen maken zoals de 290X en 390X in de generatie daarvoor). Als mijn vermoeden klopt dan was het toen al zo dat PC gamers eerder de kaart hadden dan dat de PS4 Pro uitkwam terwijl AMD de GPU had ontworpen voor de PS4 Pro.
Grote kans dat de volgende Xbox ook een Navi GPU krijgt met Zen2 CPU cores net als de PS5.
In dat opzicht heeft AMD wel een aardige markt te pakken qua aantallen. Alleen de winst marges zijn daar klein. Het is wel een manier om er voor te zorgen dat je architectuur genoeg in de markt aanwezig is.
Eens. Die Gameworks-raylight-features zullen slechts een extraatje zijn en zijn uit te schakelen, de spellen zullen prima draaien zonder dat. Maar ja, Nvidia heeft weer een mooi marketing-instrument: "koop onze kaarten als je fancy licht en schaduwen wil...". Nu is mijn indruk op basis van wat ik heb gezien bij game-demo's dat de techniek nog lang niet goed genoeg is om goed raylight-tracing te doen, zelfs niet voor dat beetje waarvoor ze het gebruiken. Ik zag toch wel serieuze artefacten bij reflecties (vlammen in een plas water) en schaduwen (Shadow of the Tomb Rader, ik vond het beter uitzien zonder die feature). Het doet me denken aan de schaduwen in de eerste jaren (eind jaren 0, begin jaren 10) en aan Hairworks (veel te weinig haren om het er geloofwaardig uit te laten zien).
Ik denk dat de mensen die kritisch kijken naar graphics het helemaal niet erg vinden als ze wat raylight-tracing missen bij Nvidia-only features in spellen maar de gewone gamers zullen die Nvidia-kaarten weer kopen omdat ze bang zijn wat te missen. Zoals vroeger met PhysX en later met Gameworks.

offtopic:
Consumentisme en advertising in het algemeen is precies hierop gebaseerd, adverteerders spelen in op mensen hun angst om iets tekort te komen en consumenten kopen uit angst iest te missen.

Acties:
  • +1 Henk 'm!
DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 14:45:
[...]

Re-release van Vega op 7nm met GDDR6 zal wel grappig zijn ja :+
Ik heb het idee dat ze bij Vega 20 op 7nm het ea aan compute toegevoegd hebben waar je bij gaming niets aan hebt behalve transistors die weer stoom verbruiken. Maar dat is nog niet helemaal zeker. De die was alleen vrij groot gezien de stap van 14nm naar 7nm.
Verwijderd schreef op dinsdag 21 augustus 2018 @ 16:27:
Ben even zeer speculatief bezig en dit hoorde meer in het AMD topic dan Nvidia topic....


[...]


Hoe groot is de kans dat AMD en Intel samen 1 product uit brengen ?

kennen jullie Larrabee nog wat uitendelijk in Knight Ferry omgedoopt is.

YouTube: Intel Labs: Wolfenstein Gets Ray Traced, On a Laptop! | Intel

Stel je voor AMD en Intel die samen een GPU uitbrengen voor Raytracing of gezamelijk er aan werken voor elk hun eigen doeleinden.
Gaat niet gebeuren. Intel ziet AMD niet als een partner. Ze wilde alleen nVidia nog minder helpen dus de deal voor bepaalde GPU patenten die ze eerst met nVidia hadden hebben ze nu met AMD afgesloten.
Verwijderd schreef op dinsdag 21 augustus 2018 @ 17:12:
[...]

Dat Navi is ontworpen voor de PS5 wil niet zeggen dat die eerst in de PS5 opduikt en pas dan in onze computers. Het is mogelijk dat het wat eerder klaar is dan dat de PS5 uitkomt en dat het alvast wordt verkocht aan PC-gamers. Achteraf gezien zou het me niet verbazen als Polaris ook al custom made was voor de PS4 Pro en mogelijk ook de X1X. Het kwam ongeveer tegelijkertijd uit (op zichzelf zegt dat niets) en het ging maar t/m 36 CU's met 40 voor de console terwijl ze best grotere GPU's op basis van dat ontwerp hadden kunnen maken zoals de 290X en 390X in de generatie daarvoor). Als mijn vermoeden klopt dan was het toen al zo dat PC gamers eerder de kaart hadden dan dat de PS4 Pro uitkwam terwijl AMD de GPU had ontworpen voor de PS4 Pro.


[...]

Eens. Die Gameworks-raylight-features zullen slechts een extraatje zijn en zijn uit te schakelen, de spellen zullen prima draaien zonder dat. Maar ja, Nvidia heeft weer een mooi marketing-instrument: "koop onze kaarten als je fancy licht en schaduwen wil...". Nu is mijn indruk op basis van wat ik heb gezien bij game-demo's dat de techniek nog lang niet goed genoeg is om goed raylight-tracing te doen, zelfs niet voor dat beetje waarvoor ze het gebruiken. Ik zag toch wel serieuze artefacten bij reflecties (vlammen in een plas water) en schaduwen (Shadow of the Tomb Rader, ik vond het beter uitzien zonder die feature). Het doet me denken aan de schaduwen in de eerste jaren (eind jaren 0, begin jaren 10) en aan Hairworks (veel te weinig haren om het er geloofwaardig uit te laten zien).
Ik denk dat de mensen die kritisch kijken naar graphics het helemaal niet erg vinden als ze wat raylight-tracing missen bij Nvidia-only features in spellen maar de gewone gamers zal die Nvidia-kaarten weer kopen omdat ze bang zijn wat tre missen. Zoals vroeger met PhysX en later met Gameworks.

offtopic:
Consumentisme en advertising in het algemeen is precies hierop gebaseerd, adverteerders spelen in op mensen hun angst om iets tekort te komen en consumenten kopen uit angst iest te missen.
Mee eens hoeft idd niet zou best kunnen dat Navi toch eerder op de desktop komt. Hoe eerder hoe beter!.

Ja vind ik ook steker nog vond veel effecten veel te overdreven en dus helemaal niet mooi. Zo ziet het er in het echt zeker niet uit. Dan vond ik sommige oude reflecties idd mooier.

Maar goed het is net met TV's blaas de kleuren en helderheid op zodat ze feller zijn dan in werkelijkheid en de gemiddelde mens vind het mooier en koopt die TV. En niet de TV die het exact zou laten zien zoals het zou moeten zijn.
Persoonlijk ben ik iemand die dan de laatste tv zou kopen ipv de eerste. Maar de meerderheid heeft nog steeds zijn amoled scherm op Dynamic ipv movie mode staan met opgeblazen kleuren waardoor foto's er totaal niet realistisch uit zien en als je ze dan op je PC bekijkt ipv samsung tv ziet het er ineens totaal anders uit...

Dit is een beetje hetzelfde overdreven effecten waar de tieners heel blij van worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op dinsdag 21 augustus 2018 @ 21:12:
[...]


Ik heb het idee dat ze bij Vega 20 op 7nm het ea aan compute toegevoegd hebben waar je bij gaming niets aan hebt behalve transistors die weer stoom verbruiken.
Het zou me niet verbazen. Zeker is in ieder geval dat vaak de GPU-load te laag ligt bij Vega en dat de GPU dus overkill is in vergelijking met andere delen van de kaart en dat de kaart zeer goed presteert voor andere toepassingen dan games in verhouding tot de game-performance. De gaming-performance is zeker niet slecht, vooral als je de kaart goed tunet, maar het blinkt uit bij andere toepassingen. Overigens blijkt Vega het in Linux een lange tijd beter te hebben gedaan dan de 1080 Ti (zie Level1Linux) maar ik heb geen idee waar dat door komt (Nvidia die steken laat vallen bij Linux) maar dat is niet zo relevant, wel interessant en iets om in de gaten te houden.
Gaat niet gebeuren. Intel ziet AMD niet als een partner. Ze wilde alleen nVidia nog minder helpen dus de deal voor bepaalde GPU patenten die ze eerst met nVidia hadden hebben ze nu met AMD afgesloten.
Toch zou het voor zowel Intel als AMD voordelig zijn als ze samen zouden werken. Als Intel aan de open software bijdraagt en de open software van AMD gebruikt dan hebben de beide bedrijven hier voordeel van en qua hardware zouden ze ook goed samen kunnen werken want Intel heeft het geld en AMD heeft de kennis, ervaring en patenten. Dat laatste zie ik ook niet gebeuren maar het eerste wel. Intel is een nieuwkomer in deze markt, als het de open software van AMD gebruikt dan bespaart het flink op kosten en vergroot het flink de kans dat die open software goed wordt gebruikt door developers (omdat zowel AMD als Intel het ondersteunen).
Ja vind ik ook steker nog vond veel effecten veel te overdreven en dus helemaal niet mooi. Zo ziet het er in het echt zeker niet uit. Dan vond ik sommige oude reflecties idd mooier.

Maar goed het is net met TV's blaas de kleuren en helderheid op zodat ze feller zijn dan in werkelijkheid en de gemiddelde mens vind het mooier en koopt die TV. En niet de TV die het exact zou laten zien zoals het zou moeten zijn.
Persoonlijk ben ik iemand die dan de laatste tv zou kopen ipv de eerste. Maar de meerderheid heeft nog steeds zijn amoled scherm op Dynamic ipv movie mode staan met opgeblazen kleuren waardoor foto's er totaal niet realistisch uit zien en als je ze dan op je PC bekijkt ipv samsung tv ziet het er ineens totaal anders uit...
Dit is een beetje hetzelfde overdreven effecten waar de tieners heel blij van worden.
Voor mij hetzelfde. Geef mij maar realistisch in plaats van overdreven wanneer je fotorealistisch probeert te tekenen. Er is natuurlijk ook ruimte voor bijvoorbeeld geheel onrealistische platformspellen met kleurrijke rubber hose tekeningen. ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 21 augustus 2018 @ 17:12:
[...]
maar de gewone gamers zal die Nvidia-kaarten weer kopen omdat ze bang zijn wat tre missen. Zoals vroeger met PhysX en later met Gameworks.
Als die tensorcores net als bij Volta volledig bruikbaar zijn voor compute/Tensorflow, dan vrees ik dat er weer een nvidia kaart komt. AMD is sterk in compute, behalve bij tensor berekeningen.
Ik heb voor de huidige generatie al een 1080Ti gekocht ipv een Vega 64, simpelweg omdat die in tegenstelling tot Vega verkrijgbaar was en maar 100 euro duurder door de toen nog opgeblazen crypto prijzen.

Dat hele raytracing gebeuren kan me dan weer gestolen worden. Dus als Navi met tensor cores komt heeft AMD bij mij een kans.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op dinsdag 21 augustus 2018 @ 23:03:
[...]

Als die tensorcores net als bij Volta volledig bruikbaar zijn voor compute/Tensorflow, dan vrees ik dat er weer een nvidia kaart komt. AMD is sterk in compute, behalve bij tensor berekeningen.
Ik heb voor de huidige generatie al een 1080Ti gekocht ipv een Vega 64, simpelweg omdat die in tegenstelling tot Vega verkrijgbaar was en maar 100 euro duurder door de toen nog opgeblazen crypto prijzen.

Dat hele raytracing gebeuren kan me dan weer gestolen worden. Dus als Navi met tensor cores komt heeft AMD bij mij een kans.
Wat voor een reken werk doe je dan?
Want tensor cores kunnen maar Int4 dat is voor hele specifieke zaken en niet veelzijdig zoals fp32/64.
Dus je hebt er in hele specifieke gevallen maar wat aan. nVidia gebruikt het om bepaalde ray tracing denoising te doen.

Als ik die prestaties van RT in huidige games zie moet ik toch wel lachen. De performance hit is enorm. De enige kaart die het enigszins fatsoenlijk kan is de RTX 2080 Ti. En gezien de FPS zou ik het uit zetten. Ik heb dan liever een hogere framerate dan die matige effecten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Exact.

Als je ook kijkt hoe waanzinnig veel die space er op die Turing gereserveerd is voor Tensor en RT mag ik toch hopen dat je er in de praktijk echt iets aan hebt.

7nm is denk ik qua die size veel beter moment om met RT te beginnen.

Ook het feit dat de 2060 etc zeer waarschijnlijk geen RT hebben geeft al aan dat het enorm niche is de komende jaren.


Je moet natuurlijk ergens beginnen met een nieuwe IQ techniek dus wat betreft vind ik het dan weer wel een goede stap.

Aan de andere kant vind ik het zelf te vroeg komen. Ben meer geinteresseerd in prestatieverbetering op hoge resolutie widescreen en 4k monitoren.

Als we dat op hoge IQ kunnen spelen met 100 a 144 FPS is het miscchien tijd om eens te gaan raytracen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

Verwijderd

Astennu schreef op woensdag 22 augustus 2018 @ 10:04:
[...]
Wat voor een reken werk doe je dan?
Ik ben bezig met neurale netwerken om gedrag van onze gebruikers te voorspellen en autocomplete suggesties te kunnen doen. Het is nog een klein project nu om de haalbaarheid te onderzoeken. Ik vond bij een eerste onderzoek info dat Volta veel hogere performance levert dan Pascal, maar gezien de status van het project was er geen budget voor een Titan V.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 22 augustus 2018 @ 10:18:
[...]

Ik ben bezig met neurale netwerken om gedrag van onze gebruikers te voorspellen en autocomplete suggesties te kunnen doen. Het is nog een klein project nu om de haalbaarheid te onderzoeken. Ik vond bij een eerste onderzoek info dat Volta veel hogere performance levert dan Pascal, maar gezien de status van het project was er geen budget voor een Titan V.
Dat komt waarschijnlijk door die Tensor cores ja die zijn juist gemaakt voor die neurale netwerken.
Met Vega kan je dat ook relatief snel tov andere kaarten want dan kan je die waarschijnlijk in die int8 bewerkingen stoppen en dat kan hij dan 4x zo snel als normale FP32 berekeningen.
Maar die nieuwe nVidia kaarten zijn dan ook interessant.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
TU102 is trouwens gigantisch. 754mm dus het is een dure chip om te maken. TU104 zal ook niet heel goedkoop zijn. Afhankelijk van de prestaties van de nieuwe architectuur zou AMD daar dan best wat tegen over moeten kunnen zetten en weer voor bang for buck gaan. Maar dan moeten ze iets zonder HBM hebben met 4096 shaders. In dat opzicht zou een soort van grote Polaris chip met iets van 3072-3584 shaders het maximale front end op 12nm en GDDR6 niet eens heel slecht zijn. Dan zou je rond Vega 56 performance kunnen zitten alleen veel goedkoper. En dan is het ook een relatief kleine chip (vega is gewoon groter door alle extra compute zaken die nu nog amper gebruikt worden).

Maar in dat opzicht zie ik het niet snel gebeuren omdat het een oudere architectuur is. 7nm is gewoon nog te ver weg voor massa productie. Maar als ze daar relatief snel mee kunnen zijn volgend jaar voor Navi hebben ze misschien een kans redelijk goed voor de dag te komen. nVidia zal ook wel snel switchen maar niet binnen een jaar. TU zal denk ik minimaal een jaar mee moeten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 22 augustus 2018 @ 10:35:
Maar dan moeten ze iets zonder HBM hebben met 4096 shaders. In dat opzicht zou een soort van grote Polaris chip met iets van 3072-3584 shaders het maximale front end op 12nm en GDDR6 niet eens heel slecht zijn. Dan zou je rond Vega 56 performance kunnen zitten alleen veel goedkoper. En dan is het ook een relatief kleine chip (vega is gewoon groter door alle extra compute zaken die nu nog amper gebruikt worden).
De productieproblemen voor HBM2 zullen toch wel een keer opgelost worden? Op zich hoeft dat niet duurder te zijn dan GDDR6 en het heeft zijn voordelen.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 22 augustus 2018 @ 11:17:
[...]

De productieproblemen voor HBM2 zullen toch wel een keer opgelost worden? Op zich hoeft dat niet duurder te zijn dan GDDR6 en het heeft zijn voordelen.
Jawel maar blijft toch duur geheugen. nVidia gebruikt het voor GV100 en AMD voor de Vega kaarten. De nieuwe Vega 20 heeft 4 chips. En in die markt past dat ook beter de marges zijn daar veel groter.

Dus wil je een kaart goedkoop op de markt zetten moet je geen HBM gebruiken. Dat is echt voor het high end segment. Als HBM zo goedkoop was had nVidia het wel voor de nieuwe kaarten gebruikt maar er zitten gewoon wat nadelen aan. Qua prestaties is het heel mooi spul zeker als je 4 stacks gebruikt dan heb je 1GB/s aan bandbreedte daar kom je met GDDR6 niet aan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
2GB/s? Vier stacks waarvan elke stack aan een 1024 bits geheugenbus hangt levert om en nabij 1TB/s toch?
Verwijderd schreef op woensdag 22 augustus 2018 @ 11:17:
[...]

De productieproblemen voor HBM2 zullen toch wel een keer opgelost worden? Op zich hoeft dat niet duurder te zijn dan GDDR6 en het heeft zijn voordelen.
Helemaal mee eens, maar de voordelen zijn beperkt. Qua verbruik doet HBM het beter. Dit is helaas alleen relatief een groot verschil. In absolute zin gaat het om enkele watts.

Nog een voordeel is dat de PCB aanzienlijk kleiner kan.

Beide van deze voordelen lijkt AMD niet volledig te willen uitbuiten. Immers zijn de Vega kaarten even groot als de nVidia tegenhangers. Sterker nog een GTX1080 kan kleiner zijn dan een Vega kaart. Alleen Sapphire heeft een Vega kaart met kleine PCB. Waar vervolgens toch geen andere koeler of waterblock op past. Qua stroomverbruik is Vega dramatisch afgesteld, dat beetje winst met HBM gooien ze maar wat graag over boord.

De R9 Nano was waarschijnlijk geen succes.

Deze twee voordelen die HBM heeft kunnen in laptops en AIO's wel beter uitgebuit worden, maar dat doet AMD vooralsnog alleen samen met Apple in hun iMac. Vergeet ook de Intel CPUs met AMD GPU en HBM op één package niet. Zonder HBM is dit feestje niet realiseerbaar. De PCB wordt er gewoon veel te groot door wat niet gunstig is voor het kunnen verwerken in laptops e.d. (small form factors). Daarnaast is die paar watt verbruik mooi meegenomen.

Hopelijk wordt HBM in de toekomst financieel wat haalbaarder t.o.v. conventioneel GDDRx geheugen. Wellicht als APU's er eens gebruik van gaan maken.

[ Voor 15% gewijzigd door madmaxnl op 22-08-2018 15:12 ]


Acties:
  • 0 Henk 'm!
madmaxnl schreef op woensdag 22 augustus 2018 @ 15:06:
2GB/s? Vier stacks waarvan elke stack aan een 1024 bits geheugenbus hangt levert om en nabij 1TB/s toch?


[...]


Helemaal mee eens, maar de voordelen zijn beperkt. Qua verbruik doet HBM het beter. Dit is helaas alleen relatief een groot verschil. In absolute zin gaat het om enkele watts.

Nog een voordeel is dat de PCB aanzienlijk kleiner kan.

Beide van deze voordelen lijkt AMD niet volledig te willen uitbuiten. Immers zijn de Vega kaarten even groot als de nVidia tegenhangers. Sterker nog een GTX1080 kan kleiner zijn dan een Vega kaart. Alleen Sapphire heeft een Vega kaart met kleine PCB. Waar vervolgens toch geen andere koeler of waterblock op past. Qua stroomverbruik is Vega dramatisch afgesteld, dat beetje winst met HBM gooien ze maar wat graag over boord.

De R9 Nano was waarschijnlijk geen succes.

Deze twee voordelen die HBM heeft kunnen in laptops en AIO's wel beter uitgebuit worden, maar dat doet AMD vooralsnog alleen samen met Apple in hun iMac. Vergeet ook de Intel CPUs met AMD GPU en HBM op één package niet. Zonder HBM is dit feestje niet realiseerbaar. De PCB wordt er gewoon veel te groot door wat niet gunstig is voor het kunnen verwerken in laptops e.d. (small form factors). Daarnaast is die paar watt verbruik mooi meegenomen.

Hopelijk wordt HBM in de toekomst financieel wat haalbaarder t.o.v. conventioneel GDDRx geheugen. Wellicht als APU's er eens gebruik van gaan maken.
My bad denk foutje 1GB/s moet dat zijn O-)
Je moet dus een 512Bit GDDR6 memory bus hebben wil je in de buurt komen.

Het is inderdaad klein en zuinig en toch heel snel maar gewoon lastiger te maken en daardoor dus duur.

Vega hadden ze ook wel kleiner kunnen maken net als de Fury X en Nano zal een keuze geweest zijn.
De Nano was relatief duur er shoppen niet veel mensen in dat prijs segment laat staan die perse een super kleine kaart willen hebben voor een kleine build dat is weer een kleiner deel van het al dure segment. Dus opzich niet zo raar dat die aantallen relatief laag zijn. Fury X kaarten zijn meer verkocht dan die Nano's.

Die nano's zijn wel erg leuke kaartjes. Ook best snel en zuinig voor die generatie zeker tov de normale Fury en de Fury X.

[ Voor 13% gewijzigd door Astennu op 22-08-2018 16:18 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Doet AMD eigenlijk wel iets met AI en deeplearning/machine learning ?

Als ik nu naar Nvidia kijk lijkt het bijna alsof zij door gebruik te maken van DL en AI een soort turbo hebben uitgevonden terwijl AMD het nog puur moet doen op cilinderinhoud.

Acties:
  • 0 Henk 'm!

Verwijderd


Het gaat meer over Nvidia maar een conclusie van hem aan het einde raakt de spijker op de kop voor AMD. Waar Nvidia hun nieuwe technologie direct gebruikt krijgen door developers en waar ze dat zelfs doen bij tal van spellen die voorheen door AMD werden 'gesponsord' kreeg AMD het nauwelijks voor elkaar dat hun nieuwe technologie wordt gebruikt.
Ben ik de enige die vermoed dat Nvidia extra jaagt op die spelreeksen die voorheen door AMD werden gesponsord. AMD kwam met TressFX, Nvidia heeft tal van hun proprietary technieken in de twee opvolgers laten opnemen. Dat mooie haar zit hen dwars? :p

Verwijderd

madmaxnl schreef op woensdag 22 augustus 2018 @ 15:06:
2Deze twee voordelen die HBM heeft kunnen in laptops en AIO's wel beter uitgebuit worden, maar dat doet AMD vooralsnog alleen samen met Apple in hun iMac.
En dat is dan ook de reden waarom Vega HBM kreeg, omdat het voor Apple handig is en omdat Apple een zak met geld gaf om Vega te ontwikkelen. Wij PC gamers mogen de GPU ook kopen maar het werd ontwikkeld voor Apple. Wil je voorspellen wat voor geheugen Navi krijgt, beantwoord de vraag wat het best uitkomt voor Sony voor de PS5.

[ Voor 10% gewijzigd door Verwijderd op 23-08-2018 00:01 ]

Verwijderd schreef op woensdag 22 augustus 2018 @ 22:58:
Doet AMD eigenlijk wel iets met AI en deeplearning/machine learning ?

Als ik nu naar Nvidia kijk lijkt het bijna alsof zij door gebruik te maken van DL en AI een soort turbo hebben uitgevonden terwijl AMD het nog puur moet doen op cilinderinhoud.
Ja maar niet zoals nVidia. Vega is een stap voor deepleaning. Die kan dat veel sneller dan de voorgangers.
Echter heeft AMD niet zo iets als die Tensor cores want die zijn in verhouding wel heel erg snel.
Verwijderd schreef op woensdag 22 augustus 2018 @ 23:19:
[video]
Het gaat meer over Nvidia maar een conclusie van hem aan het einde raakt de spijker op de kop voor AMD. Waar Nvidia hun nieuwe technologie direct gebruikt krijgen door developers en waar ze dat zelfs doen bij tal van spellen die voorheen door AMD werden 'gesponsord' kreeg AMD het nauwelijks voor elkaar dat hun nieuwe technologie wordt gebruikt.
Ben ik de enige die vermoed dat Nvidia extra jaagt op die spelreeksen die voorheen door AMD werden gesponsord. AMD kwam met TressFX, Nvidia heeft tal van hun proprietary technieken in de twee opvolgers laten opnemen. Dat mooie haar zit hen dwars? :p
Ik ben het helemaal met AdoreTV eens. Sterker nog ik heb het voor dat ik dat filmpje zag al meerdere malen geroepen op tweakers en hwi maar mensen vinden mijn verwachting maar niets :P.

nVidia is groot heeft gigantisch veel marktaandeel. Dat soort features in Vega doen hetzelfde maar dev's gaan voor AMD helaas niet dat soort dingen inbakken :(
Als de PS5 en nieuwe Xbox het krijgen misschien wel. En dan druppelt het heel langzaam voor nieuwe games door naar de PC en dan pas zal Vega tov de Pascal en Polaris wat meer kunnen laten zien.

nVidia heeft gewoon @ launch support in nieuwe games geregeld omdat ze er zo veel geld in steken in in house bij die dev's zitten. Wil je onze hulp prima dit is wat je dan moet doen.... Zo is het eigenlijk al jaren en dat verschil wordt steeds groter en groter.
AMD zal daar nu ook minder tijd en geld in steken gezien hun huidige GPU aanbod en marktaandeel en de focus voor nu ergens anders neer leggen tot ze weer een betere GPU architectuur ontwikkeld hebben en dan heb ik het niet zo veer over Navi maar later als die uberhaubt al op de planning staat.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 23 augustus 2018 @ 08:38:nVidia heeft gewoon @ launch support in nieuwe games geregeld omdat ze er zo veel geld in steken in in house bij die dev's zitten. Wil je onze hulp prima dit is wat je dan moet doen.... Zo is het eigenlijk al jaren en dat verschil wordt steeds groter en groter.
AMD zal daar nu ook minder tijd en geld in steken gezien hun huidige GPU aanbod en marktaandeel en de focus voor nu ergens anders neer leggen tot ze weer een betere GPU architectuur ontwikkeld hebben en dan heb ik het niet zo veer over Navi maar later als die uberhaubt al op de planning staat.
Hopelijk de generatie na Navi. Het is echter teleurstellend dat de developers niet uit zichzelf meer de goede functies uit GPUOpen gebruiken en zelf deze bibliotheek uitbreiden. Dat TressFX niet in meer spellen wordt gebruikt terwijl de meeste gamers het een aanwinst vinden is bezopen. Dat RPM niet standaard wordt gebruikt is bezopen.
...

Het viel trouwens ook op bij die presentatie van Nvidia hoe dikke vriendjes ze zijn met de developer van de Unreal Engine. Geen wonder dat die spellen die die engine gebruiken zo slecht draaien op de AMD-kaarten. In die mate dat ik niet eens een speellicentie zou kopen totdat ze die rotzooi hebben opgeruimd (PUBG bijvoorbeeld).

[ Voor 14% gewijzigd door Verwijderd op 23-08-2018 13:05 ]

Verwijderd schreef op donderdag 23 augustus 2018 @ 13:02:
[...]

Hopelijk de generatie na Navi. Het is echter teleurstellend dat de developers niet uit zichzelf meer de goede functies uit GPUOpen gebruiken en zelf deze bibliotheek uitbreiden. Dat TressFX niet in meer spellen wordt gebruikt terwijl de meeste gamers het een aanwinst vinden is bezopen. Dat RPM niet standaard wordt gebruikt is bezopen.
...
Ja erg jammer en dingen als gameworks worden wel meteen geïmplementeerd omdat nVidia dat pushed :'( En die dingen zijn waarschijnlijk weer zo specifiek dat Vega er geen voordeel van heeft en nVidia kaarten wel. Die doen een soort gelijk iets met FP32 en Init tegelijk verwerken en dat wordt waarschijnlijk relatief snel door dev's ondersteund. En voor Vega is dat niet gebeurd.

Op die manier snap ik ook wel dat AMD zo iets heeft van weet je laat die videokaart markt maar daar winnen we het toch niet we gaan wel focus verleggen naar de CPU en server markt/datacenter + semi custom.

[ Voor 11% gewijzigd door Astennu op 23-08-2018 13:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Had me Asus Strixx Vega 56 binnen. Werd meteen weer duidelijk waarom AMD het zo slecht doet. Zonder enige kennis van voltages en powerlimit moet je gewoon niet aan een AMD beginnen.

Draait perfect na 2 dagen tweaken!

http://www.twitch.tv/jannustitannus


Verwijderd

evilpin0 schreef op donderdag 23 augustus 2018 @ 13:13:
Had me Asus Strixx Vega 56 binnen. Werd meteen weer duidelijk waarom AMD het zo slecht doet. Zonder enige kennis van voltages en powerlimit moet je gewoon niet aan een AMD beginnen.

Draait perfect na 2 dagen tweaken!
Wat heb jij aangepast? Spanning omlaag met hoeveel volt en wat nog meer?
Jij hebt helemaal gelijk, veel PC-gamers hebben een console-gamer mentaliteit. Geen interesse om op te zoeken hoe ze de hardware tunen, geen interesse om op te zoeken wat grafische instellingen doen, geen interesse om te experimenteren. Ze willen dat het plug and play is. Daar is niets mis mee maar die mensen rennen gillend weg als een kaart niet out of the box goed getuned is of 1 bepaalde functie de grafische gezien weinig of geen verschil maakt boven een bepaalde stand (tesellation, msaa) naar beneden afgesteld moet worden om de beste performance te krijgen.
Astennu schreef op donderdag 23 augustus 2018 @ 13:07:
[...]


Ja erg jammer en dingen als gameworks worden wel meteen geïmplementeerd omdat nVidia dat pushed :'( En die dingen zijn waarschijnlijk weer zo specifiek dat Vega er geen voordeel van heeft en nVidia kaarten wel. Die doen een soort gelijk iets met FP32 en Init tegelijk verwerken en dat wordt waarschijnlijk relatief snel door dev's ondersteund. En voor Vega is dat niet gebeurd.
Asynchronous computing. :X
Echter ben ik zo dwars dat ik juist daarom eerder een AMD-kaart koop. Ik ben geen martelaar maar ik laat me door niets of niemand chanteren om merk X te kopen en ik weet wat er gebeurt als enkel Nvidia overblijft. Dus dan maar een midend Navi in 2019 die in ieder geval geschikt gaat zijn voor 1440p met een hoge RR en FPS en zeer hoge graphics.
Op die manier snap ik ook wel dat AMD zo iets heeft van weet je laat die videokaart markt maar daar winnen we het toch niet we gaan wel focus verleggen naar de CPU en server markt/datacenter + semi custom.
Ja, bovendien maakt AMD daar meer winst. Nu wil AMD best wel meer investeren in de graphics markt en zijn ze daar zeer voorzichtig mee begonnen (ook niet onbelangrijk: mensen van Zen overplaatsen naar de GPU-afdeling) maar dat AMD met het beperkte budget eerst het leeuwendeel investeert in de CPU en pas bij een hoger budget de GPU-investeringen weer verhoogt is volstrekt begrijpelijk. Nu die CPU staat als een huis ontstaat er meer ruimte voor de GPU maar wij gaan dat pas over een paar jaar merken aan de grafische kaarten. :/

[ Voor 23% gewijzigd door Verwijderd op 23-08-2018 13:20 ]

Verwijderd schreef op donderdag 23 augustus 2018 @ 13:14:
[...]

Asynchronous computing. :X
Echter ben ik zo dwars dat ik juist daarom eerder een AMD-kaart koop. Ik ben geen martelaar maar ik laat me door niets of niemand chanteren om merk X te kopen en ik weet wat er gebeurt als enkel Nvidia overblijft. Dus dan maar een midend Navi in 2019 die in ieder geval geschikt gaat zijn voor 1440p met een hoge RR en FPS en zeer hoge graphics.


[...]

Ja, bovendien maakt AMD daar meer winst. Nu wil AMD best wel meer investeren in de graphics markt en zijn ze daar zeer voorzichtig mee begonnen (ook niet onbelangrijk: mensen van Zen overplaatsen naar de GPU-afdeling) maar dat AMD met het beperkte budget eerst het leeuwendeel investeert in de CPU en pas bij een hoger budget de GPU-investeringen weer verhoogt is volstrekt begrijpelijk. Nu die CPU staat als een huis ontstaat er meer ruimte voor de GPU maar wij gaan dat pas over een paar jaar merken aan de grafische kaarten. :/
Ik wil na GPP gewoon echt geen nVidia meer. Het interesseert me ook niet als die kaart 2x sneller is. Dan maar niet ben er echt klaar mee. Vind het leuk om te lezen over de nieuwe RT technieken. Ookal is het niet echt bruikbaar het is wel mooie techniek.
Ik ga zelf mijn Vega 56 air vervangen voor een Vega 64 LC gewoon omdat het kan en ik het een mooie kaart vind (ga hem toch weer wat underclocken voor het verbruik :P)

En dan wacht ik wel op Navi in de hoop dat er ook een komt die wel wat sneller is als Vega 64. Maar aan de andere kant op 1440P draait Vega prima en dan vind ik het ook geen ramp om een paar dingen op High ipv ultra te moeten zetten om de FPS hoog te houden.

Ze moeten nu wel blijven investeren in de CPU afdeling. Dus ze moeten nieuwe mensen inhuren voor de GPU afdeling en vooral niet weg halen bij de CPU afdeling eerder bijplaatsen. Intel is ook wakker geworden die hebben vorig jaar een Dream team samen gesteld met Jim keller aan het roer. Kortom over 3 jaar gaat er een uber chip komen waar ze het tegen op moeten gaan nemen. Want als je al ziet wat Jim bij AMD met weinig geld voor elkaar heeft gekregen kan hij bij Intel wonderen gaan verrichten met dat geld wat ze daar hebben. Dus ik vrees wel het ergste tegen die tijd maar voorlopig doen ze het goed en daar moeten ze van profiteren + hard door werken aan een goede opvolger van Zen terwijl ze aan Zen2 tm 5 werken. Want die zullen ze nodig gaan hebben.

Als AMD het goed kan blijven doen in de CPU en Server markt hebben ze ook meer geld om te investeren in de Datacenter en GPU markt waar oa Vega Instinct gebruikt wordt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Verwijderd schreef op donderdag 23 augustus 2018 @ 13:14:
[...]

Wat heb jij aangepast? Spanning omlaag met hoeveel volt en wat nog meer?
Jij hebt helemaal gelijk, veel PC-gamers hebben een console-gamer mentaliteit. Geen interesse om op te zoeken hoe ze de hardware tunen, geen interesse om op te zoeken wat grafische instellingen doen, geen interesse om te experimenteren. Ze willen dat het plug and play is. Daar is niets mis mee maar die mensen rennen gillend weg als een kaart niet out of the box goed getuned is of 1 bepaalde functie de grafische gezien weinig of geen verschil maakt boven een bepaalde stand (tesellation, msaa) naar beneden afgesteld moet worden om de beste performance te krijgen.
Hard switch gezet op standaard mode (ipv OC) ding crasht direct op OC mode op standard settings
Voltage - 71 (!)
Powerlimit 0%
2 case fans erop gezet om VRM te koelen
Geheugen op 850 (wilt niet echt hard gaan)
Trekt volgens afterburner nu rond de 250 watt

Hij boost hem zo naar 1530 mhz, dikke prima op 68-70 graden en VRM op 90 graden

http://www.twitch.tv/jannustitannus

evilpin0 schreef op donderdag 23 augustus 2018 @ 13:24:
[...]


Hard switch gezet op standaard mode (ipv OC) ding crasht direct op OC mode op standard settings
Voltage - 71 (!)
Powerlimit 0%
2 case fans erop gezet om VRM te koelen
Geheugen op 850 (wilt niet echt hard gaan)
Trekt volgens afterburner nu rond de 250 watt

Hij boost hem zo naar 1530 mhz, dikke prima op 68-70 graden en VRM op 90 graden
Voltage -71mv is nog steeds iets van 1100mv als ik mij niet vergis?

Ik draai 900mv en 1450MHz :) ding is heel erg zuinig met die settings. Zit nog wel iets rek in volgens mij kan ik ook 1470-1480MHz halen en dit is gewoon met 85c aangezien ik een blower fan heb. Maar dan wel een fan speed van maximaal 2000rpm meestal lager. Dus vandaar de hogere temperatuur.
Mijn geheugen draait op 1000MHz.

850 is wel heel erg laag voor een Vega kaart. Zelfs met de 56 bios haalde ik vaak 950-1000.
Wat je zou kunnen proberen is een Strixx 64 bios flashen dan heb je wel het hogere memory voltage van een Vega 64. En dan de voltages gewoon weer verder tweaken. Scheelt vaak wel iets voor HBM OC heb ik ook bij mijn Vega 56 gedaan al was het niet perse nodig. Bij andere 56's scheelde het wel. En sowieso voor de Max oc als je alles vol open zet scheelt het door het hogere power limit wat een 64 heeft. Maar dat vind ik niet zo interessant was meer voor een keer voor de grap heb toen 1700MHz kunnen halen.

Ga dit weekend als het mee zit met Vega 64 LC aan de slag. Ben benieuwd wat die gaan doen. Temperatuur is dan veel lager dus wel een voordeel. Die kaarten willen wat makkelijker 1050-1100MHz op het geheugen doen. Al is Vega rond de 1500MHz niet echt bandwidth starved 1000 is dan genoeg.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 23 augustus 2018 @ 13:21:
[...]


Ik wil na GPP gewoon echt geen nVidia meer. Het interesseert me ook niet als die kaart 2x sneller is. Dan maar niet ben er echt klaar mee. Vind het leuk om te lezen over de nieuwe RT technieken. Ookal is het niet echt bruikbaar het is wel mooie techniek.
Het is zeker een mooie techniek. Voor zo ver ik het begrijp gebruiken ze een klein aantal rays waarmee ze rekenen en laten ze die nieuw toegevoegde processor-eilandjes een soort van 'AI' gebruiken die bepaalt met welke rays je rekent en hoe van daaruit wordt geëxtrapoleerd. Ambitiues maar ook duidelijk nog onvoldoende goed om betrouwbare resultaten op te leveren gezien de fouten. Om nog maar te zwijgen over een FPS van 30-40 met een 2080 Ti. Dat wordt in het beste geval 2 generaties later voor het eerst interessant voor de doorsnee gamer, tenzij gamers nu nog steeds Crysis-taferelen willen waarbij ze met 4 FPS het spel spelen om maar de mooie graphics te kunnen zien. :)
En dan lachen mensen ermee dat ik zo'n spel een paar jaar later pas koop om het direct goed te spelen. @Paprika :p
Los van het punt of dat het mooier is als het niet realistisch is
Maar aan de andere kant op 1440P draait Vega prima en dan vind ik het ook geen ramp om een paar dingen op High ipv ultra te moeten zetten om de FPS hoog te houden.
Als je dat slim doet dan ga je het verschil misschien niet eens zien. :)
Of het is zo klein dat het niet uitmaakt.
Ze moeten nu wel blijven investeren in de CPU afdeling. Dus ze moeten nieuwe mensen inhuren voor de GPU afdeling en vooral niet weg halen bij de CPU afdeling eerder bijplaatsen.
Ik denk dat het er meer om ging dat bepaalde mensen bepaalde kennis opdeden door het werken aan de CPU die goed gebruikt kan worden voor de GPU, ik denk dan zelf aan het automatisch goed tunen wat ze bij Ryzen2 meesterlijk doen en wat bij RTG duidelijk minder goed lukt zoals Evilpin net nog aangaf. Stel dat ze daar een team van 6 man hadden voor dat deel van de CPU dan kan je best 1 iemand overzetten naar RTG omdat die overiges 5 verder kunnen werken en een desnoods een nieuw iemand van buiten erbij kan worden gezet en direct mee kan doen. Natuurlijk afhankelijk van de omstandigheden maar het kan een goed idee zijn.

Jim Keller is een zeer goede architect maar minstens zo belangrijk is dat hij bij AMD zelf een dreamteam samenstelde. Mijn indruk, op basis van lange interviews en gesprekken met hem die zijn gepubliceerd en geplaatst, is dat hij vooral een goede manager is. Dat team wat hij bij AMD vormde is er nog steeds. Ja, Intel heeft meer geld en dat kan mogelijk in hun voordeel werken maar ik zou niet stellen dat dat automatisch gebeurt. Het is ook mogelijk dat Keller bij Intel minder vrijheid krijgt om dat te doen waarin hij uitblinkt omdat hij een radar in de machine is in plaats van dat het om hem draait. Verder kan je met geld smijten wat je wil, het gaat uiteindelijk om dat ene goede idee (modulaire opbouw CPU), of die ene goede aankoop (Infinity Fabric).

Ik had dezelfde gedachte over de RX 570, ik wil namelijk passthrough opzetten in Linux: Windows draaien in een virtuele machine zonder performanceverlies doordat de grafische kaart direct wordt aangesproken. Het heeft wat praktische voordelen t.o.v. dualbooten/triplebooten wanneer je Windows gebruikt voor gaming maar Linux gebruikt voor de rest. Hoewel het niet noodzakelijk is is een tweede grafische kaart dan erg handig en mijn huidige kaart vertoont tekenen dat het niet meer 100% is, zowel bij Windows als bij Linux heb ik al een tijdje dat ik regelmatig een frame met artefacten zie bij desktopgebruik. Het is niet storend maar het doet me afvragen hoe lang deze 5 jaar oude kaart het nog uithoudt. Al zou het in theorie ook de voeding kunnen zijn die twijfelachtig is (OEM-bak, mijn laatste). Een RX 570 kan veel spellen die native Linux support hebben prima aan met 1080p en ook nog wel met 1440p, soms met wat compromissen, als tweede kaart is het leuk als je die voor bijvoorbeeld €120 zou kunnen kopen.

[ Voor 8% gewijzigd door Verwijderd op 23-08-2018 13:56 ]


  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
Nog ff verder tweaken dus. Stond verbaast dat ik al zover kon undervolten. Met de Switch op OC mode moest ik voltage toevoegen om hem stabiel te houden! Dacht in eerste instantie dat ik een kat in de zak had gekocht toen het ineens in opkwam dat er een switch op de kaart zit...

Vind het altijd leuk om te tweaken, maar elke pc die ik bouw voor een vriend stop ik (met pijn in me hart) een nvidia in.

Ik probeer hem binnen te flashen. Had hem gekocht zodat ik weer alle VR games kon spelen, de enige reden om mijn 290 weg te doen.

http://www.twitch.tv/jannustitannus


Verwijderd

evilpin0 schreef op donderdag 23 augustus 2018 @ 13:47:
Nog ff verder tweaken dus. Stond verbaast dat ik al zover kon undervolten.
Rond de 0,1 V is volstrekt normaal bij AMD. :+
Ja, AMD-kaarten zijn vooral leuk voor mensen die de kaart een beetje tunen. Hier ook met mijn HD 7850 maar dan met overklokken naar 1050 MHz (van 860 MHz) waarbij je niet of nauwelijks de spanning hoeft aan te passen, iets wat normaal is bij die kaart.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Jim Keller heeft volgensmij vooral ingespeeld op de zwakke kanten van het Intel ontwerp zoals schaalbaarheid, produceerbaarheid van many cores Cpu’s tegen lage kosten en met hoge yields.

De andere kant van het AMD success is te danken aan het (wellicht definitieve verlies) van Intel van de voorsprong op produktieproces.

Even ervan uitgaande dat Intel inderdaad geen significante voorsprong meer zal hebben qua produktieproces, wat blijft dan over voor Jim ?

Uiteraard kan hij het AMD truukje herhalen en dan staan ze waarschijnlijk ongeveer op gelijke voet. Hij zal vast meer R&D geld hebben maar het zal normaal gesproken veel moeilijker zijn om vervolgens bijv. IPC significant te verhogen.

Sluit het niet uit dat Intel met iets heel moois komt maar zolang Intel geen voorsprong heeft op produktieprocess zie ik niet zo snel meer een grote prestatie voorsprong voor Intel.

Wel heeft Intel natuurlijk een enorme bestaande clientbase en ecosystem. Daar zullen ze denk ik nog wel lang voordeel van hebben.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 09:46
Duurt denk ik nog een maand of 2 voor ik een nieuw systeem bouw.
Als het geen 1080/2070 word maar een Vega, Zou dan een van jullie me wat directe stappen kunnen geven via Discord of Skype oid. Gezien Tuning a GPU een nieuwe ervaring voor me is zou ik daar wel wat directe feedback op willen.

Ben relatief neurotisch als ik dit soort dingen voor het eerst probeer.

Acties:
  • +1 Henk 'm!
Psyonara schreef op donderdag 23 augustus 2018 @ 16:01:
Duurt denk ik nog een maand of 2 voor ik een nieuw systeem bouw.
Als het geen 1080/2070 word maar een Vega, Zou dan een van jullie me wat directe stappen kunnen geven via Discord of Skype oid. Gezien Tuning a GPU een nieuwe ervaring voor me is zou ik daar wel wat directe feedback op willen.

Ben relatief neurotisch als ik dit soort dingen voor het eerst probeer.
Het is opzich geen rocket science.
We kunnen dan vast wel wat uitleg geven. Er is hier ook veel besproken in de eerste pagina's van dit topic:
AMD RX Vega Ervaringen topic
er staat daar ook een link naar een online document waar mensen hun resultaten gepost hebben dus die waardes die daar staan kan je ook als een baseline gebruiken. RX Vega UV/OC Results - Unigine SuperPosition

[ Voor 12% gewijzigd door Astennu op 23-08-2018 16:16 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 21-09 19:33
Psyonara schreef op donderdag 23 augustus 2018 @ 16:01:
Duurt denk ik nog een maand of 2 voor ik een nieuw systeem bouw.
Als het geen 1080/2070 word maar een Vega, Zou dan een van jullie me wat directe stappen kunnen geven via Discord of Skype oid. Gezien Tuning a GPU een nieuwe ervaring voor me is zou ik daar wel wat directe feedback op willen.

Ben relatief neurotisch als ik dit soort dingen voor het eerst probeer.
Geef tegen die tijd een seintje, het is echt redelijk eenvoudig en er kan niet heel veel misgaan :)

Verwijderd

Mensen helpen hier op het forum wel, geen probleem.

Acties:
  • 0 Henk 'm!

  • Vlizzjeffrey
  • Registratie: Oktober 2013
  • Laatst online: 19-09 16:57
Psyonara schreef op donderdag 23 augustus 2018 @ 16:01:
Duurt denk ik nog een maand of 2 voor ik een nieuw systeem bouw.
Als het geen 1080/2070 word maar een Vega, Zou dan een van jullie me wat directe stappen kunnen geven via Discord of Skype oid. Gezien Tuning a GPU een nieuwe ervaring voor me is zou ik daar wel wat directe feedback op willen.

Ben relatief neurotisch als ik dit soort dingen voor het eerst probeer.
In amd wattman voltage op 0.95v, powerlimit +50%, klaar is kees.

Dit is over het algemeen voor meeste vegas een mooi undervolt, stock performance met 40% minder stroomverbruik.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
[message=,noline]Help!!!! schreef op donderdag 23 augustus 2018 @ 14:22[/message]:
Jim Keller heeft volgensmij vooral ingespeeld....
Wrong topiq? :P

Acties:
  • 0 Henk 'm!
evilpin0 schreef op donderdag 23 augustus 2018 @ 13:13:
Had me Asus Strixx Vega 56 binnen. Werd meteen weer duidelijk waarom AMD het zo slecht doet. Zonder enige kennis van voltages en powerlimit moet je gewoon niet aan een AMD beginnen.

Draait perfect na 2 dagen tweaken!
En daarom is Koduri hopelijk ontslagen en lijkt de RTG aardig overgenomen door het functionele deel van AMD. Ik hoop dat we die onzin nooit meer hoeven zien zeg. :/


In het algemeen even de botte bijlmodus aan...
Buck GCN. Serieus weg ermee en snel ook. Ik snap het vasthouden eraan ook echt niet. Ik heb nog liever dat de RTG vrijwel geheel 2019 afwezig is en dan met een gloednieuwe architectuur komt dan weer een GCN. Dat is onderhand niks meer dan pappen en nathouden.

GCN was goed tegenover Kepler en is vrij sterk in compute. Voor gaming is het gewoon achterhaald. De CU's zijn niet diep genoeg voor grafische workloads. Er is te weinig L1 cache per CU waardoor veel informatie opgeslagen en teruggehaald moet worden uit de L2. De geheugencontroller is inefficiënt en verbruikt te veel. De architectuur is uberhaupt niet heel erg efficiënt met geheugenbandbreedte. Zijn de ROPs ook nog eens beperkt. Afdoende voor de CU's als deze eens wat doen met dank aan de DX11 draw call bottleneck, maar ze lopen bij zwaardere AA instellingen zoals 8xMSAA tegen een flinke limiet aan. Hebben we het nog niet over SSAA gehad wat Nvidia nu juist weer wil gaan pushen met Turing. Ondanks de weet ik hoeveel AA versies die bedacht zijn, komt niks anders dan MSAA zelfs maar in de buurt van SSAA.

De eisen voor een moderne videokaart zijn gewoon anders dan toen de eisen voor GCN zo rond 2008 werden gespecificeerd. GCN is een fixed function rekeneenheid die alles moet doen. Dit terwijl Nvidia nu alweer weggaat van fixed function units naar meer gespecialiseerde hardware. Tensorcores, Cuda Cores, RT cores etc. Daar is een reden voor. GCN haar Streaming Processors doen veel dingen aardig, maar niks dan algemene compute doen ze echt goed.

AMD heeft een nieuwe architectuur nodig die compute en grafische workloads beter balanceren. Ze moeten wat doen aan de inefficiëntie van de geheugencontroller en het gebrek aan L1 cache zodat de rekenclusters niet meer tegen beperkingen aanlopen. Ze moeten wat doen aan frontend tot ROPs ratio zodat je zware anti aliasing kan draaien zonder dat het je enorm kost in framerates. Vervolgens moeten ze ervoor zorgen dat ze niet met speciale hardware komen die implementatie door developers vragen, tenzij het om ray tracing gaat. Het Primitive Shaders verhaal hoeft niet nogmaals van mij. Laat AMD alsjeblieft een fatsoenlijk basisontwerp ontwikkelen zoals die "Super SMID" en er in laat 2019/begin 2020 mee komen. Tot die tijd verkoopt AMD maar lekker Vega's aan Apple, Intel, aan professionele gebruikers en de mensen die weigeren een Nvidia te kopen. Deze generatie hebben ze toch al verloren...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op vrijdag 24 augustus 2018 @ 17:05:
[...]


En daarom is Koduri hopelijk ontslagen en lijkt de RTG aardig overgenomen door het functionele deel van AMD. Ik hoop dat we die onzin nooit meer hoeven zien zeg. :/


In het algemeen even de botte bijlmodus aan...
Buck GCN. Serieus weg ermee en snel ook. Ik snap het vasthouden eraan ook echt niet. Ik heb nog liever dat de RTG vrijwel geheel 2019 afwezig is en dan met een gloednieuwe architectuur komt dan weer een GCN. Dat is onderhand niks meer dan pakken en nathouden.

GCN was goed tegenover Kepler en is vrij sterk in compute. Voor gaming is het gewoon achterhaald. De CU's zijn niet diep genoeg voor grafische workloads. Er is te weinig L1 cache per CU waardoor veel informatie opgeslagen en teruggehaald moet worden uit de L2. De geheugencontroller is inefficiënt en verbruikt te veel. De architectuur is uberhaupt niet heel erg efficiënt met geheugenbandbreedte. Zijn de ROPs ook nog eens beperkt. Afdoende voor de CU's als deze eens wat doen met dank aan de DX11 draw call bottleneck, maar ze lopen bij zwaardere AA instellingen zoals 8xMSAA tegen een flinke limiet aan. Hebben we het nog niet over SSAA gehad wat Nvidia nu juist weer wil gaan pushen met Turing. Ondanks de weet ik hoeveel AA versies die bedacht zijn, komt niks anders dan MSAA zelfs maar in de buurt van SSAA.

De eisen voor een moderne videokaart zijn gewoon anders dan toen de eisen voor GCN zo rond 2008 werden gespecificeerd. GCN is een fixed function rekeneenheid die alles moet doen. Dit terwijl Nvidia nu alweer weggaat van fixed function units naar meer gespecialiseerde hardware. Tensorcores, Cuda Cores, RT cores etc. Daar is een reden voor. GCN haar Streaming Processors doen veel dingen aardig, maar niks dan algemene compute doen ze echt goed.

AMD heeft een nieuwe architectuur nodig die compute en grafische workloads beter balanceren. Ze moeten wat doen aan de inefficiëntie van de geheugencontroller en het gebrek aan L1 cache zodat de rekenclusters niet meer tegen beperkingen aanlopen. Ze moeten wat doen aan frontend tot ROPs ratio zodat je zware anti aliasing kan draaien zonder dat het je enorm kost in framerates. Vervolgens moeten ze ervoor zorgen dat ze niet met speciale hardware komen die implementatie door developers vragen, tenzij het om ray tracing gaat. Het Primitive Shaders verhaal hoeft niet nogmaals van mij. Laat AMD alsjeblieft een fatsoenlijk basisontwerp ontwikkelen zoals die "Super SMID" en er in laat 2019/begin 2020 mee komen. Tot die tijd verkoopt AMD maar lekker Vega's aan Apple, Intel, aan professionele gebruikers en de mensen die weigeren een Nvidia te kopen. Deze generatie hebben ze toch al verloren...
Het is wel grappig dat Nvidia meer richting een compute heavy architectuur gaat met gespecialiseerde hardware functies ernaast (AI en RT) en 1 architectuur voor de hele linie. Turing lijkt ook meer op Volta met een extra RT core en wat verbeteringen in de shaders.

AMD heeft al een compute gerichte architectuur wat van pas kan komen bij het denoising van raytracing in de toekomst. Helaas is gewoon de shader output ondermaats.

Nvidia gebruikt volgensmij ook gewoon de shaders, dus compute voor een deel van de rays, zoals reflecties en dynamica shadows etc. En mogelijk alleen AI voor global illumination denoising. Maar Nvidia is wat vaag in de info erover.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op vrijdag 24 augustus 2018 @ 17:23:
[...]


Het is wel grappig dat Nvidia meer richting een compute heavy architectuur gaat met gespecialiseerde hardware functies ernaast (AI en RT) en 1 architectuur voor de hele linie. Turing lijkt ook meer op Volta met een extra RT core en wat verbeteringen in de shaders.
Turing is voor zover we nu weten gewoon Maxwell met extra L1 en L2 cache en daarnaast tensorcores en RT cores. Het is niet Volta. Volta heeft een geheel andere SM ontwerp en lijkt veel meer op GCN. ;)
AMD heeft al een compute gerichte architectuur wat van pas kan komen bij het denoising van raytracing in de toekomst. Helaas is gewoon de shader output ondermaats.

Nvidia gebruikt volgensmij ook gewoon de shaders, dus compute voor een deel van de rays, zoals reflecties en dynamica shadows etc. En mogelijk alleen AI voor global illumination denoising. Maar Nvidia is wat vaag in de info erover.
Ik weet niet wat Nvidia gebruikt binnen hun RT cores, maar ik vermoed dat het FP16 cores zijn, heel veel FP16 cores die alleen maar lichtstralen kunnen renderen. Maar dat hoort in het Nvidia topic.

Wat AMD moet doen is een eigen oplossing ontwikkelen voor het ray tracing vraagstuk, maar dat is zeker niet de eerste prioriteit. AMD zal eerst het gehele coreontwerp van hun architectuur moeten herzien zodat deze efficiënter, sneller en kleinschaliger word. Daarna kijken ze maar naar ray tracing. Wederom weg met GCN. GCN proberen op te poetsen met Polaris en Vega heeft jammerlijk gefaald. Er moet wat anders, wat beters komen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op vrijdag 24 augustus 2018 @ 17:05:
[...]


En daarom is Koduri hopelijk ontslagen en lijkt de RTG aardig overgenomen door het functionele deel van AMD. Ik hoop dat we die onzin nooit meer hoeven zien zeg. :/
Alsof Koduri geen aanwinst zou zijn voor AMD. Kom op, dat je hem bepaalde beslissingen niet meer laat nemen of niet langer de algemene manager van RTG laat zijn (of hoe je dat ook wil noemen), daar valt mogelijk iets voor te zeggen maar als hoofd architectuur+software zou hij zonder enige twijfel veel waarde toevoegen. Wij weten uiteraard niet wat er allemaal speelde. Mijn vermoeden is nog steeds dat Koduri uit zichzelf opstapte omdat Su beloftes brak door onvoldoende te investeren in de grafische tak en door een deel van de regie over te nemen.
Los van de discussie of dat dat wel of niet terecht was.
Hopelijk vertelt hij zelf ooit eens wat er precies gebeurde, tot die tijd zullen we het niet zeker weten.

Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op vrijdag 24 augustus 2018 @ 18:01:
[...]

Turing is voor zover we nu weten gewoon Maxwell met extra L1 en L2 cache en daarnaast tensorcores en RT cores. Het is niet Volta. Volta heeft een geheel andere SM ontwerp en lijkt veel meer op GCN. ;)

[...]


Ik weet niet wat Nvidia gebruikt binnen hun RT cores, maar ik vermoed dat het FP16 cores zijn, heel veel FP16 cores die alleen maar lichtstralen kunnen renderen. Maar dat hoort in het Nvidia topic.

Wat AMD moet doen is een eigen oplossing ontwikkelen voor het ray tracing vraagstuk, maar dat is zeker niet de eerste prioriteit. AMD zal eerst het gehele coreontwerp van hun architectuur moeten herzien zodat deze efficiënter, sneller en kleinschaliger word. Daarna kijken ze maar naar ray tracing. Wederom weg met GCN. GCN proberen op te poetsen met Polaris en Vega heeft jammerlijk gefaald. Er moet wat anders, wat beters komen.
Ik vind het eerder op Volta zonder fp64 lijken dan maxwell eerlijkgezegd maargoed dit hoort meer in het Nvidia topic.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Vind het ook te makkelijk om nu Koduri af te gaan pissen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!
Help!!!! schreef op vrijdag 24 augustus 2018 @ 21:24:
Vind het ook te makkelijk om nu Koduri af te gaan pissen.
En waarom precies? Koduri had het leiderschap over de gehele GPU afdeling, software en hardware. Op het gebied van software zijn er goede stappen gezet over de gehele linie. Stappen die ik Koduri zeker mede wil toekennen en waar ik ook behoorlijk tevreden over ben als gebruiker van AMD videokaarten. Op het gebied van hardware was er stagnatie en herhaalt falen onder zijn leiderschap. Falen dat versterkt is door producten te lanceren met met slechte drivers, slechte koeling of belachelijke voltages die in het geval van Vega zelfs voor slechtere prestaties van het product hebben gezorgd. Verder is er nogal wat reputatieschade aangericht aan het merk Radeon. Tegenwoordig is het "loud and hot", en verder komen veel niet. Hebben we het nog niet over de marketing hypes gehad zoals die van Polaris en al helemaal "poor Volta". Daar was Chris Hook verantwoordelijk voor, en hij is ook weg.

Verder is Koduri niet een godheid die als enige in staat is om een fatsoenlijke GPU te ontwikkelen. Nee, Koduri is waarschijnlijk de enige GPU/CTO waar mensen van gehoord hebben. Koduri kan echt wel een GPU ontwerpen met een team om zich heen, zie TeraScale, maar in een management rol heeft hij gefaald. Als je de GPU divisie van AMD autonoom krijgt van de rest van AMD, en vervolgens niet levert dan heb je een probleem. Als je divisie vervolgens faalt om een slecht product op te poetsen, en in plaats hiervan het erger maakt, dan is je positie niet langer houdbaar. Het gaat hier om investeringen van honderden miljoenen dollars per generatie en dan moet je leveren. Je hebt maar zoveel krediet en excuses te maken.

Of het nu een rivaliteit tussen Koduri en Su was waar Su haar kans greep na het Vega debacle, het de aandeelhouders waren die Koduri zijn leiderschap niet pikte, interne zorgen over Koduri zijn leiderschap of Koduri zelf die besefte dat hij het niet aankon, wou vertrekken of besloot dat het tijd was voor een wisseling van leiderschap is niet relevant. Koduri zijn RTG heeft op het gebied van hardware zwaar onder gepresteerd terwijl er wel nieuwe producten kwamen. Dit terwijl ze bij de CPU's jarenlang vrijwel helemaal niks kwam en ze alleen maar Zen deden, wat wel een succes was.

Nu is hij vervangen door David Wang voor het technische leiderschap en Mike Rayfield voor het management. Dit kwam op het moment dat dankzij Zen, AMD eindelijk weer zwarte cijfers kon schrijven en de R&D budgetten en talent vrij kwamen voor de RTG. Die David Wang is ook geen pannenkoek. Hij was betrokken was bij alles van de Radeon 9700 tot en met de HD7000 series. Verder zitten een aantal van de sleutelfiguren van Zen nu bij de RTG.

Er staat nog een vraag open. Komt De RTG in 2019 of 2020 met een gloednieuwe architectuur die succesvol is, dan mag dit ook mede aangeschreven worden aan Koduri omdat de ontwikkeling voor zijn vertrek moet zijn begonnen. Ik hoop dat dit zo gaat zijn. Ik haat de man echt niet, verre van. Ik moet alleen wel constateren dat zijn leiderschap van de RTG geen succes was. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • evilpin0
  • Registratie: September 2002
  • Laatst online: 20-05-2024
DaniëlWW2 schreef op vrijdag 24 augustus 2018 @ 17:05:
[...]



I botte bijlmodus aan...
Buck GCN. Serieus weg ermee en snel ook.
En ik was net zo blij met me vega 56😥

http://www.twitch.tv/jannustitannus


Acties:
  • 0 Henk 'm!
evilpin0 schreef op zaterdag 25 augustus 2018 @ 00:19:
[...]


En ik was net zo blij met me vega 56😥
Ik ben ook tevreden met zelfs een refrence RX Vega 56. Ik begrijp alleen wel dat dit niet het beste is wat AMD zou moeten kunnen. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
evilpin0 schreef op zaterdag 25 augustus 2018 @ 00:19:
[...]


En ik was net zo blij met me vega 56😥
Gelukkig hangt jouw blijheid niet af van wat DaniëlWW2 vind :+.

@DaniëlWW2
Imho erg kort door de bocht Koduri is misschien ontslagen omdat hij wel juist meer een echte gaming gpu wilde maar het budget of de vrijheid daarvoor niet kreeg. Het lijkt er erg op dat AMD Vega voornamelijk voor Apple, semicustom en het bedrijfsleven heeft gemaakt. Dat de kaart redelijk snel is is een leuke bijkomstigheid. Maar zoals je zelf ziet schaalt de GCN architectuur niet veel verder.
Net zoals voor cpu's worden voor gpu's de ontwerpen voor lange termijn gemaakt. Het kan prima zijn dat Navi of iets wat daarna komt het feitelijke kindje van Koduri is.

Qua software heeft AMD enorme stappen gemaakt; m.i. is de driver van AMD beter dan die van Nvidia.

Edit:
Heb inderdaad niet alles helemaal goed gelezen. Je hebt gelijk dat de marketing van Vega met dat poor Volta gewoon slecht gekozen was aangezien ze niet eens voorbij Pascal gingen. De reference koeling is best goed, het is alleen door het hoge voltage (wat veels te hoog is) dat de koeling het lastig krijgt.
Volgens mij gaf The Source aan dat het lastig is om GPU's te binnen. Dat kan een reden zijn dat het voltage expres hoog is gekozen; aan de andere kant is er inderdaad misschien door Koduri of Su druk uitgeoefend om voor een hoger voltage te gaan om de GTX 1080 te verslaan?

Kwam het volgende tegen:
https://www.hardocp.com/n...d_radeon_rays_technology/
en
https://steamcommunity.co...etail/1681419156989664451
What is Radeon Rays?

Radeon Rays is a software library that provides GPU-accelerated algorithms for tracing coherent rays (direct light) and incoherent rays (global illumination, sound propagation). Radeon Rays is highly optimized for modern GPUs, and provides OpenCL and Vulkan backends. Steam Audio uses the OpenCL backend, which requires a GPU that supports OpenCL 1.2 or higher.
Blijft mooi dat AMD dit soort spul maakt. Werkt dus ook op Nvidia en Intel.

[ Voor 42% gewijzigd door Sp3ci3s8472 op 25-08-2018 17:40 . Reden: Nieuws ]


Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op zaterdag 25 augustus 2018 @ 01:16:
[...]


Gelukkig hangt jouw blijheid niet af van wat DaniëlWW2 vind.

@DaniëlWW2
Imho erg kort door de bocht Koduri is misschien ontslagen omdat hij wel juist meer een echte gaming gpu wilde maar het budget of de vrijheid daarvoor niet kreeg. Het lijkt er erg op dat AMD Vega voornamelijk voor Apple, semicustom en het bedrijfsleven heeft gemaakt. Dat de kaart redelijk snel is is een leuke bijkomstigheid. Maar zoals je zelf ziet schaalt de GCN architectuur niet veel verder.
Net zoals voor cpu's worden voor gpu's de ontwerpen voor lange termijn gemaakt. Het kan prima zijn dat Navi of iets wat daarna komt het feitelijke kindje van Koduri is.

Qua software heeft AMD enorme stappen gemaakt; m.i. is de driver van AMD beter dan die van Nvidia.
En dit is gewoon oneerlijk en geeft aan dat je mijn reacties niet of slecht hebt gelezen. :/
Ik heb zelf nu al bijna een jaar een Vega en die kaart blijft totdat AMD met iets beters komt. Uitstekende kaart is het en dankzij Nvidia hun RTX push gaan er alleen maar meer DX12 titels komen waardoor Vega alleen maar beter gaat worden.

Dat is mijn punt niet. Mijn punt is dat als je bijna geen budget hebt en je weet dat je producten matig zullen zijn, je erg je best zal moeten doen in presentatie. Dat is niet gebeurd. Sterker nog, het werd alleen maar slechter met elke release. Polaris was echt niet de beste architectuur ooit, maar die kaarten boden tenminste meerwaarde tegenover Nvidia hun producten. Freesync, low level API's maar hebben ook de onnodig hoge voltages en bijbehorende problemen.

Dat is probleem een. Je reference kaarten zijn nooit goed. Als je dan voltages gaat verhogen voor het minimale aan extra clockspeed en buiten elke efficiëntiecurve van GCN gaat dan krijg je als resultaat "loud and hot". En waarom? Voor een theoretische paar procent extra terwijl je in de praktijk snel tegen thermal throttling aanloopt. Dat is precies wat er met de RX480 gebeurde.
Zie: https://www.computerbase....560-1440-benchmark-part-3

Vervolgens ontneem je het OC potentieel wat je kan gebruiken als positieve marketing en zadel je de AIB's op met onnodig zware eisen aan koeling. Daar hebben ze geen zin in omdat ze een goede winstmarge willen maken op elke kaart dus krijg je een lange lijst met slechte videokaarten en een paar goede ertussen.

Probleem twee is als je probleem een neemt, het nog veel erger maakt, er een zwaar misleidende reclamecampagne tegenaan gooit en je features ontwerpt die bij nader inzien niet blijken te werken. Dat was de lancering van Vega. Vega is een grote chip waar er ingrijpende aanpassingen zijn gemaakt in de CU's, scheduler, geheugenbus en de ROPs. Die chip zal AMD honderden miljoenen hebben gekost om te ontwikkelen en vervolgens schopt de RTG zichzelf onderuit door er even 1200mv tegenaan te gooien waardoor de kaarten slechter presteren dan met dezelfde boostclocks en 1000mv. Dat is gewoon niks meer dan falen van leiderschap, zowel technisch als marketing en algemeen leiderschap.

Technisch omdat het grote ding van Vega, Primitive Shaders, niet werken en de combinatie van een matige koeling en veel te hoge voltages die het product slechter laten presteren. Marketing kan aardig opgesomd worden met "poor Volta". Onder algemeen leiderschap moet je kijken naar de rommelige lancering, de verwarring over het functioneren van features of het gebrek aan communicatie tussen afdelingen. Dat laatste is wel duidelijk geworden met de Primitive Shaders. Hoe kan je nou eerst vermelden dat het via de driver werkt, vervolgens blijkt het niet te werken, en nu lijkt het helemaal geschrapt te zijn.

Dat is het soort leiderschapsproblematiek dat AMD niet kan gebruiken. AMD heeft toch al een lange geschiedenis van falend leiderschap waardoor ze goede producten niet verkocht kregen. Wederom, ik wil best geloven dat Koduri een bijzonder goede GPU architectuur kan ontwerpen. Ik zie ook echt wel de enorme verbeteringen in drivers. Neemt niet weg dat er geen fouten zijn gemaakt. Fouten die niet gemaakt mogen worden op het niveau waar Koduri functioneerde. Het is nogal wat om je producten slechter te maken waarna je klanten het zelf moeten repareren. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op vrijdag 24 augustus 2018 @ 22:28:
Falen dat versterkt is door producten te lanceren met met slechte drivers, slechte koeling of belachelijke voltages die in het geval van Vega zelfs voor slechtere prestaties van het product hebben gezorgd.
Koduri merkte zelf voor de launch van Vega op dat "het gedaan moet zijn met dat AMD fine wine is en dat de drivers meteen goed moeten zijn". Ik vind het gemakkelijk om Koduri te verwijten dat de hardware-ontwikkeling stagneerde en dat de drivers niet op dag 1 in orde zijn, hij moet het ook maar zien te redden met dat kleine beetje budget wat beschikbaar werd gesteld en we weten inmiddels dat Vega voor Apple werd ontwikkeld, niet voor desktop-gaming, en dat dat de enige reden was dat AMD met een highend kaart kwam in deze tijd. Dat hij niet de beste general manager voor RTG is daar ben ik het mee eens maar ze hadden hem prima kunnen laten verdergaan bij AMD als hoofd technicus.
Polaris was echt niet de beste architectuur ooit, maar die kaarten boden tenminste meerwaarde tegenover Nvidia hun producten. Freesync, low level API's maar hebben ook de onnodig hoge voltages en bijbehorende problemen.
Naar mijn mening had AMD in die tijd FreeSync nog veel meer in de verf moeten zetten. "Je krijgt met de 1060 een hogere FPS bij DX11 maar bij de moderne engines DX12 en Vulkan krijg je met de RX RX 580 een hogere FPS en je kan een FreeSync monitor kopen terwijl G-Sync monitors erg duur zijn". FreeSync was hun grote wapen.
Dat is probleem een. Je reference kaarten zijn nooit goed. Als je dan voltages gaat verhogen voor het minimale aan extra clockspeed en buiten elke efficiëntiecurve van GCN gaat dan krijg je als resultaat "loud and hot". En waarom? Voor een theoretische paar procent extra terwijl je in de praktijk snel tegen thermal throttling aanloopt. Dat is precies wat er met de RX480 gebeurde.
Zie: https://www.computerbase....560-1440-benchmark-part-3

Vervolgens ontneem je het OC potentieel wat je kan gebruiken als positieve marketing en zadel je de AIB's op met onnodig zware eisen aan koeling. Daar hebben ze geen zin in omdat ze een goede winstmarge willen maken op elke kaart dus krijg je een lange lijst met slechte videokaarten en een paar goede ertussen.
De kaarten hadden een te hoge spanning en mogelijk ook een te hoge klokfrequentie maar dan wordt het gat bij DX11 met Nvidia, wat er toen was, nog groter worden. Een dilemma. Verder mogen die AIC-partners stevig bekritiseerd worden. Ja, het vermogen van Polaris ligt wat hoger, zeker met die te hoge spanning, maar niet zoveel hoger dat het een probleem is om dat fatsoenlijke te koelen, een aantal bedrijven deed duidelijk minder hun best voor de AMD-kaarten dan voor de Nvidia-kaarten en TheSource gaf hier toendertijd nog letterlijk aan dat ze voor AMD minder uit de kast halen omdat er minder kaarten van verkocht worden. Het probleem was niet alleen dat ze gierig waren (met heatsinks en zo), het probleem was ook dat sommige bedrijven die zowel een AIB als AIC zijn de heatsink die ontwikkeld was voor PCB's van Pascal die doodleuk gebruikten voor Polaris. Sapphire en Powercolor lieten dan ook nog eens steken vallen, enkel XFX kwam met een kaart die fatsoenlijk gekoeld waren. Gelukkig waren er voor de RX 580 meer fatsoenlijk gekoelde kaarten (XFX, Sapphire, Asus) maar toen was het model al een jaar oud, als ze dat nu direct voor de RX 480 hadden gedaan...
Hopelijk de volgende ronde beter.

[ Voor 63% gewijzigd door Verwijderd op 25-08-2018 14:34 ]


Acties:
  • +1 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
Bekritiseer je nu Koduri omdat AMD kiest producten uit te brengen die eigenlijk niet ontworpen zijn voor de taak waarvoor ze in de markt gezet worden?. Polaris was voor de consoles, en daar functioneert het prima. En AMD kiest er dan voor ook desktop kaarten uit te brengen. VEGA precies hetzelfde, ontwikkeld voor Apple en de compute markt en dan brengen ze dat ding ook uit voor de desktop. Niet heel gek dat het dan niet 100% voldoet aan de verwachtingen.
Ryzen is ook alleen maar ontwikkeld voor de datacenter markt. Toevallig werkt dat dan wel aardig op een consumenten desktop pc. AMD lijkt er een handje van te hebben om producten op de markt te brengen die eigenlijk niet voor het beoogde doel geschikt zijn.

Ik ben allang blij dat AMD nog producten uitbrengt voor de desktop en ik ben hartstikke tevreden met mijn VEGA kaart.

[ Voor 4% gewijzigd door Derby op 27-08-2018 08:21 . Reden: aanvulling ]

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair

Pagina: 1 ... 28 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.