Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Ik snap de vraag niet precies, bedoel je de bugfix voor video acceleratie?Tricolores schreef op maandag 16 september 2019 @ 08:59:
[...]
Wat met de VEGA-kaarten? Is dat daarop niet van toepassing?
Ik had eerst ook Antergos op mijn HTPC, alleen had ik wat problemen met het werkend krijgen van mijn PS4 controllers, maar dit had volgens mij uiteindelijk meer te maken met het feit dat ik het zonder antenne probeerde. Nu gebruik ik die wel.vectormatic schreef op maandag 16 september 2019 @ 09:08:
[...]
Mja, persoonlijk baal ik dan weer dat ze de 460/560 niet ook hebben meegenomen, had die kaartjes voor 1080p toch nog net wat meer levensduur gegeven, als ik zie wat voor verschil de ingebouwde sharpening in bijv Doom maakt...
(niet dat ik verwacht dat deze feature ook enigszins vlotjes in de linux drivers terecht komt, maar afijn, dat doe ik mezelf aan)
De Vega wordt niet genoemd voor de backwards compatible RIS.Sp3ci3s8472 schreef op maandag 16 september 2019 @ 12:01:
[...]
Ik snap de vraag niet precies, bedoel je de bugfix voor video acceleratie?
Het zal later ook voor deze kaarten uitkomen. Market share van de RX4xx en 5xx is groter dus zal het nu voor deze meer impact (en goodwill) creeren.
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTubeHet klopt dat de 5700 XT het niet slecht doet in RT als je naar Minecraft kijkt. Alleen daar wordt de gpu niet op andere punten belast. Ben benieuwd of die performance zich goed laat doorzetten naar zwaardere spellen.
Van de kleine dingetjes die naar buiten komen via patenten denk ik dat AMD eigenlijk gaat "valsspelen". AMD lijkt in te zetten op het gebruik van hun zeer veelzijdige CU's om met FP16 de rays aan te maken, een special function unit waarschijnlijk voor denoising, maar voornamelijk gebruik maken van hybride technieken zodat het geen gigantische preformance hit gaat opleveren. Ik denk dat AMD zo weinig mogelijk echte ray tracing zal doen en zoveel mogelijk zaken faken. Stuur maar wat rays rond, maar maak het licht en de shaduwen alsnog vrijwel geheel met shaders. De rays zou je kunnen gebruiken om bijvoorbeeld belichting of schaduwen preciezer te maken rond objecten.Sp3ci3s8472 schreef op vrijdag 20 september 2019 @ 12:56:
Interessante take op RT:
[YouTube: Denoising the Myth of Turing Ray Tracing]
Het klopt dat de 5700 XT het niet slecht doet in RT als je naar Minecraft kijkt. Alleen daar wordt de gpu niet op andere punten belast. Ben benieuwd of die performance zich goed laat doorzetten naar zwaardere spellen.
Aangezien dit in beide consoles terecht zal komen als RDNA2 en je waarschijnlijk het verschil niet of nauwelijks kan zien, maar de halvering in framerates niet meer hebt, zie ik RTX ook wel een snelle dood sterven. Net zoals Physx, GameWorks of ATi haar tesselation zie ik het niet breed geïmplementeerd worden. Komen nu nog wel wat games, maar het gaat niet aanslaan. Zeker niet omdat het dus helemaal niet zo makkelijk lijkt te implementeren en de hardware botweg niet eens in de buurt komt van het beoogde doel.
Ik zie RDNA2 haar aanpak, wat het ook precies zal zijn, zo dominant worden door de consoles dat het ook in veel console ports zal verschijnen. Ik zie het alleen niet echt zwaar zijn, maar ik zie het ook geen gebruik maken van RT en Tensorcores.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Valsspelen zou ik het niet noemen; het is een transitie periode en het is uitermate dom om gelijk vol op RT te gaan inzetten. Je moet kijken waar de technieken van RT en rasterization elkaar kunnen aanvullen.DaniëlWW2 schreef op vrijdag 20 september 2019 @ 13:45:
[...]
Van de kleine dingetjes die naar buiten komen via patenten denk ik dat AMD eigenlijk gaat "valsspelen". AMD lijkt in te zetten op het gebruik van hun zeer veelzijdige CU's om met FP16 de rays aan te maken, een special function unit waarschijnlijk voor denoising, maar voornamelijk gebruik maken van hybride technieken zodat het geen gigantische preformance hit gaat opleveren. Ik denk dat AMD zo weinig mogelijk echte ray tracing zal doen en zoveel mogelijk zaken faken. Stuur maar wat rays rond, maar maak het licht en de shaduwen alsnog vrijwel geheel met shaders. De rays zou je kunnen gebruiken om bijvoorbeeld belichting of schaduwen preciezer te maken rond objecten.
Aangezien dit in beide consoles terecht zal komen als RDNA2 en je waarschijnlijk het verschil niet of nauwelijks kan zien, maar de halvering in framerates niet meer hebt, zie ik RTX ook wel een snelle dood sterven. Net zoals Physx, GameWorks of ATi haar tesselation zie ik het niet breed geïmplementeerd worden. Komen nu nog wel wat games, maar het gaat niet aanslaan. Zeker niet omdat het dus helemaal niet zo makkelijk lijkt te implementeren en de hardware botweg niet eens in de buurt komt van het beoogde doel.
Ik ben het overigens met hem eens dat Nvidia een wellicht ongelukkige RT implementatie heeft. Je ziet dat het RTX gedeelte gewoon te traag is en dat de rest van de kaart daardoor zit te idlen. Dat kan veel slimmer.
Wat bedoel je precies? AMD heeft geen tensorcores dat is iets specifiek van Nvidia. RT is geen Nvidia specifiek iets. Of bedoel je dat devs het niet gaan porten naar de Nvidia exoot?Ik zie RDNA2 haar aanpak, wat het ook precies zal zijn, zo dominant worden door de consoles dat het ook in veel console ports zal verschijnen. Ik zie het alleen niet echt zwaar zijn, maar ik zie het ook geen gebruik maken van RT en Tensorcores.
Ik noem het gewoon valsspelen als het bijvoorbeeld 90% shaders en 10% RT is.Sp3ci3s8472 schreef op vrijdag 20 september 2019 @ 13:52:
[...]
Valsspelen zou ik het niet noemen; het is een transitie periode en het is uitermate dom om gelijk vol op RT te gaan inzetten. Je moet kijken waar de technieken van RT en rasterization elkaar kunnen aanvullen.
Ik ben het overigens met hem eens dat Nvidia een wellicht ongelukkige RT implementatie heeft. Je ziet dat het RTX gedeelte gewoon te traag is en dat de rest van de kaart daardoor zit te idlen. Dat kan veel slimmer.
Het kan me verder niks schelen hoe ze het doen, maar ik verwacht de komende jaren gewoon geen echte realtime RT van niks niet. De hardware komt niet eens in de buurt.
Dat AMD waarschijnlijk de standaard zal zetten en Nvidia haar fixed function hardware dan totaal overbodig zal worden. Ik zie geen enkele developer het porten tenzij Nvidia ze ervoor zal betalen. Zelfs na een port zie ik nog twijfelachtige winsten.Wat bedoel je precies? AMD heeft geen tensorcores dat is iets specifiek van Nvidia. RT is geen Nvidia specifiek iets. Of bedoel je dat devs het niet gaan porten naar de Nvidia exoot?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Er is niets te faken. Je raytraced of je doet het niet. Je kunt dat niet fakenDaniëlWW2 schreef op vrijdag 20 september 2019 @ 13:45:
AMD lijkt in te zetten op het gebruik van hun zeer veelzijdige CU's om met FP16 de rays aan te maken, een special function unit waarschijnlijk voor denoising, maar voornamelijk gebruik maken van hybride technieken zodat het geen gigantische preformance hit gaat opleveren. Ik denk dat AMD zo weinig mogelijk echte ray tracing zal doen en zoveel mogelijk zaken faken.
Daarnaast is het inzetten van hun FP16 capaciteiten helemaal niet valsspelen. Als AMD het voor elkaar kan krijgen om de bestaande ALU's binnen 1 of 2 tikken het nodige werk te laten doen, des te beter. Een tensor core is geen stukje magie. Het is een unit die 2 4x4 FP16 matrices als input heeft en een 4x4 FP32 matrix uit kotst binnen 1 kloktik. Meer niet.
Zo werkt dat niet. Je kunt niet even wat rays richting een baked shadow sturen om hem preciezer te maken.Stuur maar wat rays rond, maar maak het licht en de shaduwen alsnog vrijwel geheel met shaders. De rays zou je kunnen gebruiken om bijvoorbeeld belichting of schaduwen preciezer te maken rond objecten.
Je mist mijn hele bedoeling. Ik zie AMD wel rays casten, maar ik zie wat ze RT zullen, zo weinig daadwerkelijke RT doen dat je het nauwelijks RT kan noemen. Technisch gezien ja, maar de meeste lichteffecten dus met andere technieken.Werelds schreef op vrijdag 20 september 2019 @ 15:35:
[...]
Er is niets te faken. Je raytraced of je doet het niet. Je kunt dat niet faken
Dat noem ik dus niet valsspelen. Nee, dat is hartstikke logisch als AMD dit voordeel voluit zal gebruiken. Wat een Tensorcore precies was heb ik ook naar lopen zoeken, maar het is dus werkelijk niks meer dan een paar FP16 ALU's? Ik had toch iets meer capabele ALU's verwacht.Daarnaast is het inzetten van hun FP16 capaciteiten helemaal niet valsspelen. Als AMD het voor elkaar kan krijgen om de bestaande ALU's binnen 1 of 2 tikken het nodige werk te laten doen, des te beter. Een tensor core is geen stukje magie. Het is een unit die 2 4x4 FP16 matrices als input heeft en een 4x4 FP32 matrix uit kotst binnen 1 kloktik. Meer niet.
Dat begrijp ik ook nog. Maar niet goed uitlegt dus nog maar eens. Ik denk aan een systeem waar zeer selectief rays worden gecast bij en naar plekken waar het wat uit zal maken. Schaduwen en reflecties die je echt zal zien in de game en niet iets waar je naar moet gaan zoeken in de achtergrond. Denk aan je vuurwapen in een schooter met als lichtbron de zon of andere lichtbronnen. Daar kan je iets doen met RT schaduwen of reflecties. Niet te veel rays casten, alleen vanuit de meest dominanten lichtbronnen en alleen de rays gericht op je vuurwapen. De rest doe je niet met RT, want framerates.Zo werkt dat niet. Je kunt niet even wat rays richting een baked shadow sturen om hem preciezer te maken.
[ Voor 24% gewijzigd door DaniëlWW2 op 20-09-2019 16:06 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als AMD het voor elkaar krijgt een degelijke software library te bouwen die devs kunnen gebruiken om met weinig performance verlies shaduw van point en/of ambient lights (dus geen GI) schaduw te raytracen, is dat al op gelijk vlak met Nvidia.DaniëlWW2 schreef op vrijdag 20 september 2019 @ 15:43:
Je mist mijn hele bedoeling. Ik zie AMD wel rays casten, maar ik zie wat ze RT zullen, zo weinig daadwerkelijke RT doen dat je het nauwelijks RT kan noemen. Technisch gezien ja, maar de meeste lichteffecten dus met andere technieken.
Ik heb het al eerder gezegd, maar die paar tensor cores die Nvidia in Turing heeft gestopt kunnen niet veel meer dan dat aan. Reflecties kunnen, mits je genoeg hebt aan 1, hooguit 2 bounces. GI zoals Metro is gewoon te dom voor woorden, omdat het 80% van de tijd niet zichtbaar is en de rest van de tijd veel performance kost. GI en hoogwaardige (lees: 5+ bounces) reflecties zijn nog jaren van ons verwijderd. De "in your face" schaduwen echter niet. Er zijn nog te veel games die helemaal geen soft shadows doen.
Ik heb er in het Nvidia topic al eens een post aan gewijd: Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
Wat had je precies verwacht dan?Dat noem ik dus niet valsspelen. Nee, dat is hartstikke logisch als AMD dit voordeel voluit zal gebruiken. Wat een Tensorcore precies was heb ik ook naar lopen zoeken, maar het is dus werkelijk niks meer dan een paar FP16 ALU's? Ik had toch iets meer capabele ALU's verwacht.
De tensor cores zelf zijn echt niets bijzonders. De aansturing ervan wel, afhankelijk van welke chip je het over hebt. Wat Volta er mee kan doen is anders dan wat Turing er mee kan doen (Volta kan ze combineren, Turing voor zover ik begrepen heb niet).
Zie edit. Ik denk dat we al een stuk dichter bij elkaar komen als ik mijn gedachten iets beter organiseer.Werelds schreef op vrijdag 20 september 2019 @ 15:56:
[...]
Als AMD het voor elkaar krijgt een degelijke software library te bouwen die devs kunnen gebruiken om met weinig performance verlies shaduw van point en/of ambient lights (dus geen GI) schaduw te raytracen, is dat al op gelijk vlak met Nvidia.
Ik heb het al eerder gezegd, maar die paar tensor cores die Nvidia in Turing heeft gestopt kunnen niet veel meer dan dat aan. Reflecties kunnen, mits je genoeg hebt aan 1, hooguit 2 bounces. GI zoals Metro is gewoon te dom voor woorden, omdat het 80% van de tijd niet zichtbaar is en de rest van de tijd veel performance kost. GI en hoogwaardige (lees: 5+ bounces) reflecties zijn nog jaren van ons verwijderd. De "in your face" schaduwen echter niet. Er zijn nog te veel games die helemaal geen soft shadows doen.
Ik heb er in het Nvidia topic al eens een post aan gewijd: Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
Ik dacht dus dat de Tensorcore ALU's ook INT konden, maar zelfs dat kan dus niet. Vrij miserabel eigenlijk, heel Turing. Zoveel ALU's, veel meer dan een wave32 kan gebruiken en het is allemaal weinig flexibel en kost behoorlijk wat oppervlakte en transistoren. Ergens vermoed ik dat het misschien wat te maken heeft met efficiëntie. Dat Nvidia het zo zeer agressief kan aan en uitschakelen. Neemt niet weg dat RDNA haar ALU's zo veel capabeler zijn, en ik denk dat AMD pas net begonnen is. Volgens mij is er nog steeds geen game die specifiek RDNA optimalisaties heeft gehad. Alles draait denk ik nog steeds op GCN legacy mode.[...]
Wat had je precies verwacht dan?
De tensor cores zelf zijn echt niets bijzonders. De aansturing ervan wel, afhankelijk van welke chip je het over hebt. Wat Volta er mee kan doen is anders dan wat Turing er mee kan doen (Volta kan ze combineren, Turing voor zover ik begrepen heb niet).
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
GFXBench is nou niet echt een goede vergelijking. Je ziet bepaalde resultaten heel erg afwijken; ik hoop mag hopen dat de RX 5500 hoger scored dan dat in echte benchmarks.FairPCsPlease schreef op dinsdag 24 september 2019 @ 08:55:
Een eerste benchmark getal is opgedoken voor de RX5500, in de Manhatten benchmark met OpenGL van GFXBench in 1920x1080 resolutie. Dat maakt het een low-end kaart die ergens tussen de RX460 en RX560 valt qua performance (zie hier een tabel om te vergelijken met andere RX kaarten). Al zegt één los getal natuurlijk nog niet zoveel. En ik vraag me af of dit een hele low-end Navi kaart is of een rebrand van Polaris.
Alweer een rebrand van Polaris verwacht ik niet. De RX 600 serie is net voor de zomer aangekondigd.FairPCsPlease schreef op dinsdag 24 september 2019 @ 08:55:
Een eerste benchmark getal is opgedoken voor de RX5500, in de Manhatten benchmark met OpenGL van GFXBench in 1920x1080 resolutie. Dat maakt het een low-end kaart die ergens tussen de RX460 en RX560 valt qua performance (zie hier een tabel om te vergelijken met andere RX kaarten). Al zegt één los getal natuurlijk nog niet zoveel. En ik vraag me af of dit een hele low-end Navi kaart is of een rebrand van Polaris.
1
2
3
4
5
6
7
8
| 619 case CHIP_NAVI12: 620 info->num_sdp_interfaces = 16; 622 CHIP_NAVI14: 623 info->num_sdp_interfaces = 8; 3984 if (AMDGPU_IS_NAVI10(pInfo->familyId, pInfo->eRevId)) 3994 pInfo->gfx9.numSdpInterfaces = 16; |
https://www.3dcenter.org/...gen-mit-256-bit-interface
https://www.reddit.com/r/...i_14_comes_with_a_128bit/

Navi 12 lijkt iets later te volgen en lijkt high end te zijn. Potentieel rond de 60CU's, 16 SPD's wat zowel HBM2 als GDDR6 als mogelijkheden openlaat, zeer waarschijnlijk dus 8GB VRAM en $500+ range. Ik begin dan te neigen naar de tweede generatie HBM2. Je kan tegenwoordig 614GB/s halen met twee 4GB stacks en een 1024bit bus. Dat is dan op 1,2v, niet eens 1,35v. Veel beter dan de 410GB/s die je met de RX Vega 56 behaalde op 1,2v. of 484GB/s op 1,35v voor de RX Vega 64. Dat zou de extra geheugenbandbreedte moeten opleveren voor de extra CU's en tegelijkertijd het verbruik moeten beperken. Dat zal vervolgens in clockspeeds gestopt worden. 250W mag je denk ik wel op rekenen, als het niet meer is.
Zo ga je toch dichtbij de RTX2080Ti komen. Navi is gemiddeld eigenlijk al net iets beter dan Turing op een ALU voor ALU basis, tenminste als je de RX5700XT met de RTX2070 vergelijkt. Nu kijk je potentieel naar een 3840 ALU (60CU) Navi 12 met 614GB/s die het op moet nemen tegen een 4352 ALU TU-102 met 616GB/s. Het verschil kan wel eens de clockspeed worden. De RTX2080Ti is nu eenmaal lager geclocked dan de andere Turing modellen en gaat ruim over de 300W als je hier 1900MHz+ boostclocks wil halen. Als Navi 12 met het gebruik van HBM2, op 300W kan blijven met hoge 1800MHz range boostclocks, dan gaat die dichtbij komen.
[ Voor 38% gewijzigd door DaniëlWW2 op 28-09-2019 21:20 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
I hope that everyone that wanted this feature will enjoy it and for those not familiar with it please check it out and let us know your impressions.
Happy Adrenalin-ing
@CatalystMaker
https://www.reddit.com/r/..._aka_ris_for_vega_driver/
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
https://www.anandtech.com...ounders-edition-review/11
Voor zover ik weet niet, AMD's Liquid VR SDK is ook al jarenlang niets aan veranderd of toegevoegd. Misschien is dit ook minder relevant? Weet ook niet of nVidia's VR toolkit nog veel gebruikt wordt, of dat Valve en Oculus allebei hun eigen pad hebben getrokken en allemaal eigen dingen hebben geschreven die hier wel/geen gebruik van maken.Olaf van der Spek schreef op maandag 30 september 2019 @ 22:49:
Heeft AMD eigenlijk iets als nVidia's Simultaneous Multi Projection?
https://www.anandtech.com...ounders-edition-review/11
Het schijnt ook voor triple monitor opstellingen te werken en een aardige performance winst op te leveren in games die het ondersteunen, zoals sommige race sims.SpankmasterC schreef op dinsdag 1 oktober 2019 @ 08:18:
[...]
Voor zover ik weet niet, AMD's Liquid VR SDK is ook al jarenlang niets aan veranderd of toegevoegd. Misschien is dit ook minder relevant? Weet ook niet of nVidia's VR toolkit nog veel gebruikt wordt, of dat Valve en Oculus allebei hun eigen pad hebben getrokken en allemaal eigen dingen hebben geschreven die hier wel/geen gebruik van maken.
Tof, vraag me af of de Vega 3/6/8/10/11 in de APUs hier ook onder vallen, juist die GPUs kunnen hiermee net dat zetje in de rug krijgen om nieuwere spellen er toch lekker uit te laten zien, door bijv 900p te sharpenen naar 1080pApoca schreef op maandag 30 september 2019 @ 19:00:
Later today we will be posting Radeon Software version 19.9.3. While this driver update was primarily intended to provide Ghost Recon Breakpoint support we also heard loud and clear (primarily from you reddit users) great demand for Radeon Image Sharpening (RIS) support for Vega class products. I am very happy to announce that today's update will indeed include RIS support for Vega and I further wanted to apologize for miscalculating the order in which we released the supported products.
I hope that everyone that wanted this feature will enjoy it and for those not familiar with it please check it out and let us know your impressions.
Happy Adrenalin-ing
@CatalystMaker
https://www.reddit.com/r/..._aka_ris_for_vega_driver/
Nu nog de RX460/560 in de linux driver, ben ik ook blij
Ander leuk nieuwtje, AMD heeft weer nieuwe game bundels met o.a. Borderlands 3 vanaf een RX570... als t nu gewoon via Steam was had ik er meteen een besteld, maar fuck epic
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Waarschijnlijk is het dus niet meer lang wachten voor we iets meer weten over Navi-budget kaarten. Al ben ik er zelf steeds vanuit gegaan dat een RX 5600 een mooie upgrade zal zijn voor mij, nu er gesproken wordt over een RX 5500 kaart, ben ik wel benieuwd hoe die gaat presteren ten opzichte van de vorige generatie en hoe lang we moeten wachten voor we een vergelijk van RX 5500 en 5600 kunnen maken (stel de RX5500 gaat slechts de RX 560 evenaren, dan is het niet bepaald interessant als upgrade vanaf een budget-Polaris).
Ik ben zeer benieuwd wat het gaat worden
Met 24Cu vind ik overigens de betiteling "budget" wat moeilijk, no way dat die kaarten voor minder dan 200 euro te koop gaan zijn, wat mijn inziens toch gewoon het mainstream segment nog is.
Zelf ben ik eerder benieuwd naar de RX5300 dan, hoewel ik zeer betwijfel of AMD een overtuigend <75w kaart tegenover de 1650 kan zetten, laat staan dat het prijs-gewijs een mooie gaat zijn. Aan de andere kant is bij mij langzaam aan het indalen dat er de komende tijd eigenlijk geen PC games aankomen die ik wil spelen (BL3 is vooralsnog epic exclusive, Doom Eternal lijkt ten prooi te gaan vallen aan Bethesdas rare account praktijken), dus misschien hoef ik mijn RX560 wel gewoon niet te vervangen... geen software betekent geen behoefte aan hardware
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Kunnen we niet gewoon stoppen met termen als budget, mainstream en high-end en gewoon over concrete prijzen praten?vectormatic schreef op vrijdag 4 oktober 2019 @ 09:49:
Met 24Cu vind ik overigens de betiteling "budget" wat moeilijk, no way dat die kaarten voor minder dan 200 euro te koop gaan zijn, wat mijn inziens toch gewoon het mainstream segment nog is.
Vergeet niet dat het een 7nm chip is dus een stuk kleiner dan 12nm. Daarnaast kun je nu al de RX 570 voor €140 kopen en die heeft 32cu.vectormatic schreef op vrijdag 4 oktober 2019 @ 09:49:
@FairPCsPlease
Ik ben zeer benieuwd wat het gaat worden
Met 24Cu vind ik overigens de betiteling "budget" wat moeilijk, no way dat die kaarten voor minder dan 200 euro te koop gaan zijn, wat mijn inziens toch gewoon het mainstream segment nog is.
Zelf ben ik eerder benieuwd naar de RX5300 dan, hoewel ik zeer betwijfel of AMD een overtuigend <75w kaart tegenover de 1650 kan zetten, laat staan dat het prijs-gewijs een mooie gaat zijn. Aan de andere kant is bij mij langzaam aan het indalen dat er de komende tijd eigenlijk geen PC games aankomen die ik wil spelen (BL3 is vooralsnog epic exclusive, Doom Eternal lijkt ten prooi te gaan vallen aan Bethesdas rare account praktijken), dus misschien hoef ik mijn RX560 wel gewoon niet te vervangen... geen software betekent geen behoefte aan hardware
De RX 5300 is hoogstwaarschijnlijk een rebrand van een polaris chip; of de RX 550, of de 560.
Oh, en 75W? Dat gaat die 24cu chip ongetwijfeld zijn.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Een 5700 zit kwa die-size maar een paar procent boven polaris, en toch een heeeeel stuk duurder bij launch, vergeet niet dat de MSRPs van polaris nog gebaseerd zijn op de oude realiteit voordat nvidia doorkreeg dat ze prima 50% meer kunnen vragen (en AMD lijkt dat ook door te hebben)
en 24Cus op 75w? im not buying it, een 5700 met 36Cus doet ~175w of zo? lineair schalen levert je dan ~120w, no way dat ze daar nog 45w afkrijgen, als je je clocks/volts zo hard gaat laten zakken lever je als fabrikant gewoon teveel mm2s wafer voor dezelfde prijs/performance als de concurrent.
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Kijk eens naar de prestaties van Navi ten opzichte van Vega (56/64) en Radeon VII op 1440p;
https://www.techpowerup.c...x-5700-red-dragon/27.html
En kijk dan eens naar het verschil in stroomverbruik;
https://www.techpowerup.c...x-5700-red-dragon/30.html
Een RX 5700 verslaat de Vega 64 in prestaties en verbruikt met gemak 100W minder. Ik heb er wel vertrouwen in dat een 24cu chip op een 75W kaart komt.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Eigenlijk heb je wel gelijk, al het gepraat over dat er een nog krachtiger gpu zou komen dan de RX 5700, die dan 'high end' is, doet de RX 5700 'mainstream' lijken, maar zelf vind ik een videokaart van meer dan 200 euro al veel te duur. Mijn RX 460 heeft €139,- gekost en is daarmee de duurste videokaart die ik ooit gehad heb. Gespeculeer van de PCGamesN die ik hierboven link, spreekt over 250,- voor een RX 5500. Dat is een flink budget, in de betekenis van veel geld apart moeten zetten ervoor.vectormatic schreef op vrijdag 4 oktober 2019 @ 09:49:
@FairPCsPlease
Ik ben zeer benieuwd wat het gaat worden
Met 24Cu vind ik overigens de betiteling "budget" wat moeilijk, no way dat die kaarten voor minder dan 200 euro te koop gaan zijn, wat mijn inziens toch gewoon het mainstream segment nog is
Voor mij gaat het om de games Crysis 3 die ik on hold heb gezet toen het onspeelbaar werd toen ik naar 1080p over stapte en Hellblade: Senua's Sacrifice wat hogere minimum specs heeft dan de RX 460 en die ik wishlisted heb, maar dus nog maar niet gekocht, maar voor de rest kan ik al mijn spelen nog prima spelen. Ik blijf al het nieuws nieuwsgierig volgen, maar misschien hou ik het geld wel in mijn zak, ik heb veel reparatie- en vervangingsuitgaven gehad voor andere zaken sinds mijn vakantiegeld kwam.vectormatic schreef op vrijdag 4 oktober 2019 @ 09:49:
Aan de andere kant is bij mij langzaam aan het indalen dat er de komende tijd eigenlijk geen PC games aankomen die ik wil spelen [...] dus misschien hoef ik mijn RX560 wel gewoon niet te vervangen... geen software betekent geen behoefte aan hardware
[ Voor 18% gewijzigd door FairPCsPlease op 04-10-2019 14:57 ]
[ Voor 89% gewijzigd door Sp3ci3s8472 op 06-10-2019 01:25 ]
Navi 14:
-158 mm2
-22CU's
-8/4GB GDDR6
-128bit bus
-224 GB/s
-6.4 miljard transistoren
https://videocardz.com/82...-series-with-gddr6-memory
Oh en geen blower.

Dit model ga je kennelijk ook niet zien. Gaat een fatsoenlijke partnerlaunch worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als de 5500 XT er komt, 24cu?
En aangezien deze een 128bits geheugenbus heeft, zou de 5600 serie dan een 192bits geheugenbus krijgen?
Graphene; a material that can do everything, except leave the lab. - Asianometry
Ik denk dat het erom gaat spannen, pun intended.NitroX infinity schreef op maandag 7 oktober 2019 @ 13:44:
Ze vergelijken 'm met een 1650. Ik ben er dus vrij zeker van dat dit een 75Watter gaat zijn en dat met RX 580 prestaties?
Als de 5500 XT er komt, 24cu?
En aangezien deze een 128bits geheugenbus heeft, zou de 5600 serie dan een 192bits geheugenbus krijgen?
Het zou kunnen dat de RX5500 net op 75W blijft voor ongeveer RX580 of zelfs snellere prestaties. Aangezien het een partnerlaunch is, komen er misschien wel modellen die specifiek gericht zijn op 75W.
Maar ik denk eigenlijk dat de RX5600 wel eens kan verschijnen als 24CU en de RX5600XT als een cut down Navi 10 met 32 of 28CU's. De RX5500 series lijkt puur het verschil in VRAM te zijn.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik ben er wel vrij zeker van dat die 5500 een 75Watter is. Het enige noemenswaardige punt van die 1650 is dat ie dat ook is. De prestaties en prijs zijn er niet naar dus waarom zou je anders je kaart ermee vergelijken?DaniëlWW2 schreef op maandag 7 oktober 2019 @ 13:54:
[...]
Ik denk dat het erom gaat spannen, pun intended.
Het zou kunnen dat de RX5500 net op 75W blijft voor ongeveer RX580 of zelfs snellere prestaties. Aangezien het een partnerlaunch is, komen er misschien wel modellen die specifiek gericht zijn op 75W.
Maar ik denk eigenlijk dat de RX5600 wel eens kan verschijnen als 24CU en de RX5600XT als een cut down Navi 10 met 32 of 28CU's. De RX5500 series lijkt puur het verschil in VRAM te zijn.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Prijzen.NitroX infinity schreef op maandag 7 oktober 2019 @ 13:59:
[...]
Ik ben er wel vrij zeker van dat die 5500 een 75Watter is. Het enige noemenswaardige punt van die 1650 is dat ie dat ook is. De prestaties en prijs zijn er niet naar dus waarom zou je anders je kaart ermee vergelijken?
Maar ik vraag me af wat de RX5500XT precies moet bieden als clockspeeds identiek zijn. Ik zou eerder de RX5500XT met hogere clockspeeds verwachten zodat die de GTX1660 kan slopen en de GTX1660S die er echt wel gaat komen, kan pareren.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Graphene; a material that can do everything, except leave the lab. - Asianometry
waarbij de kanttekening geplaatst moet worden dat de 1650 twee configuraties kent, de 75w, en de >75w versie, waar een significant prestatieverschil tussen zit. Daarnaast.. de 1650 kan een 570 nog niet bijbenen, en dan zou de 5500 een 590 moeten evenaren?NitroX infinity schreef op maandag 7 oktober 2019 @ 13:59:
[...]
Ik ben er wel vrij zeker van dat die 5500 een 75Watter is. Het enige noemenswaardige punt van die 1650 is dat ie dat ook is. De prestaties en prijs zijn er niet naar dus waarom zou je anders je kaart ermee vergelijken?
Ik geloof er zelf niks van dat dat ding sub 75w is, en tegelijk die performance neerzet, eerst zien dan geloven, maar dat roep ik hier al maanden.
Mocht het ze overigens lukken, en de prijs ook netjes zijn, dan gaat ie wel op het verlanglijstje, maar voorlopig heb ik geen haast
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
https://www.amd.com/en/products/graphics/amd-radeon-rx-5500
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als je dan bedenkt dat je met een undervolted polaris ook best een end komt, en Navi een node-shrink mee heeft, is al die "gaming" focus in RDNA toch echt wel BS
Afijn, weet ik ook weer dat als ik een upgrade wil voor mijn 560 dat ik gewoon een GTX1650 haal, jammer, het was absoluut te hopen dat AMD nu na Ryzen ook op de GPU markt de boel weer recht kon trekken, maar waar Navi een grote sprong moest zijn lijkt het weer een evolutionair stapje en achter de boel aanhobbelen
[/rant] Even een stapje terug, ik steun AMD graag, en hekel de GPP etc.. bullshit van nvidia behoorlijk, maar AMD krijgt het toch elke keer voor elkaar om een hun GPUs ver genoeg weg van de concurrentie te positioneren dat voor mij de aankoop eigenlijk nergens op slaat.
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Moet even uitluchten;
7nm zou 60 procent stroombesparing moeten opleveren ten opzichte van 16 en 14nm. Dat betekend dat een undervolted RX 570 (150W) op 7nm slechts 75W zou moeten verbruiken.
https://www.anandtech.com...e-production-of-7nm-chips
Navi heeft iets van 40% ipc verbetering ten opzichte van Polaris wat een 1408 shader kaart zeer dicht in de buurt van de RX 570 zou moeten laten presteren. En minder compute units/shaders betekent lager stroomverbruik waardoor je wel op 60W voor de kaart zou moeten uitkomen.
https://www.computerbase....ancerating-navi-vs-turing
GDDR6 heeft toch ook een lager stroomverbruik dan GDDR5? (1.35V vs 1.5V)
Misschien 5Watt minder? Dan zitten we op 55W. Voor RX 570 prestaties.
Hoe de f*#$ heeft die 5500 dan toch een 110W TBP met slechts prestaties die tussen de 580 en 590 liggen?
580 vs 480; https://www.techpowerup.c...-phantom-gaming-x/31.html
590 vs 580; https://www.techpowerup.c...-phantom-gaming-x/27.html
5500 vs 480; https://tweakers.net/i/GK...23312.jpeg?f=imagegallery
Graphene; a material that can do everything, except leave the lab. - Asianometry
Ik vraag het me dus ook erg af, de 5700 is kwa perf/watt weinig speciaals vergeleken met Turing, en een netjes gevolte polaris kan best mooie dingen doen, en dan zouden ze hier met en die nodeshrink en die 40% IPC zo de boot in gaan?NitroX infinity schreef op maandag 7 oktober 2019 @ 16:18:
Ugh. Wat een idioterie weer van AMD.
...
Hoe de f*#$ heeft die 5500 dan toch een 110W TBP met slechts prestaties die tussen de 580 en 590 liggen?
Is dit een gevalletje "fine wine"? (lees, ongelofelijke ruk drivers in het begin)
En mark my words, kwa prijs gaan ze de 1650 niet proberen te pakken, het performancegat daar is groot genoeg dat ze overmoedig voor de 1660 gaan of zo.. (en daarmee ineens slechte bang/buck verkopen dan met de 570/580s die nu nog op de markt zijn)
EDIT: overigens lijkt met deze chip op de 5500 positie me wel vrij duidelijk dat een eventuele 5300 of een gerebadgede 560 is, of in ieder geval er niet ver vanaf zal zitten, gddr5 op 128 bits, en sub-par performance.
EDIT2: misschien dat ze dan eindelijk weer 1024CU versies van de Polaris 21 van stal halen...
[ Voor 15% gewijzigd door vectormatic op 07-10-2019 16:32 ]
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Ik zou op z'n minst wachten op Nvidia's 7nm producten.FairPCsPlease schreef op maandag 7 oktober 2019 @ 17:04:
Wel erg teleurstellend nieuws, 110 Watt verbruik. Ik zit al zo lang te hopen dat de sprong naar 7nm met Navi goede prestaties op 75 Watt zou brengen, maar kennelijk moet ik nog langer op nieuws wachten en mijn hoop nu op de RX 5300 zetten? En zal die 5300 als die komt, echt wel betere prestaties neerzetten dan de RX 460 die ik heb? Je zou haast de vuile spelletjes van nVidia door de vingers gaan zien en een GeForce 1650 kopen.
(Serieus, ik overweeg dat ook).
Graphene; a material that can do everything, except leave the lab. - Asianometry
Daar zit ik dus ook.. als je kijkt naar de perf/watt die AMD met navi lijkt te halen, heeft nvidia of parity, of een voorsprong met Turing op 12nm, Als je nu RX580 performance in 110w krijgt, zou beter dan 460 performance onder 75w te doen moeten zijn, maar ik geloof niet dat ze de 1650 gaan pakken onder 75wFairPCsPlease schreef op maandag 7 oktober 2019 @ 17:04:
Wel erg teleurstellend nieuws, 110 Watt verbruik. Ik zit al zo lang te hopen dat de sprong naar 7nm met Navi goede prestaties op 75 Watt zou brengen, maar kennelijk moet ik nog langer op nieuws wachten en mijn hoop nu op de RX 5300 zetten? En zal die 5300 als die komt, echt wel betere prestaties neerzetten dan de RX 460 die ik heb? Je zou haast de vuile spelletjes van nVidia door de vingers gaan zien en een GeForce 1650 kopen.
En dan hebben we het nog niet over de kans dat AMD die positionering ook compleet opfuckt, met een gerebadgede 560, of een nieuwe navi die die dan ineens maar 50w gebruikt, en daarmee de 1650 alsnog niet van de <75w troon kan stoten.
Wat dat betreft doet nvidia het gewoon erg goed (puur op tech gebied), turing knijpt een hele hoop perf/watt uit 12nm, en ze positioneren de 1650 echt geweldig, precies op die 75w grens, wat ze al sinds de 750Ti erg goed doen.
Overigens, een 1660 die kennelijk een 120w verbruikt, zit ~50% boven de 1650, met extra geheugenchips om warm te houden, de 5500 gaat er maar 30-35% boven op 110w...
EDIT: overigens, availability volgens anandtech is "Q4" oftewel, ze kunnen het ding niet eens op de plank leggen, laat staan dat ze iets over de prijs durven te zeggen. Volgens mij willen ze dit ding maar "launchen" voordat nvidia met een 1650Ti/1660Super oid komt, maar willen ze dan ook weer niet reactief hun prijs moeten bijstellen voordat t product te kopen is, kennelijk trapten alleen de die-hard fanboys in de "jebait" memes rond de 5700 pre-launch-pricedrop
[ Voor 13% gewijzigd door vectormatic op 07-10-2019 17:20 ]
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Dat was te verwachten toch? De performance/W van Navi is niet ineens veel beter geworden dan Turing na de launch van de RX 5700. Het is gewoon wachten op reviews en prijzen..vectormatic schreef op maandag 7 oktober 2019 @ 16:17:
Pffff, best een beetje een tegenvaller, 110W, voor performance die ~40% (gokje obv videocards, kan ook 30 of 50%) zijn hoger ligt dan een 75W kaart op 12nm...
En op 75W modellen, voor sommigen.
Dat er geen kaarten zijn had ik dan weer niet verwacht.
[ Voor 14% gewijzigd door Olaf van der Spek op 07-10-2019 17:58 ]
Dat is al eerder hier langs gekomen, als je TSMC marketing gelooft dan zouden de low-end chips veel zuiniger moeten zijn dan ze in de praktijk zijn (simpelweg high-end van een paar generaties terug pakken, de TSMC marketing nummers eroverheen gooien, en dan kijken wat eruit komt). Het probleem is dus: Dit zijn TSMC marketing getallen. Die moet je niet al te serieus nemen.NitroX infinity schreef op maandag 7 oktober 2019 @ 16:18:
Ugh. Wat een idioterie weer van AMD.
Moet even uitluchten;
7nm zou 60 procent stroombesparing moeten opleveren ten opzichte van 16 en 14nm. Dat betekend dat een undervolted RX 570 (150W) op 7nm slechts 75W zou moeten verbruiken.
https://www.anandtech.com...e-production-of-7nm-chips
Overall zie ik hier gewoon weer te veel wishfull thinking, al dan niet gevoed door 'geruchten'. 5700XT is qua energie efficientie vergelijkbaar met Turing. Waarom zouden ze dan bij het lagere segment ineens wel 30% efficienter zijn? Ik vind dit totaal geen verrassing, enige manier waarop dit op 75W was gekomen was door een stuk lagere performance te accepteren.
Dat snap ik niet. 5700 XT is een 7nm chip en verbruikt iets meer dan de 2070 Super op 12nm terwijl de prestaties minder zijn. Die 2070 Super op 7nm zou een stuk minder verbruiken, danwel hoger geklokt zijn en dus beter presteren.Sissors schreef op maandag 7 oktober 2019 @ 18:07:
[...]
...5700XT is qua energie efficientie vergelijkbaar met Turing...
Dat lijk mij niet vergelijkbare energie efficientie. Of bedoel je er iets anders mee?
Graphene; a material that can do everything, except leave the lab. - Asianometry
7nm is geen factor in de berekening van performance/W.NitroX infinity schreef op maandag 7 oktober 2019 @ 18:16:
Dat lijk mij niet vergelijkbare energie efficientie. Of bedoel je er iets anders mee?
Dan verschillen we daarin van mening.Olaf van der Spek schreef op maandag 7 oktober 2019 @ 18:38:
[...]
7nm is geen factor in de berekening van performance/W.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Mening? Dat volgt gewoon uit de definitie.NitroX infinity schreef op maandag 7 oktober 2019 @ 18:40:
[...]
Dan verschillen we daarin van mening.
Wikipedia: Performance per watt
Klopt, en ik roep al sinds er geruchten over een 22CU kaart gaan dat die geen <75w model is, 110W is dan wel weer een tegenvallertje, en over geen kaarten of prijs bij launch hebben we het maar nietOlaf van der Spek schreef op maandag 7 oktober 2019 @ 17:55:
[...]
Dat was te verwachten toch? De performance/W van Navi is niet ineens veel beter geworden dan Turing na de launch van de RX 5700. Het is gewoon wachten op reviews en prijzen..
En op 75W modellen, voor sommigen.
Dat er geen kaarten zijn had ik dan weer niet verwacht.
De procesnode moet je voor corrigeren als je de efficientie van Turing en RDNA op zich zelf staand wil vergelijken, als je de efficient van kaart A en B wil vergelijken is dat gewoon FPS/W, en dan is de procesnode een gegeven, geen variabele waar je voor moet corrigeren.NitroX infinity schreef op maandag 7 oktober 2019 @ 18:40:
[...]
Dan verschillen we daarin van mening.
Als je als consument even geen fuck weet van proces nodes, dan zitten de 5700XT en 2070S zo dicht bij elkaar in de buurt dat het weinig uitmaakt (iig kwa pure performance, en perf/watt). Als je als tech-minded tweaker er iets dieper induikt is RDNA gewoon om te huilen...
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Overigens als we toch de toekomst voorspellen: Nvidia komt met nieuwe kaarten in 2020 op kleinere procedé. Hiermee komen ze significant boven AMD qua prestaties. Als antwoord erop komt AMD met kaarten met weer erg belabberde perf/watt om te proberen qua performance bij te blijven.
Blijkbaar is het toch 150 Watt..... volgens mij pushen ze dan op slecht silicon de clocks veel te hoog.....vectormatic schreef op maandag 7 oktober 2019 @ 18:47:toon volledige bericht
[...]
Klopt, en ik roep al sinds er geruchten over een 22CU kaart gaan dat die geen <75w model is, 110W is dan wel weer een tegenvallertje, en over geen kaarten of prijs bij launch hebben we het maar niet
[...]
De procesnode moet je voor corrigeren als je de efficientie van Turing en RDNA op zich zelf staand wil vergelijken, als je de efficient van kaart A en B wil vergelijken is dat gewoon FPS/W, en dan is de procesnode een gegeven, geen variabele waar je voor moet corrigeren.
Als je als consument even geen fuck weet van proces nodes, dan zitten de 5700XT en 2070S zo dicht bij elkaar in de buurt dat het weinig uitmaakt (iig kwa pure performance, en perf/watt). Als je als tech-minded tweaker er iets dieper induikt is RDNA gewoon om te huilen...
Ik geloof gewoon niet dat die kaart 150 Watt pakt, als ik mijn RX 5700 XT Anniversary undervolt dan zit ik makkelijk op 150 Watt en zal die een heel stuk sneller zijn dan die RX 5500.
Zijn blijkbaar niet helemaal 100% daarzo. Krijgen we paar procent meer performance, tegen nog steeds een lawaaiige kaart en gigantisch stroomverbruik. Al kan ik me eigenlijk alsnog niet voorstellen dat 2 8-pins connectoren niet genoeg zijn.De Thicc III heeft drie 8-pin-connectors, waar de Thicc II er twee bevat.
Bleek fout in het artikel te zijn.
[ Voor 4% gewijzigd door Sissors op 08-10-2019 14:54 ]
[ Voor 95% gewijzigd door vectormatic op 08-10-2019 14:56 ]
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Toestemming nodig voor bekijken van YouTube
Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.
Bekijk op YouTubeAls ik zo verschillende video's zie wat lees op internet doet Nvidia dit omdat ze alleen graphics hebben als product. Ook wel de nodige afgeleide producten ervan, maar graphics is hun core business. En met een veranderend speelveld (apple games, google stadia, mobile gaming) is de discrete graphics kaart een beetje een uitstervend product.Sp3ci3s8472 schreef op zaterdag 12 oktober 2019 @ 17:30:
Tjah Nvidia.... jat alle Freesync monitoren branding. AMD had daar veel meer op moeten zitten dit is slecht voor hun naam. Waarom moet Nvidia het altijd op die manier spelen, ze zijn de grootste speler en hebben genoeg markt aandeel; toch blijven het hele zielige mannetjes daar die er alles aan doen om al het geld wat ze kunnen krijgen binnen te halen op welke manier dan ook.
[YouTube: Nvidia Kills FreeSync, Intel "Meets Competition"]
Het komt over als een poging om te overleven ten koste van alles, maar niet willen veranderen. Kodak anyone?
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
Laten we hopen dat ze de Kodak kant opgaan dan, want ik vind dit niet goed te praten. Ik probeer lekker naief in een wereld te geloven waarin je gewoon normale competitie hebt.Derby schreef op zaterdag 12 oktober 2019 @ 17:39:
[...]
Als ik zo verschillende video's zie wat lees op internet doet Nvidia dit omdat ze alleen graphics hebben als product. Ook wel de nodige afgeleide producten ervan, maar graphics is hun core business. En met een veranderend speelveld (apple games, google stadia, mobile gaming) is de discrete graphics kaart een beetje een uitstervend product.
Het komt over als een poging om te overleven ten koste van alles, maar niet willen veranderen. Kodak anyone?
Wat AMD zou moeten doen is al hun videokaarten verkopen als Ryzen certified; en het zo omschrijven dat Nvidia kaarten alleen maar compatible zijn (hoewel dat niet eens nodig zal zijn). Gaan consumenten vanzelf opzoek naar AMD kaarten
Anyway, ik hoop dat ik vergeven wordt dat ik niet het hele filmpje kijk, maar als eerste valt het op dat hij de tweede monitor overslaat bij zijn bespreking. Waarom zou dat zijn? Omdat die wel gewoon nog groot AMD Freesync erop heeft staan: https://www.amazon.com/Ac...-Technology/dp/B07CY1X7YL, en de MG278Q heeft op de Asus site gewoon beide staan: https://www.asus.com/nl/Monitors/MG278Q/
Nvidia heeft vieze dingen gedaan. Maar dat ze hun marketing in een gat laten springen dat AMD wagenwijd open heeft laten staan is iets wat elk welkdenkend bedrijf had gedaan. En dat gat is zoals diegene van het filmpje ook zegt: Absoluut nul kwaliteitseisen om iets Freesync compatible te mogen noemen. Als je op je monitor kan zetten dat hij GSync compatible is, dan hoort hij bij een select gezelschap. Kan je zeggen dat hij Freesync compatible is, ja joepie, dat zijn er nogal wat. En een behoorlijke groep daarvan hebben zo'n kleine Freesync range dat het zinloos is.
Als AMD nu een Freesync compatible en een Freesync certified had ofzo, waarbij de eerste werkt, en de tweede heeft minimaal Freesync range van maximum frequentie tot aan 2.5x onder de maximum frequentie, dan had Nvidia niet in dit gat kunnen springen.
Je hebt helemaal gelijk dat AMD hier veel meer mee had moeten doen. Helaas zijn ze op zulke stukken vaak gewoon minder strategisch of hebben ze misschien minder gewicht in de markt.Sissors schreef op zaterdag 12 oktober 2019 @ 17:48:
Nvidia is juist heel actief met hun technologie ook voor andere zaken in te zetten. En wat betreft mobile gaming heeft AMD ook niks behalve één licentie overeenkomst met Samsung.
Anyway, ik hoop dat ik vergeven wordt dat ik niet het hele filmpje kijk, maar als eerste valt het op dat hij de tweede monitor overslaat bij zijn bespreking. Waarom zou dat zijn? Omdat die wel gewoon nog groot AMD Freesync erop heeft staan: https://www.amazon.com/Ac...-Technology/dp/B07CY1X7YL, en de MG278Q heeft op de Asus site gewoon beide staan: https://www.asus.com/nl/Monitors/MG278Q/
Nvidia heeft vieze dingen gedaan. Maar dat ze hun marketing in een gat laten springen dat AMD wagenwijd open heeft laten staan is iets wat elk welkdenkend bedrijf had gedaan. En dat gat is zoals diegene van het filmpje ook zegt: Absoluut nul kwaliteitseisen om iets Freesync compatible te mogen noemen. Als je op je monitor kan zetten dat hij GSync compatible is, dan hoort hij bij een select gezelschap. Kan je zeggen dat hij Freesync compatible is, ja joepie, dat zijn er nogal wat. En een behoorlijke groep daarvan hebben zo'n kleine Freesync range dat het zinloos is.
Als AMD nu een Freesync compatible en een Freesync certified had ofzo, waarbij de eerste werkt, en de tweede heeft minimaal Freesync range van maximum frequentie tot aan 2.5x onder de maximum frequentie, dan had Nvidia niet in dit gat kunnen springen.
Daarnaast is het gewoon helemaal niet onverwacht dat Nvidia daar meteen in springt, Nvidia is Nvidia.
In ander nieuws:
https://www.techpowerup.c...e-not-a-software-solution

Maar de meeste schermen zijn nog steeds Freesync en dat gaat niet veranderen. Immers zijn de meeste schermen vrij goedkope modellen en daar zal gewoon het AMD Freesycn logo op verschijnen. Weinig mensen die ook het verschil kunnen benoemen.
Het probleem is dat er een gat is tussen Freesync 1 en Freesync 2 HDR. Die tweede is een echte kwaliteitsstandaard en die blijft wel bestaan. Komt nog eens bij dat AMD videokaarten systematisch beter zijn in HDR omdat Nvidia haar compressietechnieken niet langer meer kan gebruiken. Freesync 1 blijft ook, maar ertussen ga je bij bepaalde merken eerder G-sync compatible krijgen voor de betere niet HDR schermen.
Heb je ook nog Gigabyte haar recente stap in de gaming schermen. Zowel Freesync als G-sync compatible.
pricewatch: Gigabyte Aorus FI27Q
pricewatch: Gigabyte Aorus AD27QD Zwart
[ Voor 12% gewijzigd door DaniëlWW2 op 12-10-2019 18:08 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wat het verbruikt en of ik die ga undervolten zie ik dan wel weer. Wie weet koop ik alsnog wel die RX 570 als die in prijs zakt
Er zijn als pics van een XFX 5500 gelekt, met een 8-pin connector.... daar verwachten ze dus om met hun (mogelijk zwaar factory OCed) versie al boven de 150w uit te gaan komen, bizar.....Peetz0r schreef op dinsdag 15 oktober 2019 @ 16:27:
Ik hoop heel erg op een leuke mini-ITX RX 5500 kaart (daarmee bedoel ik een kaart die korter dan 185mm is, zoals de Sapphire Pulse ITX RX 570.
Wat het verbruikt en of ik die ga undervolten zie ik dan wel weer. Wie weet koop ik alsnog wel die RX 570 als die in prijs zakt
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Dan hoeft niet, vaak genoeg zit die erop omdat het kan. Niet omdat het nodig is. Sowieso kan een 8 pins PEG connector amper meer leveren in de praktijk, omdat het verschil maar twee extra ground pinnen zijn.vectormatic schreef op dinsdag 15 oktober 2019 @ 16:48:
[...]
Er zijn als pics van een XFX 5500 gelekt, met een 8-pin connector.... daar verwachten ze dus om met hun (mogelijk zwaar factory OCed) versie al boven de 150w uit te gaan komen, bizar.....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Die extra GND pins zijn net zo hard nodig als 12V pins, als je (bij gelijke draaddikte) 4x 12v en 2xGND combineert is je stroomsterkte gelimiteerd door je GND, doe er nog twee bij, en je kan ineens die 4 12v lijnen vol benutten.-The_Mask- schreef op dinsdag 15 oktober 2019 @ 16:50:
[...]
Dan hoeft niet, vaak genoeg zit die erop omdat het kan. Niet omdat het nodig is. Sowieso kan een 8 pins PEG connector amper meer leveren in de praktijk, omdat het verschil maar twee extra ground pinnen zijn.
Daarnaast, het gaat om de Spec, als je een kaart maakt die fijn eventjes 150w uit een 6 pin PEG trekt ga je hopeloos out of spec en loop je de kans allerlei schade aan te richten, tot brand aan toe.
En wat betreft het "omdat het kan", je ziet ook nog genoeg kaarten met slechts een 6-pin, en even cru geredeneerd is het twee extra contactpads, een paar soldeerverbindingen, en de connector zelf zal ook een fractie van een cent duurder zijn, dus als XFX geen reden zou zien om die paar fracties van een cent uit te geven, zat er echt wel een 6 pin op. Kans bestaat dat er andere modellen zijn met dezelfde PCB die meer stroom trekken dan het gefotografeerde exemplaar, maar ze zullen toch echt wel een 5500 op stapel hebben die het nodig heeft... (of de 5600 komt er achteraan, en die gebruikt stiekem dezelfde PCB? lijkt me heeel sterk met die 128 bits bus, maar afijn)
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Het is bij een 6 pins PEG connector 3 maal 12V en 3 maal ground, bij een 8 pins wordt dat 3 maal 12V en 5 maal ground.vectormatic schreef op dinsdag 15 oktober 2019 @ 18:01:
[...]
Die extra GND pins zijn net zo hard nodig als 12V pins, als je (bij gelijke draaddikte) 4x 12v en 2xGND combineert is je stroomsterkte gelimiteerd door je GND, doe er nog twee bij, en je kan ineens die 4 12v lijnen vol benutten.
Nope.Daarnaast, het gaat om de Spec, als je een kaart maakt die fijn eventjes 150w uit een 6 pin PEG trekt ga je hopeloos out of spec en loop je de kans allerlei schade aan te richten, tot brand aan toe.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hmm, heb ik me dat verkeerd herinnerd van de 6 pins connector, je hebt gelijk-The_Mask- schreef op dinsdag 15 oktober 2019 @ 18:04:
[...]
Het is bij een 6 pins PEG connector 3 maal 12V en 3 maal ground, bij een 8 pins wordt dat 3 maal 12V en 5 maal ground.
[...]
Nope.
Punt wat betreft de spec staat nog steeds, als een PSU een 6 pin connector heeft (en geen 6+2), kunnen die draden gewoon afgemeten zijn op 75W draw, trek daar 150W door en je gaat risicos lopen.
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
De ATX spec schrijft minimaal 18AWG voor en iedereen met uitzondering van enkele zeer gare fabrikanten houdt zich daar ook aan. Maar bij die voedingen is kabeldikte sowieso het laatste waar je je zorgen over moet maken.vectormatic schreef op dinsdag 15 oktober 2019 @ 18:15:
[...]
Hmm, heb ik me dat verkeerd herinnerd van de 6 pins connector, je hebt gelijk
Punt wat betreft de spec staat nog steeds, als een PSU een 6 pin connector heeft (en geen 6+2), kunnen die draden gewoon afgemeten zijn op 75W draw, trek daar 150W door en je gaat risicos lopen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
https://wccftech.com/new-amd-gpu-spotted-rra-big-navi/
In het kort, er is een nog niet bekende Navi chip door RRA certificatie gekomen. De laatste 3 digits in de codenaam lijken een hogere performance dan de 5700XT te suggereren.
Vooralsnog hoeft het niks te betekenen want chips kunnen na RRA certificatie alsnog gecancelled worden, maar het is een extra hint dat er mogelijk een big navi komt.
Er gaan tevens geruchten rond dat deze GPU uiteindelijk in de PS5 en Next gen Xbox komen.
[ Voor 20% gewijzigd door Blaat op 04-11-2019 13:43 ]
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Letterlijk vandaag de nieuwe MacBook Pro aangekondigd met 5500MFairPCsPlease schreef op woensdag 13 november 2019 @ 11:35:
De lancering van de RX5500 op 10 oktober was wel echt een paper launch. We zijn nu meer dan een maand verder en er is niets te vinden dan de lijst met specificaties die AMD op 10 oktober presenteerde. Geen enkele kaart in de verkoop, geen enkele review.
Ik zie het nu op de frontpage. Maar een laptop met een prijskaartje van driemaal mijn maandinkomen en een zeer gesloten ecosysteem heeft niet bepaald mijn interesse. Ik wil prijzen, reviews en stroomverbruik zien van losse videokaarten, die ik daadwerkelijk kan betalen en in mijn desktop inbouwen.SpankmasterC schreef op woensdag 13 november 2019 @ 18:26:
[...]
Letterlijk vandaag de nieuwe MacBook Pro aangekondigd met 5500M
Graphene; a material that can do everything, except leave the lab. - Asianometry
Want dat doet de rest wel? Nvidia brengt ook altijd eerst de top-end uit, en dan pas lager, hele normale taktiek.NitroX infinity schreef op woensdag 13 november 2019 @ 20:19:
Ik zit mezelf ook op te vreten aan dat gesegmenteerde launchen van producten bij AMD. Hoe moeilijk is het om de hele generatie in één keer op de markt te brengen?
Het is alleen jammer dat AMD sowieso wat leveringsproblemen heeft zo lijkt het, want al hun producten zijn pas erg laat te krijgen....
Eensch...NitroX infinity schreef op woensdag 13 november 2019 @ 20:27:
Nee, maar dat maakt het niet minder ergelijk. Ik heb liever dat ze zich stil houden over producten tot niet meer dan twee weken voor een daadwerkelijk launch (niet een papieren launch dus).
[ Voor 23% gewijzigd door zion op 13-11-2019 20:31 ]
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Nee, maar dat maakt het niet minder ergelijk. Ik heb liever dat ze zich stil houden over producten tot niet meer dan twee weken voor een daadwerkelijk launch (niet een papieren launch dus).zion schreef op woensdag 13 november 2019 @ 20:23:
[...]
Want dat doet de rest wel? Nvidia brengt ook altijd eerst de top-end uit, en dan pas lager, hele normale taktiek.
[...]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Maar nvidia loopt toch voor, en weet bijvoorbeeld met de 1650Super wel meteen een harde datum te noemen, waar AMD "ergens dit jaar" riep voor de 5500. (en daarnaast bekruipt mij toch altijd het gevoel dat het best een tijd duurt voordat AMD hun drivers enigszins op orde heeft)zion schreef op woensdag 13 november 2019 @ 20:23:
[...]
Want dat doet de rest wel? Nvidia brengt ook altijd eerst de top-end uit, en dan pas lager, hele normale taktiek.
Het is alleen jammer dat AMD sowieso wat leveringsproblemen heeft zo lijkt het, want al hun producten zijn pas erg laat te krijgen....
Op de RX5700 na is zo ongeveer heel AMDs product stack allemaal meuk uit 2016/17, met hier en daar een clock-bump, al dan niet ten koste van een achterlijke hoeveelheid extra power (en nee, de 590 tel ik niet als nieuw product, ondanks de nieuwe node)
Ondertussen is het enige "oude" product in de nvidia lineup wat niet al vervangen is door iets nieuwers, de GT1030, alles daarboven is of old stock, of van na september vorig jaar (sterker nog, op de 2080Ti en Titan RTX na is alles van dit jaar)
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Ja, een nieuwe koers varen kost tijd, en die hebben ze dan ook genomen, om ein-de-lijk weer eens serieus mee te gaan doen, maar ik denk dat niemand wil/zal/kan ontkennen dat het tenenkrommend irritant is hoe lang het duurt voordat alles beschikbaar komt, en dat hadden ze inderdaad veel beter kunnen/moeten aanpakken.....vectormatic schreef op woensdag 13 november 2019 @ 20:31:
[...]
Maar nvidia loopt toch voor, en weet bijvoorbeeld met de 1650Super wel meteen een harde datum te noemen, waar AMD "ergens dit jaar" riep voor de 5500. (en daarnaast bekruipt mij toch altijd het gevoel dat het best een tijd duurt voordat AMD hun drivers enigszins op orde heeft)
Op de RX5700 na is zo ongeveer heel AMDs product stack allemaal meuk uit 2016/17, met hier en daar een clock-bump, al dan niet ten koste van een achterlijke hoeveelheid extra power (en nee, de 590 tel ik niet als nieuw product, ondanks de nieuwe node)
Ondertussen is het enige "oude" product in de nvidia lineup wat niet al vervangen is door iets nieuwers, de GT1030, alles daarboven is of old stock, of van na september vorig jaar (sterker nog, op de 2080Ti en Titan RTX na is alles van dit jaar)
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Eerst zien, dan geloven dat die nieuwe koers ook ergens op lijkt. Vooralsnog kent de 5700 (schijnbaar, heb er zelf geen) weer de typische driver issues in het begin, en kwa perf/watt doet navi ongeveer hetzelfde als Turing, waar Navi wel even een die-shrink voor nodig heeft. Daarnaast is de uitrol van navi ook achterlijk laat, en duurt het weer eeuwen voordat we iets anders zien dan de 5700zion schreef op woensdag 13 november 2019 @ 20:35:
[...]
Ja, een nieuwe koers varen kost tijd, en die hebben ze dan ook genomen, om ein-de-lijk weer eens serieus mee te gaan doen, maar ik denk dat niemand wil/zal/kan ontkennen dat het tenenkrommend irritant is hoe lang het duurt voordat alles beschikbaar komt, en dat hadden ze inderdaad veel beter kunnen/moeten aanpakken.....
Ik ben altijd nvidia fan geweest, maar vorig jaar na het GPP gezeik, en dat AMD eindelijk fatsoenlijke linux drivers levert wou ik de andere kant wel eens proberen. En eerlijk is eerlijk, de linux driver werkt prima, hoewel ik wel een control panel mis. Maar als ik dan kijk naar waar AMD kwa technologie en support is, is er maar 1 conclusie, namelijk dat ze gewoon een B-merk zijn.
Ongelofelijk zonde, want in CPU land laten ze zien dat ze het best kunnen, maar tenzij AMD de radeon divisie heeeeel snel op orde krijgt, gok ik dat mijn volgende GPU weer gewoon nvidia wordt.
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
En de RX5300M.SpankmasterC schreef op woensdag 13 november 2019 @ 18:26:
[...]
Letterlijk vandaag de nieuwe MacBook Pro aangekondigd met 5500M
https://www.amd.com/en/pr...ompare/graphics/8976,8911
Maar dat zijn dus de eerste laptop Navi 14's. De RX5300M is ook 22CU's, maar fors lager geclockt met een 96bit bus en 3GB GDDR6. Navi 14 kan dus in ieder geval functioneren worden met een gereduceerde geheugenbus. Ik kan met geen enkele GCN chip herinneren waar AMD dat heeft gedaan. Voor GCN zal het waarschijnlijk een te grote impact zijn geweest, maar dat lijkt hier niet meer te gelden.
Navi 10 kan het waarschijnlijk dan ook. Dat opent mogelijkheden voor een potentiële RX5600 als cut down Navi met 6GB GDDR6. Iets moet de GTX1660Ti toch eens slopen.

Maar de RX5300M, tja dit is een chip die potentieel dichtbij de desktop RX570 gaat komen, in een laptop, als entry level GPU. RDNA is ruim sneller per clock dan Polaris en het gaat om 22CU's met iets lagere effectieve clocks waar de RX570 met 32CU's zit en net iets hogere clocks. Ben ook wel geïnteresseerd in deze omdat mijn laptop onderhand echt vervangen moet worden. Lijkt me een perfecte chip zodat ik er ook wat meer mee kan doen dan youtube.
[ Voor 35% gewijzigd door DaniëlWW2 op 14-11-2019 00:08 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.


https://videocardz.com/ne...other-radeon-rx-580-armor
Ja, dat is een nieuwe MSI RX580 Armor...
Ik begrijp dat 14nm wafers bij GoFlo waarschijnlijk zo spotgoedkoop zijn geworden dat je ermee door wil gaan. Zelfs voor de relatieve dumpprijzen nu zullen er alsnog enorme winsten gemaakt zullen worden met Polaris chips. Verder lijkt Polaris nog steeds erg goed te verkopen. Maar dit is een Polaris 20 videokaart voor 2020. Polaris 20 is een 2017 clockbump van een 2016 chip. Kom op AMD, jullie kunnen beter en hebben dat al laten zien. Desnoods lanceer je een Navi 14 variant op 14nm of 12nm...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Huh, wat heeft AMD er mee te maken dat MSI (redelijk laat in de lifecycle) nog besluit om een RX580 modelletje uit te brengen?DaniëlWW2 schreef op vrijdag 15 november 2019 @ 13:33:
Kom op AMD, jullie kunnen beter en hebben dat al laten zien. Desnoods lanceer je een Navi 14 variant op 14nm of 12nm...
@DaniëlWW2 hieronder: Ik volg je gedachtegang, maar ik wil er niet helemaal in meegaan. We zullen natuurlijk nooit exact weten wat MSI hiervoor heeft moeten investeren, maar heel veel meer dan een paar tweaks op een bestaande productielijn kan het toch niet geweest zijn lijkt mij persoonlijk.
Wat betreft de implicaties voor EOL Polaris 20 heb je natuurlijk helemaal gelijk. Als je stilletjes hoopte dat Polaris 20 volgende week EOL verklaard zou worden en vervangen door een Navi opvolger, dan is dit een bittere pil.
[ Voor 42% gewijzigd door Snorro op 15-11-2019 15:30 ]
MSI moet hiervoor nieuwe mallen en werktuigen maken voor het nieuwe koelontwerp, een productielijn stilleggen voor de overschakeling en dan weer gaan produceren om de investering terug te verdienen. Dat kost miljoenen. Miljoenen die je niet terugverdiend als Polaris 20 de komende paar maanden EOL gaat.Snorro schreef op vrijdag 15 november 2019 @ 15:18:
[...]
Huh, wat heeft AMD er mee te maken dat MSI (redelijk laat in de lifecycle) nog besluit om een RX580 modelletje uit te brengen?
Dit geeft aan dat Polaris 20 nog wel eventjes verkocht zal blijven worden. Anders doet MSI deze investering niet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
AMD doet met haar prijzen ook niet echt haar best om de onderkant van de markt te bedienen. Het zal het wel waard zijn. Contract met GloFo wat waarschijnlijk duurder is om op te breken dan om chips te laten produceren en verkopen.DaniëlWW2 schreef op vrijdag 15 november 2019 @ 15:22:
[...]
MSI moet hiervoor nieuwe mallen en werktuigen maken voor het nieuwe koelontwerp, een productielijn stilleggen voor de overschakeling en dan weer gaan produceren om de investering terug te verdienen. Dat kost miljoenen. Miljoenen die je niet terugverdiend als Polaris 20 de komende paar maanden EOL gaat.
Dit geeft aan dat Polaris 20 nog wel eventjes verkocht zal blijven worden. Anders doet MSI deze investering niet.
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
Dat is dus het probleem. Polaris is eigenlijk nog steeds te duur voor wat het is. Turing is ook veel te duur en Navi is ook te duur. Wij zijn hier de verliezers want we betalen meer, voor minder prestatiewinst. Als AMD nu stopt met het laatste beetje druk op Nvidia houden, en daar lijkt het steeds meer op, dan zijn wij als consumenten die gewoon een game willen spelen, dus de lul. Daar ageer ik tegen.Derby schreef op vrijdag 15 november 2019 @ 18:52:
[...]
AMD doet met haar prijzen ook niet echt haar best om de onderkant van de markt te bedienen. Het zal het wel waard zijn. Contract met GloFo wat waarschijnlijk duurder is om op te breken dan om chips te laten produceren en verkopen.
Tweede is dat GoFlo waarschijnlijk contractbreuk heeft gepleegd toen ze 7nm staakte. Dat zullen ze nooit toegeven, en AMD zal ze ook nooit beschuldigen, maar de verhoudingen zullen helemaal zijn omgedraaid toen AMD te horen kreeg dat GoFlo niet ging leveren. AMD zal alle verplichtingen jegens GoFlo waarschijnlijk verloren zijn met hun WSA contract dat ze vorig jaar sloten. In plaats daarvan zullen ze kopen wat ze echt nodig hebben. Dat zijn primair:
-12 en 14nm I/O en chipsetchips
-12nm Zen CPU's, voornamelijk APU's, maar ook Ryzen 1 en 2 voor legacy support. Ja, er bestaan 12nm Ryzen 1 CPU's. Is gewoon Zen+.
-Vega 10 voor Google Stadia en Apple
-Polaris 20 en 30 als goedkope dumpchips om de GTX1660 series te dwarsbomen.
Prijzen zullen waarschijnlijk ook flink zijn gezakt omdat oudere nodes in de regel flink in prijs zakken als ze niet meer cutting egde zijn. Die combinatie is waarschijnlijk waarom Polaris haar prijzen zo zijn gaan zakken en gedeeltelijk de rede waarom je een tijdje een goedkope Vega 10 kon kopen. Betekend niet dat dit goed is voor ons, zowel qua prijzen als prestaties. Ik denk dat AMD nog steeds ruime winst maakt op Polaris chips en wat ooit het mainstream segment was, lijkt nu gereduceerd te worden tot vrijwel nul prestatiewinst over ruim drie jaar. Wij verliezen hier, AMD en Nvidia niet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hoe kun je deze conclusie trekken? Je som is onbekende ontwikkelkosten van alles wat nodig is om een videokaart te ontwikkelen + onbekende kosten van inkopen onderdelen + onbekende kosten fabricage + onbekende kosten voor software ontwikkeling + onbekende kosten marketing + onbekende kosten alle rest wat ik nu vergeet. Dit trek je dus allemaal af van de kosten van een videokaart, alle onbekende cijfers dus en daaruit trek je de conclusie?DaniëlWW2 schreef op vrijdag 15 november 2019 @ 19:08:
[...]
Dat is dus het probleem. Polaris is eigenlijk nog steeds te duur voor wat het is. Turing is ook veel te duur en Navi is ook te duur. Wij zijn hier de verliezers want we betalen meer, voor minder prestatiewinst. Als AMD nu stopt met het laatste beetje druk op Nvidia houden, en daar lijkt het steeds meer op, dan zijn wij als consumenten die gewoon een game willen spelen, dus de lul. Daar ageer ik tegen.
Heb je dan toevallig voor elk cijfer wat je niet wist 0 euro gebruikt?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bron?DaniëlWW2 schreef op vrijdag 15 november 2019 @ 15:22:
Dat kost miljoenen.
Het punt is waarom zou AMD de prijzen verlagen. Productie capaciteit van 7nm lijkt mij beperkt en ze kunnen 3 Ryzen 2 chiplets uit dezelfde die size van een 5700 halen. In verhouding verkopen ze die 5700 voor niks als je nog meerekent dat daar PCB/GDDR6 en allerlei andere componenten nog bij moeten.DaniëlWW2 schreef op vrijdag 15 november 2019 @ 19:08:toon volledige bericht
[...]
Dat is dus het probleem. Polaris is eigenlijk nog steeds te duur voor wat het is. Turing is ook veel te duur en Navi is ook te duur. Wij zijn hier de verliezers want we betalen meer, voor minder prestatiewinst. Als AMD nu stopt met het laatste beetje druk op Nvidia houden, en daar lijkt het steeds meer op, dan zijn wij als consumenten die gewoon een game willen spelen, dus de lul. Daar ageer ik tegen.![]()
Tweede is dat GoFlo waarschijnlijk contractbreuk heeft gepleegd toen ze 7nm staakte. Dat zullen ze nooit toegeven, en AMD zal ze ook nooit beschuldigen, maar de verhoudingen zullen helemaal zijn omgedraaid toen AMD te horen kreeg dat GoFlo niet ging leveren. AMD zal alle verplichtingen jegens GoFlo waarschijnlijk verloren zijn met hun WSA contract dat ze vorig jaar sloten. In plaats daarvan zullen ze kopen wat ze echt nodig hebben. Dat zijn primair:
-12 en 14nm I/O en chipsetchips
-12nm Zen CPU's, voornamelijk APU's, maar ook Ryzen 1 en 2 voor legacy support. Ja, er bestaan 12nm Ryzen 1 CPU's. Is gewoon Zen+.![]()
-Vega 10 voor Google Stadia en Apple
-Polaris 20 en 30 als goedkope dumpchips om de GTX1660 series te dwarsbomen.
Prijzen zullen waarschijnlijk ook flink zijn gezakt omdat oudere nodes in de regel flink in prijs zakken als ze niet meer cutting egde zijn. Die combinatie is waarschijnlijk waarom Polaris haar prijzen zo zijn gaan zakken en gedeeltelijk de rede waarom je een tijdje een goedkope Vega 10 kon kopen. Betekend niet dat dit goed is voor ons, zowel qua prijzen als prestaties. Ik denk dat AMD nog steeds ruime winst maakt op Polaris chips en wat ooit het mainstream segment was, lijkt nu gereduceerd te worden tot vrijwel nul prestatiewinst over ruim drie jaar. Wij verliezen hier, AMD en Nvidia niet.
Nu kan je een GPU en CPU natuurlijk niet vergelijken zeker niet omdat een GPU meer defecten mag hebben en op een lagere clocksnelheid loopt maar toch. Doel is om mensen aan het denken te zetten.
Verschillende video's van GamersNexus waar ze ingaan op hoeveel werktuigen, mallen etc eigenlijk kosten. Dat maak je niet zomaar en het is niet goedkoop.
Ik begrijp dat een chiplet goedkoper is dan een Navi 10.Sp3ci3s8472 schreef op zaterdag 16 november 2019 @ 00:19:
[...]
Het punt is waarom zou AMD de prijzen verlagen. Productie capaciteit van 7nm lijkt mij beperkt en ze kunnen 3 Ryzen 2 chiplets uit dezelfde die size van een 5700 halen. In verhouding verkopen ze die 5700 voor niks als je nog meerekent dat daar PCB/GDDR6 en allerlei andere componenten nog bij moeten.
Nu kan je een GPU en CPU natuurlijk niet vergelijken zeker niet omdat een GPU meer defecten mag hebben en op een lagere clocksnelheid loopt maar toch. Doel is om mensen aan het denken te zetten.
Mijn punt is alleen dat de videokaart markt helemaal op hol is geslagen. Er is weinig innovatie meer, nauwelijks snelheidswinsten, maar de prijzen blijven maar stijgen en stijgen. Een deel komt door de oplopende kosten van nodes, maar het verklaard niet alles.
Na ruim drie jaar mag je er vanuit gaan dat de yields van een 232mm2 Polaris chip uitstekend zullen zijn. De chip is nauwelijks groter dan een Zen 1 CPU en die hadden ook geen yieldproblemen, in 2017. In 2017 kon je al een RX570 krijgen voor €200, net voor de mininggekte. Dat is dezelfde chip. Nu, jaren later met veel betere yields, 14nm dat geen leading node meer is en de grootschalige overstap naar GDDR6 wat de GDDR5 prijzen zal doen laten zakken omdat de vraag wegvalt, is diezelfde chip nog steeds €200. Onderhand zouden yields dusdanig moeten zijn dat veel RX570's gewoon volledig functionerende chips zijn die een deel uitgeschakeld hebben voor segmentatie. Verder betaald AMD per wafer, wafers die goedkoper zullen zijn geworden en zullen ze makkelijk meer functionele chips uit een wafer halen. AMD is hier aan het cashen op 2016 technologie en alleen AMD profiteert hiervan. Zeker omdat Navi 14 gewoon bestaat, allang is "gelanceerd", maar niet beschikbaar is. Dat AMD hun Polaris chips eerst wou verkopen voordat ze Navi 14 in de markt zetten begrijp ik. Wat ze hier lijken te doen is Polaris maar blijven handhaven naast Navi 14. Anders zou een bedrijf zoals MSI niet de moeite nemen om een productielijn opnieuw in te richten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
I've come to witness you again
Because improvement softly creeping
Left its seeds while you were sleeping
And the frames that were planted in my game
Have fade away
Within the sound of silence
[ Voor 3% gewijzigd door NitroX infinity op 16-11-2019 01:26 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Genoeg GCN mobile kaarten met slechts een 64bit geheugen bus te vinden hoorDaniëlWW2 schreef op woensdag 13 november 2019 @ 23:58:
Navi 14 kan dus in ieder geval functioneren worden met een gereduceerde geheugenbus. Ik kan met geen enkele GCN chip herinneren waar AMD dat heeft gedaan. Voor GCN zal het waarschijnlijk een te grote impact zijn geweest, maar dat lijkt hier niet meer te gelden.
[ Voor 9% gewijzigd door Dennism op 16-11-2019 15:44 ]
Navi 14 heeft een 128bit bus en de RX5300M, ook Navi 14, een 96bit bus.Dennism schreef op zaterdag 16 november 2019 @ 15:42:
[...]
Genoeg GCN mobile kaarten met slechts een 64bit geheugen bus te vinden hoor

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik weet niet wat je nu probeert zeggen?DaniëlWW2 schreef op zaterdag 16 november 2019 @ 15:47:
[...]
Navi 14 heeft een 128bit bus en de RX5300M, ook Navi 14, een 96bit bus.
Ik geef alleen aan, dat in tegenstelling tot jij vermoed er wel degelijk GNC gebaseerde producten zijn waarbij dezelfde die zowel voor bijvoorbeeld producten met een 128bit bus gebruikt wordt als voor producten met een 64bit bus.
https://wccftech.com/amd-...hics-card-ces-2020-rumor/Optimized 7nm+ process node
Enthusiast-grade desktop graphics card options
Hardware-Level Ray Tracing Support
A mix of GDDR6 and HBM2 graphics cards
More power-efficient than First-Gen Navi GPUs
Je hebt hier natuurlijk helemaal gelijk in en voor ons consumenten (in dit geval vooral de wat prijs-prestatie bewustere Tweakers) is het gewoon driewerf K met peren. Maar uiteindelijk ligt imo de hoofdschuld hiervan ook bij 'de consument' (in dit geval dan weer de grotere groep van alle consumenten). Ja natuurlijk, de eerste aanleiding was Turing met zijn absurde prijsstelling, maar als iedereen dat zaakje massaal links had laten liggen, dan zou Nvidia weer moeten inbinden met z'n prijzen en dan zou AMD niet op dat gat in de markt gewezen zijn, waar een hoop 'gratis' winst te behalen valt.DaniëlWW2 schreef op zaterdag 16 november 2019 @ 00:37:
Mijn punt is alleen dat de videokaart markt helemaal op hol is geslagen. Er is weinig innovatie meer, nauwelijks snelheidswinsten, maar de prijzen blijven maar stijgen en stijgen. Een deel komt door de oplopende kosten van nodes, maar het verklaard niet alles.
Moraal van het verhaal: ik ben het met je frustraties eens, maar ik heb er moeite mee om de schuld bij AMD (en zelfs bij Nvidia) te leggen. Dit zijn gewoon twee bedrijven wiens doelstelling het is om zoveel mogelijk winst te maken.
Een hele zwakke en vage onderbouwing dus eigenlijk? Dat het allemaal best wat kost geloof ik graag maar daaruit durf ik niks te concluderen over de kosten van zo'n nieuw model.DaniëlWW2 schreef op zaterdag 16 november 2019 @ 00:37:
Verschillende video's van GamersNexus waar ze ingaan op hoeveel werktuigen, mallen etc eigenlijk kosten. Dat maak je niet zomaar en het is niet goedkoop.
Je zou denken dat als het voor MSI niet rendabel is, ze het niet zouden doen.
Wat is het nut eigenlijk van dat continue discussiëren / jammeren over prijzen?
[ Voor 7% gewijzigd door Olaf van der Spek op 19-11-2019 11:19 ]
Dan ligt de fout nog een tikje eerder, bij consumenten die tijdens de mining-boom nog steeds GPUs bleef kopen, in plaats van "fuck this shit, ik koop wel een xbox" te zeggen. Of gewoon lekker oude games te blijven spelen.Snorro schreef op dinsdag 19 november 2019 @ 09:28:
[...]
Je hebt hier natuurlijk helemaal gelijk in en voor ons consumenten (in dit geval vooral de wat prijs-prestatie bewustere Tweakers) is het gewoon driewerf K met peren. Maar uiteindelijk ligt imo de hoofdschuld hiervan ook bij 'de consument' (in dit geval dan weer de grotere groep van alle consumenten). Ja natuurlijk, de eerste aanleiding was Turing met zijn absurde prijsstelling, maar als iedereen dat zaakje massaal links had laten liggen, dan zou Nvidia weer moeten inbinden met z'n prijzen en dan zou AMD niet op dat gat in de markt gewezen zijn, waar een hoop 'gratis' winst te behalen valt.
Moraal van het verhaal: ik ben het met je frustraties eens, maar ik heb er moeite mee om de schuld bij AMD (en zelfs bij Nvidia) te leggen. Dit zijn gewoon twee bedrijven wiens doelstelling het is om zoveel mogelijk winst te maken.
Either way, knap frustrerend, ik overweg ook stiekem nog steeds een RX570 om in een zij-machine ff lekker Borderlands 3 te kunnen spelen, voordat het ding dan naar mn main-rig op linux gaat, ik blijf alleen een beetje hangen op de power-usage, die voor een klein mitx bakkie minder ideaal is.
Klopt, maar de conclusie die volgt uit "nieuw model kost geld" en "MSI doet alleen iets als het geld oplevert" is dus dat er een significant terugverdientijd tegenover moet staan, ergo, polaris 20 blijft nog wel een tijdje in leven, ergo, weinig kans op spannende producten van AMD in dat prijs danwel prestatie segment, anders zouden ze Polaris wel de nek omdraaienOlaf van der Spek schreef op dinsdag 19 november 2019 @ 11:16:
[...]
Een hele zwakke en vage onderbouwing dus eigenlijk? Dat het allemaal best wat kost geloof ik graag maar daaruit durf ik niks te concluderen over de kosten van zo'n nieuw model.
Je zou denken dat als het voor MSI niet rendabel is, ze het niet zouden doen.
"wait for navi" indeed
[ Voor 21% gewijzigd door vectormatic op 19-11-2019 11:20 ]
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
[ Voor 97% gewijzigd door vectormatic op 19-11-2019 11:20 ]
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.