Niet op voorraad.
Voor een eerste serie met RT zou dit zeker niet slecht zijn
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Dit zijn geschatte waardes als ik het goed heb, gebaseerd op de laatste driver die circa 10% meer performance zou moeten geven.
Maar als dit klopt is het ook al een prachtig resultaat. En dat belooft wat voor de 6900 XT, die zou er maximaal nog een procent of 10 bovenop moeten doen
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/OgGm7mvX7NreZxsXljGwo6ay.jpg?f=user_large)
⚡️Update Big Navi Firestrike Ultra benchmark ⚡️
— CapFrameX (@CapFrameX) 23 oktober 2020
6800XT AIB: ~12800
RTX 3090 FE: ~12400
RTX 3080 FE: ~10600
-> 6900XT: 14000??
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Beetje gemeen plagen daar....
Eerlijk gezegt word ik alleen maar sceptischer erdoor vreemd genoeg. Gun AMD het van harte.
Maar wil feiten e.d. en dan nog een week wachten. * Loopt ongeduldig heen en weer *
Eerlijk gezegt word ik alleen maar sceptischer erdoor vreemd genoeg. Gun AMD het van harte.
Maar wil feiten e.d. en dan nog een week wachten. * Loopt ongeduldig heen en weer *
Misschien ben ik de enige, maar ik geef weinig om die benchmark scores. Waar het bij mij meer om gaat, is de performance in games op 4k. Ook al lees ik al deze berichten hier, ik voel me niet echt gehyped. Ik focus zelf op performance wat ongeveer gelijk zal zijn aan de RTX 3080 (zonder RT). Meer performance is alleen maar mooi meegenomen
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Mjah..voldoende voor "hype" imo hoor.RobinNL schreef op vrijdag 23 oktober 2020 @ 18:54:
Misschien ben ik de enige, maar ik geef weinig om die benchmark scores. Waar het bij mij meer om gaat, is de performance in games op 4k. Ook al lees ik al deze berichten hier, ik voel me niet echt gehyped. Ik focus zelf op performance wat ongeveer gelijk zal zijn aan de RTX 3080 (zonder RT). Meer performance is alleen maar mooi meegenomen
snellere kaarten kan betekenen meer performance voor hetzelfde geld VS nvidia, dat is hype waardig imo hehe.
4k Boeit mij totaal niet, game op 3340x1440 100-120fps. Een upgrade is eigenlijk totaal zinloos, maar toch kriebelt het..erg he dat het consumeren er zo in is gebakken hehe. Mijn 2080ti haalt de frames die ik wil gewoon..op ultra. Terwijl ultra echt onzin is eigenlijk
The first casualty in war is always the truth...
Het pijnlijkste moment is als je beseft dat je voor deze nieuwe videokaarten, RTX3080+, RX6800+ gewoon een 4k120+ Hz monitor nodig hebt, om ze tot hun recht te laten komen. En die krengen zijn duur. Dan maar beginnen met een 4k60Hz... net als een bordercollie, moet je je GPU wel voldoende laten rennenJumpiefox schreef op vrijdag 23 oktober 2020 @ 19:04:
[...]
Mjah..voldoende voor "hype" imo hoor.
snellere kaarten kan betekenen meer performance voor hetzelfde geld VS nvidia, dat is hype waardig imo hehe.
4k Boeit mij totaal niet, game op 3340x1440 100-120fps. Een upgrade is eigenlijk totaal zinloos, maar toch kriebelt het..erg he dat het consumeren er zo in is gebakken hehe. Mijn 2080ti haalt de frames die ik wil gewoon..op ultra. Terwijl ultra echt onzin is eigenlijk
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Je bent niet alleen.Psyonara schreef op vrijdag 23 oktober 2020 @ 18:43:
Beetje gemeen plagen daar....
Eerlijk gezegt word ik alleen maar sceptischer erdoor vreemd genoeg. Gun AMD het van harte.
Maar wil feiten e.d. en dan nog een week wachten. * Loopt ongeduldig heen en weer *
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Tja... Sceptici hebben gelijk, of worden vergeten. Dus dat is een veilige positie om in te nemen.
Eindelijk slecht geoptimaliseerde spellen op 3440x1440 144Hzsunsmountain schreef op vrijdag 23 oktober 2020 @ 19:09:
[...]
Het pijnlijkste moment is als je beseft dat je voor deze nieuwe videokaarten, RTX3080+, RX6800+ gewoon een 4k120+ Hz monitor nodig hebt, om ze tot hun recht te laten komen. En die krengen zijn duur. Dan maar beginnen met een 4k60Hz... net als een bordercollie, moet je je GPU wel voldoende laten rennen
@RobinNL De uiteindelijke prestaties in games(drivers, gameworks taferelen) zijn uiteraard het belangrijkst, maar dit zou de eerste keer zijn in jaren dat ze een kaart hebben die qua rauwe kracht eindelijk met Nvidia kan vechten voor de top plek.
Een ultrawide met een kwart minder pixels kan ook nog.sunsmountain schreef op vrijdag 23 oktober 2020 @ 19:09:
[...]
Het pijnlijkste moment is als je beseft dat je voor deze nieuwe videokaarten, RTX3080+, RX6800+ gewoon een 4k120+ Hz monitor nodig hebt, om ze tot hun recht te laten komen. En die krengen zijn duur. Dan maar beginnen met een 4k60Hz... net als een bordercollie, moet je je GPU wel voldoende laten rennen
Ik wil zelf nu niet snel meer terug naar een 16:9. Maar voor 3440x1440 144Hz is net zo een behoorlijke GPU nodig. Nu is het een keer 50-75Hz icm de Vega56 (@ max 1600/925MHz). Ook prima te doen maar ik mis nog wel de vloeiende gameplay zoals eerder op 1080p 144Hz. Wat de beste keus gaat worden.. wie zal het zeggen.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Nog 5 dagen..choo choo! 
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/tWrNflgAXz1NXms7quWB6TMd.jpg?f=user_large)
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Verwijderd
Als je naar de ruwe scores kijkt waar deze scores op gebaseerd zijn, dan staat er voor de 6800 XT "estimated" bij, dus het is de vraag of we hier echt iets aan kunnen ontlenen wat mij betreft.
De vergelijking van RDNA2 zijn momenteel alleen met laatste Nvidia kaarten. Terwijl de verglijking met RDNA1 meer kan vertellen omdat het de zelfde microarch is en een verglijkbare schaling zal hebben.
Trustedreviews: De 5700XT heeft in 3DMark Fire Strike Ultra een score van 5927
Leaks geven momenteel aan dat een RDNA2 kaart een waarde tussen 11000 en 13000 haalt 3DMark Fire Strike Ultra.
Overclock3d.net: De 5700XT heeft in Time Spy Extreme een score van 3753.
Leaks geven momenteel aan dat een RDNA2 kaart een waarde tussen 8000 en 8300 haalt in Time Spy Extreme.
Als je het zo stelt is heeft AMD een kaart die meer dan twee keer zo snel in de synthetische benchmarks. Ook wordt er geroepen dat de XTX nog snellers is.
Ik denk dat ik een slechte verglijking maak, misschien kan iemand het beter.
Trustedreviews: De 5700XT heeft in 3DMark Fire Strike Ultra een score van 5927
Leaks geven momenteel aan dat een RDNA2 kaart een waarde tussen 11000 en 13000 haalt 3DMark Fire Strike Ultra.
Overclock3d.net: De 5700XT heeft in Time Spy Extreme een score van 3753.
Leaks geven momenteel aan dat een RDNA2 kaart een waarde tussen 8000 en 8300 haalt in Time Spy Extreme.
Als je het zo stelt is heeft AMD een kaart die meer dan twee keer zo snel in de synthetische benchmarks. Ook wordt er geroepen dat de XTX nog snellers is.
Ik denk dat ik een slechte verglijking maak, misschien kan iemand het beter.
[ Voor 6% gewijzigd door Amazigh_N_Ariff op 23-10-2020 22:58 ]
Geef me een weekAmazigh_N_Ariff schreef op vrijdag 23 oktober 2020 @ 22:47:
Ik denk dat ik een slechte verglijking maak, misschien kan iemand het beter.
Synthetisch zegt nog niet FPS. Maar de synthetische scores lijken te duiden op een daadwerkelijk meer dan 2x zo sterke kaart als Navi10 / RX 5700 XT. Een flinke prestatie, òf en hoe de kaart ook gaat concurreren met nVidia, we weten eigenlijk al dat de 50% performance / Watt belofte door Lisa Su gehaald is.Amazigh_N_Ariff schreef op vrijdag 23 oktober 2020 @ 22:47:
De vergelijking van RDNA2 zijn momenteel alleen met laatste Nvidia kaarten. Terwijl de verglijking met RDNA1 meer kan vertellen omdat het de zelfde microarch is en een verglijkbare schaling zal hebben.
Trustedreviews: De 5700XT heeft in 3DMark Fire Strike Ultra een score van 5927
Leaks geven momenteel aan dat een RDNA2 kaart een waarde tussen 11000 en 13000 haalt 3DMark Fire Strike Ultra.
Overclock3d.net: De 5700XT heeft in Time Spy Extreme een score van 3753.
Leaks geven momenteel aan dat een RDNA2 kaart een waarde tussen 8000 en 8300 haalt in Time Spy Extreme.
Als je het zo stelt is heeft AMD een kaart die meer dan twee keer zo snel in de synthetische benchmarks. Ook wordt er geroepen dat de XTX nog snellers is.
Ik denk dat ik een slechte verglijking maak, misschien kan iemand het beter.
Nu kunnen ze nog steeds verliezen in DLSS en Ray Tracing, en een 3080 is nog steeds geen slechte koop voor €719-749. Maar je kan hem nu niet vinden voor die prijs. Ik denk dat 9 November het volume moment is van AMD, en dan zal nVidia zoveel mogelijk proberen af te leiden, want hun supply wordt beperkt door ABF substraat voor Samsung om chips van te maken.
Dus gaat nVidia met goedkoop spul/wafer materiaal chips maken, wat de 3070 Ti verklaart, een 70% (je leest het goed) GA102 chip (zelfde basis chip voor 3080 3090). Beter dan een 3070, maar ze moeten wel. Er zijn genoeg GDDR6 modules, zelfs GDDR6X Micron lijkt niet te falen. Maar om wafers te laten maken heb je grondstoffen nodig. Zuur voor nVidia, nadat ze ook nog eens de verkeerde keus voor Samsung maakte.
Voor 2021 ziet het er beter uit voor ze. Maar deze ronde gaan ze een flink portie poesklap krijgen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
@sunsmountain Dat laatste is ogenschijnlijk een strategische blunder van heb ik jou daar. Ingegeven door te denken TSMC te kunnen 'chanteren' waar na AMD de vrijgekomen 7n capaciteit oppikte. Ik kan me dan ook goed voorstellen dat er toen een aantal borden door Jensen's keuken zijn gevlogen.
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Ik pretendeer het niet beter te verwoorden dan onze Schotse Jim, die gestopt is (weer):Xadeon schreef op zaterdag 24 oktober 2020 @ 00:56:
@sunsmountain Dat laatste is ogenschijnlijk een strategische blunder van heb ik jou daar. Ingegeven door te denken TSMC te kunnen 'chanteren' waar na AMD de vrijgekomen 7n capaciteit oppikte. Ik kan me dan ook goed voorstellen dat er toen een aantal borden door Jensen's keuken zijn gevlogen.
YouTube: Nvidia's Dumbest Decision
AMD hoeft echt alleen maar op te dagen, een RTX 3080 kaart hebben, aanbod ~300.000 wereldwijd, en klaar.
[ Voor 8% gewijzigd door sunsmountain op 24-10-2020 02:52 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Blijft interessant, alle Tweakers die zo'n inzicht hebben in blijkbaar alle voorwaarden, prijzen, yields en performance van TSMC vs Samsung technologieën. En kom op, "chanteren" door een andere aanbieder te kiezen? Samsung heeft blijkbaar gewoon een beter aanbod gedaan. Wees blij dat er concurrentie is tussen die foundries, anders kan TSMC helemaal vragen wat ze willen, en zijn de AMD kaarten ook een stuk duurder.
Waarom 2160p? 1080p kan best hoor. Gewoon de vaseline uitzetten en in plaats daarvan lekker supersamplensunsmountain schreef op vrijdag 23 oktober 2020 @ 19:09:
[...]
Het pijnlijkste moment is als je beseft dat je voor deze nieuwe videokaarten, RTX3080+, RX6800+ gewoon een 4k120+ Hz monitor nodig hebt, om ze tot hun recht te laten komen. En die krengen zijn duur. Dan maar beginnen met een 4k60Hz... net als een bordercollie, moet je je GPU wel voldoende laten rennen
Ik gebruik ook altijd een top high end videokaart voor 1440p zodat ik de videokaart langer kan houden en langer door op hogere instellingen kan spelen.
Nu je het zegt, dat zou misschien wel eens best goed kunnen werken met een Navi 21.Werelds schreef op zaterdag 24 oktober 2020 @ 10:43:
[...]
Waarom 2160p? 1080p kan best hoor. Gewoon de vaseline uitzetten en in plaats daarvan lekker supersamplen
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zoals het er uit ziet blijft het voor mij ook 1080p
Een 30-32 inch flat 1ms 1400p ips 144 hz lijkt simpelweg niet te bestaan.
Ben dus wel benieuwd naar de 1080p prestaties. Die van de 3080 vielen goed tegen.
Hoop in ieder geval dat ik snel wat kan vinden... Misschien maar iets in de 500 range en over 2 jaar weer.
Een 30-32 inch flat 1ms 1400p ips 144 hz lijkt simpelweg niet te bestaan.
Ben dus wel benieuwd naar de 1080p prestaties. Die van de 3080 vielen goed tegen.
Hoop in ieder geval dat ik snel wat kan vinden... Misschien maar iets in de 500 range en over 2 jaar weer.
In 1400p niet nee, wel een paar in 1440p...computerjunky schreef op zaterdag 24 oktober 2020 @ 11:32:
Zoals het er uit ziet blijft het voor mij ook 1080p
Een 30-32 inch flat 1ms 1400p ips 144 hz lijkt simpelweg niet te bestaan.
https://tweakers.net/moni...DaP6haxR_YaqJfD-606pBz3gE
Net released: pricewatch: Asus ROG Swift PG329Q Zwartcomputerjunky schreef op zaterdag 24 oktober 2020 @ 11:32:
Zoals het er uit ziet blijft het voor mij ook 1080p
Een 30-32 inch flat 1ms 1400p ips 144 hz lijkt simpelweg niet te bestaan.
Ben dus wel benieuwd naar de 1080p prestaties. Die van de 3080 vielen goed tegen.
Hoop in ieder geval dat ik snel wat kan vinden... Misschien maar iets in de 500 range en over 2 jaar weer.
Klaar met wat? Ik verwacht niet dat je met 300.000 kaarten een wezenlijk aandeel marketshare pakt en dat is natuurlijk wel waar het uiteindelijk om gaat. AMD heeft marketshare nodig in dGPU.sunsmountain schreef op zaterdag 24 oktober 2020 @ 02:41:
AMD hoeft echt alleen maar op te dagen, een RTX 3080 kaart hebben, aanbod ~300.000 wereldwijd, en klaar.
Als ik kijk naar dit artikel https://www.businesswire....U-Shipments-Q4%E2%80%9919 (ik kon zo snel geen recenter voorbeeld vinden met shipment cijfers in nummers). Zie je dat AMD een aandeel heeft van 18% en Nvidia een aandeel van 19% in Q4 2019
op een totaal van 93 miljoen units, dat totaal zal nu vast YoY gaan stijgen door o.a. toegenomen vraag door Covid.Die 19% van Nvidia zou dan +- 17.67 miljoen GPU's zijn dat kwartaal, AMD's 18%
16.74%
Het aantal highend gpu's daarin zal natuurlijk kleiner zijn, maar op een kwartaal is 300.000 gpu's voor zowel AMD of Nvidia eigenlijk maar een druppel op een gloeiende plaat, kijkende naar AMD's Q4 2019 cijfers zou dat 1.79% zijn.
Als je dan ziet dat Nvidia in Q2 2020 80% van de GPU markt in handen had en AMD 20. https://www.techspot.com/...dedicated-gpu-market.html
Zie je dat van die 16% overall marketshare die AMD had in Q2 2020 er eigenlijk dus maar een betrekkelijk klein deel dGPU's zijn en veel groter deel zal dus APU's zijn, waar Intel ook a hun share vandaan haalt (tot ze misschien straks ook een paar % gaan pakken met DG1 e.d.)
Ik ben er nog zeker niet wat overtuigd dat Nvidia echt 'poesklap' (weet niet 100% wat het is, maar heb een idee) gaat krijgen deze ronde, daar zullen we toch echt de financiële resultaten en marketshare projecties voor af moeten wachten tijdens deze ronde de komende kwartalen.
De prestaties zijn leuk voor ons Tweakers, maar uiteindelijk gaat het erom wat er daadwerkelijk gekocht wordt door de consument en om daar echte stappen te zetten bij de dGPU's denk ik dat AMD mogelijk toch echt met wat meer moet komen dan een gpu die in rasterization 'toe-to-toe' gaat met Nvidia, tenzij AMD ook echt veel betere prijs / perf zal hebben. Hebben ze dat niet verwacht ik eigenlijk niet dat dat de mindshare van Nvidia bij de gemiddelde consument snel veranderd. En het segment hardware enthousiasts die dit soort zaken op de voet volgt is denk ik te klein om deze generatie echt een impact te hebben, dan heb je denk ik echt meerdere generaties nodig waar AMD Nvidia generatie op generatie ruim verslaat op meerdere fronten (zoals AMD en Intel nu in cpu).
Op dit moment ben ik vooral nieuwsgierig of ik het verschil zie. Misschien is 1080 ge-supersampled qua beelden wel beter, scherper, sneller dan 2160p, ik heb daar geen ervaring mee, ik zal het vergelijken als ik de nieuwe spullen heb. Jarenlang heb ik 1080p60Hz gehad, nu 1080p144Hz de AOC 24G2U, dat is wel veel fijner in PvP en shooters en zo, maar ben toch meer van PvE, RPG en card games.Werelds schreef op zaterdag 24 oktober 2020 @ 10:43:
[...]
Waarom 2160p? 1080p kan best hoor. Gewoon de vaseline uitzetten en in plaats daarvan lekker supersamplen
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Blijft nog wel de vraag welke baseline gebruikt is voor die +50%. Ik weet dat nog niet zo zeker gezien een 5700 al 20% efficienter is dan de snellere 5700XT. We willen graag een nieuwe XT/X zien die daar weer +50% bovenop doet.sunsmountain schreef op vrijdag 23 oktober 2020 @ 23:21:
[...]
Synthetisch zegt nog niet FPS. Maar de synthetische scores lijken te duiden op een daadwerkelijk meer dan 2x zo sterke kaart als Navi10 / RX 5700 XT. Een flinke prestatie, òf en hoe de kaart ook gaat concurreren met nVidia, we weten eigenlijk al dat de 50% performance / Watt belofte door Lisa Su gehaald is.
Nu kunnen ze nog steeds verliezen in DLSS en Ray Tracing, en een 3080 is nog steeds geen slechte koop voor €719-749. Maar je kan hem nu niet vinden voor die prijs. Ik denk dat 9 November het volume moment is van AMD, en dan zal nVidia zoveel mogelijk proberen af te leiden, want hun supply wordt beperkt door ABF substraat voor Samsung om chips van te maken.
Dus gaat nVidia met goedkoop spul/wafer materiaal chips maken, wat de 3070 Ti verklaart, een 70% (je leest het goed) GA102 chip (zelfde basis chip voor 3080 3090). Beter dan een 3070, maar ze moeten wel. Er zijn genoeg GDDR6 modules, zelfs GDDR6X Micron lijkt niet te falen. Maar om wafers te laten maken heb je grondstoffen nodig. Zuur voor nVidia, nadat ze ook nog eens de verkeerde keus voor Samsung maakte.
Voor 2021 ziet het er beter uit voor ze. Maar deze ronde gaan ze een flink portie poesklap krijgen.
Zo weten we ook dat een BMW M3 zuiniger kan zijn dan een Prius als deze over een circuit jaagt en gaat volgen. Maar je wilt juist ook trappen met dat ding. Eerst zien dan geloven.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Zeker niet klaar met de oorlog, maar mogelijk wel klaar met dit gevecht: nVidia maakt al terugtrekkende bewegingen. De topkaarten zullen denk ik de performance crown pakken. Dat gaat afstralen in de dGPU markt, en die 300.000 moet je dus niet vergelijken met alle GPUs, daar zit veel geïntegreerde graphics van Intel bij, en zelfs niet met de gehele dGPU markt, ik heb het nu alleen over 1 maand aan high-end dGPU verkoop.Dennism schreef op zaterdag 24 oktober 2020 @ 12:05:
[...]
Klaar met wat? Ik verwacht niet dat je met 300.000 kaarten een wezenlijk aandeel marketshare pakt en dat is natuurlijk wel waar het uiteindelijk om gaat. AMD heeft marketshare nodig in dGPU.
Als ik kijk naar dit artikel https://www.businesswire....U-Shipments-Q4%E2%80%9919 (ik kon zo snel geen recenter voorbeeld vinden met shipment cijfers in nummers). Zie je dat AMD een aandeel heeft van 18% en Nvidia een aandeel van 19% in Q4 2019
op een totaal van 93 miljoen units, dat totaal zal nu vast YoY gaan stijgen door o.a. toegenomen vraag door Covid.Die 19% van Nvidia zou dan +- 17.67 miljoen GPU's zijn dat kwartaal, AMD's 18%
16.74%
Het aantal highend gpu's daarin zal natuurlijk kleiner zijn, maar op een kwartaal is 300.000 gpu's voor zowel AMD of Nvidia eigenlijk maar een druppel op een gloeiende plaat, kijkende naar AMD's Q4 2019 cijfers zou dat 1.79% zijn.
Als je dan ziet dat Nvidia in Q2 2020 80% van de GPU markt in handen had en AMD 20. https://www.techspot.com/...dedicated-gpu-market.html
Zie je dat van die 16% overall marketshare die AMD had in Q2 2020 er eigenlijk dus maar een betrekkelijk klein deel dGPU's zijn en veel groter deel zal dus APU's zijn, waar Intel ook a hun share vandaan haalt (tot ze misschien straks ook een paar % gaan pakken met DG1 e.d.)
Ik ben er nog zeker niet wat overtuigd dat Nvidia echt 'poesklap' (weet niet 100% wat het is, maar heb een idee) gaat krijgen deze ronde, daar zullen we toch echt de financiële resultaten en marketshare projecties voor af moeten wachten tijdens deze ronde de komende kwartalen.
De prestaties zijn leuk voor ons Tweakers, maar uiteindelijk gaat het erom wat er daadwerkelijk gekocht wordt door de consument en om daar echte stappen te zetten bij de dGPU's denk ik dat AMD mogelijk toch echt met wat meer moet komen dan een gpu die in rasterization 'toe-to-toe' gaat met Nvidia, tenzij AMD ook echt veel betere prijs / perf zal hebben. Hebben ze dat niet verwacht ik eigenlijk niet dat dat de mindshare van Nvidia bij de gemiddelde consument snel veranderd. En het segment hardware enthousiasts die dit soort zaken op de voet volgt is denk ik te klein om deze generatie echt een impact te hebben, dan heb je denk ik echt meerdere generaties nodig waar AMD Nvidia generatie op generatie ruim verslaat op meerdere fronten (zoals AMD en Intel nu in cpu).
Waar nVidia de afgelopen 2 maanden 30.000 stuks heeft geproduceerd in totaal of per maand - het is allebei weinig - als je de geruchten qua cijfers mag geloven en kijk zelf bij een willekeurige webshop. Een paar vragenlijsten, ingevuld door gamers: Heb je een PS5/XSX kunnen bemachtigen? 50% nee, maar wilde wel. Heb je een 3080/3090 kunnen bemachtigen? 90-95% nee, maar wilde wel. Alleen al op supply laat nVidia nu veel liggen, en dat is wat ik voornamelijk bedoelde met mijn uitspraak gisterennacht, niet helemaal helder.
Poesklap komt uit het (Zuid-)Afrikaans, en betekent een flinke mep.
YouTube: POES KLAP
Qua mindshare gaat het AMD helpen dat zowel Microsoft als Sony AMD GPUs geïntegreerd verkopen. In de dGPU markt zullen de cijfers van Steam ook wel invloed hebben op gamers, maar de grootste groep gaat denk ik via het midden segment in kant-en-klaar pc's (OEMs) en upgrades. Die consumenten groep kijkt lang niet altijd naar zaken als ray tracing en DLSS, maar meer naar hoeveel GB VRAM en wie er "het snelste" is op dat moment.
De performance crown is dus belangrijk, en als de 6900 XTX +10% op de RTX 3090 pakt qua raw performance, dan vind ik dat wel kwalificeren als een poesklap. Qua mindshare pakken ze in November met een stabiele launch en voldoende aanbod veel. Qua marketshare denk ik dan met jouw cijfers +5,37% van de totale dGPU in November, December , Januari , maar dat is niet waar ik op doelde. De grotere marketshare shift komt pas volgend jaar en weten we inderdaad pas als de cijfers binnen zijn.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Thodekroo schreef op zaterdag 24 oktober 2020 @ 11:56:
[...]
In 1400p niet nee, wel een paar in 1440p...
https://tweakers.net/moni...DaP6haxR_YaqJfD-606pBz3gE
Ja dat vind ik toch echt veel te gortig voor een monitor 400 a 450 wil ik over nadenken maar dit is gewoon absurd.
Ja, goed punt, ik ben uitgegaan van de 5700XT, en dan TGP zonder stroom verliezen. Zeg maar wat de AMD gpu chip zelf rapporteert in GPU-Z. +50% op een 5700 is inderdaad veel moeilijker te halen.M-spec schreef op zaterdag 24 oktober 2020 @ 12:38:
[...]
Blijft nog wel de vraag welke baseline gebruikt is voor die +50%. Ik weet dat nog niet zo zeker gezien een 5700 al 20% efficienter is dan de snellere 5700XT. We willen graag een nieuwe XT/X zien die daar weer +50% bovenop doet.
Zo weten we ook dat een BMW M3 zuiniger kan zijn dan een Prius als deze over een circuit jaagt en gaat volgen. Maar je wilt juist ook trappen met dat ding. Eerst zien dan geloven.
AMD zou nog kunnen zeggen dat de +50% alleen geldt voor de RX 6700XT en lager, niet de RX 6800 en hoger. Dan valt mijn 2e en 3e voorspelling in het water en heb ik alleen wat pessimistische voorspellingen van 23 September. Maar ik denk dat we daar wel overheen gaan.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Als je met VA ipv IPS kunt leven: https://tweakers.net/moni...S5QtWKcGNfayl3D2q0apBS-gEcomputerjunky schreef op zaterdag 24 oktober 2020 @ 13:10:
[...]
[...]
Ja dat vind ik toch echt veel te gortig voor een monitor 400 a 450 wil ik over nadenken maar dit is gewoon absurd.
Geen idee waarom VA de helft goedkoper is / waarom IPS zo duur is.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
AMD heeft al door laten schemeren dat ze de vraag niet aan zullen kunnen, dus echte concurrentie zal de komende paar maanden ontbreken. Ook met 300.000 kaarten.
[ Voor 36% gewijzigd door JoeB2C op 24-10-2020 13:31 ]
Met een grote vraag betekent dit dat alles wat beide kampen kunnen produceren per definitie verkocht is.JoeB2C schreef op zaterdag 24 oktober 2020 @ 13:29:
AMD heeft al door laten schemeren dat ze de vraag niet aan zullen kunnen, dus echte concurrentie zal de komende paar maanden ontbreken. Ook met 300.000 kaarten.
Als AMD een betere voorraad aan kan leggen, en minder productie problemen kent dan nVidia, dan zullen ze in ieder geval meer kunnen verkopen, en mensen laten overstappen op AMD, die mogelijk de volgende keer weer een AMD kaart nemen.
Even 10 miljoen kaarten produceren dit jaar gaat niet gebeuren lijkt me.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Het kan best zijn dat de komende maanden de scheidslijn zal verschuiven van 'koop je AMD of Nvidia' naar 'heb je wel of niet een next gen kaart kunnen kopen'.
*knip*
Aankoopadvies hoort in Componenten Aankoopadvies, niet in een nieuwstopic.
Aankoopadvies hoort in Componenten Aankoopadvies, niet in een nieuwstopic.
[ Voor 99% gewijzigd door Blaat op 24-10-2020 14:23 ]
Black smearing, ghosting. Er is 1 goed VA paneel qua responses en dat zijn de G5/7/9. Alle andere high refresh VA zijn imo waardeloos >100fps/Hz wegens slechte response tijden.sunsmountain schreef op zaterdag 24 oktober 2020 @ 13:17:
[...]
Als je met VA ipv IPS kunt leven: https://tweakers.net/moni...S5QtWKcGNfayl3D2q0apBS-gE
Geen idee waarom VA de helft goedkoper is / waarom IPS zo duur is.
@Blaat Je was me net voor om dit bericht te verwijderen, excuus.dutchnltweaker schreef op zaterdag 24 oktober 2020 @ 14:15:
[mbr] *knip*
Aankoopadvies hoort in Componenten Aankoopadvies, niet in een nieuwstopic.[/]
Nu zijn er meer aspecten zoals RT maar als AMD dit zou lukken qua traditional rasterization dan is het imo op dat punt een enorme vernedering voor nvidia.sunsmountain schreef op zaterdag 24 oktober 2020 @ 13:00:
De performance crown is dus belangrijk, en als de 6900 XTX +10% op de RTX 3090 pakt qua raw performance, dan vind ik dat wel kwalificeren als een poesklap.
Eerlijk gezegd zie ik het nog niet zo snel gebeuren.
Het hele infinity cache verhaal is verder echt een novum en mijn onderbuik geeft aan dat dit typisch zo'n innovatie is die op sommige momenten heel goed kan uitpakken maar ook de potentie heeft om relatief hard in te kakken als de cache niet kan leveren.
Jammer dat we woensdag neem ik aan nog niet de onafhankelijke reviews hebben.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Het gerucht verhaal van nVidia, die bewust 3080 / 3090 prijzen probeert op te drijven door GDDR6X achter te houden, was al ontkracht. Nu is het gerucht, dat het komt door het algemene tekort aan ABF substraat: https://www.ajinomoto.com/innovation/action/buildupfilmBallondier schreef op zaterdag 24 oktober 2020 @ 14:08:
Het kan best zijn dat de komende maanden de scheidslijn zal verschuiven van 'koop je AMD of Nvidia' naar 'heb je wel of niet een next gen kaart kunnen kopen'.
https://www.digitimes.com/news/a20201023PD201.html
Misschien moeten ze een oudere / lagere kwaliteit ABF substraat kopen en maken ze daarom van de GA102 chips die Samsung produceert lagere kwaliteit packages, te weten de voorspelde 3070Ti. Vanwege de competitie van RDNA2 over de gehele linie, annuleren ze "dubbele" modellen (3080 20GB vs 3080 10GB), zodat ze die tijd en resources kunnen stoppen in iets beters.
Dit zou wel betekenen dat AMD daar ook last van kan hebben, en het aanbod van alle chip packages kan beperken.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Nou nou, niet overdrijven. Als AMD de performance crown weet te pakken zal dat met wat procentjes zijn en waarschijnlijk door heel erg boven de efficiëntiecurve te gaan zitten, zoals NV doet met zowel de 3090 als de 3080. Dat zou zeker een overwinning zijn maar wel op het niveau dat de volgende generatie van Nvidia het makkelijk weer terug zou kunnen pakken als AMD dat niet volhoudt. AMD maakt rasse schreden maar het heeft dan ook van ver moeten komen; ik zie het eerder als veer voor AMD dan dat het zou aantonen dat Nvidia slecht bezig zou zijn.Help!!!! schreef op zaterdag 24 oktober 2020 @ 14:40:
Nu zijn er meer aspecten zoals RT maar als AMD dit zou lukken qua traditional rasterization dan is het imo op dat punt een enorme vernedering voor nvidia.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
^
Waarom is het overdrijven
nVidia is ruimschoots marktleider zowel qua marktaandeel als performancecrown en al menig generatie. nVidia heeft boatloads of cash. Voor de 3090 moet nvidia zo'n beetje all-out gaan en het levert maar iets van 15 -20% betere performance tov de 3080 die bijna de helft minder kost en resulteert in een peperdure en monstrueuze videokaart qua formaat.
AMD was ~5jr geleden op een haar na failliet !! Laat dat even inzinken.
Als je dan in 1 generatie verslagen wordt door AMD met 10% is dat imo niet alleen erg knap van AMD maar vooral erg slecht van nvidia.
Als AMD dit zou lukken, waar ik zelf nog best sceptisch over ben, waarom zouden ze dit niet kunnen volhouden
Waarom is het overdrijven
AMD was ~5jr geleden op een haar na failliet !! Laat dat even inzinken.
Als je dan in 1 generatie verslagen wordt door AMD met 10% is dat imo niet alleen erg knap van AMD maar vooral erg slecht van nvidia.
Als AMD dit zou lukken, waar ik zelf nog best sceptisch over ben, waarom zouden ze dit niet kunnen volhouden
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
"#1 so why try harder". Het wordt pas vernederend voor Nvidia als ze de volgende generatie, nu ze weten dat AMD ze weer bij kan benen, niet ruimschoots de moeite doet om te voorkomen dat dat opnieuw gebeurt. Het doel van NV is nog altijd klanten zoveel mogelijk geld laten spenderen aan NV producten en daar dan weer zoveel mogelijk geld aan over te houden, niet de best mogelijke prestatieverbeteringen te leveren (pervers maar zo werkt het wel). Overigens dikke kans dat ze dat ook deze generatie gewoon weer gaat lukken door de mindshare die ze opgebouwd hebben, maar daar kunnen ze natuurlijk niet op teren.
En ik zeg ook niet dat AMD het niet vol zou kunnen houden, wel dat we daar op dit moment nog weinig over kunnen zeggen. Zoals je zelf al aangeeft heeft NV de resources om AMD voor te blijven, het is nu de vraag of ze die ook effectief in kunnen zetten of dat AMD nu gewoon technisch meer momentum heeft opgebouwd en dat geld ertegenaan smijten niet helpt. Dat kunnen we veel duidelijker zien bij een volgende generatie, als NV wat waar te maken heeft.
En ik zeg ook niet dat AMD het niet vol zou kunnen houden, wel dat we daar op dit moment nog weinig over kunnen zeggen. Zoals je zelf al aangeeft heeft NV de resources om AMD voor te blijven, het is nu de vraag of ze die ook effectief in kunnen zetten of dat AMD nu gewoon technisch meer momentum heeft opgebouwd en dat geld ertegenaan smijten niet helpt. Dat kunnen we veel duidelijker zien bij een volgende generatie, als NV wat waar te maken heeft.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Men moet dan ook wel bij gelijke prijsklasse blijven vergelijken. Mijn MSI MPG341CQR bevalt mij prima en ik ondervind geen problemen. Ik ben bewust voor een VA gegaan omdat ik juist een snel paneel icm goede zwartwaarden wilde hebben. En ook nog goede kleuren maar met de verschillende technieken van panelen blijft het toch een compromis met eigen wensen op de voor- en nadelen. Om iets dan als waardeloos te omschrijven is dan een beetje overdreven.Santee schreef op zaterdag 24 oktober 2020 @ 14:20:
[...]
Black smearing, ghosting. Er is 1 goed VA paneel qua responses en dat zijn de G5/7/9. Alle andere high refresh VA zijn imo waardeloos >100fps/Hz wegens slechte response tijden.
Daarbij heeft deze ook DP 1.4 en 10-bit support. De ondersteuning vanuit AMD Radeon Software wordt gelukkig wel beter want zodra ik eerder 10-bit pixel indeling inschakelde klopte bij sommige toepassingen de kleuren niet meer, zelfs AMD's eigen Ryzen Master bijvoorbeeld. Bij HDR (voor wat HDR mag toevoegen onder een 2000 Euro) is het wisselen tussen Windows en games soms ook nog niet optimaal. Er zit in ieder geval wel verbetering in en hoop dat eventuele nieuwe problemen beperkt blijven met de introductie van de 6000 serie. 144Hz tov 120Hz bureaublad verbruik mag nog wel fors omlaag.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Veel VA panelen doen onder de 10ms reactie tijd. Dat vind ik persoonlijk goed genoeg. VA panelen zijn ook minder flats qua kleuren na mijn idee, misschien is dat onrealistisch maar ik vind het in game wel mooi. Het contrast is ook een stuk beter van VA panelen wat ook weer in games mooier is. Maar goed dat zijn persoonlijke meningen.
nVidia heeft gegarandeerde ruimte over om performance te winnen. GA102 is een balans tussen kostprijs en performance. De enige variabele die ze (nu de laatste jaren binning steeds beter is geworden) volledig hebben gebruikt is naar rechts schuiven op de efficiëntiecurve.MneoreJ schreef op zaterdag 24 oktober 2020 @ 14:56:
[...]
Nou nou, niet overdrijven. Als AMD de performance crown weet te pakken zal dat met wat procentjes zijn en waarschijnlijk door heel erg boven de efficiëntiecurve te gaan zitten, zoals NV doet met zowel de 3090 als de 3080. Dat zou zeker een overwinning zijn maar wel op het niveau dat de volgende generatie van Nvidia het makkelijk weer terug zou kunnen pakken als AMD dat niet volhoudt. AMD maakt rasse schreden maar het heeft dan ook van ver moeten komen; ik zie het eerder als veer voor AMD dan dat het zou aantonen dat Nvidia slecht bezig zou zijn.
Buiten architecturele verbeteringen kan de die kan nog groter (vermoedelijk nog niet op recticle limiet), het performance crown/halo product kan nog op een nieuwer proces (TSMC 7nm zoals A100 of een ander proces) en (meerdere stacks) HBM2 voor bandbreedte.
Met Hopper ja, maar in Ampere is de rek er wel maximaal uit hoor. Je kan niet zomaar even je RTX30 series op 7nm EUV van TSMC zetten. Elke chip is een balans tussen kostprijs en performance. GA102 is vrij groot, maar niet eens de grootste chip historisch van nVidia. Voor de RTX3080 en 3090 hebben ze de efficiëntiecurve naar rechts verschoven, maar het is onwaarschijnlijk dat ze dat voor RTX3070 Ti ook zullen doen. Allemaal GA102 kaarten.ANdrode schreef op zaterdag 24 oktober 2020 @ 17:30:
[...]
nVidia heeft gegarandeerde ruimte over om performance te winnen. GA102 is een balans tussen kostprijs en performance. De enige variabele die ze (nu de laatste jaren binning steeds beter is geworden) volledig hebben gebruikt is naar rechts schuiven op de efficiëntiecurve.
Buiten architecturele verbeteringen kan de die kan nog groter (vermoedelijk nog niet op recticle limiet), het performance crown/halo product kan nog op een nieuwer proces (TSMC 7nm zoals A100 of een ander proces) en (meerdere stacks) HBM2 voor bandbreedte.
Anders gezegd: hoe gaat nVidia de performance van de huidige RTX30xx kaarten nog verder verbeteren?
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ja liever niet dus. Denk dat ik voor voorlopig maat een aoc g2 haal voor voorlopig en wacht tot de grotere schermen in prijs zakken. Echt vreemd dat ze zo veel duurder zijn terwijl ze bij 1080p goedkoper zijn als tn.sunsmountain schreef op zaterdag 24 oktober 2020 @ 13:17:
[...]
Als je met VA ipv IPS kunt leven: https://tweakers.net/moni...S5QtWKcGNfayl3D2q0apBS-gE
Geen idee waarom VA de helft goedkoper is / waarom IPS zo duur is.
Dat is toch gewoon een kwestie van developers helpen bij het optimaliseren om zoveel mogelijk te steunen op RT en zo min mogelijk op INT32 operaties? Zulke architecturen hebben immers de toekomst.sunsmountain schreef op zaterdag 24 oktober 2020 @ 17:48:
Anders gezegd: hoe gaat nVidia de performance van de huidige RTX30xx kaarten nog verder verbeteren?

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Welke ruimte? Met Ampere, die zit aan zijn limiet tenminste op 8nm.ANdrode schreef op zaterdag 24 oktober 2020 @ 17:30:
[...]
nVidia heeft gegarandeerde ruimte over om performance te winnen. GA102 is een balans tussen kostprijs en performance. De enige variabele die ze (nu de laatste jaren binning steeds beter is geworden) volledig hebben gebruikt is naar rechts schuiven op de efficiëntiecurve.
Buiten architecturele verbeteringen kan de die kan nog groter (vermoedelijk nog niet op recticle limiet), het performance crown/halo product kan nog op een nieuwer proces (TSMC 7nm zoals A100 of een ander proces) en (meerdere stacks) HBM2 voor bandbreedte.
^ Dit dus. Nvidia heeft Ampere echt op z'n staart getrapt. Daarom zie je zo verdomd weinig verschil tussen de 3080 en 3090. En zelfs overclockers die LN2 gebruiken krijgen bizar weinig extra performance van overclocking.Sp3ci3s8472 schreef op zaterdag 24 oktober 2020 @ 19:17:
[...]
Welke ruimte? Met Ampere, die zit aan zijn limiet tenminste op 8nm.
Haha, zeker, "The way it's meant to be p(l)aid."MneoreJ schreef op zaterdag 24 oktober 2020 @ 18:43:
[...]
Dat is toch gewoon een kwestie van developers helpen bij het optimaliseren om zoveel mogelijk te steunen op RT en zo min mogelijk op INT32 operaties? Zulke architecturen hebben immers de toekomst.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
YouTube: How The Radeon RX 6800XT Performs In Games (Exclusive) | Intel's DG2...
6800 XT versus RTX 3080:
4k: AMD wint in 5 games, gelijk in 2, verliest in 3.
1440p: AMD wint in 8 games, verliest in 2.
6800 XT versus RTX 3080:
4k: AMD wint in 5 games, gelijk in 2, verliest in 3.
1440p: AMD wint in 8 games, verliest in 2.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Je hoeft een halo product niet op volume te kunnen leveren. En inderdaad, Ga102 port je niet snel naar de logic library van TSMC. Maar een halo product dat een derivaat is van een compute chip, die je dan op nihil volume levert, kan prima (i.e. Radeon VII).sunsmountain schreef op zaterdag 24 oktober 2020 @ 17:48:
[...]
Met Hopper ja, maar in Ampere is de rek er wel maximaal uit hoor. Je kan niet zomaar even je RTX30 series op 7nm EUV van TSMC zetten. Elke chip is een balans tussen kostprijs en performance. GA102 is vrij groot, maar niet eens de grootste chip historisch van nVidia.
En je kan niet dezelfde maat chips blijven maken op kleinere architecturen, dat is voor zover ik weet een inherente limiet van de productietechniek. Wat wel opgaat is dat je als x mm2 mogelijk is bij een kleiner proces, dezelfde maat mogelijk is bij een proces met grotere features.
Dus een even grote chip maken op 8nm* als kon op 14 is in mijn ogen niet per definitie mogelijk.
Waarom niet? Wanneer je dit niet doet leveren de AIBs kaarten die dit wel doen...Voor de RTX3080 en 3090 hebben ze de efficiëntiecurve naar rechts verschoven, maar het is onwaarschijnlijk dat ze dat voor RTX3070 Ti ook zullen doen. Allemaal GA102 kaarten.
Omdat het nu door de binning technieken kan zie ik iedereen het doen.
Ja, ze kunnen een GA100 variant uitbrengen als de performance crown verliezen. Probleem is dat dat niet op 7nm EUV is gedaan, maar op 7nm High Density node. Dus niet High Performance. Ik betwijfel daardoor of GA100 beter presteert dan GA102 of Navi21.ANdrode schreef op zaterdag 24 oktober 2020 @ 20:37:
[...]
Je hoeft een halo product niet op volume te kunnen leveren. En inderdaad, Ga102 port je niet snel naar de logic library van TSMC. Maar een halo product dat een derivaat is van een compute chip, die je dan op nihil volume levert, kan prima (i.e. Radeon VII).
En je kan niet dezelfde maat chips blijven maken op kleinere architecturen, dat is voor zover ik weet een inherente limiet van de productietechniek. Wat wel opgaat is dat je als x mm2 mogelijk is bij een kleiner proces, dezelfde maat mogelijk is bij een proces met grotere features.
Dus een even grote chip maken op 8nm* als kon op 14 is in mijn ogen niet per definitie mogelijk.
Een architectuur is niet kleiner of groter, an sich. Het is gewoon een architectuur. Onafhankelijk van de node / productietechniek, kun je telkens dezelfde maat chips maken, bijvoorbeeld 250 of 500 mm2, afhankelijk van wat je doel is. TU102 is 754 mm2 en GA102 is 628 mm2, ze hadden GA102 best 754 mm2 kunnen maken, het was alleen niet nodig.
Omdat de TDP voor GA102 pretty much hetzelfde blijft. Met minder SMs (70% van de volledige die) heb je minder stroom nodig om ze aan te sturen. Op een gegeven moment is meer stroom overkill. Natuurlijk kan je van elke chip een 350W kaart maken, dan zit je helemaal rechts op de efficiëntiecurve, totaal niet efficiënt dus. Maar als het niks oplevert, stop je daar waar het nog wel wat oplevert. Misschien is dat het kantelpunt wat je bedoelt en zeggen we hetzelfde.ANdrode schreef op zaterdag 24 oktober 2020 @ 20:37:
[...]
Waarom niet? Wanneer je dit niet doet leveren de AIBs kaarten die dit wel doen...
Omdat het nu door de binning technieken kan zie ik iedereen het doen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Volgens mij zit de A100 'gewoon' op het N7 proces van TSMC, dus wel het high performance proces, waar AMD gebruik van maakt voor bijv. Zen en Navi van gebruik maken.sunsmountain schreef op zaterdag 24 oktober 2020 @ 20:47:
[...]
Ja, ze kunnen een GA100 variant uitbrengen als de performance crown verliezen. Probleem is dat dat niet op 7nm EUV is gedaan, maar op 7nm High Density node. Dus niet High Performance. Ik betwijfel daardoor of GA100 beter presteert dan GA102 of Navi21.
Volgens mij is trouwens ook nog niet bevestigd dat Big Navi EUV is toch?
Klinkt goed. Alleen geen idee gekregen of dit een reference kaart of een OC versie is van een AIB.sunsmountain schreef op zaterdag 24 oktober 2020 @ 20:34:
YouTube: How The Radeon RX 6800XT Performs In Games (Exclusive) | Intel's DG2...
6800 XT versus RTX 3080:
4k: AMD wint in 5 games, gelijk in 2, verliest in 3.
1440p: AMD wint in 8 games, verliest in 2.
Verder zou het dus zomaar kunnen zijn dat AMD op 1080p alles wint, als ik de cijfertjes optimistisch doortrek.
Op hoge resoluties blijft het zo dat nVidia een enorme berg ALU’s heeft om aan het werk te zetten. Niet zo vreemd dus dat AMD het daar moeilijker heeft, afhankelijk van de game.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Helaas, big navi zit op TSMC 7NP High Performance, niet 7N+ de EUV node.Dennism schreef op zaterdag 24 oktober 2020 @ 21:02:
[...]
Volgens mij zit de A100 'gewoon' op het N7 proces van TSMC, dus wel het high performance proces, waar AMD gebruik van maakt voor bijv. Zen en Navi van gebruik maken.
Volgens mij is trouwens ook nog niet bevestigd dat Big Navi EUV is toch?
https://www.techpowerup.com/gpu-specs/nvidia-ga100.g931
GA100 Design Density: 65,6 M / mm2
TSMC 7nm
https://www.techpowerup.com/gpu-specs/amd-navi-21.g923
Navi23 Design Density: 42,9 M / mm2
TSMC 7nm
https://en.wikichip.org/wiki/7_nm_lithography_process#N7
Based on WikiChip's own analysis, the dense cells come at around 91.2 MTr/mm² while the less dense, high-performance cells, are calculated at around 65 MTr/mm². = max density.
Max density is niet hetzelfde als design density. Dat zou betekenen dat je je hele chip volramt met transistors, ook als je er niks mee doet. Dus het is onmogelijk dat de GA100 op een High Performance 7nm node zit. Daar is de workstation chip dan ook niet voor bedoeld.
Dan N7+:
The N7+ node is TSMC's first process technology to adopt EUV lithography
Compared to TSMC N7 process, N7+ is said to deliver around 1.2x density improvement.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Sissors schreef op zaterdag 24 oktober 2020 @ 08:07:
Blijft interessant, alle Tweakers die zo'n inzicht hebben in blijkbaar alle voorwaarden, prijzen, yields en performance van TSMC vs Samsung technologieën. En kom op, "chanteren" door een andere aanbieder te kiezen? Samsung heeft blijkbaar gewoon een beter aanbod gedaan. Wees blij dat er concurrentie is tussen die foundries, anders kan TSMC helemaal vragen wat ze willen, en zijn de AMD kaarten ook een stuk duurder.
offtopic:
Niemand, inclusief jij, kent de exacte details. Het enige wat je kan doen is afgaan op de informatie die er wel zijn.
Je zou je mogen afvragen waarom Nvidia voor een inferieure node heeft 'gekozen', die ook nog eens te kampen heeft met slechte(re) yields.
Een scenario schets; Nvidia wilde de productie verspreiden, heeft Samsung in aanbod. Men wilde bij TSMC een aanbod die in dezelfde richting gaat, AMD koopt de vrijgekomen capaciteiten bijna geheel in. Nvidia heeft alleen Samsung nog over.
Dat ze getracht hebben TSMC onder druk te zetten met het aanbod van Samsung klinkt zeker niet onlogisch, en zou een soort van meesterzet zijn geweest als het gelukt was.
Het kan overigens (groten)deels de huidige leveringsproblemen verklaren.
Niemand, inclusief jij, kent de exacte details. Het enige wat je kan doen is afgaan op de informatie die er wel zijn.
Je zou je mogen afvragen waarom Nvidia voor een inferieure node heeft 'gekozen', die ook nog eens te kampen heeft met slechte(re) yields.
Een scenario schets; Nvidia wilde de productie verspreiden, heeft Samsung in aanbod. Men wilde bij TSMC een aanbod die in dezelfde richting gaat, AMD koopt de vrijgekomen capaciteiten bijna geheel in. Nvidia heeft alleen Samsung nog over.
Dat ze getracht hebben TSMC onder druk te zetten met het aanbod van Samsung klinkt zeker niet onlogisch, en zou een soort van meesterzet zijn geweest als het gelukt was.
Het kan overigens (groten)deels de huidige leveringsproblemen verklaren.
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Xadeon schreef op zaterdag 24 oktober 2020 @ 21:55:
[...]
offtopic:
Niemand, inclusief jij, kent de exacte details. Het enige wat je kan doen is afgaan op de informatie die er wel zijn.
Je zou je mogen afvragen waarom Nvidia voor een inferieure node heeft 'gekozen', die ook nog eens te kampen heeft met slechte(re) yields.
Een scenario schets; Nvidia wilde de productie verspreiden, heeft Samsung in aanbod. Men wilde bij TSMC een aanbod die in dezelfde richting gaat, AMD koopt de vrijgekomen capaciteiten bijna geheel in. Nvidia heeft alleen Samsung nog over.
Dat ze getracht hebben TSMC onder druk te zetten met het aanbod van Samsung klinkt zeker niet onlogisch, en zou een soort van meesterzet zijn geweest als het gelukt was.
Het kan overigens (groten)deels de huidige leveringsproblemen verklaren.
Maar we hebben geen flauw idee wat de yields zijn in Samsung 8nm. Het is leuk de huidige leverproblemen op yields te gooien, maar daar geloof ik geen ruk van. Stel je voor dat de yields zo extreem slecht zijn, dat slechts 50% van de GA102 chips geschikt zijn voor een RTX3080, die al een gedeelte heeft uitgeschakeld! Dan zou dus in best case 100% yield situatie, er twee keer zoveel chips zijn. Als de huidige slechte beschikbaarheid puur door gebrek aan GA102 chips is, dan zouden er dan 2x zoveel GPUs geleverd worden. Met 2x zoveel GPUs heb je nog steeds enorme wachtlijsten. Tenzij yeilds iets van 20% zijn, is de slechte beschikbaarheid niet veroorzaakt door te lage yields van Samsung. Tenzij ze niet op volle productie draaien/draaiden omdat ze denken dat ze met wat tweaks de yields veel hoger kunnen krijgen.
Ook als de yields van Samsung 8nm goed zijn, heb je grondstoffen nodig om chip packages voor kaarten te maken. Die heeft nVidia mogelijk te weinig ingekocht, waardoor ze nu niet genoeg kunnen produceren. Ik ben met je eens dat we niet weten wat de voorwaarden, prijzen, zijn, maar we kennen wel geruchten over yields en we weten dat de TDP van de 80,9% GA102 320W is en die van de 97,6% GA102 350W is. Dat is hoog. Ter vergelijking, de TU102 die 126 mm2 groter is, heeft een TDP van 280W, 70W lager. Je gaat mij niet vertellen dat dat niet door Samsung komt.Sissors schreef op zaterdag 24 oktober 2020 @ 22:31:
[...]
Maar we hebben geen flauw idee wat de yields zijn in Samsung 8nm. Het is leuk de huidige leverproblemen op yields te gooien, maar daar geloof ik geen ruk van. Stel je voor dat de yields zo extreem slecht zijn, dat slechts 50% van de GA102 chips geschikt zijn voor een RTX3080, die al een gedeelte heeft uitgeschakeld! Dan zou dus in best case 100% yield situatie, er twee keer zoveel chips zijn. Als de huidige slechte beschikbaarheid puur door gebrek aan GA102 chips is, dan zouden er dan 2x zoveel GPUs geleverd worden. Met 2x zoveel GPUs heb je nog steeds enorme wachtlijsten. Tenzij yeilds iets van 20% zijn, is de slechte beschikbaarheid niet veroorzaakt door te lage yields van Samsung. Tenzij ze niet op volle productie draaien/draaiden omdat ze denken dat ze met wat tweaks de yields veel hoger kunnen krijgen.
Mede daardoor, is Samsung een slechte keus. Zou dezelfde GA102 chip geproduceerd op TSMC, meer chips per wafer opleveren, en met hogere yields, minder defects. Met niet zoveel meer hogere kosten per chip (volgens Jim van AdoredTV, ik heb zelf geen idee wat een wafer kost), maar wel lagere kosten dan de speciale koeler die ze hebben moeten maken. Dan zou hun flagship 3080 GPU een 90% chip kunnen zijn geweest met 76 SMs. Maar dat is het niet.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
offtopic:
Ook gewoonweg het verliezen van productie capaciteit bij TSMC speelt een (flinke) rol.
Ook gewoonweg het verliezen van productie capaciteit bij TSMC speelt een (flinke) rol.
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Probleem is denk eerder dat Nvidia altijd voor monster chips gaat. Die 628 mm² is niet mals. Hoe groter de chip des meer je kans hebt dat er ergens wat fout gaat en je dingen moet gaan uitschakelen.Sissors schreef op zaterdag 24 oktober 2020 @ 22:31:
[...]
Maar we hebben geen flauw idee wat de yields zijn in Samsung 8nm. Het is leuk de huidige leverproblemen op yields te gooien, maar daar geloof ik geen ruk van. Stel je voor dat de yields zo extreem slecht zijn, dat slechts 50% van de GA102 chips geschikt zijn voor een RTX3080, die al een gedeelte heeft uitgeschakeld! Dan zou dus in best case 100% yield situatie, er twee keer zoveel chips zijn. Als de huidige slechte beschikbaarheid puur door gebrek aan GA102 chips is, dan zouden er dan 2x zoveel GPUs geleverd worden. Met 2x zoveel GPUs heb je nog steeds enorme wachtlijsten. Tenzij yeilds iets van 20% zijn, is de slechte beschikbaarheid niet veroorzaakt door te lage yields van Samsung. Tenzij ze niet op volle productie draaien/draaiden omdat ze denken dat ze met wat tweaks de yields veel hoger kunnen krijgen.
Ik denk dat ik daarom er misschien naast zit met m'n 80-80-72 voorspelling en dat 80-72-64 realistischer is. Gelukkig maakt het voor m'n performance % voorspelling niet uit. Trouwens, zelfs met +40% performance / Watt verslaat de XTX de 3090 nog steeds, met een paar %.Sp3ci3s8472 schreef op zondag 25 oktober 2020 @ 01:43:
[...]
Probleem is denk eerder dat Nvidia altijd voor monster chips gaat. Die 628 mm² is niet mals. Hoe groter de chip des meer je kans hebt dat er ergens wat fout gaat en je dingen moet gaan uitschakelen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Waar AMD ons ook mee gaat verrassen, Nvidia lijkt zelf inderdaad geen mogelijkheid te hebben om op heel korte termijn met iets anders te komen. 8nm Ampere zit out of the box bijna op het kantelpunt van efficientie. Hogere clocks zijn een probleem want dan moet de spanning omhoog en gaat het verbruik exponentieel stijgen. Dat is sowieso geen optie.Sp3ci3s8472 schreef op zaterdag 24 oktober 2020 @ 19:17:
[...]
Welke ruimte? Met Ampere, die zit aan zijn limiet tenminste op 8nm.
Het verschil is gewoon 18-19%, bijna evenredig met het aantal cores, alleen is de 3090 FE gelimiteerd op 350W ipv 390W bij AIB kaarten. En hebben zelfs dan nog de beste efficientie van alle kaarten tot nu toe. Over een paar dagen niet meer als ik het allemaal mag geloven.Dutchy007 schreef op zaterdag 24 oktober 2020 @ 19:19:
[...]
^ Dit dus. Nvidia heeft Ampere echt op z'n staart getrapt. Daarom zie je zo verdomd weinig verschil tussen de 3080 en 3090. En zelfs overclockers die LN2 gebruiken krijgen bizar weinig extra performance van overclocking.
Veel cores lusten nou eenmaal wat prik. Net als met manycore CPU's. Welk aandeel of nadeel 8nm daarin heeft weet ik niet. 7nm zou 0,67x van 8nm schaal zijn zoals in de eerder geposte video.
LN2 record is trouwens niet mals hoor met 2595MHz en +30% tov stock in Port Royal.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Impressive. Dan denk ik dat Navi21 de 3 GHz wel gaat aantikkenM-spec schreef op zondag 25 oktober 2020 @ 01:52:
[...]
Waar AMD ons ook mee gaat verrassen, Nvidia lijkt zelf inderdaad geen mogelijkheid te hebben om op heel korte termijn met iets anders te komen. 8nm Ampere zit out of the box bijna op het kantelpunt van efficientie. Hogere clocks zijn een probleem want dan moet de spanning omhoog en gaat het verbruik exponentieel stijgen. Dat is sowieso geen optie.
[...]
Het verschil is gewoon 18-19%, bijna evenredig met het aantal cores, alleen is de 3090 FE gelimiteerd op 350W ipv 390W bij AIB kaarten. En hebben zelfs dan nog de beste efficientie van alle kaarten tot nu toe. Over een paar dagen niet meer als ik het allemaal mag geloven.
Veel cores lusten nou eenmaal wat prik. Net als met manycore CPU's. Welk aandeel of nadeel 8nm daarin heeft weet ik niet. 7nm zou 0,67x van 8nm schaal zijn zoals in de eerder geposte video.
LN2 record is trouwens niet mals hoor met 2595MHz en +30% tov stock in Port Royal.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Indien big Navi rond de 500 mm² zit dan zou ik inderdaad ook eerder op het tweede gokken.sunsmountain schreef op zondag 25 oktober 2020 @ 01:51:
[...]
Ik denk dat ik daarom er misschien naast zit met m'n 80-80-72 voorspelling en dat 80-72-64 realistischer is. Gelukkig maakt het voor m'n performance % voorspelling niet uit. Trouwens, zelfs met +40% performance / Watt verslaat de XTX de 3090 nog steeds, met een paar %.
Wat we wel weten:Sissors schreef op zaterdag 24 oktober 2020 @ 22:31:
[...]
Maar we hebben geen flauw idee wat de yields zijn in Samsung 8nm. Het is leuk de huidige leverproblemen op yields te gooien, maar daar geloof ik geen ruk van. Stel je voor dat de yields zo extreem slecht zijn, dat slechts 50% van de GA102 chips geschikt zijn voor een RTX3080, die al een gedeelte heeft uitgeschakeld! Dan zou dus in best case 100% yield situatie, er twee keer zoveel chips zijn. Als de huidige slechte beschikbaarheid puur door gebrek aan GA102 chips is, dan zouden er dan 2x zoveel GPUs geleverd worden. Met 2x zoveel GPUs heb je nog steeds enorme wachtlijsten. Tenzij yeilds iets van 20% zijn, is de slechte beschikbaarheid niet veroorzaakt door te lage yields van Samsung. Tenzij ze niet op volle productie draaien/draaiden omdat ze denken dat ze met wat tweaks de yields veel hoger kunnen krijgen.
GA is een enorme chip. Kleiner dan Turing maar nog steeds erg groot, vooral op deze node.
Er gaan al redelijk lang geruchten in het rond dat samsung 8NM yields niet al te best zijn.
RTX 3080 zijn maar mondjesmaat beschikbaar, laat staan de 3090, ondanks dat Nvidia allang weet dat AMD met een concurrerend ontwerp komt en alle zeilen bij zou moeten zetten om AMD een hak te zetten.
GA 102 Slurpt stroom.
Het stroomverbuik kan 2 dingen betekenen. Of ze willen elke procent pakken om AMD voor te blijven en doen dus een AMD'tje, wat voor AMD in het verleden keer op keer slecht uitgepakt heeft. Plus, klok de kaart een tikkeltje lager en je de kaarten prestern hetzelfde of foutmarge waardes minder. De andere mogelijkheid is om de yields te verbeteren. Sommige kaarten die flink wat spanning nodig hebben om de kloksnelheden te halen alsnog als 3080 te kunnen verkopen ipv als 3070 met veel minder marge, of in de prullenbak belanden.
Samsung yields zijn gewoon niet om over naar huis te schrijven, iig niet zo goed als TSMC N7. Een grote die resulteert dus al gauw in een die met (te)veel defecten om als 3080/3090 verkocht te worden. En laat nu net het gerucht over een GA 102 3070 naar buiten zijn gekomen! Een cut down GA102, naast de GA 104?
En dan de 3090. Een zo goed als defect vrije GA102, De eenhoorn onder de 30XX serie, 1500 USD voor net een paar procentjes meer. De 102 zit aan z'n max en dat is te merken aan het verbruik en de leverbaarheid.
En zou de 3090 niet gewoon de 3080 TI moeten zijn die bij de vorige generatie gewoon dik 25% beter presteerde dan de 2080 maar het nu moet doen met 10-15%? zou dat zijn omdat een perfecte GA102 die gewoon te zeldzaam is?
Van het hele "de 3090 is wat vroeger de Titan was" geloof ik namelijk geen snars. De 2080TI werd zo'n beetje samen met de 2080 gelanceerd, die titan kwam pas maanden later. Waarom nu gelijk een titan die waardeloos presteert tov van de 3080 voor bijna 2* de prijs terwijl er geen 2080Ti in zicht is?
GDDR6X, beperkte beschikbaarheid van dit geheugen kan ook nog roet in het eten gooien, maar Micron is geen kleintje dus ik denk dat het hiermee wel snor zit.
En verder natuurlijk het gerucht over het substraat.
Ebfin, lang verhaal kort, De geleverde aantallen GA102 kaarten liggen naar het schijnt hoger dan de vergelijkbare kaarten van de hogere generaties, maar nu dat AMD met gedegen concurrentie komt zou je verwachten dat ze proberen de markt te verzadigen. Dat dit niet gebeurt lijkt me een teken aan de wand, onder potentiele kopers is de onvrede groot, ook niet iets wat je wilt als bedrijf.
Is Samsung 8nm slecht? Nee, maar duidelijk minder dan TSMC zowel in prestaties als yields. Voor een chip met de afmetingen zoals de GA102 kan dat desastreus uitpakken.
Ik kan er volledig naast zitten, maar op dit moment speelt Nvidia paniekvoetbal lijkt het wel. AMD komt met een waardige concurrent en Nvidia zit aan hun max.
Alsnog geen probleem, ze zullen waarschijnlijk gewoon weer 75% van de verkochte kaarten voor hun rekening nemen, maar ik begin te twijfelen of hoe het met hun marges zit.
Edit: Wat Yields betreft, de 80 CU AMD die is zeker ook geen kleintje met >500mm2. Het is te verwachten dat ook hier het aantal dies die goed genoeg zijn voor de top chip dramatisch laag zullen zijn, laag genoeg om AMD te doen besluiten om de top SKU exclusief via AMD te verkopen, buiten de AIB partners om. Natuurlijk zitten hgier de grootste marges en dus erg lucratief om te verkopen, maar dit zou nooit gebeurt zijn met goede aantallen.
De vraag is of het hier gaat om 80CU chips in beide top SKU's en dat de top SKU een gebinde hoge kloksnelheid "50th anniversary like" of dat de 2e SKU een cut down 72CU gaat worden en de 80 CU versie een 3090 achtige eenhoorn variant gaat worden.
Als echter AMD goede aantallen kan leveren ondanks de krapte bij TSMC, dan kan het haast niet anders dat de Samsung 8nm gewoon slecht zijn bij de gegeven die formaat van GA102.
[ Voor 9% gewijzigd door ZenTex op 25-10-2020 03:49 ]
Natuurlijk wel. Bijvoorbeeld als ze door GDDR6X beperkt worden. Dat ze niet genoeg packages kunnen maken voor hun chips lijkt me een sterk verhaal. Kan ook gewoon puur door hoge vraag in combinatie met nul voorraden hebben bij release, door angst voor leaks, dat ze nu bezig blijven met terug komen.Als echter AMD goede aantallen kan leveren ondanks de krapte bij TSMC, dan kan het haast niet anders dat de Samsung 8nm gewoon slecht zijn bij de gegeven die formaat van GA102.
Zoals ik al had geschreven, zelfs met een desastreuse 50% yield, dan nog zouden er nog steeds enorme leveringsproblemen zijn bij een theoretische 100% yield. Ik heb absoluut nul bewijs gezien voor slechte yields, buiten random verhaaltjes van Youtubers om. Die ook ineens kwamen met theorieën dat de Samsung yields enorm goed waren.
Laat ik het zo brengen: Deze verhalen over slechte Samsung yields komen van dezelde betrouwbare technologische geniën die ons vertelde dat door POSCAPs sommige 3080s nooit goed zouden presteren. Oftewel mensen die beter zijn in een leuk verhaal rond te lullen als dat ze daadwerkelijk verstand van technologie hebben.
Nee hoor. GF100 en Cypress. AMD's yields waren goed, Nvidia's niet, allebei op hetzelfde 40nm procedé van TSMC. Dat laatstgenoemde in eerste instantie te weinig productiecapaciteit had voor de benodigde volumes is een ander verhaal. Nvidia maakte gewoon heel veel fouten, die ze voor GF100 niet meer recht konden trekken en pas met GF104 konden testen.ZenTex schreef op zondag 25 oktober 2020 @ 02:46:
Als echter AMD goede aantallen kan leveren ondanks de krapte bij TSMC, dan kan het haast niet anders dat de Samsung 8nm gewoon slecht zijn bij de gegeven die formaat van GA102.
Je kunt niet zomaar zeggen dat een fab slechte yields heeft. Vergeet niet dat Samsung zelf ook genoeg bakt op 8N, in volumes die een stuk hoger liggen. Dat zijn echter veel kleinere en minder complexe chips. Yield is niet iets dat eenzijdig van de fab af komt; de klant is voor de helft zelf verantwoordelijk.
Er wordt hier te makkelijk naar Samsung gewezen voor enige problemen die Nvidia wel of niet heeft. Het kan best zijn dat Nvidia gewoon wederom fouten heeft gemaakt met hun fysieke ontwerp en keuze daaromtrent en dat er daardoor problemen met de productie zijn.
Wat we wel kunnen zeggen is dat TSMC N7 en Samsung 8N heel erg vergelijkbaar zijn qua maximale dichtheid; en de toegepaste dichtheid door de twee GPU fabrikanten liggen dan ook erg dicht bij elkaar. Omdat Samsung 8N een LP procedé is zal het meer spanning nodig hebben op hogere kloksnelheden, wat we ook zien in de standaard curves. Tegelijkertijd lijkt Nvidia dat echter niet gevalideerd te hebben, net zoals AMD enkele jaren geleden niet, want Ampère laat zich heel goed undervolten. Waar dat door komt zullen we nooit weten. Het kan zijn dat ze puur op Samsung's specs af gaan, dat Samsung's productie runs andere eigenschappen hebben (dat zou heel slecht zijn
Ik geloof niet in slechte yields; of beter gezegd, yields die slechter zijn dan wat Samsung aan gaf. Ik geloof ook niet dat Samsung's 8N echt veel slechter is dan TSMC's N7 voor de doelen die Nvidia en AMD hebben. Alle eigenschappen liggen daarvoor te dicht bij elkaar.
Nvidia is simpelweg bij Samsung gaan bakken omdat TSMC fors duurder is geworden (N7 is meer dan twee keer zo duur dan 16/12; terwijl 16/12 "slechts" 50% duurder dan 28nm was). Samsung bood ze simpelweg een betere prijs, zo simpel is het. Ik geloof ook niet dat het een volume probleem was bij TSMC; Nvidia's volumes zullen echt niet zo veel verschillen met AMD's, zelfs met Zen meegerekend.
En de productiecapaciteit komt volgens mij gewoon door een gehaaste release - er zijn zo veel tekenen dat ze zich gehaast hebben en dat is er één van. Er is zeker 6-8 weken nodig voor één productie run en daar zijn ze simpelweg te laat mee gestart. Ik vermoed dat we over 3-5 weken een redelijke golf aan kaarten zullen zien. Nog lang niet genoeg om aan de vraag te voldoen, maar meer dan dat handjevol* dat er nu beschikbaar is geweest.
* relatief hè; op een totaal volume van 6+ cijfers is een eerste golf van 4 cijfers of minder gewoon niks.
Er zit een fysieke limiet van 33x26mm in de (193nm immersion lithography) machines. Dit lijkt inderdaad niet de beperking – maar dit verschilt wel per generatie apparatuur.sunsmountain schreef op zaterdag 24 oktober 2020 @ 20:47:
[...]
Een architectuur is niet kleiner of groter, an sich. Het is gewoon een architectuur. Onafhankelijk van de node / productietechniek, kun je telkens dezelfde maat chips maken, bijvoorbeeld 250 of 500 mm2, afhankelijk van wat je doel is. TU102 is 754 mm2 en GA102 is 628 mm2, ze hadden GA102 best 754 mm2 kunnen maken, het was alleen niet nodig.
Misschien is dat het kantelpunt wat je bedoelt en zeggen we hetzelfde.
offtopic:
We zeggen ongeveer hetzelfde inderdaad, ik had gisteren alleen het woord proces moeten gebruiken toen ik even snel die reactie typte op mijn telefoon.
We zeggen ongeveer hetzelfde inderdaad, ik had gisteren alleen het woord proces moeten gebruiken toen ik even snel die reactie typte op mijn telefoon.
*SP-capsSissors schreef op zondag 25 oktober 2020 @ 09:13:
[...]
Laat ik het zo brengen: Deze verhalen over slechte Samsung yields komen van dezelde betrouwbare technologische geniën die ons vertelde dat door POSCAPs sommige 3080s nooit goed zouden presteren. Oftewel mensen die beter zijn in een leuk verhaal rond te lullen als dat ze daadwerkelijk verstand van technologie hebben.
Het GDDR6X gebeuren haalde ik ook aan, maar het lijkt me niet dat dit het geval is, Micron zou in staat moeten zijn om enorme hoeveelheden te produceren.Sissors schreef op zondag 25 oktober 2020 @ 09:13:
[...]
Natuurlijk wel. Bijvoorbeeld als ze door GDDR6X beperkt worden. Dat ze niet genoeg packages kunnen maken voor hun chips lijkt me een sterk verhaal. Kan ook gewoon puur door hoge vraag in combinatie met nul voorraden hebben bij release, door angst voor leaks, dat ze nu bezig blijven met terug komen.
Tenzij... Nvidia de Launch naar voren heeft verschoven om AMD voor te zijn.
En een TU102 3070 dan? Dat ze zo vroeg na de launch al met een Cut down cut down GA102 aankomen? Dat is noormaal gesproken pas een jaar na launch zo. (het is en blijft natuurlijk wel een gerucht, dus korrel zout)Zoals ik al had geschreven, zelfs met een desastreuse 50% yield, dan nog zouden er nog steeds enorme leveringsproblemen zijn bij een theoretische 100% yield. Ik heb absoluut nul bewijs gezien voor slechte yields, buiten random verhaaltjes van Youtubers om. Die ook ineens kwamen met theorieën dat de Samsung yields enorm goed waren.
Mee eens.Laat ik het zo brengen: Deze verhalen over slechte Samsung yields komen van dezelde betrouwbare technologische geniën die ons vertelde dat door POSCAPs sommige 3080s nooit goed zouden presteren. Oftewel mensen die beter zijn in een leuk verhaal rond te lullen als dat ze daadwerkelijk verstand van technologie hebben.
En voor het beginpunt dan ook nog even het volgende.
GA100 en GA102 zijn niet te vergelijken. GA100 is nauwelijks een Ampere chip als je een architectuur definieert als een samenstelling van bouwblokken in verschillende ratio's. GA100 heeft simpelweg heel andere bouwblokken in de SM's. Tweede is dat GA100 bewust een veel hogere dichtheid heeft dan GA102 en dat heeft vrijwel niks te maken met de node. GA100 is ontworpen om op clock speeds van honderden megahertz lager te draaien. Als je die keuze maakt, dan kan je transistordichtheid fors verhogen omdat er een relatie is tussen dichtheid en clock speed. Nvidia gaat GA100 niet lanceren als gaming GPU omdat er heel veel ruimte is ingenomen voor zaken waar games eigenlijk niks mee doen en de clock speeds zijn te laag. Een GA100 zou het zomaar kunnen afleggen tegen een GA102 in gaming workloads.
Dan RDNA2. Nou het is ondergesneeuwd geraakt maar Zen 3 zit ook nog op N7 en dat weet je omdat het dezelfde PDK is. Er lijkt weinig veranderd te zijn dan wat kleine tweaks die over de loop van een productie gemaakt zijn. Met die informatie in handen vermoed ik eigenlijk dat RDNA2 niet anders gaat zijn. Geen N7+ en geen EUV. Nee, N7 en dan de variant die AMD gebruikt. Die lijkt overigens geen specifieke naam te hebben.
GA100 en GA102 zijn niet te vergelijken. GA100 is nauwelijks een Ampere chip als je een architectuur definieert als een samenstelling van bouwblokken in verschillende ratio's. GA100 heeft simpelweg heel andere bouwblokken in de SM's. Tweede is dat GA100 bewust een veel hogere dichtheid heeft dan GA102 en dat heeft vrijwel niks te maken met de node. GA100 is ontworpen om op clock speeds van honderden megahertz lager te draaien. Als je die keuze maakt, dan kan je transistordichtheid fors verhogen omdat er een relatie is tussen dichtheid en clock speed. Nvidia gaat GA100 niet lanceren als gaming GPU omdat er heel veel ruimte is ingenomen voor zaken waar games eigenlijk niks mee doen en de clock speeds zijn te laag. Een GA100 zou het zomaar kunnen afleggen tegen een GA102 in gaming workloads.
Dan RDNA2. Nou het is ondergesneeuwd geraakt maar Zen 3 zit ook nog op N7 en dat weet je omdat het dezelfde PDK is. Er lijkt weinig veranderd te zijn dan wat kleine tweaks die over de loop van een productie gemaakt zijn. Met die informatie in handen vermoed ik eigenlijk dat RDNA2 niet anders gaat zijn. Geen N7+ en geen EUV. Nee, N7 en dan de variant die AMD gebruikt. Die lijkt overigens geen specifieke naam te hebben.
https://www.anandtech.com...with-cto-mark-papermasterIC: Speaking to that process node, TSMC’s 7nm as you said: we’ve specifically been told that it is this sort of minor process update that was used for Ryzen 3000XT. Are there any additional benefits that Ryzen 5000 is getting through the manufacturing process that perhaps we are not aware of?
MP: It is in fact the core is in the same 7nm node, meaning that the process design kit [the PDK] is the same. So if you look at the transistors, they have the same design guidelines from the fab. What happens of course in any semiconductor fabrication node is that they are able to make adjustments in the manufacturing process so that of course is what they’ve done, for yield improvements and such. For every quarter, the process variation is reduced over time. When you hear ‘minor variations’ of 7nm, that is what is being referred to.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hier ging ik dan ook al op in. GA102 is weliswaar kleiner dan TU 102, maar een nieuw proces komt met andere problemen en >600mm2 is alsnog erg groot.Werelds schreef op zondag 25 oktober 2020 @ 09:52:
[...]
Je kunt niet zomaar zeggen dat een fab slechte yields heeft. Vergeet niet dat Samsung zelf ook genoeg bakt op 8N, in volumes die een stuk hoger liggen. Dat zijn echter veel kleinere en minder complexe chips. Yield is niet iets dat eenzijdig van de fab af komt; de klant is voor de helft zelf verantwoordelijk.
Er wordt hier te makkelijk naar Samsung gewezen voor enige problemen die Nvidia wel of niet heeft. Het kan best zijn dat Nvidia gewoon wederom fouten heeft gemaakt met hun fysieke ontwerp en keuze daaromtrent en dat er daardoor problemen met de productie zijn.
Inderdaad, Samsung 8nm is zeker niet zo slecht als men her en der leest en transistordichtheid ligt niet ver uit elkaar. Het is inderdaad minder zuinig dan N7, maar dan nog is 320/350 te zot voor woorden. Dus het is of een truc om prestaties minimaal te verbeteren, of om de yields te verhogen.Wat we wel kunnen zeggen is dat TSMC N7 en Samsung 8N heel erg vergelijkbaar zijn qua maximale dichtheid; en de toegepaste dichtheid door de twee GPU fabrikanten liggen dan ook erg dicht bij elkaar. Omdat Samsung 8N een LP procedé is zal het meer spanning nodig hebben op hogere kloksnelheden, wat we ook zien in de standaard curves.
Dus, oftewel paniekvoetbal vanwege AMD, of tegenvallende yields, of... Een beetje van allebei?Nvidia is simpelweg bij Samsung gaan bakken omdat TSMC fors duurder is geworden (N7 is meer dan twee keer zo duur dan 16/12; terwijl 16/12 "slechts" 50% duurder dan 28nm was). Samsung bood ze simpelweg een betere prijs, zo simpel is het. Ik geloof ook niet dat het een volume probleem was bij TSMC; Nvidia's volumes zullen echt niet zo veel verschillen met AMD's, zelfs met Zen meegerekend.
En de productiecapaciteit komt volgens mij gewoon door een gehaaste release - er zijn zo veel tekenen dat ze zich gehaast hebben en dat is er één van. Er is zeker 6-8 weken nodig voor één productie run en daar zijn ze simpelweg te laat mee gestart. Ik vermoed dat we over 3-5 weken een redelijke golf aan kaarten zullen zien. Nog lang niet genoeg om aan de vraag te voldoen, maar meer dan dat handjevol* dat er nu beschikbaar is geweest.
* relatief hè; op een totaal volume van 6+ cijfers is een eerste golf van 4 cijfers of minder gewoon niks.
Verder ben ik er 1 die denkt dat Nvidia inderdaad niet voor Samsung heeft gekozen, maar wel moesten vanwege hoge prijzen en beperkte beschikbaarheid bij TSMC, en dat dit gebeurde voordat ze doorhadden dat AMD met een goed antwoord ging komen.
Hoe dit gaat uitpakken gaan we over een paar weken zien.
Of doorgeslagen drang naar geheimhouding, waardoor er geen voorraden aangelegd konden worden voor release.ZenTex schreef op zondag 25 oktober 2020 @ 10:29:
[...]
Dus, oftewel paniekvoetbal vanwege AMD, of tegenvallende yields, of... Een beetje van allebei?
Verder ben ik er 1 die denkt dat Nvidia inderdaad niet voor Samsung heeft gekozen, maar wel moesten vanwege hoge prijzen en beperkte beschikbaarheid bij TSMC, en dat dit gebeurde voordat ze doorhadden dat AMD met een goed antwoord ging komen.
Hoe dit gaat uitpakken gaan we over een paar weken zien.
En ze hadden natuurlijk prima voor TSMC kunnen kiezen en hogere prijzen accepteren. Dat had alleen betekend dat ze of hun marge hadden moeten verkleinen, of de consumenten hogere prijs moeten geven (met als gevolg mindere verkopen).
Een beetje een schot in eigen doel dus. Mogelijk maar onwaarschijnlijk.Sissors schreef op zondag 25 oktober 2020 @ 10:40:
[...]
Of doorgeslagen drang naar geheimhouding, waardoor er geen voorraden aangelegd konden worden voor release.
Als ze toen wisten hoe AMD er nu zou voorstaan, mochten de geruchten kloppen, hadden ze met TSMC een node kunnen hebben met een bewezen track record en betere prestaties icm lager verbruik.En ze hadden natuurlijk prima voor TSMC kunnen kiezen en hogere prijzen accepteren. Dat had alleen betekend dat ze of hun marge hadden moeten verkleinen, of de consumenten hogere prijs moeten geven (met als gevolg mindere verkopen).
De consument is blijkbaar bereid de hoodprijs te betalen voor high end GPU's (zie Turing), de meerprijs per wafer hadden ze wel terug kunnen verdienen, zeker als ook de yields zelfs maar iets beter zouden zijn dan bij Samsung en tegelijkertijd AMD dubbel een hak kunnen zetten door een beter eindresultaat en capaciteit weg te kapen bij AMD.
Hoe zou een RX 6800/6900 het doen op Samsung 8NM?
Hoe dan ook, volgens mij heeft Nvidia gegokt en... Niet verloren, maar gewoon misgegokt.
Nogmaals, ik geloof niet dat dit het geval is: betere prestaties en lager verbruik. Als je kijkt naar de daadwerkelijk benodigde klokfrequenties en spanningen van Ampère, lijken die vooralsnog grofweg hetzelfde te liggen als bij TSMC. Vergeet niet dat het ding nu helemaal naar 1,2V vliegt voor 2000-2100 MHz terwijl 0,9V voor die frequentie voldoet. Het is maar de vraag of ze dat bij TSMC hadden gedaan, dat is namelijk niet iets wat door de fab wordt bepaald. Dat bepalen Nvidia en AMD zelf tijdens de validatie, dus het kan best zijn dat Nvidia merkte dat het merendeel van de samples wel zo veel spanning nodig hadden.ZenTex schreef op zondag 25 oktober 2020 @ 10:49:
Als ze toen wisten hoe AMD er nu zou voorstaan, mochten de geruchten kloppen, hadden ze met TSMC een node kunnen hebben met een bewezen track record en betere prestaties icm lager verbruik.
Betere prestaties zou best mogelijk zijn, door hogere kloksnelheden. In theorie. Want ook dat kan een beperking van de architectuur zijn, in plaats van een beperking van Samsung. Maar dan gaat het verbruik weer omhoog.
Had je nou betere efficiëntie gezegd, dan hoogstwaarschijnlijk wel. Maar zowel betere performance als lager verbruik is heel erg twijfelachtig
We zullen het wel zien over een paar dagen, als we daadwerkelijk weten op wat voor frequenties en spanningen AMD draait.
Yields zijn afhankelijk van de chip binning die je er op toepast. Bakjes van 70% en 80% SMs bij Samsung nVidia zijn makkelijker te halen dan 90% en 100% CUs bakjes bij TSMC AMD.
Zo bekeken zijn de yields altijd goed: alle chips die in een package terecht komen, zijn functioneel. Echte defecte chips zijn vandaag de dag zeldzaam, omdat kritische logica circuits dubbel of op een groter oppervlak worden uitgevoerd.
Als je yields echter beoordeelt op wat de bins hadden kunnen zijn bij een ander productie proces, dan zijn de Samsung yields "slechter". Het is maar net hoe je er tegen aan kijkt.
ps.: Dan is het ontwerp natuurlijk ook anders, dat is eigen aan het proces, en zijn verschillende chips onderling nooit perfect vergelijkbaar. Maar dan nog kent TSMC een lagere defect rate dan Samsung, voor de chips die ze maken.
Zo bekeken zijn de yields altijd goed: alle chips die in een package terecht komen, zijn functioneel. Echte defecte chips zijn vandaag de dag zeldzaam, omdat kritische logica circuits dubbel of op een groter oppervlak worden uitgevoerd.
Als je yields echter beoordeelt op wat de bins hadden kunnen zijn bij een ander productie proces, dan zijn de Samsung yields "slechter". Het is maar net hoe je er tegen aan kijkt.
ps.: Dan is het ontwerp natuurlijk ook anders, dat is eigen aan het proces, en zijn verschillende chips onderling nooit perfect vergelijkbaar. Maar dan nog kent TSMC een lagere defect rate dan Samsung, voor de chips die ze maken.
[ Voor 16% gewijzigd door sunsmountain op 25-10-2020 12:01 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik wou eigenlijk perf/watt zeggen, maar dan kun je ook alle kanten mee op (Zie Nvidia marketing).Werelds schreef op zondag 25 oktober 2020 @ 11:29:
[...]
Had je nou betere efficiëntie gezegd, dan hoogstwaarschijnlijk wel. Maar zowel betere performance als lager verbruik is heel erg twijfelachtig
Maar je hebt inderdaad gelijk, het is meetal betere performance bij gelijk verbuik of lager verbruik tegen gelijke performance, meestal gaat men voor optie nr1, maar er is een grens, en die heeft Nvidia gewoon overschreden. Helaas vrees ik dat AMD lekker Nvidia achteraan gaat.
Maar nogmaals, ik denk gewoon dat Nvidia hier een AMD'tje doet, of een Vega'tje zegmaar.
Ik ben echt oprecht benieuwd hoe AMD gaat presteren, na Nvidia's marketing ben ik alleen enorm sceptisch...
Tevens zeggen benchmark scores vrij weinig, als je een RTX 3080 vs 3090 vergelijkt, dan is het verschil groter dan als je naar performance in-game kijkt.
+ De 2080 Ti killer was ook een lachertje...
Ik verwacht zelf dat AMD op raw performance gelijk loopt, maar Nvidia was niet bezig om te winnen op raw performance... Hun hebben meer ingezet op Ray-Tracing en andere functies, we kunnen deze generatie dus ook niet zeggen de een is beter dan de ander...
Ik denk dat zowel Nvidia als AMD een mooie line-up aan GPU's heeft!
Tevens zeggen benchmark scores vrij weinig, als je een RTX 3080 vs 3090 vergelijkt, dan is het verschil groter dan als je naar performance in-game kijkt.
+ De 2080 Ti killer was ook een lachertje...
Ik verwacht zelf dat AMD op raw performance gelijk loopt, maar Nvidia was niet bezig om te winnen op raw performance... Hun hebben meer ingezet op Ray-Tracing en andere functies, we kunnen deze generatie dus ook niet zeggen de een is beter dan de ander...
Ik denk dat zowel Nvidia als AMD een mooie line-up aan GPU's heeft!
WP: Mitsubishi Ecodan PUHZ-SW75YAA + EHST20D-VM2D / PV: 2150Wp Z/O 132° en 2580Wp N/W 312° Ik wil een warmtepomp.nu
De uitspraken van AMD in de presentaties van pak hem beet, het laatste anderhalf jaar kwamen exact uit in onafhankelijke benchmarks.DutchWing schreef op zondag 25 oktober 2020 @ 12:25:
Ik ben echt oprecht benieuwd hoe AMD gaat presteren, na Nvidia's marketing ben ik alleen enorm sceptisch...
Laten we naar timespy en firestrike scores van de vorige generatie kijken, toen versloeg de 5700xt de 2070 super maar moest zelfs tegen de 2060 het onderspit delven in timespy. Dat lijkt een aardige vergelijking als big navi de 3080 in fs duidelijk verslaat maar net het onderspit delft in timespy.Tevens zeggen benchmark scores vrij weinig
Dat gezegd hebbende, dit zijn natuurlijke hi GPUs van een nieuwe generatie kaarten met een grondige wijziging in de arch van AMD, dus ja, er is reden tot scepsis.
Huh? Waar heb je het over? De big navi die maar niet kwam na de launch van de 5700?+ De 2080 Ti killer was ook een lachertje...
Edit, oh, wacht, de Radeon 7 zeker.
Werd die niet TOV de 2080 neergezet?
[ Voor 11% gewijzigd door ZenTex op 25-10-2020 13:02 ]
Het lijkt mij nu wel duidelijk: voor de beste en meest onderlegde discussies over de productieprocessen van Nvidia moet je in het AMD topic zijn.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Ok back on topic. 
Navi 21 XT (ASUS Strix) - Engineering Board
— Patrick Schur (@patrickschur_) 25 oktober 2020
[3DMark11]
System 1
Avg: 2291 MHz
Median: 2373 MHz
Max: 2556 MHz
System 2
Avg: 2289 MHz
Median: 2301 MHz
Max: 2394MHz
System 3
Avg: 2092 MHz
Median: 2320 MHz
Max: 2489 MHz
TGP: 289 W
MCLK: 1000 MHz
Max = Peak
1/2
The driver had some problems. That's why the clock rates are so different.
— Patrick Schur (@patrickschur_) 25 oktober 2020
2/2
[ Voor 28% gewijzigd door Xadeon op 25-10-2020 14:01 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Als dat juist is, lijkt het op driver problemen. Mediaan ligt redelijk in de buurt van elkaar, maar systeem 3 heeft 200MHz lagere gemiddelde klokfrequentie. Met mediaan vergelijkbaar en veel lager gemiddelde betekend dat hij soms dus veel lagere kloksnelheden heeft als dat de andere systemen hebben.
Edit: haha, ik had jouw edit nog niet gezien. Had het goed dus
Edit: haha, ik had jouw edit nog niet gezien. Had het goed dus
[ Voor 10% gewijzigd door Sissors op 25-10-2020 14:06 ]
En meer...
Here are some results with a TGP of 255 W. Don't ask me what's the difference between 255 W and 289 W models.
— Patrick Schur (@patrickschur_) 25 oktober 2020
Probably more OC headroom and more stable boost clocks? 🤔
System 2
Avg: 2298 MHz
Median: 2357 MHz
Max: 2509 MHz
System 3
Avg: 1993 MHz
Median: 2342 MHz
Max: 2557 MHz
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Ik ga de ''XTX'' kopen, genoeg van de hypetrain! Hopelijk wordt het geen dure grap. Maar ik heb een vermoeden dat Nederland niet bij launchday zal zijn op AMD site.
[ Voor 8% gewijzigd door Amazigh_N_Ariff op 25-10-2020 16:06 ]
Als ie on par is met de 3090 verwacht ik een getal met 4 cijfers...Amazigh_N_Ariff schreef op zondag 25 oktober 2020 @ 16:05:
Ik ga de ''XTX'' kopen, genoeg van de hypetrain! Hopelijk wordt het geen dure grap. Maar ik heb een vermoeden dat Nederland niet bij launchday zal zijn op AMD site.
Ik snap eigenlijk niet zo waarom men nu al verwachtingen heeft van RT.
Sowieso is het voor AMD de eerste generatie waar we iets van RT gaan zien. Darnaast staat het hele renderparadigma nog in de kinderschoenen in realtime desktop toepassingen, zoals ik eerder ook al heb betoogd.
De minieme verbeteringen die er tot nu toe mee geboekt worden zijn wat mij betreft niet noemenswaardig genoeg om er de focus op te leggen. VR heeft min of meer hetzelfde euvel, in de zin dat voor VR de juiste headset nog moet worden uitgebracht. Echter heeft een USP die wel voor een hook zorgt, wat voor de doorontwikkeling van de technologie zorgt. Ik kan mij voor RT zelfs voorstellen dat RT een fad zou kunnen blijken, als er niet genoeg vooruitgang wordt geboekt en men er op uitgekeken raakt. Dan vervalt RT als doel en krijgen we global lightning als cadeau van de poging. Een beetje zoals tesselation pas in 2e instantie een ding werd, maar geen focus item.
Mijn eerdere schatting van 5 à 10 jaar is nog tamelijk optimistisch en gaat uit van één of meerdere revolutionaire stappen in de komende jaren, gezien het feit dat men bij een groei factor van 25% performance increase per jaar men er zo 30 jaar over gaat doen om de vereiste performance gaat bereiken om full scene RT toe te kunnen passen.
Sowieso is het voor AMD de eerste generatie waar we iets van RT gaan zien. Darnaast staat het hele renderparadigma nog in de kinderschoenen in realtime desktop toepassingen, zoals ik eerder ook al heb betoogd.
De minieme verbeteringen die er tot nu toe mee geboekt worden zijn wat mij betreft niet noemenswaardig genoeg om er de focus op te leggen. VR heeft min of meer hetzelfde euvel, in de zin dat voor VR de juiste headset nog moet worden uitgebracht. Echter heeft een USP die wel voor een hook zorgt, wat voor de doorontwikkeling van de technologie zorgt. Ik kan mij voor RT zelfs voorstellen dat RT een fad zou kunnen blijken, als er niet genoeg vooruitgang wordt geboekt en men er op uitgekeken raakt. Dan vervalt RT als doel en krijgen we global lightning als cadeau van de poging. Een beetje zoals tesselation pas in 2e instantie een ding werd, maar geen focus item.
Mijn eerdere schatting van 5 à 10 jaar is nog tamelijk optimistisch en gaat uit van één of meerdere revolutionaire stappen in de komende jaren, gezien het feit dat men bij een groei factor van 25% performance increase per jaar men er zo 30 jaar over gaat doen om de vereiste performance gaat bereiken om full scene RT toe te kunnen passen.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Waren er geen geruchten dat de release tussen 15 en 20 nov. was?Amazigh_N_Ariff schreef op zondag 25 oktober 2020 @ 16:05:
Ik ga de ''XTX'' kopen, genoeg van de hypetrain! Hopelijk wordt het geen dure grap. Maar ik heb een vermoeden dat Nederland niet bij launchday zal zijn op AMD site.
Niet op voorraad.
Ik denk dat je eerder moet afwachten wat de console ports met DXR nu echt gaan doen. Voor die paar "RTX" games is het probleem voornamelijk dat de effecten zowel te zwaar zijn, vaak ronduit zinloos en de verkeerde zaken zijn geïmplementeerd die weinig bijdragen voor relatief veel verlies. Ook zijn een aantal games zoals BF5 ook simpelweg niet de games waar DXR echt meerwaarde heeft. BF5 haar DX12 implementatie is notoire slecht en wat ze daar aan effecten hebben, voegt helemaal niks toe aan de beleving. Ironisch genoeg is denk ik de enige "ray" implementatie van de afgelopen twee jaar die echt iets toevoegde aan de game, de ray marching van RDR2 en dat heeft niks met DXR te maken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
@DaniëlWW2 Het is nog even. Ik heb geen glazen bol, maar ik denk wel dat het gerechtvaardigd is om deze vragen te stellen en te kijken naar de toekomstperspectieven.
Uit jouw verhaal haal ik wel een beetje de bevestiging voor mijn punt dat bij gebrek aan vooruitgang men op een gegeven moment bepaalde technieken als cadeautje krijgt van een pad dat niet langer vervolgd gaat worden.
Qua performance loopt de rasterisation techniek ten einde. 8K schermen hebben een beperkte meerwaarde voor desktop gaming. Over ca. 8-10 jaar (ca. 4-5 generaties) zal men het niveau bereiken dat men een VR bril kan aansturen op het niveau dat het oplossend vermogen van het oog benaderd wordt. De meerwaarde van doorontwikkeling zal daarna afnemen. De vraag is wat men daarna moet doen. Als RT tegen die tijd niet performant genoeg is weet ik niet waar hoe je de verdere ontwikkeling van desktop graphics kan rechtvaardigen tegenover investeerders. Desktop RT kan wel eens de fusie-energie van gaming blijken.
Uit jouw verhaal haal ik wel een beetje de bevestiging voor mijn punt dat bij gebrek aan vooruitgang men op een gegeven moment bepaalde technieken als cadeautje krijgt van een pad dat niet langer vervolgd gaat worden.
Qua performance loopt de rasterisation techniek ten einde. 8K schermen hebben een beperkte meerwaarde voor desktop gaming. Over ca. 8-10 jaar (ca. 4-5 generaties) zal men het niveau bereiken dat men een VR bril kan aansturen op het niveau dat het oplossend vermogen van het oog benaderd wordt. De meerwaarde van doorontwikkeling zal daarna afnemen. De vraag is wat men daarna moet doen. Als RT tegen die tijd niet performant genoeg is weet ik niet waar hoe je de verdere ontwikkeling van desktop graphics kan rechtvaardigen tegenover investeerders. Desktop RT kan wel eens de fusie-energie van gaming blijken.
[ Voor 3% gewijzigd door ocf81 op 25-10-2020 17:42 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Here are some more details about System 1. You can see that the clock was more than 85 % of the time ≥ 2300 MHz.
— Patrick Schur (@patrickschur_) 25 oktober 2020
≥ 2500 MHz (10.28 %)
2400 ≤ x < 2500 MHz (24.46 %)
2300 ≤ x < 2400 MHz (50.49 %)
2200 ≤ x < 2300 MHz (3.64 %)
2100 ≤ x < 2200 MHz (1.38 %)
< 2100 MHz (9.75 %)
Nice 🥰 https://t.co/pHrICuXCkB pic.twitter.com/M2zGAtVDmf
— 포시포시 (@harukaze5719) 25 oktober 2020
:strip_exif()/f/image/DyMmVAM3TUAD6pk05NSU0l2o.jpg?f=fotoalbum_large)
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
En dit zou nog zijn met een 'kapotte' driver op een ES versie van de hardware?
Deze kaart zit al 85% van de tijd boven de 2300Mhz. Die laatste 15% moet toch nog wel kunnen met definitieve hardware + driver, toch
Natuurlijk mogen ze ook het 10% aandeel van boven de 2500Mhz naar de 75% krijgen
Een AIB die dat voor elkaar krijgt, wint behoorlijk aan performance lijkt me!
[ Voor 16% gewijzigd door Mars Warrior op 25-10-2020 19:37 ]
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Hoe moeten we die percentages interpreteren? Is dit wat verschillende kaarten maximaal halen? Of welke snelheid 1 kaart door de tijd draait?
De interpretatie is: De tijd dat deze specifieke kaart in een bepaalde frequentie range bevind in een onbekende programma/spelletje.
Een kaart man dan boosten naar 2500mhz naar als deze daarmaar een paar milliseconden bevind is dan een gimmic. In de grafiek wordt dan ook aangegeven dat deze kaart de meeste tijd in 2300-2400mHz bevindt.
Een kaart man dan boosten naar 2500mhz naar als deze daarmaar een paar milliseconden bevind is dan een gimmic. In de grafiek wordt dan ook aangegeven dat deze kaart de meeste tijd in 2300-2400mHz bevindt.
Het loopt nog niet ten einde. Er wordt ingeschat dat je minstens 40TFLOPS aan FP32 nodig hebt voor realistische graphics. Daar zijn we nog lang niet. Dan komt RT er nog eens overheen. Ik heb weinig verwachtingen van RT, maar ik besef me wel dat wat Nvidia pusht met "RTX" gewoon de verkeerde aanpak is. Ze doen namelijk steeds dingen die nauwelijks relevant zijn, iets bijdragen aan de game of zaken die relatief goed te doen zijn met shaders. Daarom kijk ik meer naar wat de consoles nu gaan doen.ocf81 schreef op zondag 25 oktober 2020 @ 17:30:
@DaniëlWW2 Het is nog even. Ik heb geen glazen bol, maar ik denk wel dat het gerechtvaardigd is om deze vragen te stellen en te kijken naar de toekomstperspectieven.
Uit jouw verhaal haal ik wel een beetje de bevestiging voor mijn punt dat bij gebrek aan vooruitgang men op een gegeven moment bepaalde technieken als cadeautje krijgt van een pad dat niet langer vervolgd gaat worden.
Qua performance loopt de rasterisation techniek ten einde. 8K schermen hebben een beperkte meerwaarde voor desktop gaming. Over ca. 8-10 jaar (ca. 4-5 generaties) zal men het niveau bereiken dat men een VR bril kan aansturen op het niveau dat het oplossend vermogen van het oog benaderd wordt. De meerwaarde van doorontwikkeling zal daarna afnemen. De vraag is wat men daarna moet doen. Als RT tegen die tijd niet performant genoeg is weet ik niet waar hoe je de verdere ontwikkeling van desktop graphics kan rechtvaardigen tegenover investeerders. Desktop RT kan wel eens de fusie-energie van gaming blijken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.