• RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Nvidia komt mogelijk met een RTX 3000 Super reeks voor desktop. Bron: https://nl.hardware.info/...laptop-en-desktop-gestart

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Inflatable
  • Registratie: Oktober 2002
  • Laatst online: 03-02 05:49
RobinNL schreef op vrijdag 16 juli 2021 @ 13:33:
Nvidia komt mogelijk met een RTX 3000 Super reeks voor desktop. Bron: https://nl.hardware.info/...laptop-en-desktop-gestart
Beetje vreemd als ze net met Ti modellen zijn gekomen voor de 3070 en 3080.. Voor een 3080 Super is misschien nog wel ruimte tussen de 3080 en 3080Ti, maar voor een 3070 Super zou ik niet weten waar die moet passen dan? Een 3070Ti is al amper sneller dan de gewone 3070 en straks misschien een 3070 Super die sneller is dan een 3070Ti zou ook een vreemde situatie zijn.. De markt zit ook helemaal niet te wachten op nog meer SKU's.. Maar dat zal Nvidia waarschijnlijk grotendeels worst wezen, zolang het maar verkoopt en het liefst voor nog hogere prijzen.. :X

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Het blijkt dat Nvidia al een tijd lang FSR ondersteunde
AMD FSR Based on Modified Lanczos Upscaler, Can Be Enabled On NVIDIA GPUs Using Control Panel For Similar Results In Games
Bron
https://wccftech.com/amd-...ntrol-panel-in-all-games/

[ Voor 46% gewijzigd door Tincahunter op 05-08-2021 12:29 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nee, dit is een click bait artikel waar de primaire bron (Digital Foundry) het doel heeft om AMD hun software op onvolledige en verdraaide informatie, in diskrediet te brengen. En mensen trappen er helaas zo in. :/


We beginnen maar eens met mijn gedachteproces omtrent dit artikel en de conclusies die ik hieruit kan halen. :)
-Ik zie eerst WCCFtech en dan weet ik al dat ik niet zo alles moet geloven.
-Ik zie dat het artikel gaat over dat FSR al jaren in Nvidia hun driverpaneel zou zitten. Daar gaan al alarmbellen af. Want als dat zo was, dan had je Nvidia allang gehoord hierover. Ook mist dan de hele logica van per game implementatie die nodig is.
-En toen zag ik dat de bron Digital Foundry was. En dat was het punt dat ik al zeer sceptisch begon te worden over de inhoud en claims. Want het is niet de eerste keer dat Digital Foundry opeens met een artikel komt dat Nvidia wel heel erg goed uitkomt. En toeval is het ook niet. We hebben bijvoorbeeld al vorig jaar gehad dat ze voor de launch even een RTX3080 hadden en een paar zeer selectieve benchmarks gingen draaien met instellingen die door Nvidia waren uitgekozen met maximaal resultaat.


Maar de inhoud dan.

AMD maakt er geen geheim van dat ze Lanczos gebruiken. Immers hebben ze het toch zelf in hun source code vermeld die ze zelf beschikbaar hebben gesteld. Waar dit allemaal niet op ingaat is dat AMD het gebruikt als basis voor FSR en zelf voortbouwt op dit inmiddels decennia oude algoritme. En dat is logisch omdat van wat ik begrijp, het gewoon een goede basis is. Toevallig zegt Ryan Smith dat ook verder in die twitter thread, maar dat staat niet gelinkt in het artikel. Hoe zou dat toch komen?


En dan gaan we verder. In het artikel word je eerst lekker gemaakt over dat het allang kan met Nvidia, en dan volgt deze quote die het hele voorgaande onderuit haalt.
Now it's not the most efficient way of upscaling games as there are certain limitations that apply to using this method compared to AMD's FSR and NVIDIA DLSS which is implemented on per-game. It has the following limitations.
En dan gaan we verder met:
Also, since this upscaling method works for the entire screen, there is a possibility of the game UI or Menu becoming blurry and unable to read compared to the proper solutions where devs will be knowing for sure which screen elements the upscaling needs to be applied to and which do not. It is interesting to see that AMD chose the Lanczos Upscale as a base for its FSR tech and improved upon it in several ways while making it open-source for easier integration within AAA titles and is applicable for general purpose use as Jarred Walton over at TomsHardware points out.
It is also pretty clear that AMD's FSR will be a superior technology but for those who want to try it out, an interesting comparison would be to compare games that use FSR and see how NVIDIA's upscale looks against that. This is pretty much doable on any NVIDIA GeForce graphics card from the past two years including the GeForce 10 and 16 series products. But this is only useful for the AAA gaming titles that don't have FSR or DLSS support in which case, Lanczos filter through the NVIDIA control panel is a good option.
Twee quotes van Toms Hardware, toch ook een waar bastion van "objectiviteit" gebleken de laatste decennia. Bekent van uitspraken zoals "Just buy it". :z
https://www.tomshardware....orth-the-money,37689.html

En ik ben meteen maar naar dat artikel van Toms Hardware gegaan. Toch opvallend dat het erop lijkt dat WCCFtech de meest objectieve passages eruit heeft gehaald. Want Toms Hardware gaat gewoon verder met een verkapt reclameartikel voor DLSS met passages zoals:
Ironically, Nvidia also adopted Lanczos upscaling and sharpening as a filter in its drivers that was first added years ago. Could it have put in the work to get developers to use Lanczos upscaling instead of temporal upscaling — or in addition to temporal upscaling — back in the Pascal GPU generation? Absolutely. But instead, it was left as a mere filter while Nvidia put its engineering efforts to work creating DLSS, an AI-driven upscaling and enhancement algorithm that's proprietary to Nvidia RTX GPUs. And to be fair, DLSS 2.0 and later revisions do work quite well, arguably better than Lanczos resampling.
https://www.tomshardware....ars-old-sharpening-filter

Het erbij halen van DLSS in deze context, of veel belangrijker, waarom de assertie dat Nvidia dit jaren geleden al had kunnen doen, terwijl ze ervoor kozen om DLSS te ontwikkelen, passen niet in dit artikel of de berichtgeving die zich centreert op een claim dat in het Nvidia driver paneel al jarenlang iets vergelijkbaars met FSR zit. En dat zet weer een alarmbel bij mij af. Dit komt namelijk van een medium dat door de jaren heen, zo haar controverses heeft gehad met AMD. En zo'n passage maken is eigenlijk het afdoen van AMD hun werk met FSR tot een verkapte installer voor een deccenia oud algoritme. Dat is het dus niet. Het is de basis voor iets beters omdat de zwaktes van Lanzcos eruit gehaald zijn.


Bij dit soort "artikelen" moet je ook altijd een andere belangrijke vraag stellen. Waar gaat het nu niet over? De intentie van dit soort artikelen is vaak namelijk ook afleiding naast in discreet brengen.

Maar waar gaat het dus niet om? FSR en DLSS 2.x tegen elkaar afwegen. Dat is toch al iets dat heel erg mist omdat DLSS in de regel er beter uit zal zien in statisch beeld omdat het werkt met data van verschillende frames, maar FSR wel eens beter kan zijn in bewegend beeld juist omdat het met data van een frame werkt. En onder de streep lijkt het ultieme kwalsiteverschil tussen de twee ook niet enorm te zijn, behalve dat FSR op vrijwel alles werkt. Dat is een conclusie waar je echt integere en goede tech media wel over hoort en het is een goede lakmoestest van de publicatie. ;)

En die kan je ook toepassen.
DF viel namelijk destijds meteen al op in hun eigenlijk gebrekkige en negatieve kijk op de zaken. Een game, geen vergelijking met DLSS te vinden.
YouTube: AMD FidelityFX Super Resolution FSR Review: Big FPS Boosts, But Imag...

Terwijl de veel meer respectabele HWU en GamersNexus veel meer testte en veel genuanceerder waren.
YouTube: AMD FidelityFX Super Resolution Analysis, Should Nvidia be Worried?
YouTube: AMD FidelityFX Super Resolution Quality Comparison & Benchmarks (FSR)


En dat brengt me weer bij Wikipedia: Edward Bernays. Want dit alles past wel erg goed in zijn draaiboek en het is geen geheim dat Nvidia graag gebruik maakt van Bernays zijn technieken omtrent marketing. Je geeft een verdraaide opzet van feiten aan een "goed gezinde journalist", die draait het artikel voor je, reputatieschade is aangericht terwijl je er zelf beter uit lijkt te komen en je kan zelf alle betrokkenheid ontkennen.


Laatste is dat AMD zelf ook duidelijk maakt op hun eigen developers website dat het wat meer is.
https://gpuopen.com/fidelityfx-superresolution/#howitworks

En om dit allemaal goed op te sommen hebben we dit: :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Mangafan2
  • Registratie: Oktober 2005
  • Laatst online: 04-03-2025
Hopelijk mag ik het hier vragen. Anders sorry.
Maar als je nu op 4K, 144hz met Gsync wilt spelen, op 144fps minimaal, met hoge settings (denk aan Overwatch, APEX FIFA etc, wat minder intensieve spellen) moet ik dan denken aan de Geforce 4080 die pas over 2-3 jaar uit komt of voldoet de 3080 daar al aan?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Dus grote onzin, heb vrij weinig toe te voegen aan wat @DaniëlWW2 hier samenvat.

Dat iets gebasseerd is op een algoritme of filter betekent niet dat het hetzelfde is.

We gaan toch ook niet zeggen dat elk spel met TAA stiekem dus al DLSS had, omdat DLSS daar op gebaseerd is?

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Dat zeg ik ook helemaal niet. Het is feitelijk alleen wel ern techniek (met wat aanpasdingrn) die al langer bestond en al werkte op Nvidia. Geen hele verhalen maken over iets wat ik niet eens zeg.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Tincahunter schreef op vrijdag 6 augustus 2021 @ 10:39:
Dat zeg ik ook helemaal niet. Het is feitelijk alleen wel ern techniek (met wat aanpasdingrn) die al langer bestond en al werkte op Nvidia. Geen hele verhalen maken over iets wat ik niet eens zeg.
Dat is echter niet zo.

Ten eerste is Lanczos geen "techniek" die al "werkte" op Nvidia. Lanczos is een algoritme dat te implementeren is op eender welke hardware en dus ook al "werkte" op AMD. Of Intel. Of Qualcomm. Het is een algemeen algoritme dat oorspronkelijk niet eens ontworpen is voor beeldmateriaal. Lanczos interpolatie (de toepassing van het algoritme op beeldmateriaal) is echter al tientallen jaren beschikbaar in allerlei software. Zo'n beetje elk stuk software dat iets met beeldmateriaal doet (Photoshop, Irfanview maar ook libraries als ImageMagick of libjpeg-turbo) heeft dit al heel lang.

Lanczos interpolatie op zichzelf is echter niet genoeg. Er zitten ook wat onnauwkeurigheden in die vooral op bewegend beeld artifacts produceren. Dat heeft AMD aangepakt. Dat is slechts de eerste stap van het upsamplen in FSR, want daarna komt er nog edge reconstruction bij en RCAS. Die laatste twee dingen zitten niet in Nvidia's filter. Dat filter van Nvidia werkt ook niet op pixel niveau, het werkt op aspect ratio's, wat voor meer onnauwkeurigheden zorgt.

Dat het algoritme deel is van het geheel betekent niet dat Nvidia het "al had". Nogmaals, Lanczos is heel erg oud (jaren 60) en inderdaad niets nieuws. Lanczos upsampling an sich is echter niet voldoende. Als het gebruik van een algoritme betekent dat iemand anders "het al had" dan kun je vrijwel alle moderne technieken wel afschrijven.

De realiteit is dat noch AMD, noch Nvidia zulke dingen "uitvinden". Ze vinden toepassingen voor andermans uitvindingen/algoritmes en combineren die tot een techniek als DLSS of FSR. DLSS maakt gebruik van een variant van TAA; TAA is afkomstig van Brian Karis (Epic Games) en Timothy Lottes. Dus Epic had DLSS jaren geleden al? Want de rest van DLSS kunnen we negeren, toch? Maar als we dat dan niet doen, zul je zien dat ook het "DL" gedeelte niets nieuws is. Dat is ook al jaren geleden gedaan. Het verschil is dat Nvidia het allemaal heeft gecombineerd tot een relatief eenvoudig te gebruiken techniek die heel effectief is.

Ik zal nog even een stap verder gaan, omdat ik Lottes nu heb genoemd. Hij is verbonden aan Nvidia en vooral bekend als de "bedenker" van FXAA. Echter is zijn werk gebaseerd op het werk van iemand bij LucasArts en het team achter MLAA. En zij hebben hun werk weer gebaseerd op het werk van iemand van Intel.

De werkelijkheid is dat hoewel dit soort features door Nvidia en AMD gemarket worden, het eigenlijk een vrij select groepje briljante mensen is die al deze dingen bedenken en ze vrijwel allemaal constant samen werken en bevindingen delen. En ze werken allemaal op heel erg verschillende plekken, sommigen niet eens in de graphics industrie maar bij een universiteit. Zoek maar eens op de volgende namen, je zult zien dat ze veel samen voor komen in whitepapers van de afgelopen ~10-15 jaar, ook al werk(t)en ze op allerlei verschillende plekken - als ze überhaupt al werkten:

- Alexander Reshetov (o.a. Intel, tegenwoordig volgens mij bij Nvidia)
- Dmitry Andreev (LucasArts, Visceral)
- Jorge Jimenez (ten tijde van MLAA "slechts" een student, tegenwoordig Activision/Blizzard)
- Belen Masia (zelfde uni als Jimenez, is daar nu professor)
- Diego Gutierrez (zelfde als hierboven)
- Timothy Lottes (Nvidia)
- Emil Persson (Epic)
- Tiago Sousa (id)

En dit zijn slechts de namen die ik me zo 1-2-3 kan herinneren. Met name de Spanjaarden in dit lijstje komen allemaal van de universiteit van Zaragoza en zijn degenen die MLAA de wereld in hebben geslingerd. Dat is de trigger geweest voor FXAA en SMAA. FXAA staat aan de basis van TAA, wat weer aan de basis staat van DLSS. Dus DLSS is van de universiteit van Zaragoza? :+

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Dus het werkte al wel op Nvidia niet zo moeilijk doen als je wel begrijpt wat ik bedoel. Daar ging het om punt uit.

  • GG85
  • Registratie: Januari 2002
  • Laatst online: 19:28

GG85

.......

Tincahunter schreef op vrijdag 6 augustus 2021 @ 14:22:
Dus het werkte al wel op Nvidia niet zo moeilijk doen als je wel begrijpt wat ik bedoel. Daar ging het om punt uit.
Goeie manier om iemand die tijd steekt in een uitgebreide, inhoudelijke reactie schrijven te bedanken en aan te moedigen dit vaker te doen......

Oneliners als "het werkte al op X" suggereren dat het ook uitgevonden is door X of dat Y het gecopieerd heeft.
Juist een reactie als die van @Werelds zet dat in context en laat ziet dat bepaalde dingen, als je de marketing saus weg spoelt, wat minder bijzonder zijn.
Stap over je trots heen en wees blij met de inhoudelijke reacties hier.

Overigens mee eens dat AMD FSR verbeterd heeft en het dus veel meer is dan de nVidia implementatie maar voor mij blijft DLSS superieur.
Makkelijke artikelen zoals die van WCCFtech zijn te simpel om echt iets te zeggen behalve de fanboys (zeg niet dat jij dat bent overigens) voeden die zeggen "zie je wel, stelt niks voor, nVidia had t al lang).

Punt uit! :+ :>

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Tincahunter schreef op vrijdag 6 augustus 2021 @ 14:22:
Dus het werkte al wel op Nvidia niet zo moeilijk doen als je wel begrijpt wat ik bedoel. Daar ging het om punt uit.
Wat werkte al op Nvidia? Lanczos interpolatie? Ja, maar dat werkte ook al op m'n Pentium-133 en Mach64, dus wat is je punt?

Nee, FSR "werkte" niet al op Nvidia. Nvidia heeft een generiek, Lanczos-gebaseerd upsampling filter. Dat filter werkt echter niet identiek op alle hardware (Turing/Ampère is 5-tap, oudere GPU's 2-tap zoals AMD). Die vorm van upsampling doet ook geen sharpening uit zichzelf, daarvoor moet je apart een sharpening filter aan zetten dat bij lange na niet zo effectief is als RCAS. En edge reconstruction zit er helemaal niet in.

Nogmaals: jij bent 100% gefocust op 1 element van het geheel - en dan eigenlijk ook het minst belangrijke deel.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Tincahunter schreef op vrijdag 6 augustus 2021 @ 14:22:
Dus het werkte al wel op Nvidia niet zo moeilijk doen als je wel begrijpt wat ik bedoel. Daar ging het om punt uit.
AMD (Radeon) heeft ook DLSS en al veel langer dan Nvidia!!!11oneoneeleven
Temporal Anti-Aliasing

When the Radeon X800 was introduced, it was accompanied by a new mode called temporal anti-aliasing. It used two different pixel sampling patterns, alternating with every frame of video. When the frame rate was high enough so that the human eye couldn't tell them apart (at least 60 frames per second), the viewer experienced the result of both sampling patterns, virtually doubling the number of anti-aliasing samples without the associated performance penalty. For example, two 2xAA sample patterns could produce a result similar to 4xAA, two 4xAA sample patterns generated an 8xAA result, and so on.
https://www.tomshardware.com/reviews/anti-aliasing-nvidia-geforce-amd-radeon,2868-6.html

Als we op dat niveau belanden.... :+

@Werelds
Weet jij toevallig wat het grote verschil is vergeleken met die van Epic? Los van de oude limitaties :P.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sp3ci3s8472 schreef op vrijdag 6 augustus 2021 @ 15:48:
@Werelds
Weet jij toevallig wat het grote verschil is vergeleken met die van Epic? Los van de oude limitaties :P.
Tussen R400's TAA en wat we nu TAA noemen?

Wat R400 deed was verschillende sampling patronen toepassen in oneven en even frames. Dus met 2 samples werd een pixel in frame 1, 3, 5, enzovoort bijvoorbeeld linksboven en rechtsonder gesampled. In frames 2, 4, 6, enzovoort linksonder en rechtsboven. Dat werd ook zo weergegeven, dat is waarom het alleen op 60+ FPS (en eigenlijk alleen op de refresh rate van de monitor; dus voor 75 Hz ook 75 FPS) effectief was. Het "blenden" van de AA samples was een fysiek, visueel effect. Het was de combinatie van monitors en onze ogen waardoor de samples van frame 1 en de samples van frame 2 heel erg op de combinatie van beide (dus 4 samples) leek. Eigenlijk meer iets á la dithering, beetje optisch bedrog.

Bij "echte" TAA doe je precies hetzelfde: in elk frame sample je op een andere plek. Het verschil is dat je het resultaat van het huidige sample met de resultaten van X frames er voor samenvoegt in de output van dat frame. Het frame dat op het scherm verschijnt is dus al de samensmelting van die frames. Zelfde idee, maar zonder optisch bedrog.

Het probleem is dan echter dat een gegeven pixel in frame 3 best wel eens een geheel ander object kan zijn dan in frame 2; in het ergste geval was een gegeven pixel in frame 2 zwart en in frame 3 wit. Als je dan die samples gaat blenden krijg je ghosting. Om dat tegen te gaan heeft de implementatie van Epic meerdere dingen. Ze gebruiken motion vectors om sample rates+jitter bij te stellen, beperken de output aan de hand van de pixels er omheen (neighbourhood clamping noemden ze dat). Transparantie kan TAA ook geheel niet mee overweg (dat is waar de shimmering in DLSS op transparantie vandaan komt), dus daarvoor gebruikten ze volgens mij nog steeds gewoon een MSAA sample.

Het is dus wel hetzelfde principe, maar ATI vertrouwde op een stukje natuurkunde in de werkelijkheid, hun output was niet daadwerkelijk helemaal anti-aliased :p

Ik zal even zoeken, de SIGGRAPH presentatie van TAA was vrij helder als ik me niet vergis. Al het wiskundige geneuzel hadden ze er uit gelaten.

Edit: hebbes. https://de45xmedrsdbp.clo...oralAA_small-59732822.pdf

Helaas wel nog wat wiskunde er in :P

Genoemde video in de slides: YouTube: High Quality Temporal Supersampling | SIGGRAPH 2014 Event Coverage |...

[ Voor 7% gewijzigd door Werelds op 06-08-2021 16:44 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Werelds schreef op vrijdag 6 augustus 2021 @ 16:34:
[...]

Tussen R400's TAA en wat we nu TAA noemen?

Wat R400 deed was verschillende sampling patronen toepassen in oneven en even frames. Dus met 2 samples werd een pixel in frame 1, 3, 5, enzovoort bijvoorbeeld linksboven en rechtsonder gesampled. In frames 2, 4, 6, enzovoort linksonder en rechtsboven. Dat werd ook zo weergegeven, dat is waarom het alleen op 60+ FPS (en eigenlijk alleen op de refresh rate van de monitor; dus voor 75 Hz ook 75 FPS) effectief was. Het "blenden" van de AA samples was een fysiek, visueel effect. Het was de combinatie van monitors en onze ogen waardoor de samples van frame 1 en de samples van frame 2 heel erg op de combinatie van beide (dus 4 samples) leek. Eigenlijk meer iets á la dithering, beetje optisch bedrog.

Bij "echte" TAA doe je precies hetzelfde: in elk frame sample je op een andere plek. Het verschil is dat je het resultaat van het huidige sample met de resultaten van X frames er voor samenvoegt in de output van dat frame. Het frame dat op het scherm verschijnt is dus al de samensmelting van die frames. Zelfde idee, maar zonder optisch bedrog.

Het probleem is dan echter dat een gegeven pixel in frame 3 best wel eens een geheel ander object kan zijn dan in frame 2; in het ergste geval was een gegeven pixel in frame 2 zwart en in frame 3 wit. Als je dan die samples gaat blenden krijg je ghosting. Om dat tegen te gaan heeft de implementatie van Epic meerdere dingen. Ze gebruiken motion vectors om sample rates+jitter bij te stellen, beperken de output aan de hand van de pixels er omheen (neighbourhood clamping noemden ze dat). Transparantie kan TAA ook geheel niet mee overweg (dat is waar de shimmering in DLSS op transparantie vandaan komt), dus daarvoor gebruikten ze volgens mij nog steeds gewoon een MSAA sample.

Het is dus wel hetzelfde principe, maar ATI vertrouwde op een stukje natuurkunde in de werkelijkheid, hun output was niet daadwerkelijk helemaal anti-aliased :p

Ik zal even zoeken, de SIGGRAPH presentatie van TAA was vrij helder als ik me niet vergis. Al het wiskundige geneuzel hadden ze er uit gelaten.

Edit: hebbes. https://de45xmedrsdbp.clo...oralAA_small-59732822.pdf

Helaas wel nog wat wiskunde er in :P

Genoemde video in de slides: YouTube: High Quality Temporal Supersampling | SIGGRAPH 2014 Event Coverage |...
Dank voor de uitleg!

Ik ga de paper wel lezen want aan die lage kwaliteit youtube video heb je helaas niks :P. De wiskunde kom ik wel uit als ik er even tijd in stop hoop ik.

Juist voor transparante objecten als in transparant middels een texture werkt normale MSAA niet omdat je alleen maar zbuffer informatie hebt? Daar moet je weer een andere modus voor hebben dacht ik, transparancy AA (wat volgens mij niet meer is dan upsampling).
Tenminste dat was het met DX9 dacht ik, dat zal niet heel veel zijn veranderd.
Edit: MSAA met als input stencil buffer als ik het goed begrijp :P.

[ Voor 6% gewijzigd door Sp3ci3s8472 op 06-08-2021 17:55 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sp3ci3s8472 schreef op vrijdag 6 augustus 2021 @ 17:37:
Edit: MSAA met als input stencil buffer als ik het goed begrijp :P.
Je krijgt waarschijnlijk de beste informatie door op "alpha to coverage" te zoeken ;)

Het wordt nog maar weinig gebruikt, omdat MSAA in z'n algemeen in deferred renderers lastiger is. Forward renderers hadden dat vroeger veel vaker, maar het kan wel nog steeds. Komt eigenlijk neer op depth samplen. Kost wel meer dan enkel platte MSAA, maar je kunt ook wel aparte sampling rates gebruiken.

Het is jammer dat MSAA uit de gratie is gevallen. Het is en blijft de mooiste AA method na supersamplen.

  • Gatygun
  • Registratie: December 2003
  • Laatst online: 08-07-2025
AtlAntA schreef op woensdag 9 juni 2021 @ 16:49:
Jay heeft geruchten gehoord dat de 3090 EOL is ter faveure van de 3080ti. Zou niet weten waarom.

YouTube: I'm so sick of this... My salty 3070Ti Review...
Dikke kans, 1200 vs 1400 euro en maar 12gb hoeven te leveren met een GPU die minder erop aan heb en toch vrijwel hetzelfde presteert. Zou mij ook niet verbazen als die echter bij OC modellen beter presteert dan de 3090 omdat er gewoon weg meer stroom voor de kaart overblijft en minder hitte op de koeler.

Je moet ook nadenken dat de super series eraan gaan komen die waarschijnlijk de kaarten een stap omhoog gooit in rank.

3070 zal waarschijnlijk naar 103 gaan en de 3060 naar 104, waardoor 3080 / ti en 3090 op 102 blijven staan.

En vervolgens dikke kans dat aan het eind van het jaar al de volgende generatie aangekondigd gaat worden. Wat ook nog geheugen moduletjes nodig heb.

3090 op dit moment is niet bepaald een kaart die echt veel functie meer heeft voor nvidia lijkt me.
Werelds schreef op zaterdag 7 augustus 2021 @ 00:25:
[...]

Je krijgt waarschijnlijk de beste informatie door op "alpha to coverage" te zoeken ;)

Het wordt nog maar weinig gebruikt, omdat MSAA in z'n algemeen in deferred renderers lastiger is. Forward renderers hadden dat vroeger veel vaker, maar het kan wel nog steeds. Komt eigenlijk neer op depth samplen. Kost wel meer dan enkel platte MSAA, maar je kunt ook wel aparte sampling rates gebruiken.

Het is jammer dat MSAA uit de gratie is gevallen. Het is en blijft de mooiste AA method na supersamplen.
Grappige is dat DLSS begon als supersample feature om MSAA te vervangen. Totdat ze zagen dat hun RT kaarten gewoon te traag waren gooide ze het om naar meer performance. Goede keuze in mijn visie maar toch interessant.

[ Voor 38% gewijzigd door Gatygun op 07-08-2021 15:04 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Schaamteloze copy/paste van mijn poste in het CJ topic:
Hah kijk iemand heeft het getest wat ik voorstelde, dus FSR + DSR/VSR gebruiken als goedkope AA! Het is wel op een lagere resolutie (namelijk 1080p):
https://www.reddit.com/r/...per_resolution_or_nvidia/

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nvidia zag zijn omzet in Q2 fors stijgen. Met name gaming heeft het uitstekend gedaan:
Record revenue of $6.51 billion, up 68 percent from a year earlier
Record Gaming revenue of $3.06 billion, up 85 percent from a year earlier
Record Data Center revenue of $2.37 billion, up 35 percent from a year earlier
NVIDIA Announces Financial Results for Second Quarter Fiscal 2022

March of the Eagles


  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 23:04
En iedereen maar afgeven op de winkeliers :D

[ Voor 23% gewijzigd door mitsumark op 19-08-2021 13:45 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

mitsumark schreef op donderdag 19 augustus 2021 @ 13:45:
En iedereen maar afgeven op de winkeliers :D
Of de scalpers of de AIB's. De grootste scalpers zijn hier gewoon de GPU ontwerpers. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Denk dat de rest van de industrie hier meer aan verdiend heeft als Nvidia al is dat natuurlijk geen populaire mening omdat haten op Nvidia nogal hip is.

Daarnaast zegt omzet niets over de gemaakte kosten. Steeds hogere omzet is vrij makkelijk voor een bedrijf als Nvidia en is mede mogelijk gemaakt door de belachelijke inflatie en al het geld wat wij aan armere landen doneren waardoor de vraag toe neemt door steeds verder groeiende globale economie. Maar meer winst is niet vanzelfsprekend aangezien kosten de pan uit rijzen.

[ Voor 29% gewijzigd door computerjunky op 19-08-2021 16:19 ]


  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 23:04
Heb je natuurlijk een goed punt, maar in het artikel staan ook profit en kosten.
Doorgaans is omzet wel de belangrijkste factor om een bedrijf de beoordelen.

Ik denk inderdaad wel dat de overige delen van de keten een soortgelijke verhoging zien.

[ Voor 18% gewijzigd door mitsumark op 19-08-2021 16:29 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

computerjunky schreef op donderdag 19 augustus 2021 @ 16:09:
Denk dat de rest van de industrie hier meer aan verdiend heeft als Nvidia al is dat natuurlijk geen populaire mening omdat haten op Nvidia nogal hip is.

Daarnaast zegt omzet niets over de gemaakte kosten. Steeds hogere omzet is vrij makkelijk voor een bedrijf als Nvidia en is mede mogelijk gemaakt door de belachelijke inflatie en al het geld wat wij aan armere landen doneren waardoor de vraag toe neemt door steeds verder groeiende globale economie. Maar meer winst is niet vanzelfsprekend aangezien kosten de pan uit rijzen.
Ten eerste omdat je weer begint met de boodschapper aanvallen over veronderstelde voorkeuren in plaats van het argument serieus te nemen.
DaniëlWW2 schreef op donderdag 19 augustus 2021 @ 13:59:
[...]
Of de scalpers of de AIB's. De grootste scalpers zijn hier gewoon de GPU ontwerper
s
:z
Meervoud ja, want het zijn er nu nog twee.


Ten tweede mag je dan verklaren hoe operating expenses 9% zijn gestegen, Y/Y, ongetwijfeld omdat Nvidia waarschijnlijk ook meer volume verscheept dan ze een jaar geleden deden, terwijl operating en net income met iets grotere getallen zijn gestegen. Het is maar ruim 250%. :z

De enige verzachtende factor die je zou kunnen aanleveren is dat Nvidia in Q2/2021 al begonnen had kunnen zijn met de opbouw van inventaris voor de GA102 launch. Dat zal alleen meer voor het einde van het kwartaal zo kunnen zijn geweest en bij de launch van de RTX3080 of RTX3090 waren ook niet bepaald ruim voorradig.

En moet je nagaan dat dit aan het begin van de keten is waar toch al het meeste word verdiend aan een videokaart. Dat is ook geen geheim. In de rest van de keten heb je dan de tekorten aan individuele onderdelen alsmede de problemen met verschepen of de toegenomen kosten van verscheping. Dat komt er allemaal nog eens bovenop.

Afbeeldingslocatie: https://tweakers.net/i/Xyi8p5p0ziHv5VLr-PoN6Ki6ZJs=/800x/filters:strip_icc():strip_exif()/f/image/h9Vl2i0ZDBlsfoFO1WSu22kl.jpg?f=fotoalbum_large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
computerjunky schreef op donderdag 19 augustus 2021 @ 16:09:
Denk dat de rest van de industrie hier meer aan verdiend heeft als Nvidia al is dat natuurlijk geen populaire mening omdat haten op Nvidia nogal hip is.

Daarnaast zegt omzet niets over de gemaakte kosten. Steeds hogere omzet is vrij makkelijk voor een bedrijf als Nvidia en is mede mogelijk gemaakt door de belachelijke inflatie en al het geld wat wij aan armere landen doneren waardoor de vraag toe neemt door steeds verder groeiende globale economie. Maar meer winst is niet vanzelfsprekend aangezien kosten de pan uit rijzen.
Lees eens verder. Er staan meer tabellen, met de twee cijfers die je aan haalt (kosten en winst). Zelfde kwartaal een jaar geleden:
- Operating expenses: ~$1624m naar ~$1771m
- Net income van ~$622m naar $2374m

Jawel, Nvidia heeft weldegelijk geprofiteerd. En niet te zuinig ook.

Eerste half jaar van 2020 ten opzichte van 2021 is ook leuk. De omzet van $6,9b naar $12,1b (+75%), maar de netto inkomsten van $1,5 naar $4,2 (+180%).

@DaniëlWW2's suggestie dat het wellicht voorraad was in 2020, is ook niet het geval. Staat ook in de tabellen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
computerjunky schreef op donderdag 19 augustus 2021 @ 16:09:
Daarnaast zegt omzet niets over de gemaakte kosten. Steeds hogere omzet is vrij makkelijk voor een bedrijf als Nvidia en is mede mogelijk gemaakt door de belachelijke inflatie en al het geld wat wij aan armere landen doneren waardoor de vraag toe neemt door steeds verder groeiende globale economie. Maar meer winst is niet vanzelfsprekend aangezien kosten de pan uit rijzen.
De winst staat ook vermeld in het persbericht, en ook die is fors gestegen.

[edit]

Ik had eerder op opslaan moeten klikken :p

[ Voor 4% gewijzigd door XWB op 19-08-2021 18:11 ]

March of the Eagles


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
DaniëlWW2 schreef op donderdag 19 augustus 2021 @ 17:01:
Ten eerste omdat je weer begint met de boodschapper aanvallen over veronderstelde voorkeuren in plaats van het argument serieus te nemen.
Welk argument precies? Het was volgens mij een reactie op een niet onderbouwde aanname. Waar is de onderbouwing voor de stelling dat GPU ontwerpers de grootste scalpers zijn.

Daarnaast heeft het woord "scalping" een erg negatieve bijsmaak tegenwoordig, en de hogere winst van Nvidia en AMD is per definitie geen scalping. Na moedwillig incorrecte labels met een erg negatieve bijsmaak gebruiken is het geheel terecht dat de boodschapper daar op wordt aangesproken.
Volgens mij is "Gross Margin" het meest interesant. Dat zijn de inkomsten uit verkoop, minus de kosten van de verkochte goederen. En dat is wel iets hoger dan de afgelopen jaren, maar niet ernorm veel.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 19 augustus 2021 @ 17:58:
[...]

Lees eens verder. Er staan meer tabellen, met de twee cijfers die je aan haalt (kosten en winst). Zelfde kwartaal een jaar geleden:
- Operating expenses: ~$1624m naar ~$1771m
- Net income van ~$622m naar $2374m

Jawel, Nvidia heeft weldegelijk geprofiteerd. En niet te zuinig ook.

Eerste half jaar van 2020 ten opzichte van 2021 is ook leuk. De omzet van $6,9b naar $12,1b (+75%), maar de netto inkomsten van $1,5 naar $4,2 (+180%).

@DaniëlWW2's suggestie dat het wellicht voorraad was in 2020, is ook niet het geval. Staat ook in de tabellen.
Ah, ik had nog iets verder moeten kijken dan. Het schoot me zo snel te binnen dat het een deel zou kunnen verklaren, maar ik had even geen tijd om het helemaal uit te gaan zoeken. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
cnieuweboer schreef op donderdag 19 augustus 2021 @ 18:25:
Volgens mij is "Gross Margin" het meest interesant. Dat zijn de inkomsten uit verkoop, minus de kosten van de verkochte goederen. En dat is wel iets hoger dan de afgelopen jaren, maar niet ernorm veel.
Ik snap dat 6% niet veel lijkt, maar dat is het wel. Vergeet niet dat dat de marge is over het hele bedrijf, niet enkel gaming. Ter vergelijking, Fermi zorgde in 2009 en 2010 voor een drop van meer dan 10% in een enkel jaar doordat de chip zo achterlijk duur was. Met GK104 (2012) maakten ze dat weer goed. De chip was bijna half zo groot, op een procedé dat ongeveer hetzelfde kostte (28nm was denk ik de laatste waar dat nog van gezegd kan worden :P) en vergelijkbare yields had. In de 9 jaar daarna is de marge met slechts zo'n 8-9% gestegen*. Dus 6% in één jaar, waarin er dan ook nog eens niets nieuws te halen viel op de andere bedrijfstakken (anders dan gaming), is weldegelijk veel. En dan is de gaming tak ook nog eens de tak met de laagste marges. En nogmaals, dat komt ook terug in de netto inkomsten: die is bijna drie keer zo veel, terwijl de omzet "slechts" bijna verdubbeld is. Ja, er is meer verkocht, maar dat is ook met fors hogere marges. Anders kom je niet aan zulke cijfers.


* dat is uit m'n hoofd. 2008 -> 2009 kakte van ergens rond de 45% naar onder de 35%; 2012 schoot omhoog naar de 50%. Kan zijn dat er ergens een procentpunt naast zit, maar zoiets was het ongeveer.

[ Voor 3% gewijzigd door Werelds op 19-08-2021 19:00 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
DaniëlWW2 schreef op donderdag 19 augustus 2021 @ 17:01:
[...]


Ten eerste omdat je weer begint met de boodschapper aanvallen over veronderstelde voorkeuren in plaats van het argument serieus te nemen.


[...]


Meervoud ja, want het zijn er nu nog twee.


Ten tweede mag je dan verklaren hoe operating expenses 9% zijn gestegen, Y/Y, ongetwijfeld omdat Nvidia waarschijnlijk ook meer volume verscheept dan ze een jaar geleden deden, terwijl operating en net income met iets grotere getallen zijn gestegen. Het is maar ruim 250%. :z

De enige verzachtende factor die je zou kunnen aanleveren is dat Nvidia in Q2/2021 al begonnen had kunnen zijn met de opbouw van inventaris voor de GA102 launch. Dat zal alleen meer voor het einde van het kwartaal zo kunnen zijn geweest en bij de launch van de RTX3080 of RTX3090 waren ook niet bepaald ruim voorradig.

En moet je nagaan dat dit aan het begin van de keten is waar toch al het meeste word verdiend aan een videokaart. Dat is ook geen geheim. In de rest van de keten heb je dan de tekorten aan individuele onderdelen alsmede de problemen met verschepen of de toegenomen kosten van verscheping. Dat komt er allemaal nog eens bovenop.

[Afbeelding]
Aanvallen nog wel. We zijn tegenwoordig wel makkelijk met termen uitdelen zeg. Ik geef gewoon min mening niet meer niet minder. Als mensen zich daardoor aangevallen voelen dan is dat eerlijk gezegd niet mijn probleem en dat ga ik het niet maken ook.
En 'weer begint' betekend dat het vaker gebeurd. Toch niets geleerd dan zou ik zeggen. (Geen aanval maar een observatie en nog altijd niet mijn probleem).


Ik geef mijn mening en visie op het bericht van de nvidia revenue en Het verhaal dat Nvidia enz scalpers zijn wat gewoon onzin is wat mij betreft.
Nvidia/AMD hebben dezelfde hogere kosten voor onderdelen als een MSI/ASUS/Gigabyte/EVGA simpelweg omdat die veel meer kaarten afzetten en dus veel develoment kosten gedeeld kunnen worden daar waar vooral nvidia en eek amd specifieke ontwerpen gemaakt hebben voor 1 kaart model en dus de ontwikkel kosten per kaart hoger zijn. Desondanks vragen deze 3rd part fabrikanten veel meer. Maar ook door de gehele chain van onderdelen enz is er flink winst gepakt. Kijk maar even naar de data van TSMC die al jaren op de max opereert en toch ineens behoorlijke winsten boekt en dus gewoon aan het cashen is.

Nvidia zal juist behoorlijk balen van wat de prijzen afgelopen jaar gedaan hebben omdat ze juist een goodwill actie in gang gezet hebben met een 699 msrp voor een top kaart. Dat die MSRP door de situatie volledig om zeep geholpen is zullen ze echt niet blij van worden. Echt veel meer hadden ze namelijk niet verdiend ongeacht de prijs die wij betalen in de winkel maar de goodwill is wel weer ver te zoeken en dat volledig buiten hun schuld om. al verdiend de 3080 TI geen schoonheidsprijs en 150-200 meer had realistischer prijspunt geweest.

En dat de expenses minder snel stijgen als de inkomsten is toch zo raar niet. Als je eenmaal ontwerp en alles betaald heb is het opschalen van het maken van de producten ten opzichte van de ontwerp fase goedkoper. De veel grotere winst als verwacht is omdat Nvidia deze enorme vraag zelf nooit had verwacht en achteraf heel slim voor samsung gekozen hebben waardoor ze veel meer kaarten konden maken als dat AMD als optie had (mede door de nieuwe cpu en console chips) en daardoor hebben ze gewoon veel meer kaarten verscheept als daar ze zelf ook voor mogelijk gehouden hadden.

Een gpu is 2-4 jaar ontwikkeling dat is een mega bedrag wat terug verdiend moet worden en dus doorberekend word in de producten. de rest is materiele kosten en die zijn onder normale omstandigheden relatief laag al zijn ze de laatste 14 maanden behoorlijk omhoog geschoten.

De initiële kosten waren dus begroot op een veel lagere afzet en daar was de prijs op gebaseerd. Verwacht je nou serieus dat Nvidia halverwege de prijs gaat verlagen omdat de ontwikkelkosten en afzet uit verhouding van de initiële berekening zijn om vervolgens de rest de winst te zien pakken?
Dat doet echt geen enkel bedrijf. De enorme vraag is een mooie verrassing voor Nvidia maar echt geen blijvende garantie. Als de afzet lager was geweest as verwacht zoals bij de 20xx erie dan hadden de kosten per kaart groter geweest en begroot en hadden de winsten tegen gevallen.

Als je dus verwacht (bijvoorbeeld) 10 miljoen kaarten te verschepen over 2 jaar en we al 8 miljoen verscheept in 3 maanden tja dan is je berekening scheef maar is dat geen reden om ineens je prijs stelling aan te passen. De initiële prijs stelling was immers gewoon prima. tuurlijk het kan lager doe mij maar een gratis gpu maar realistisch was het gewoon goed.

Ook de vernieuwde mining hype en hun enorme geheugen bandbreedte speelde mee op de vraag maar ook dat is geen garantie voor de toekomst.
De kans is groot dat als er miljoenen kaarten de 2de hands markt op spoelen dat er voor Nvidia een enorme dip in vraag naar nieuwe kaarten ontstaat war resulteert in relatief hogere kosten en lagere afzet en dus drastisch lagere netto bedragen maar daar horen we de klagers van nu dan weer niet over.

Daarnaast gaat die winst deels weer terug in nieuwe tech dus is die winst wel winst? Je heb in die industrie nou eenmaal geld nodig om geld te maken.

En als je dan nog met procenten gaat strooien kijk dan ook even naar die van AMD :

https://ir.amd.com/news-e...er-2021-financial-results

Net income was $710 million compared to $157 million a year ago and $555 million in the prior quarter. Non-GAAP net income was $778 million compared to $216 million a year ago and $642 million in the prior quarter.


Dat zijn ook behoorlijke procenten en winsten. Maar ook daar is een dip wel te verwachten. Die core race kan niet eindeloos duren voor de thuis markt.


Ik vind het allemaal niet zo spannend en wat mij betreft veranderd het ook niet heel veel aan de lange termijn verwachtingen van Nvidia op de beurs omdat een dip eigenlijk wel te verwachten is. Het was een raar jaar en zij hebben geluk gehad en de vruchten geplukt.

Ja het zijn enorme bedragen maar het is dan ook een dure industrie en geld is in rap tempo minder waard aan het worden. Heck mijn boodschappen zijn het afgelopen jaar gemiddeld al 30% duurder geworden en in 2 jaar tijd 45% en ik heb er maar 2.1% bij gekregen in die tijd.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Ben overigens wel benieuwd of intel's XeSS een echte dlss vervanging word. Dus en lagere en beter als native opties.
Als tenser cores obsoleet worden voor gaming gpu's is dat een dikke win voor nvidia omdat ze dan effectief 50% meer FP32 of 100% meer int32 units kunnen plaatsen op dezelfde die size. Wat pure winst is wat mij betreft. Voor nu is DLSS een toevoegt maar als je voor 10% overhead straks 40% prestaties kan winnen met XeSS met de eigenschappen van DLSS mogen ze er van mijn part af.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Voorspellingen hoe duur de RTX 4000 serie kan gaan worden... -O-

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Skybullet
  • Registratie: April 2008
  • Laatst online: 02:57
RobinNL schreef op zaterdag 11 september 2021 @ 18:14:
Voorspellingen hoe duur de RTX 4000 serie kan gaan worden... -O-

[Twitter]
De klanten bewijzen al bijna een jaar dat ze bereid zijn om deze of vaak nog hogere bedragen te betalen voor gpu's. Waarom zouden ze dan ooit de prijzen weer verlagen?

Zijn nog maar geruchten nu natuurlijk, maar de waarheid zal hier niet ver vandaan komen te liggen verwacht ik zelf.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Volgens mij zijn die prijzen echt complete onzin. Je ziet al tijden nu dat er steeds mibnder mensen zijn die bereid zijn die torenhoge prijzen te betalen en er zijn steeds meer kaarten op voorraad omdat mensen de prijzen niet meer accepteren. Hoe hoog denk je dat de kant is dat mensen bij de volgende serie WEER een torenhoge prijs betalen?
Ik denk dat die kans zo goed als nul ik en dat ze wel de huidige MSRP prijs setting aan moeten houden vanwege 2 redenen.

1. ze hebben veel meer capaciteit ingekocht als ze slim zijn en niet nog meer negatief in het nieuws willen komen.
2. mensen zijn niet meer bereid die hoge prijzen te betalen, zeker niet als ze al een kaart bemachtigd hebben.

De enige reden dat ik zelf zou upgranden naar een 4000 serie is om van amd af te zijn. ik ben het na minder als 2 maanden al weer compleet zat. ik heb 10x meer problemen als dat ik de afgelopen 5 jaar bij nvidia gehad heb. Van artifacts tot lage gpu load zonder dat er een bottleneck is to reset van instellingen en interface problemen na het spelen van een game.

Maar daarvoor moet ik dus en van mijn peperdure 6900XT af komen en een even snelle nvidia kaart kunnen scoren voor niet veel meer.

Al met al denk ik niet dat Nvidia echt zijn prijzen zal verhogen. 3rd party boeven echter....

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
computerjunky schreef op zondag 12 september 2021 @ 13:35:
Volgens mij zijn die prijzen echt complete onzin. Je ziet al tijden nu dat er steeds mibnder mensen zijn die bereid zijn die torenhoge prijzen te betalen en er zijn steeds meer kaarten op voorraad omdat mensen de prijzen niet meer accepteren. Hoe hoog denk je dat de kant is dat mensen bij de volgende serie WEER een torenhoge prijs betalen?
Ik denk dat die kans zo goed als nul ik en dat ze wel de huidige MSRP prijs setting aan moeten houden vanwege 2 redenen.

1. ze hebben veel meer capaciteit ingekocht als ze slim zijn en niet nog meer negatief in het nieuws willen komen.
2. mensen zijn niet meer bereid die hoge prijzen te betalen, zeker niet als ze al een kaart bemachtigd hebben.

De enige reden dat ik zelf zou upgranden naar een 4000 serie is om van amd af te zijn. ik ben het na minder als 2 maanden al weer compleet zat. ik heb 10x meer problemen als dat ik de afgelopen 5 jaar bij nvidia gehad heb. Van artifacts tot lage gpu load zonder dat er een bottleneck is to reset van instellingen en interface problemen na het spelen van een game.

Maar daarvoor moet ik dus en van mijn peperdure 6900XT af komen en een even snelle nvidia kaart kunnen scoren voor niet veel meer.

Al met al denk ik niet dat Nvidia echt zijn prijzen zal verhogen. 3rd party boeven echter....
Ik weet het niet hoor... We hebben gezien dat een deel van de consumenten bereid is om die prijzen te betalen. Die waren volgens mij wel wat hoger dan de $1199 die voorspeld wordt voor de RTX 4080.

Ik denk dat het er vooral aan ligt of er dan nog een te kort is aan chips. Er wordt verwacht dat het te kort zeker tot ver in 2022 zal duren, misschien nog wel langer dan dat. De volgende generatie videokaarten (Nvidia + AMD) zouden rond oktober 2022 komen volgens een gerucht. Het zal me in ieder geval niet verbazen als de volgende generatie videokaarten ook weer duur gaan worden, zoals Skybullet al zegt.

Maar welke consument koopt de Founders Edition van Nvidia als ze ook een kaart kunnen kopen van Asus, MSI etc? Vrij weinig mensen in verhouding :)

offtopic:
Ik heb hier ook een RX 6900 XT en ik ervaar totaal geen problemen met de kaart. Misschien een exemplaar die net wat minder is?

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Skybullet
  • Registratie: April 2008
  • Laatst online: 02:57
computerjunky schreef op zondag 12 september 2021 @ 13:35:
Je ziet al tijden nu dat er steeds minder mensen zijn die bereid zijn die torenhoge prijzen te betalen
Waar zie je dat aan dan ? De bizar hoge verkoopcijfers van de 30xx serie ? De fora en reddits die vol staan met aankoopadvies en scripts ? De 2de hands markt die compleet ontregelde prijzen heeft ? De drops die binnen minuten uitverkopen zelfs voor +150% msrp ?
Hoe hoog denk je dat de kans is dat mensen bij de volgende serie WEER een torenhoge prijs betalen?
100%
1. ze hebben veel meer capaciteit ingekocht als ze slim zijn en niet nog meer negatief in het nieuws willen komen.
Capaciteit zegt niks in aanhoudende tekorten
2. mensen zijn niet meer bereid die hoge prijzen te betalen,
Wel, gebeurd dagelijks nog en geeft na een heel jaar nog geen teken van ophouden
3rd party boeven echter....
Geen idee waarom dat boeven zijn. Ze bieden iets aan waar duidelijk genoeg vraag naar is.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Ik geloof er echt NIETS van dat de mensen die nu met volle tegenzin gaan upgraden als ze weer te veel moeten betalen. Totaal ongeloofwaardig. Die mensen gaan gewoon wachten tot 5xxx of zelfs 6xxx. Als ik zie hoeveel mensen van een 9xx nvidia of 5xx amd kaart geüpgraded heb en is de lans dat ze de eerst volgende generatie mee pakken nihil. Daar komt nog bij dat ze geld over hadden doordat ze thuis zaten en het geld geparkeerd stond. Dat is volgend jaar niet meer het geval. Sat geld is dus niet 123 beschikbaar.

Misschien in 2024 dat er weer een upgrade run komt.
En capaciteit zegt niets... Ze kunnen met meer inkopen meer maken dus die statement slaat echt nergens op.

Maar de tijd zal het laten zien. Maar ik zie dit spelletje al decennia uitspelen duseh...

[ Voor 6% gewijzigd door computerjunky op 12-09-2021 16:34 ]


  • Skybullet
  • Registratie: April 2008
  • Laatst online: 02:57
computerjunky schreef op zondag 12 september 2021 @ 16:33:

Maar de tijd zal het laten zien. Maar ik zie dit spelletje al decennia uitspelen duseh...
Het heeft er nog nooit zo voorgestaan. En ik koop zelf ook al gpu's sinds de voodoo tijd, dus je ervaring is in deze 0 waard.

Maar voorlopig zie ik nog dagelijks mensen hier en op andere plaatsen +1000 euro uitgeven aan een gpu alsof het niks is dus we gaan het zien. Ik zet mijn geld op "duurder dan nu" ;)

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Skybullet schreef op zondag 12 september 2021 @ 17:31:
[...]


Het heeft er nog nooit zo voorgestaan. En ik koop zelf ook al gpu's sinds de voodoo tijd, dus je ervaring is in deze 0 waard.

Maar voorlopig zie ik nog dagelijks mensen hier en op andere plaatsen +1000 euro uitgeven aan een gpu alsof het niks is dus we gaan het zien. Ik zet mijn geld op "duurder dan nu" ;)
Het [NVIDIA GeForce RTX 30XX] Levertijden & Prijzen topic heeft niet zonder reden meer dan 2200 pagina's ;)

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RobinNL schreef op zaterdag 11 september 2021 @ 18:14:
Voorspellingen hoe duur de RTX 4000 serie kan gaan worden... -O-

[Twitter]
Een paar dingen.
1) RTX4xxx is nog een jaar weg.
2) Het is niet eens helemaal zeker of het nu Lovelace of iets anders gaat zijn.
3) Prijzen worden meestal pas vlak voor de bekendmaking van de lijn vastgesteld en niet een jaar ervoor.
4) Ik wil er ook op wijzen dat ook Nvidia over een jaar echt naar de zeer dure wafers zal moeten. Dat hebben ze vooralsnog twee generaties vermeden, maar dat zal nu niet meer gaan. Of het nu Samsung of TSMC "5nm" (Samsung 5LPP is eigenlijk meer een marketingrebrand voor een "7nm" klasse node) zal zijn, die wafers gaan veel duurder worden. En als je de omzetcijfers van Nvidia van de afgelopen jaren erbij zou pakken, dan weet je dat Nvidia graag goede marges maakt. Dat gaat dus onherroepelijk doorberekend worden. En mensen hebben de afgelopen vijf jaar ook steeds gedemonstreerd bereid te zijn om meer te betalen...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Skybullet schreef op zondag 12 september 2021 @ 17:31:
[...]


Het heeft er nog nooit zo voorgestaan. En ik koop zelf ook al gpu's sinds de voodoo tijd, dus je ervaring is in deze 0 waard.

Maar voorlopig zie ik nog dagelijks mensen hier en op andere plaatsen +1000 euro uitgeven aan een gpu alsof het niks is dus we gaan het zien. Ik zet mijn geld op "duurder dan nu" ;)
Niet? De 650 a 700 euro die velen voor een 1070 betaald hebben in 2017 is anders nog niet heel ver terug. En dat was een enkelvoudige crisis. Daar kwam geen eens coronageld aan te pas.
De 20 serie verkocht met een hogere prijs dan ook totaal niet en al snel hingen kaarten onder msrp.

Het gros update simpelweg niet elke generatie.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
DaniëlWW2 schreef op zondag 12 september 2021 @ 18:36:
[...]


4) Ik wil er ook op wijzen dat ook Nvidia over een jaar echt naar de zeer dure wafers zal moeten. Dat hebben ze vooralsnog twee generaties vermeden, maar dat zal nu niet meer gaan. Of het nu Samsung of TSMC "5nm" (Samsung 5LPP is eigenlijk meer een marketingrebrand voor een "7nm" klasse node) zal zijn, die wafers gaan veel duurder worden. En als je de omzetcijfers van Nvidia van de afgelopen jaren erbij zou pakken, dan weet je dat Nvidia graag goede marges maakt. Dat gaat dus onherroepelijk doorberekend worden. En mensen hebben de afgelopen vijf jaar ook steeds gedemonstreerd bereid te zijn om meer te betalen...
Dat is maar net wat voor een contracten ze hebben. Misschien is dat al lang vastgelegd voor betere prijzen. Daarnaast is de prijs van een gpu chip een relatief klein deel van de totale prijs van een gpu zoals die voor ons in de winkel ligt. Daarnaat komen er van kleinere procedé's meer chips per wafer wat de prijs per wafer weer wat compenseert. We moeten het dus allemaal nog zien.
50 a 100 meer voor 4060/4080 verbaasd me niets maar veel meer zal het denk ik niet zijn.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Even los van hetgeen @DaniëlWW2 zegt (die prijzen zijn nog lang niet vast gesteld) en hoe waarschijnlijk ik het acht, is het weldegelijk een reële mogelijkheid. Fermi, Turing én Ampère hebben laten zien dat "de consument" bereid is te veel te betalen. Eerstgenoemde was gewoon een slecht product, Turing bood niets meer dan Pascal behalve DLSS/RT (zelfde perf/W, perf/$) en Ampère was voor MSRP aardig geweest...maar de MSRP ligt veelal bijna op de helft van de prijzen in de praktijk ;)

Mocht het gebeuren (aan beide kanten) dan is de kans groot dat m'n Voodoo eindelijk van z'n troon gestoten wordt als kaart met de langste levensduur.
computerjunky schreef op zondag 12 september 2021 @ 18:55:
[...]


Niet? De 650 a 700 euro doe velen voor een 1070 betaald hebben in 2017 is anders nog niet heel ver terug. En dat was een enkelvoudige crisis. Daar kwam geen eens coronageld aan te pas.
De 20 serie verkocht met een hogere prijs dan ook totaal niet en al snel hingen kaarten onder msrp.

Het gros update simpelweg niet elke generatie.
Ik heb geen idee wat je hier probeert te zeggen. Een 1070 was geen 650-700 euro. Voor dat geld had je een 1080 Ti. De mijne was €745. En dat is met een volledig waterblok.

Turing was inderdaad te duur, maar in tegenstelling tot wat jij beweert is die nooit ónder MSRP gekomen. Zelfs de MSRP hebben maar weinig modellen gehaald.
computerjunky schreef op zondag 12 september 2021 @ 18:59:
Dat is maar net wat voor een contracten ze hebben. Misschien is dat al lang vastgelegd voor betere prijzen. Daarnaast is de prijs van een gpu chip een relatief klein deel van de totale prijs van een gpu zoals die voor ons in de winkel ligt.
Nee. Als individueel onderdeel is het met afstand het duurste onderdeel. Alle geheugen chips bij elkaar op geteld komen het dichtst er bij in de buurt.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Werelds schreef op zondag 12 september 2021 @ 19:05:
Even los van hetgeen @DaniëlWW2 zegt (die prijzen zijn nog lang niet vast gesteld) en hoe waarschijnlijk ik het acht, is het weldegelijk een reële mogelijkheid. Fermi, Turing én Ampère hebben laten zien dat "de consument" bereid is te veel te betalen. Eerstgenoemde was gewoon een slecht product, Turing bood niets meer dan Pascal behalve DLSS/RT (zelfde perf/W, perf/$) en Ampère was voor MSRP aardig geweest...maar de MSRP ligt veelal bijna op de helft van de prijzen in de praktijk ;)

Mocht het gebeuren (aan beide kanten) dan is de kans groot dat m'n Voodoo eindelijk van z'n troon gestoten wordt als kaart met de langste levensduur.


[...]


Ik heb geen idee wat je hier probeert te zeggen. Een 1070 was geen 650-700 euro. Voor dat geld had je een 1080 Ti. De mijne was €745. En dat is met een volledig waterblok.

Turing was inderdaad te duur, maar in tegenstelling tot wat jij beweert is die nooit ónder MSRP gekomen. Zelfs de MSRP hebben maar weinig modellen gehaald.


[...]

Nee. Als individueel onderdeel is het met afstand het duurste onderdeel. Alle geheugen chips bij elkaar op geteld komen het dichtst er bij in de buurt.
Ja als je zo gaat redeneren kan je alles wat recht is krom lullen de chip is relatief een klein deel. Dan bedoel ik duidelijk van de totale prijs en dat punt staat gewoon. Je kan dan rare toeren uithalen om dat anders te doen lijken maar dat maakt het niet zo.

En dat jij geluk gehad heb en dus niet tijdens de mining hype gekocht heb wil niet zeggen dat ze niet zo duur geweest zijn... *knip*

En 20xx bood niet meer? *knip* In alle benchmarks zijn ze sneller als de vorige serie. Maar je bedoeld vast prestatie per euro. Een bmanier van kijken die dus totaal niets waard is als je net als mij tijdens de mining piek een veel te dure gpu had gekocht. Dan was de prestatie per euro gewoon 25 tot 40% beter.

Er iets minder met gestrekt been in gaan mag wel. Je wordt niet persoonlijk aangevallen.

[ Voor 6% gewijzigd door Blaat op 13-09-2021 11:33 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
computerjunky schreef op zondag 12 september 2021 @ 19:24:
Ja als je zo gaat redeneren kan je alles wat recht is krom lullen de chip is relatief een klein deel. Dan bedoel ik duidelijk van de totale prijs en dat punt staat gewoon. Je kan dan rare toeren uithalen om dat anders te doen lijken maar dat maakt het niet zo.
Nee.

Het PCB, mosfets, I/O en dergelijke kosten samen hooguit een paar tientjes. GDDR prijs fluctueert heel erg en is zwaar afhankelijk van volume kortingen, maar zelfs met weinig volume was GDDR6X in het begin pakweg een tientje per GB. De GPU zelf kost de AIB tegenwoordig waarschijnlijk wel $150 of wellicht nog meer als ze die inkopen bij Nvidia. Vergeet niet dat Nvidia hun winst al moet maken als ze de GPU aan de AIB's verkopen. Dat gebeurt niet pas in de winkel.
En dat jij geluk gehad heb en dus niet tijdens de mining hype gekocht heb wil niet zeggen dat ze niet zo duur geweest zijn... Je had gewoon even in de pricewatch kunnen kijken en kunnen zien dat die pieken er wel degelijk waren.
In 2017 gekocht bij Azerty (:(), minder dan een half jaar na release. €745,41 en ja, dat is inclusief BTW.

Pieken waren er zeker, maar dat zijn ook maximum prijzen. En het hangt ook af van welk model je het over hebt. De "OC" modellen zijn altijd duurder, zonder dat ze beter zijn.
En 20xx bood niet meer? Welke steen heb jij pnder gezeten dan want in alle benchmarks zijn ze sneller als de vorige serie. Maar je bedoeld vast prestatie per euro. Een bmanier van kijken die dus totaal niets waard is als je net als mij tijdens de mining piek een veel te dure gpu had gekocht. Dan was de prestatie per euro gewoon 25 tot 40% beter.
Niet enkel op perf/$. Men neme een GP102 (1080 Ti) en TU104 (2080):

- Vergelijkbare prestaties (hoe hoger de resolutie, hoe kleiner het verschil)
- Beide MSRP van $700
- TU104 was een grotere chip
- TU104 vrat meer stroom

Dus, zelfde perf/$, minder perf/W. Een sidegrade, geen upgrade. Een TU102 (2080 Ti) had minder perf/$ dan beide, maar wel betere perf/W dan TU104.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
Werelds schreef op zondag 12 september 2021 @ 20:53:
[...]

Nee.

Het PCB, mosfets, I/O en dergelijke kosten samen hooguit een paar tientjes. GDDR prijs fluctueert heel erg en is zwaar afhankelijk van volume kortingen, maar zelfs met weinig volume was GDDR6X in het begin pakweg een tientje per GB. De GPU zelf kost de AIB tegenwoordig waarschijnlijk wel $150 of wellicht nog meer als ze die inkopen bij Nvidia. Vergeet niet dat Nvidia hun winst al moet maken als ze de GPU aan de AIB's verkopen. Dat gebeurt niet pas in de winkel.
*knip*

RTX 3080. 10 GB Gddr6 geheugen alleen is al meer als 120 euro gezien de prijs lijsten dan heb je alle overige onderdelen en dan heb je nog fabricage/assemblage wat ook gewoon geld kost door gebruikte machines/chemicalien enz. Dan heb je nog de koeler wat al snel 10 a 15 euro kost. Daarnaast heb je nog de design en ontwikkel kosten de shroud die ontworpen en gecast moet worden, de stickers die aangebracht moeten worden, de deels handmatige assemblage en QC.

die chip is gewoon niet het grootste deel van de kosten. zelfs met je uit de lucht gegrepen 150 dollar ga je dat al niet halen. En waarom het meer zou zijn bij Nvidia? Totaal geen bewijs voor en gewoon een loze aanname.

*knip* Zie hierboven. Het is niet nodig om zo aangebrand te zijn.

[ Voor 9% gewijzigd door Blaat op 13-09-2021 11:34 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wafers van een nieuwe node zijn altijd duurder dan de vorige node, dat zou inmiddels algemeen bekend moeten zijn. Er zal per klant vast onderhandeld kunnen worden of de wafer nou $9300 of $9200 moet kosten, maar het is niet zo dat iemand een 7nm wafer voor de prijs van een 16nm wafer kan kopen.

Afbeeldingslocatie: https://tweakers.net/i/1ghg0Wz6INKZ1t8XmnrexCf-AGA=/800x/filters:strip_exif()/f/image/HwjC2wsvPt6v4EvI61O0Xn9i.png?f=fotoalbum_large
https://www.techpowerup.c...smc-silicon-wafers-appear

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dat is minder speculatie dan jij denkt. Ten tijde van RV770, G80 en dergelijke zat dat al rond de $65. Dat is echt niet goedkoper geworden met die monsterchips op veel duurdere wafers.

Uit een 300mm wafer krijgen ze pakweg 95 chips van het formaat van bijvoorbeeld TU104. Al reken je aan $10k per wafer is het dan al $105 per chip. En dan zijn niet al die chips volledig werkend. Als je dan bijvoorbeeld 60% yield haalt (dus 60% chips die aan de specs voldoen), 15% wellicht helemaal afschrijft en 25% dies met defecten hebt die je wel lager in kunt zetten krijg je ongeveer zo'n rekensommetje om quite (!) te spelen:

- 0.60 * 95 = 57
- 0.25 * 95 = 24
- $10000 / (57 / 24) = $123 gemiddeld per "verkoopbare" chip
RTX 3080. 10 GB Gddr6 geheugen alleen is al meer als 120 euro
Ik zal mezelf maar even quoten, want ik dacht toch echt dat ik precies dat zei:
Werelds schreef op zondag 12 september 2021 @ 19:05:
Nee. Als individueel onderdeel is het met afstand het duurste onderdeel. Alle geheugen chips bij elkaar op geteld komen het dichtst er bij in de buurt.
Moeten we de marketing ook mee tellen als kostprijs?
gezien de prijs lijsten dan heb je alle overige onderdelen en dan heb je nog fabricage/assemblage wat ook gewoon geld kost door gebruikte machines/chemicalien enz. Dan heb je nog de koeler wat al snel 10 a 15 euro kost.
Je vergist je heel erg in wat dat allemaal kost. Bijna alles wat op een PCB zit kost minder dan een cent per stuk. Er zijn genoeg mensen hier op het forum die in de industrie zitten die je dit kunnen bevestigen. En het zou me niets verbazen als ons aller CJ zich daar ooit ook wel eens over uit heeft gelaten ;)
Daarnaast heb je nog de design en ontwikkel kosten de shroud die ontworpen en gecast moet worden, de stickers die aangebracht moeten worden, de deels handmatige assemblage en QC.
Jij had het specifiek over de prijs van de chip op de grafische kaart. Moet je er niet ineens R&D en dergelijke bij gaan betrekken.

En nee, die chip kost Nvidia geen $150 om te maken. Maar het is ook niet zo goedkoop als jij denkt.
die chip is gewoon niet het grootste deel van de kosten. zelfs met je uit de lucht gegrepen 150 dollar ga je dat al niet halen. En waarom het meer zou zijn bij Nvidia? Totaal geen bewijs voor en gewoon een loze aanname.
Waarom zou het meer zijn bij Nvidia...dan bij wat? Ik heb nergens een vergelijking met AMD of wat dan ook gemaakt, daar verzin jij er weer iets bij. Nvidia (en AMD) moet hun chips aan AIB's verkopen en moet daar al marge op trekken. Zo simpel is het gewoon. En ja, dat maakt de chip in verhouding verrekte duur voor de AIB's.

*knip* Laat dat alsjeblieft aan ons over. Maak een TR aan als je iets ziet wat niet OK is.

[ Voor 3% gewijzigd door Blaat op 13-09-2021 11:36 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Werelds schreef op zondag 12 september 2021 @ 20:53:
Niet enkel op perf/$. Men neme een GP102 (1080 Ti) en TU104 (2080):

- Vergelijkbare prestaties (hoe hoger de resolutie, hoe kleiner het verschil)
- Beide MSRP van $700
- TU104 was een grotere chip
- TU104 vrat meer stroom

Dus, zelfde perf/$, minder perf/W. Een sidegrade, geen upgrade. Een TU102 (2080 Ti) had minder perf/$ dan beide, maar wel betere perf/W dan TU104.
Een beetje een sidenode, maar mijn ervaring is bij Turing en RDNA vs. Pascal: hoe nieuwer het spel hoe groter het voordeel van Turing/RDNA(2.0). Dus dat, plus de software/API voordelen maakt dat Turing uiteindelijk wel een stuk beter is geworden dan hoe ik er anderhalf jaar geleden tegenaan keek.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op maandag 13 september 2021 @ 17:04:
[...]

Een beetje een sidenode, maar mijn ervaring is bij Turing en RDNA vs. Pascal: hoe nieuwer het spel hoe groter het voordeel van Turing/RDNA(2.0). Dus dat, plus de software/API voordelen maakt dat Turing uiteindelijk wel een stuk beter is geworden dan hoe ik er anderhalf jaar geleden tegenaan keek.
Het gaat langzaam, maar dat gebeurd inderdaad wel. Velen zullen het toewijzen aan "betere drivers", maar persoonlijk denk ik dat het komt omdat games gewoon meer en meer integer berekeningen vragen en Pascal daarom, langzaam maar zeker terrein begint te verliezen. Het verklaard ook waarom de RX580, de GTX1060 inmiddels ook achter zich begint te laten. Dit is immers het grote verschil in traditionele shader en rasterisation tussen aan de ene kant Pascal en de andere kant Turing/Ampere of RDNA 1/2. :)

Ik denk dat het punt alleen meer is dat als je nu een GTX1080Ti hebt, er na vijf jaar nog steeds niks is in de meer traditionele high end prijsklasse wat echt noemenswaardig beter is om naar te upgraden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:02
XanderDrake schreef op maandag 13 september 2021 @ 17:04:
[...]

Een beetje een sidenode, maar mijn ervaring is bij Turing en RDNA vs. Pascal: hoe nieuwer het spel hoe groter het voordeel van Turing/RDNA(2.0). Dus dat, plus de software/API voordelen maakt dat Turing uiteindelijk wel een stuk beter is geworden dan hoe ik er anderhalf jaar geleden tegenaan keek.
Dit zag ik ook met mijn 1070 OC vs 2060. Bij de release was het veel dichterbij en als je naar re-reviews dit jaar kijkt van de 1070 is het verschil gewoon soms wel 80% afhankelijk van de game.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

DaniëlWW2 schreef op maandag 13 september 2021 @ 20:00:
Het gaat langzaam, maar dat gebeurd inderdaad wel. Velen zullen het toewijzen aan "betere drivers", maar persoonlijk denk ik dat het komt omdat games gewoon meer en meer integer berekeningen vragen en Pascal daarom, langzaam maar zeker terrein begint te verliezen. Het verklaard ook waarom de RX580, de GTX1060 inmiddels ook achter zich begint te laten. Dit is immers het grote verschil in traditionele shader en rasterisation tussen aan de ene kant Pascal en de andere kant Turing/Ampere of RDNA 1/2. :)
Op zich bijzonder, gezien dat de GTX 1060 nog steeds de populairste GPU in de Steam Survey is op het moment. Die gebruikersgroep frustreren met slechte performance lijkt me niet handig.
Ik denk dat het punt alleen meer is dat als je nu een GTX1080Ti hebt, er na vijf jaar nog steeds niks is in de meer traditionele high end prijsklasse wat echt noemenswaardig beter is om naar te upgraden.
offtopic:
Maar goed ook dat er nog niets echt noemenswaardig is, want ik heb geen zin om €1000+ neer te leggen :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 13 september 2021 @ 17:04:
Een beetje een sidenode, maar mijn ervaring is bij Turing en RDNA vs. Pascal: hoe nieuwer het spel hoe groter het voordeel van Turing/RDNA(2.0). Dus dat, plus de software/API voordelen maakt dat Turing uiteindelijk wel een stuk beter is geworden dan hoe ik er anderhalf jaar geleden tegenaan keek.
De vraag is dan echter hoe veel dat aan Turing ligt, en hoe veel dat aan de software (zowel drivers als spellen) ligt.

Turing is op papier niet heel erg anders dan Pascal. Qua functionele onderdelen is het belangrijkste (buiten RTC/TC) de grotere L2 cache. TU104 heeft 4 MB $L2, GP102 moet het met 2,75 MB doen. Het andere verschil is de aansturing (scheduling), waardoor Turing iets betere throughput heeft en dus iets efficiënter is qua gebruik van de shaders. Dat is waarom TU104 met een zevende minder shaders hetzelfde werk doet. Voor de rest is er echter weinig verschil.

Ga je echter kijken naar wat performance cijfers dan zie je dat de cijfers in sommige games inderdaad ver uiteenlopen. Verder dan je zou mogen verwachten.

Kijk bijvoorbeeld naar Doom Eternal. Als je TPU's reviews bekijkt (het spel bij release en vervolgens bij release van Ampère) is GP102 op 1080p gewoon bijna 20% van z'n performance kwijt geraakt; dat viel mij vorig jaar op bij de 3080 reviews. Op hogere resoluties niet meer. Dat suggereert dat er een CPU bottleneck z'n intrede heeft gedaan in de driver. Ik ga nu niet beweren dat dat met opzet is, dat is onzin. Maar wel denk ik dat Pascal inmiddels weinig tot geen aandacht meer krijgt, dus als een optimalisatie voor nieuwere chips (die dus andere scheduling hebben, maar wel nog steeds zwaar afhankelijk van de driver zijn) iets kapot maakt voor Pascal, zal dat niet snel opgemerkt worden.

Dingen als Control laat ik verder ook buiten beschouwing, mijn mening over zulke zooi heb ik al vaak genoeg duidelijk gemaakt.

In GPU-bound situaties is er tussen GP102 en TU104 echter weinig veranderd de afgelopen 3 jaar. In Battlefield V kruipt GP102 nog steeds dichterbij TU104 hoe hoger de resolutie wordt. In Metro idem dito (jawel mensen, ik haal Metro in positieve zin aan). Dit zijn een tweetal voorbeelden van games die GPU's tot de limiet pushen; Metro is dan wel Nvidia focused, maar ze pushen GPU's daar wel tot het randje. In die games zijn de verschillen ook hooguit 15%. Wel in het voordeel van TU104, maar ten tijde van release was dat ook al min of meer het geval (iets dichter bij de 10% wellicht, ben te lui om een review op te zoeken :+).

Dus tja, is dat dan toe te schrijven aan Turing, of simpelweg het feit dat men niet veel optimaliseert voor Pascal? ;)

Nogmaals, ik beweer niet dat Pascal met opzet gehinderd wordt. Ik denk dat Pascal gewoon een beetje vergeten wordt. Heeft simpelweg net iets andere optimalisatie en scheduling nodig dan Turing en Ampère.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Werelds schreef op maandag 13 september 2021 @ 20:41:
Dus tja, is dat dan toe te schrijven aan Turing, of simpelweg het feit dat men niet veel optimaliseert voor Pascal? ;)

Nogmaals, ik beweer niet dat Pascal met opzet gehinderd wordt. Ik denk dat Pascal gewoon een beetje vergeten wordt. Heeft simpelweg net iets andere optimalisatie en scheduling nodig dan Turing en Ampère.
Dat zou zeker kunnen, maar dat neemt niet weg dat dus een Turing kaart uiteindelijk geen slechte investering is geweest (iets waar ik destijds aan twijfelde). Dit is blijkbaar dé scheduling/optimalisatie voor de toekomst, want waar Turing wint van Pascal, wint RDNA ook (terwijl ik nog helder herinner dat de RX 5700XT bij launch niet sneller was dan de GTX 1080 Ti). En op het RDNA platform zal alles vanaf nu geënt worden, gezien de consoles.

Met dat in gedachten vind ik een RTX 2060 rerelease op een lager prijspijl (€299? finger crossed...) nog wel een goed idee. We moeten eens een keer af van de GTX 1060, die kaart begint echt oud te worden. Maar is op dit moment geen degelijk alternatief.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op maandag 13 september 2021 @ 20:33:
[...]
Op zich bijzonder, gezien dat de GTX 1060 nog steeds de populairste GPU in de Steam Survey is op het moment. Die gebruikersgroep frustreren met slechte performance lijkt me niet handig.

[...]

offtopic:
Maar goed ook dat er nog niets echt noemenswaardig is, want ik heb geen zin om €1000+ neer te leggen :+
Ik denk dus dat het geen opzet is, maar de simpele realiteit dat "Paxwell" een architectuur is die in 2014 is geïntroduceerd. En voor games in de periode 2013-2017 werkt het geweldig, daarna werd het minder. Het is in ieder geval geen Kepler wat zo bizar snel van een klif afviel. :P

Komt bij dat ik zelf vermoed dat "driver optimalisatie" een te snel gegrepen verklaring is. Natuurlijk gebeurd dat, eindeloos veel bewijsstukken aan te leveren met verschillende tussen individuele drivers. Maar optimaliseren houdt een keer op en als je verouderde architectuur simpelweg niet de hardware heeft om de nieuwste games optimaal te draaien, dan merk je dat. Ik denk dat het ook geen toeval was dat Nvidia met Turing koos voor die splitsing in een apart FP en INT pad. Want zeker een game zoals BF5 dat barstensvol met compute berekeningen zal zitten, draaide meteen al opvallend veel beter op Turing en toen verdween het voordeel van GCN kaarten over Pascal ook meteen.

Hetzelfde geld denk ik ook voor de andere kant. Want ik vermoed ook dat een deel van GCN 1/2 hun opvallend lange levensduur, juist de wat uitgebreidere hardwaremogelijkheden van GCN was. En omdat ik zelf ook graag wat oudere games speel met mijn RX5700XT, heb ik ook allang gemerkt dat er games zijn die opvallend beter draaien op die dan mijn RX Vega 56 die ik een beetje gesloopt had. En dat is ook logisch want RDNA is juist veel beter in FP zonder de relatief goede INT prestaties van Vega op te geven. En ik betwijfel ook of AMD veel moeite heeft gestoken in games zoals CoH 2, Rome II (die is echt iets van ruim 70% beter en dan speel ik inmiddels ook nog eens op 1440p i.p.v. 1080p) of the Witcher 3 perfect te optimaliseren voor RDNA. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 13 september 2021 @ 21:03:
[...]

Dat zou zeker kunnen, maar dat neemt niet weg dat dus een Turing kaart uiteindelijk geen slechte investering is geweest (iets waar ik destijds aan twijfelde). Dit is blijkbaar dé scheduling/optimalisatie voor de toekomst, want waar Turing wint van Pascal, wint RDNA ook (terwijl ik nog helder herinner dat de RX 5700XT bij launch niet sneller was dan de GTX 1080 Ti). En op het RDNA platform zal alles vanaf nu geënt worden, gezien de consoles.

Met dat in gedachten vind ik een RTX 2060 rerelease op een lager prijspijl (€299? finger crossed...) nog wel een goed idee. We moeten eens een keer af van de GTX 1060, die kaart begint echt oud te worden. Maar is op dit moment geen degelijk alternatief.
Wellicht, maar met name dankzij Ampère zijn alle prijzen nu verrot, zelfs tweedehands. AMD mag zelf dan wel aan MSRP leveren, de AIB's en winkels doen er helaas niet aan mee en aan de Nvidia kant is de MSRP al helemaal een grap. Die hebben gezien dat het ook voor meer over de toonbank gaat, dus waarom zouden ze op MSRP gaan zitten?

Ik vrees dat jij (en ik) voorlopig gewoon zullen moeten blijven hangen op wat we hebben. Een 3060 presteert net iets minder dan mijn 1080 Ti, heeft eigenlijk een MSRP van €349 en begint gewoon op pakweg €640. En het ziet er niet naar uit dat daar veel aan verandert.

Je zult dan echt op de tweedehands markt geluk moeten hebben dat iemand geen winst probeert te maken op een 3 jaar oude 2060 :P

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03-2025
ESO eerste game met DLAA.

DLSS zonder upscaling.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Uitgaande van 1080p of 1440p, is dat niet opschalen naar 4k met DLSS en dan weer downsamplen?
Denk niet dat ze iets anders doen dan dat in alle eerlijkheid. Dat vind ik ook de enige goede manier om DLSS/FSR te gebruiken; in feite dus in combinatie met DSR/VSR.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 19:09


YouTube: Something is still terribly wrong with New World and certain GPUs!! ...

Er zijn nu weer wat meer meldingen over GPU's die falen. Weet niet zeker of dat nu komt omdat het falen van GPU's eerder al werd gelinkt met New World en dat men die link nu dus ook sneller legt of dat Nvidia/AIB's gewoon een beroerde generatie qua board design hebben gemaakt deze keer. AFAIK zijn er bij AMD geen dergelijke meldingen gedaan.

Wie goed doet, die goed ontmoet.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
AtlAntA schreef op zaterdag 2 oktober 2021 @ 22:08:
[YouTube: Something is still terribly wrong with New World and certain GPUs!! BEWARE!!!!!!]

YouTube: Something is still terribly wrong with New World and certain GPUs!! ...

Er zijn nu weer wat meer meldingen over GPU's die falen. Weet niet zeker of dat nu komt omdat het falen van GPU's eerder al werd gelinkt met New World en dat men die link nu dus ook sneller legt of dat Nvidia/AIB's gewoon een beroerde generatie qua board design hebben gemaakt deze keer. AFAIK zijn er bij AMD geen dergelijke meldingen gedaan.
Hoe graag ik ook mee doe aan Amazon bashen.... dit is geen Amazon ding. Jayz2cents weet vrij weinig van dit alles af helaas en dit blijkt weer met deze video; het was echt een sleur om doorheen te komen.
Wat zijn call draws....misschien bedoelt hij draw calls. Als hij zulke simpele dingen niet weet dan moet hij gewoon niet zo'n topic behandelen. Het mag niet uitmaken hoe slecht een spel geschreven is en ik begrijp wel hieruit dat het slecht geschreven is; maar het mag een videokaart gewoon niet omleggen.
Dit zit hem in de drivers, de spec sheet van welke componenten gebruikte moeten worden of bij de AIB's die te cheape (of een slechte batch van) componenten gebruiken.
Nu lijken het vooral Gigabyte kaarten te zijn die hier last van hebben; en welke fabrikant moet je op dit moment niet op hun woord geloven? Juist Gigabyte, met hun gebundelde plofvoedingen.

[ Voor 5% gewijzigd door Sp3ci3s8472 op 04-10-2021 23:32 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sp3ci3s8472 schreef op maandag 4 oktober 2021 @ 23:31:
Het mag niet uitmaken hoe slecht een spel geschreven is en ik begrijp wel hieruit dat het slecht geschreven is; maar het mag een videokaart gewoon niet omleggen.
Dit zit hem in de drivers, de spec sheet van welke componenten gebruikte moeten worden of bij de AIB's die te cheape (of een slechte batch van) componenten gebruiken.
Furmark.

Wat het spel ook is, het weet de GPU en/of het geheugen op een dusdanige manier aan te sturen dat het het geheel extreem belast. Een extreem aantal draw calls (zoals het menu zonder framecap) kón dat doen, want dat is hoe Furmark het deed, maar je zou verwachten dat Nvidia daar inmiddels wel raad mee weet.

Of niet, want ik kan me niet herinneren dat we dit soort ongein bij AMD hebben gezien. Waarom? Omdat AMD meer sensors gebruikt en meer rechtstreeks in de hardware regelt. Dat doen ze al jaren. Ik vermoed dat de gevolgen bij AMD daardoor minder ernstig zijn.

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 18:46
Werelds schreef op dinsdag 5 oktober 2021 @ 09:11:
[...]

Furmark.

Wat het spel ook is, het weet de GPU en/of het geheugen op een dusdanige manier aan te sturen dat het het geheel extreem belast. Een extreem aantal draw calls (zoals het menu zonder framecap) kón dat doen, want dat is hoe Furmark het deed, maar je zou verwachten dat Nvidia daar inmiddels wel raad mee weet.

Of niet, want ik kan me niet herinneren dat we dit soort ongein bij AMD hebben gezien. Waarom? Omdat AMD meer sensors gebruikt en meer rechtstreeks in de hardware regelt. Dat doen ze al jaren. Ik vermoed dat de gevolgen bij AMD daardoor minder ernstig zijn.
Het probleem in dit geval ligt niet bij NVIDIA maar bij de fabrikanten van de kaarten. Bij EVGA kwam het door slechte soldeerpunten. Bij Gigabyte is het nog niet bekend.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op dinsdag 5 oktober 2021 @ 09:11:
[...]

Furmark.

Wat het spel ook is, het weet de GPU en/of het geheugen op een dusdanige manier aan te sturen dat het het geheel extreem belast. Een extreem aantal draw calls (zoals het menu zonder framecap) kón dat doen, want dat is hoe Furmark het deed, maar je zou verwachten dat Nvidia daar inmiddels wel raad mee weet.

Of niet, want ik kan me niet herinneren dat we dit soort ongein bij AMD hebben gezien. Waarom? Omdat AMD meer sensors gebruikt en meer rechtstreeks in de hardware regelt. Dat doen ze al jaren. Ik vermoed dat de gevolgen bij AMD daardoor minder ernstig zijn.
Alleen moet AMD er soms wel iets meer mee doen. Want voor Vega pakte de software dus niet de HBM hotspot sensor als limiet en daar kwam ik achter nadat ik de boel undervolted had en de ventilator naar standje niet opstijgende straaljager had gezet. Kreeg artefacts en HBM2 ging blijkbaar naar de 90 graden zonder te downclocken waar 85 het maximale toelaatbare was. Dat kon je gewoon uitlezen met derden programma's. Dat was dus een jaar met langzaam verergerende stabiliteit en meer artefacts werken.
Ja, still salty na drie jaar. :P

Overigens geef ik POSCAPS de schuld. Dat baseer ik op werkelijk helemaal niks. :+

Serieus dan. Gewoon afwachten wat er nu aan de hand is. Het kan natuurlijk ook dat de Nvidia drivers, Furmark wel herkennen maar bij andere games niet zo beschermd zijn. Nvidia heeft soms toch wel wat rare dingen gehad. Bijvoorbeeld ook een paar keer een driver uitgebracht die je ventilator uitschakelde en ook geen waarschuwingen liet afgaan dat je GPU oververhit raakte.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
YouTube: My New World Testing revealed something unexpected... This NEEDS to ...

Ik ben geen fan van de man, want er is veel dat hij simpelweg niet begrijpt, maar hij laat hier wel iets interessants zien en eigenlijk precies waar ik op doelde.

Als je naar de MSI + MSI combo kijkt (Afterburner + EVGA werkt duidelijk niet, die power limit heeft zo te zien een rare offset bij EVGA), trekt het ding in het menu constant van 320 richting de 400 watt. Die powerdraw staat echter geheel niet in verhouding tot het power limit percentage. Niet de instelling in Afterburner, maar wat er wordt gerapporteerd. Let er maar eens goed op: 85% van de power limit, 365W en vervolgens 107% en 371.5W. Je hoeft geen rekenwonder te zijn om te zien dat daar iets niet klopt.

Tegelijkertijd is de framerate gewoon capped (dus het is geen Furmark-achtige situatie met 7000 FPS), zit GPU consumption (iets waar ik ook al vaker van heb gezegd dat het niet betrouwbaar is) op 70% en waarschijnlijk belangrijker dan dit alles: de (GPU) temperatuur fluctueert niet zo veel als je zou verwachten met zulke schommelingen in verbruik.

Dat betekent dat het verbruik dus niet puur vanuit de GPU in z'n geheel komt. Nu weet ik niet waar tegenwoordig alle sensors zitten, maar het mag duidelijk zijn dat er een stukje input (niet per se een sensor) mist of overgeslagen wordt bij de regulering van de videokaart in z'n geheel.

Het betekent ook dat New World hoogstwaarschijnlijk simpelweg een instructie gebruikt die een stuk hardware aanjakkert dat veel stroom vreet. Het zou zomaar het geheugen kunnen zijn (misschien laden ze in het menu constant dingen in het geheugen), maar het zou ook een specifiek deel van de GPU kunnen zijn (geometry bijvoorbeeld) dat extreem belast wordt en dusdanig veel sap nodig heeft dat de manier waarop al deze data gemeten wordt simpelweg ontoereikend is en het werkelijke verbruik hoger uit komt.

Dat is ook een heel bekend fenomeen. Laat je CPU maar eens wat AVX werk doen. Doet veel meer met z'n verbruik en temperatuur dan een prime95 workload, vandaar ook dat je dan lagere kloksnelheden ziet.

Er zullen zeker problemen zijn met de kaarten van EVGA en wellicht ook anderen, maar er mist in de basis ook gewoon een stukje monitoring. Wat het spel ook doet in het menu, ze sturen ergens iets aan dat voor een veel hoger verbruik zorgt dat niet zo snel in de overige data te zien is. Zoiets als wat jij aan geeft met Vega dus @DaniëlWW2 ;)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 6 oktober 2021 @ 13:53:
YouTube: My New World Testing revealed something unexpected... This NEEDS to ...

Ik ben geen fan van de man, want er is veel dat hij simpelweg niet begrijpt, maar hij laat hier wel iets interessants zien en eigenlijk precies waar ik op doelde.

Als je naar de MSI + MSI combo kijkt (Afterburner + EVGA werkt duidelijk niet, die power limit heeft zo te zien een rare offset bij EVGA), trekt het ding in het menu constant van 320 richting de 400 watt. Die powerdraw staat echter geheel niet in verhouding tot het power limit percentage. Niet de instelling in Afterburner, maar wat er wordt gerapporteerd. Let er maar eens goed op: 85% van de power limit, 365W en vervolgens 107% en 371.5W. Je hoeft geen rekenwonder te zijn om te zien dat daar iets niet klopt.

Tegelijkertijd is de framerate gewoon capped (dus het is geen Furmark-achtige situatie met 7000 FPS), zit GPU consumption (iets waar ik ook al vaker van heb gezegd dat het niet betrouwbaar is) op 70% en waarschijnlijk belangrijker dan dit alles: de (GPU) temperatuur fluctueert niet zo veel als je zou verwachten met zulke schommelingen in verbruik.

Dat betekent dat het verbruik dus niet puur vanuit de GPU in z'n geheel komt. Nu weet ik niet waar tegenwoordig alle sensors zitten, maar het mag duidelijk zijn dat er een stukje input (niet per se een sensor) mist of overgeslagen wordt bij de regulering van de videokaart in z'n geheel.

Het betekent ook dat New World hoogstwaarschijnlijk simpelweg een instructie gebruikt die een stuk hardware aanjakkert dat veel stroom vreet. Het zou zomaar het geheugen kunnen zijn (misschien laden ze in het menu constant dingen in het geheugen), maar het zou ook een specifiek deel van de GPU kunnen zijn (geometry bijvoorbeeld) dat extreem belast wordt en dusdanig veel sap nodig heeft dat de manier waarop al deze data gemeten wordt simpelweg ontoereikend is en het werkelijke verbruik hoger uit komt.

Dat is ook een heel bekend fenomeen. Laat je CPU maar eens wat AVX werk doen. Doet veel meer met z'n verbruik en temperatuur dan een prime95 workload, vandaar ook dat je dan lagere kloksnelheden ziet.
Ik zit eigenlijk iets anders te denken. Ik gebruik zelf al jarenlang geen Afterburner omdat het werkelijk niks meer toevoegt voor een Radeon en eerder voor problemen zorgt. Ik ben dus wat minder bekend ermee dan ik jaren geleden was. Maar wat leest MSI Afterburner precies uit met een Nvidia GPU met dynamische clock speed? GPU power of board power? Want ik denk dus GPU power waardoor dat percentage GPU power is en dan komt er nog eens apart VRAM bovenop op een apart circuit. Tweede is waarop is het meetpunt gebaseerd? Gemiddelde over bijvoorbeeld een seconde of piek binnen een tijdspanne?

Want als ik dit zie, dan vermoed ik dat het powermanagement van Nvidia, de GPU maximale powerlimiet niet goed kan vasthouden. En als je dan een gare game hebt die rare dingen doet met een deel van de GPU, dan krijg je dit.

Voor AMD is het instellen een powerlimiet voor de GPU ook echt de absolute grens in verbruik over een tijdspanne van meer dan een paar milliseconden. Dat is een waarde die je nooit gaat overschrijden. Het is ook vrij normaal om eronder te zitten. Het verschilt een beetje per SKU en mijn RX5700XT Nitro+ met een 220W GPU power limiet, haalt dit eigenlijk nooit. Een normale RX5700XT kan de de 180W wel halen en zo verschilt het per SKU. Achter de schermen pieken Radeon's wel enorm. Leukste voorbeeld is denk ik de reference RX6800. Die halen hun nominale 250W GPU powerlimiet eigenlijk niet, maar pieken net iets hoger dan 250W :P
Dit fenomeen is overigens ook een van de redenen waarom je geen Gigabyte voeding koopt. :+

Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2020/11/01-Power-Consumption-1.png

Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2020/11/03-Peak-Power-1.png
https://www.igorslab.de/e...t-different-in-detail/15/

Je ziet dit nooit in de read outs, maar het gebeurd wel. Uiteindelijk is dit ook gecontroleerd door de GPU zelf waardoor je geen problemen krijgt. In het algemeen ken ik ook geen enkel voorbeeld van een meer recente Radeon die doorgebrand is door een gare game.
Er zullen zeker problemen zijn met de kaarten van EVGA en wellicht ook anderen, maar er mist in de basis ook gewoon een stukje monitoring. Wat het spel ook doet in het menu, ze sturen ergens iets aan dat voor een veel hoger verbruik zorgt dat niet zo snel in de overige data te zien is. Zoiets als wat jij aan geeft met Vega dus @DaniëlWW2 ;)
Voor mijn Vega is denk echt gewoon de correcte sensor niet pakken. Want GPU hotspot en HBM2 egde pakte die wel. Terwijl je juist met Vega 10, je de HBM2 hotspot wil pakken. Van wat ik heb begrepen, ben ik ook zeker niet de enige die heeft mogen ervaren wat er gebeurde als HBM2 over de 85 graden gaat. Degradatie treed echt snel op. Ik zag het waarschijnlijk nog op tijd toen ik de eerste artefacts kreeg na iets van twee weken. Aardig wat mensen hebben de boel zo helemaal gesloopt. Het was denk ik echt over te hoofd zien hoe je een Vega haar beveiligingssensoren het best gebruikt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
DaniëlWW2 schreef op woensdag 6 oktober 2021 @ 15:15:
Ik zit eigenlijk iets anders te denken. Ik gebruik zelf al jarenlang geen Afterburner omdat het werkelijk niks meer toevoegt voor een Radeon en eerder voor problemen zorgt. Ik ben dus wat minder bekend ermee dan ik jaren geleden was. Maar wat leest MSI Afterburner precies uit met een Nvidia GPU met dynamische clock speed? GPU power of board power? Want ik denk dus GPU power waardoor dat percentage GPU power is en dan komt er nog eens apart VRAM bovenop op een apart circuit. Tweede is waarop is het meetpunt gebaseerd? Gemiddelde over bijvoorbeeld een seconde of piek binnen een tijdspanne?
Ik heb dit aspect niet echt bijgehouden, maar het was altijd gewoon GPU package, niet het bord. Maar ik ga er van uit dat dat inmiddels wel het geval is, gezien hoeveel sap geheugen verbruikt. Als Nvidia dat niet doet dan is het een wonder dat er nu pas problemen opduiken :P

Het is wat mij betreft in elk geval niet echt Amazon's schuld. Of het nu aan fabricagefouten van de videokaartfabrikanten ligt, of aan Nvidia, maakt verder niet uit. Tuurlijk, er zit wel iets geks in New World, maar als de GPU dat niet kan trekken moet deze (of de driver) dat voorkomen. AVX is wederom het beste voorbeeld. CPU's klokken gewoon terug om te voorkomen dat dat problematisch wordt, klaar. Stel dat Amazon bijvoorbeeld een Crysis 2 doet in het menu en de geometry units non-stop tessellation op niets laat doen en dat die daardoor de zon leeg zouden kunnen trekken, is het Nvidia's taak om er voor te zorgen dat dat niet kan.
Achter de schermen pieken Radeon's wel enorm. Leukste voorbeeld is denk ik de reference RX6800. Die halen hun nominale 250W GPU powerlimiet eigenlijk niet, maar pieken net iets hoger dan 250W :P
Dat heeft te maken met AMD's aansturing. Vanaf Polaris schakelen ze inderdaad idioot snel tussen spanningen, waardoor de meeste meetapparatuur het ook niet bij houdt. Met Polaris hadden ze natuurlijk wel het foutje in de verdeling tussen de verschillende krachtbronnen (ja, het >75W over het PCIe slot verhaal :P), maar de analyse van PCPer toen liet ook goed zien hoe absurd vaak AMD de stroomvoorziening bijstelt.

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 18:46
@Werelds Als het echt aan fouten in het ontwerp of fabricage van het bord zit, wat bij EVGA dus gebleken is, is dat niet af te vangen door een driver o.i.d.
Er is een hoop af te vangen, maar niet alles.

Ben het helemaal met je eens dat het niet de schuld van Amazon is, is het spel perfect geprogrammeerd? Als je alles en iedereen mag geloven niet, maar dan nog moet een product hier niet door defect kunnen gaan. Of der driver/BIOS moet zaken voorkomen, of het ontwerp/fabricageproces moet aangepast worden.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Koldur schreef op woensdag 6 oktober 2021 @ 16:37:
@Werelds Als het echt aan fouten in het ontwerp of fabricage van het bord zit, wat bij EVGA dus gebleken is, is dat niet af te vangen door een driver o.i.d.
Er is een hoop af te vangen, maar niet alles.
Nee, tuurlijk niet. Maar ook bij het MSI sample van Jay zit er iets niet helemaal lekker. Capped op 62 FPS, power limit percentage dat fluctueert van 80% tot 110% terwijl power draw -en daardoor temperatuur- nauwelijks verandert (in elk geval niet van 80% tot 110% :P), terwijl dat laatste ook bovenin het te verwachten bereik zit met een GPU usage van 70% (zogenaamd)? Dat is gewoon heel vreemd :)

EVGA's probleem is EVGA's probleem, echter had het zich in dit geval waarschijnlijk niet voorgedaan als het verbruik fatsoenlijk in toom werd gehouden. Tuurlijk, die kaarten zouden op den duur alsnog degraderen. Het is nu echter versneld doordat de grenzen werden overschreden.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 6 oktober 2021 @ 16:03:
[...]

Ik heb dit aspect niet echt bijgehouden, maar het was altijd gewoon GPU package, niet het bord. Maar ik ga er van uit dat dat inmiddels wel het geval is, gezien hoeveel sap geheugen verbruikt. Als Nvidia dat niet doet dan is het een wonder dat er nu pas problemen opduiken :P
Mijn brein ging ook opeens aan toen ik dit aan het typen was. :P
Bij Nvidia heb je tegenwoordig een TBP powerlimiet en die aparte slider die je een bepaald percentage er bovenop laat instellen. En dat kunnen de AIB's ook aanpassen. Het is dus een rating + bepaald percentage inclusief VRAM waar het voor AMD alleen de GPU powerlimiet is die je kan aanpassen. VRAM verbruik krijg je daar niet apart te zien.

Komt bij dat zeker GA102, veel meer kan verbruiken voor alleen de GPU zelf. Op zich is zou zelfs 400W voor alleen de GPU, niet direct een probleem moeten zijn zo lang als de temperatuur van de videokaart zelf niet over een grens gaat. En dat is misschien wel het probleem wel geweest. Onder LN2 kan je dit doen, idem voor serieuze luchtkoeling. Maar als je abnormale belasting krijgt op een deel van de videokaart, waardoor dit deel te heet wordt en niet terug clockt, tja dan heeft Nvidia wel een probleem. Want dat zou suggereren dat Nvidia hun software niet goed reageert op hotspot sensoren op de GPU.

Neemt niet weg dat van die powerlimiet percentages natuurlijk niks klopt. Daar heb ik ook geen goede verklaring voor.

En voor VRAM gaat me meer om de vraag waarom je sensormetingen ook beschikbaar moet stellen. Want met hoe GDDR VRAM zo dichtgetimmerd is, is het eigenlijk ook niet relevant om dit apart bij de vermogensberekening op te tellen. Een sensor die vermogen meet, expliciet beschikbaar stellen is dan ook overbodig. Temperatuursensoren voor GDDR geheugenchips zouden eigenlijk wel nodig zijn. Want zowat elke generatie is het bij beide "kampen" weer raak met modellen waar die chips te heet worden. Maar dat is een andere discussie.
Het is wat mij betreft in elk geval niet echt Amazon's schuld. Of het nu aan fabricagefouten van de videokaartfabrikanten ligt, of aan Nvidia, maakt verder niet uit. Tuurlijk, er zit wel iets geks in New World, maar als de GPU dat niet kan trekken moet deze (of de driver) dat voorkomen. AVX is wederom het beste voorbeeld. CPU's klokken gewoon terug om te voorkomen dat dat problematisch wordt, klaar. Stel dat Amazon bijvoorbeeld een Crysis 2 doet in het menu en de geometry units non-stop tessellation op niets laat doen en dat die daardoor de zon leeg zouden kunnen trekken, is het Nvidia's taak om er voor te zorgen dat dat niet kan.
Uiteraard is de game uiteindelijk niet de schuldige. Ik stel het ook simpeler dat geen enkel programma ooit een videokaart door zou moeten kunnen branden. Gebeurd dat wel, dan is er iets mis met de bescherming van die videokaart. En wat het is, tja dat is de vraag.

Want het kan natuurlijk ook nog een onvoorziene fabricagefout zijn in een onderdeel dat minder goed beschermd is dan de GPU zelf. Dat is misschien waarschijnlijker omdat de processoren in de regel ook de beste bescherming en aantal sensoren genieten. :)
[...]

Dat heeft te maken met AMD's aansturing. Vanaf Polaris schakelen ze inderdaad idioot snel tussen spanningen, waardoor de meeste meetapparatuur het ook niet bij houdt. Met Polaris hadden ze natuurlijk wel het foutje in de verdeling tussen de verschillende krachtbronnen (ja, het >75W over het PCIe slot verhaal :P), maar de analyse van PCPer toen liet ook goed zien hoe absurd vaak AMD de stroomvoorziening bijstelt.
Ik weet het. Het was meer om aan te geven dat een Radeon gewoon die powerlimiet helemaal niet kan overschrijden en dus niet zomaar kan doorbranden. En hetzelfde geld voor de hotspot sensoren die de GPU zullen laten terug clocken. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Er zijn ookmeerdere AMD kaarten door New World kapot gegaan.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Tincahunter schreef op woensdag 6 oktober 2021 @ 17:23:
Er zijn ookmeerdere AMD kaarten door New World kapot gegaan.
Blijkbaar niet zo breed als bij Nvidia kaarten anders hadden nieuws outlets dit wel opgepakt. Als je een goede bron hebt plaats dat dan vooral in het AMD (CJ) topic; dit is het Nvidia topic namelijk :p.

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Sp3ci3s8472 schreef op woensdag 6 oktober 2021 @ 17:27:
[...]


Blijkbaar niet zo breed als bij Nvidia kaarten anders hadden nieuws outlets dit wel opgepakt. Als je een goede bron hebt plaats dat dan vooral in het AMD (CJ) topic; dit is het Nvidia topic namelijk :p.
Zo heel breed is het ook niet bij nVidia, het gaat om nog geen 100 videokaarten :P

[ Voor 4% gewijzigd door Tincahunter op 06-10-2021 17:41 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En we zijn weer een stap dichterbij een antwoord. :)
Kort gezegd is er een Vcore powerstage doorgebrand. De GPU core van dit exemplaar heeft het overleeft.

En dat roept meteen al vragen op. Want het lijkt hier te gaan om powerstages van een fabrikant die veel AIB's lijken te gebruiken. Buildzoid zei dat ook al. Ik was ook al snel gaan kijken bij Techpowerup reviews en ja hoor. Daar duiken ze ook op. Dit is alleen geen referentie PCB omdat er heel wat zaken anders zijn.

Nee, deze zou beter moeten zijn, maar heeft een vrij opvallende Vcore VRM layout. Het zijn tien Vcore stages en acht fasen. Er zijn dus twee fasen die twee powerstages hebben, de rest dus een. Het vermoeden van Buildzoid is dat Nvidia niet meer toestaat dat je vijf fasen gebruikt om de stroomvoorziening beter te balanceren.

Zo blijven dus twee scenario's over:
1) Alle referentie PCB's zijn potentieel nog gevoelig hiervoor omdat die een mindere VRM hebben dan dit model. Dat zou dus overbelasting door een inadequate VRM specificatie zijn.
2) Het is een ontwerpfout van Gigabyte. Dus de balancering van de stroomvoorziening omdat de fasen niet allemaal identiek zijn. Het alternatief zou slechte OCP zijn.

En voor de EVGA FTW3's geld dat ze ook asymmetrische VRM's hebben. Idem voor ASUS Strix.


Tweede is dat Buildzoid ook al begon over Furmark. Want bij Nvidia is het blijkbaar zo dat sommige kaarten Furmark detecteren en dus hard terugclocken. Andere doen dit niet en vragen dus extreem veel vermogen. Komt bij dat de mindere kaarten dus of een bescherming hebben en terugclocken of kapot gaan. Dus de Furmark beveiliging is ook niet bepaald geweldig...



Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nvidia zet voor Q3 wederom hallelujah cijfers neer:

Afbeeldingslocatie: https://tweakers.net/i/Do-lE_-GaCdYSKyq6EsKHYjzueo=/800x/filters:strip_exif()/f/image/CIogsolIPRjykpH7VrqsWoft.png?f=fotoalbum_large
https://www.computerbase....um-geht-ohne-ende-weiter/

March of the Eagles


  • friketje1
  • Registratie: Oktober 2009
  • Laatst online: 19:51
Nvidia verwacht nog gewoon forse groei in GPU verkoop. Dat vraag ik mij af. Hoelang gaan mensen nog 700 euro+ aftikken voor een GPU.
Wat ik ook echt vreemd vind: ik snap dat er een chip tekort is. Maar GPU's hebben een enorme marge, waarom lukt het Nvidia gewoon niet om aan de vraag te voldoen, dan betalen ze maar wat meer aan TSMC om die dingen te maken. De tekorten zouden juist voelbaar moeten zijn bij chips met lage marge in een normale markt.

En dat maakt mij argwanend. Ik denk dat Nvidia de huidige situatie gewoon prima vindt, de prijzen gaan tenslotte de lucht in en ze hebben geen enkele intentie wat aan de tekorten te doen. En zolang crypto stijgt zijn de huidige prijzen misschien passend voor crypto mining.

Prognose Nvidia voor chiptekort nu 2023!:
https://www.techradar.com...ge-thatll-last-until-2023

En dan valt het volgend jaar weer tegen natuurlijk.

Uiteindelijk is dit natuurlijk gewoon de nekslag voor pc gaming, het wordt gewoon te duur.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

friketje1 schreef op donderdag 18 november 2021 @ 14:53:
Nvidia verwacht nog gewoon forse groei in GPU verkoop. Dat vraag ik mij af. Hoelang gaan mensen nog 700 euro+ aftikken voor een GPU.
Wat ik ook echt vreemd vind: ik snap dat er een chip tekort is. Maar GPU's hebben een enorme marge, waarom lukt het Nvidia gewoon niet om aan de vraag te voldoen, dan betalen ze maar wat meer aan TSMC om die dingen te maken. De tekorten zouden juist voelbaar moeten zijn bij chips met lage marge in een normale markt.

En dat maakt mij argwanend. Ik denk dat Nvidia de huidige situatie gewoon prima vindt, de prijzen gaan tenslotte de lucht in en ze hebben geen enkele intentie wat aan de tekorten te doen. En zolang crypto stijgt zijn de huidige prijzen misschien passend voor crypto mining.

Prognose Nvidia voor chiptekort nu 2023!:
https://www.techradar.com...ge-thatll-last-until-2023

En dan valt het volgend jaar weer tegen natuurlijk.

Uiteindelijk is dit natuurlijk gewoon de nekslag voor pc gaming, het wordt gewoon te duur.
Chip productie is helaas inelastisch. TSMC kan simpelweg niet meer maken. nVidia kan wel meer betalen aan TSMC maar dat kan Apple etc. ook.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Bananaman123124
  • Registratie: December 2019
  • Laatst online: 02-02 11:24
Help!!!! schreef op donderdag 18 november 2021 @ 15:17:
[...]

Chip productie is helaas inelastisch. TSMC kan simpelweg niet meer maken. nVidia kan wel meer betalen aan TSMC maar dat kan Apple etc. ook.
De 3000-serie wordt toch ook door samsung gemaakt i.p.v. TSMC?

  • friketje1
  • Registratie: Oktober 2009
  • Laatst online: 19:51
Help!!!! schreef op donderdag 18 november 2021 @ 15:17:
[...]

Chip productie is helaas inelastisch. TSMC kan simpelweg niet meer maken. nVidia kan wel meer betalen aan TSMC maar dat kan Apple etc. ook.
Onzin. Je kunt gewoon een redelijke CPU voor een redelijke prijs kopen.
Mijn Ryzen 7 3700x kostte 2 jaar terug 349 euro. Nu staat ie voor 279 op deze site, goed leverbaar.
Mijn 2 jaar oude 2070 super had ik voor hetzelfde systeem gekocht. Die is 2e hands op marktplaats duurder dan de nieuwprijs. Kostte 545 euro. Dan zou ik als vervanging een 3060 TI moeten aanschaffen voor +/- 900 euro indien leverbaar.
Het is echt absurd dat juist voor GPU's de schaarste zo groot is terwijl dit de chips zijn met veruit de hoogste marge. Nvidia kan TSMC fors meer betalen en alsnog goud geld verdienen. Ze maken +/-40% winst op de totale bedrijfsvoering, op de GPU's waarschijnlijk nog meer. Maar met schaarste kunnen ze nog meer verdienen. En hier is er een vrijwel volledig monopolie voor Nvidia, AMD speelt het spelletje leuk mee.

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 18:46
friketje1 schreef op donderdag 18 november 2021 @ 15:33:
[...]


Onzin. Je kunt gewoon een redelijke CPU voor een redelijke prijs kopen.
Mijn Ryzen 7 3700x kostte 2 jaar terug 349 euro. Nu staat ie voor 279 op deze site, goed leverbaar.
Mijn 2 jaar oude 2070 super had ik voor hetzelfde systeem gekocht. Die is 2e hands op marktplaats duurder dan de nieuwprijs. Kostte 545 euro. Dan zou ik als vervanging een 3060 TI moeten aanschaffen voor +/- 900 euro indien leverbaar.
Het is echt absurd dat juist voor GPU's de schaarste zo groot is terwijl dit de chips zijn met veruit de hoogste marge. Nvidia kan TSMC fors meer betalen en alsnog goud geld verdienen. Ze maken +/-40% winst op de totale bedrijfsvoering, op de GPU's waarschijnlijk nog meer. Maar met schaarste kunnen ze nog meer verdienen. En hier is er een vrijwel volledig monopolie voor Nvidia, AMD speelt het spelletje leuk mee.
Denk niet dat je snapt hoe het werkt met deze fabs.
Alles zit voor twee jaar volgeboekt en dit is in contracten vastgelegd. Als Samsung of TSMC contractbreuk moet plegen (wat ze moeten doen om meer ruimte te maken voor Nvidia), dan heeft dat gevolgen die niet mals zijn.

Daarbij komt dat de vraag naar GPU's nu vele malen hoger is dan CPU's. Op een ietwat oudere CPU kan je met een RTX3080 prima uit de voeten. De 30X0 serie is een populaire serie gebleken voor mensen met een 9X0/10X0 serie kaart en de Coronacrisis heeft ook geholpen aan verhoogde vraag door thuis toch wat te doen te hebben.
Tel daar mining vraag bovenop, wat niet voor CPU's geldt, en je hebt een niet vergelijkbare situatie.

Ze maken goed winst, en als Nvidia de productie zou kunnen opschroeven, zou Nvidia zeker nog veel meer winst maken. Het is voor Nvidia dus ook de beste weg om meer te maken, niet verkochte producten zijn derving aan inkomsten en vergeet niet dat veel van de prijsverhogingen niet bij Nvidia terug in de kas komt. Dit zit vooral bij de kaartfabrikanten (Asus, MSI, Gigabyte, etc.) en tussenpersonen.

[ Voor 5% gewijzigd door Koldur op 18-11-2021 15:45 ]

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


  • friketje1
  • Registratie: Oktober 2009
  • Laatst online: 19:51
Koldur schreef op donderdag 18 november 2021 @ 15:43:
[...]


Denk niet dat je snapt hoe het werkt met deze fabs.
Alles zit voor twee jaar volgeboekt en dit is in contracten vastgelegd. Als Samsung of TSMC contractbreuk moet plegen (wat ze moeten doen om meer ruimte te maken voor Nvidia), dan heeft dat gevolgen die niet mals zijn.

Daarbij komt dat de vraag naar GPU's nu vele malen hoger is dan CPU's. Op een ietwat oudere CPU kan je met een RTX3080 prima uit de voeten. De 30X0 serie is een populaire serie gebleken voor mensen met een 9X0/10X0 serie kaart en de Coronacrisis heeft ook geholpen aan verhoogde vraag door thuis toch wat te doen te hebben.
Tel daar mining vraag bovenop, wat niet voor CPU's geldt, en je hebt een niet vergelijkbare situatie.

Ze maken goed winst, en als Nvidia de productie zou kunnen opschroeven, zou Nvidia zeker nog veel meer winst maken. Het is voor Nvidia dus ook de beste weg om meer te maken, niet verkochte producten zijn derving aan inkomsten en vergeet niet dat veel van de prijsverhogingen niet bij Nvidia terug in de kas komt. Dit zit vooral bij de kaartfabrikanten (Asus, MSI, Gigabyte, etc.) en tussenpersonen.
Dat meer productie meer winst is klopt gewoonweg niet. De prijzen zijn meer dan verdubbeld door schaarste. Dat zie je bijvoorbeeld ook bij luxe auto's. De Duitse premium merken (BMW en consorten) zijn hier eerlijk over en hebben al aangekondigd ook na het chiptekort levertijden lang te houden en de productie te beperken, het levert gewoon meer geld op. BMW heeft een topjaar gehad, ondanks mindere productie. En de markt is echt wel flexibeler dan je schetst, de vraag is immers ook flexibel. Nvidia gaat dit ook gewoon doen, maar ze doen net alsof er een chiptekort blijft bestaan. Algehele consensus is dat het chiptekort medio 2022 gaat afnemen namelijk. Nieuwe capaciteit gaat gewoon naar de hoogste bieder, dat zou dus onder andere Nvidia moeten zijn.
Wat je niet noemt is crypto, hierdoor is er denk ik wel meer vraag naar gpu's in vergelijking met CPU's wat schaarste kan veroorzaken.

[ Voor 4% gewijzigd door friketje1 op 18-11-2021 15:57 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Bananaman123124 schreef op donderdag 18 november 2021 @ 15:29:
[...]


De 3000-serie wordt toch ook door samsung gemaakt i.p.v. TSMC?
Klopt maar hij refereerde aan TSMC. Voor Samsung zal vermoed ik in principe hetzelfde gelden.

Overigens zit nVidia voor hun Quadro lijn e.d. bij mijn weten wel bij TSMC alleen daar zullen ze hetzelfde issue hebben.

[ Voor 18% gewijzigd door Help!!!! op 18-11-2021 15:58 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
friketje1 schreef op donderdag 18 november 2021 @ 14:53:
Nvidia verwacht nog gewoon forse groei in GPU verkoop. Dat vraag ik mij af. Hoelang gaan mensen nog 700 euro+ aftikken voor een GPU.
Wat ik ook echt vreemd vind: ik snap dat er een chip tekort is. Maar GPU's hebben een enorme marge, waarom lukt het Nvidia gewoon niet om aan de vraag te voldoen, dan betalen ze maar wat meer aan TSMC om die dingen te maken. De tekorten zouden juist voelbaar moeten zijn bij chips met lage marge in een normale markt.
Zo werkt dat niet, ten eerste zit Nvidia nu bij Samsung en zouden ze indien ze bij TSMC willen het design moeten porten. Daarnaast kan je niet zo maar zeggen van geef mij meer chips; Nvidia is niet de enige klant bij Samsung of TSMC en kan dit niet zo maar afdwingen.

  • friketje1
  • Registratie: Oktober 2009
  • Laatst online: 19:51
Sp3ci3s8472 schreef op donderdag 18 november 2021 @ 15:57:
[...]


Zo werkt dat niet, ten eerste zit Nvidia nu bij Samsung en zouden ze indien ze bij TSMC willen het design moeten porten. Daarnaast kan je niet zo maar zeggen van geef mij meer chips; Nvidia is niet de enige klant bij Samsung of TSMC en kan dit niet zo maar afdwingen.
Als je maar betaalt. Niet op korte termijn, maar vanaf 2022 is er gewoon productie capaciteit. Maar het is niet het doel de schaarste op te lossen.
Ik hoop overigens dat ik ongelijk heb, maar ik ben bang voor aanhoudende GPU schaarste na 2023. Beursgenoteerde bedrijven kunnen de winsten waaraan ze gewend zijn nu eenmaal niet missen anders stort de koers van het aandeel in. Dus gaat men op de oude voet verder, oftewel, GPU's blijven schaars en duur. Tenzij AMD flink gaat produceren of er een 3e speler komt, maar dat laatste lijkt erg onwaarschijnlijk.

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 18:46
@friketje1
Nvidia is 100% gebaat bij normale prijzen, zij strijken een klein beetje meer op nu, maar kaarten die normaal €600 zouden moeten kosten en nu voor €1800 verkocht worden/werden, krijgt Nvidia echt niet meer dan 10% (wat al een hoge schatting is) in het laatje. Dat geld kunnen die mensen maar een keer besteden en komt dus nu 100% zeker niet bij hen terecht (alles buiten die 10% meerprijs).

Als de prijzen iets gestegen waren zou een goed gecontroleerde schaarste nog nuttig kunnen zijn, maar dat is nu totaal niet het geval. Nogmaals, verreweg het meeste van de bizarre meerprijzen gaan niet naar Nvidia. Dus loopt Nvidia nu alleen maar schade op aan deze schaarste.

[ Voor 4% gewijzigd door Koldur op 18-11-2021 16:04 ]

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


  • friketje1
  • Registratie: Oktober 2009
  • Laatst online: 19:51
Koldur schreef op donderdag 18 november 2021 @ 16:02:
@friketje1
Nvidia is 100% gebaat bij normale prijzen, zij strijken een klein beetje meer op nu, maar kaarten die normaal €600 zouden moeten kosten en nu voor €1800 verkocht worden/werden, krijgt Nvidia echt niet meer dan 10% (wat al een hoge schatting is) in het laatje. Dat geld kunnen die mensen maar een keer besteden en komt dus nu 100% zeker niet bij hen terecht.

Als de prijzen iets gestegen waren zou een goed gecontroleerde schaarste nog nuttig kunnen zijn, maar dat is nu totaal niet het geval. Nogmaals, verreweg het meeste van de bizarre meerprijzen gaan niet naar Nvidia. Dus loopt Nvidia nu alleen maar schade op aan deze schaarste.
Nvidia gaming omzet (dat is de GPU tak)
q4 2020: 1,491 mil
q4 2021 (verwacht): 2,495 mil.

Chips waren toch schaars? En of er aan de hogere prijzen verdient wordt. Gewoon vraag en aanbod. Natuurlijk verdienen ze niet die +100% marge die wij zien als je naar GPU prijzen kijkt. Een deel gaat naar detailhandel, een deel naar de msi's van deze wereld. Maar die moeten gewoon ook opbieden om chips te bemachtigen.

Dat Nvidia voor de langere termijn geen baat heeft bij hogere prijzen klopt ook want ze maken de markt kapot. Maar de winst kan gewoon niet gemist worden. Die moet groeien.

[ Voor 8% gewijzigd door friketje1 op 18-11-2021 16:09 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
friketje1 schreef op donderdag 18 november 2021 @ 16:02:
[...]
Als je maar betaalt. Niet op korte termijn, maar vanaf 2022 is er gewoon productie capaciteit. Maar het is niet het doel de schaarste op te lossen.
TSMC is voor het komende jaar al volgeboekt (2 maanden geleden al) en Samsung zal ook niet veel vrij hebben. Dus tenzij AMD en Nvidia meer hebben geboekt gaat er weinig veranderen. Op korte termijn zeg je, dat is 2022.
Ik vermoed ook niet dat je mag hopen op de blunder die de auto industrie heeft gemaakt en capaciteit hebben vrijgegeven omdat ze dachten dat ze minder zouden verkopen.

Misschien dat er in 2023 wat meer vrij komt :+.

https://nl.hardware.info/...bereikt-3nm-al-volgeboekt
en nog tig andere nieuwsbronnen.

  • friketje1
  • Registratie: Oktober 2009
  • Laatst online: 19:51
Sp3ci3s8472 schreef op donderdag 18 november 2021 @ 16:14:
[...]


TSMC is voor het komende jaar al volgeboekt (2 maanden geleden al) en Samsung zal ook niet veel vrij hebben. Dus tenzij AMD en Nvidia meer hebben geboekt gaat er weinig veranderen. Op korte termijn zeg je, dat is 2022.
Ik vermoed ook niet dat je mag hopen op de blunder die de auto industrie heeft gemaakt en capaciteit hebben vrijgegeven omdat ze dachten dat ze minder zouden verkopen.

Misschien dat er in 2023 wat meer vrij komt :+.

https://nl.hardware.info/...bereikt-3nm-al-volgeboekt
en nog tig andere nieuwsbronnen.
Wel aardig artikel, wist niet dat Apple zo veel opslokt. Ik blijf er bij dat als Nvidia het echt gewild had ze echt wel meer hadden kunnen boeken in 2022, want er is duidelijk te weinig gereserveerd want tekort is tot na 2023 voorspeld. Never waste a good crisis. En in 2024 vinden we het gewoon normaal om 1500 euro voor een GPU neer te leggen, tenminste, die 3 boomers die er dan nog in geïnteresseerd zijn en het kunnen betalen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het speelde al een hele tijd met steeds meer toezichthouders die hun twijfels uiten of begonnen met onderzoeken naar Nvidia haar overname van ARM. Maar daar is dan de eerste rechtszaak van een toezichthouder om dit te stoppen en het is meteen ook de FTC in de VS.
https://www.anandtech.com...ock-nvidiaarm-acquisition

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En Nvidia trekt een blik advocaten open... Ik voel een settlement aankomen.

March of the Eagles


  • Markozv
  • Registratie: December 2017
  • Laatst online: 15:28
https://nl.hardware.info/...r-voorrang-apple-bij-tsmc
Benieuwd waar Nvidia naar toegaat

Als gaat om prijzen van hardware, ik kan mij herinneren dat een Geforce 2 bijvoorbeeld 1600 gulden was. Dus de MSRP prijzen zijn niet slecht. Wat de merken (Asus, MSI, Gigabyte), de doze schuivers en webwinkels doen dat is schandalig die drijven de prijzen op €2500 voor een 3090 terwijl je een FE kan kopen voor €1500,- zegt genoeg


offtopic
Waarom kampen autofabrikanten met chip tekort, omdat ze de chip wereld niet zo serieus namen en te laat zichzelf in hebben gekocht

[ Voor 36% gewijzigd door Markozv op 03-12-2021 12:09 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Markozv schreef op vrijdag 3 december 2021 @ 12:05:
https://nl.hardware.info/...r-voorrang-apple-bij-tsmc
Benieuwd waar Nvidia naar toegaat

Als gaat om prijzen van hardware, ik kan mij herinneren dat een Geforce 2 bijvoorbeeld 1600 gulden was. Dus de MSRP prijzen zijn niet slecht. Wat de merken (Asus, MSI, Gigabyte), de doze schuivers en webwinkels doen dat is schandalig die drijven de prijzen op €2500 voor een 3090 terwijl je een FE kan kopen voor €1500,- zegt genoeg


offtopic
Waarom kampen autofabrikanten met chip tekort, omdat ze de chip wereld niet zo serieus namen en te laat zichzelf in hebben gekocht
Je weet wel dat 1600 gulden 800 euro is? Prijzen onder de 850 euro vind ik fatsoenlijk voor een enthausiast kaart, dit niet.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sp3ci3s8472 schreef op vrijdag 3 december 2021 @ 23:33:
[...]


Je weet wel dat 1600 gulden 800 726,05 euro is? Prijzen onder de 850 euro vind ik fatsoenlijk voor een enthausiast kaart, dit niet.
FTFY ;)

Die 2,20371 krijg ik volgens mij nooit uit m'n hoofd :+
Markozv schreef op vrijdag 3 december 2021 @ 12:05:
Als gaat om prijzen van hardware, ik kan mij herinneren dat een Geforce 2 bijvoorbeeld 1600 gulden was. Dus de MSRP prijzen zijn niet slecht.
Je moet ten eerste niet naar de prijzen in guldens of euro's kijken. Wij hebben te maken met een bizarre inflatie doordat onze oude munt zo zwak was. Je moet naar de dollar kijken. Een GF2 Ultra kostte in 2000 $500; met inflatie komt dat in 2021 neer op pakweg $800. Zelfs als je de halo producten (Titan, 3090) buiten beschouwing stelt zit je op $1199 als MSRP voor de "enthusiast" bracket. 50% meer dus. En wat mij betreft horen die halo producten gewoon bij de lineup, de enige reden dat ze bestaan is omdat Nvidia weet dat er mensen zijn die bereid zijn ervoor te betalen. Een halo product was vroeger een dual-GPU kaart, niet gewoon een (bijna!) volledige chip die we 10 jaar geleden als "80" variant (of daarvoor als "Ultra") hadden gekregen.

Ten tweede zijn de MSRP's op dit moment geheel irrelevant. Nvidia krijg je nergens tegen MSRP. Hetzelfde geldt voor AMD kaarten, behalve bij AMD zelf. De distributeurs zijn hoogstwaarschijnlijk degenen die al die centen in hun zak steken.

Om maar even terug te grijpen naar jouw voorbeeld van de GF2: die kwam binnen een half jaar na de GF en kostte dan wel twee keer zo veel, dat kreeg je ook terug in performance (op hogere resoluties). Dat is al lang niet meer het geval. Het afgelopen decennium mochten we blij zijn met 25-30% elke twee jaar. Vroeger waren die sprongen veel groter en in het begin zelfs jaarlijks. En als er een nieuwe pipeline bij kwam, versnelde dat over het algemeen ook dingen (met enkele uitzonderingen). In plaats daarvan kregen we met Turing een stuk hardware erbij dat in 99,9% van de games niets kon doen en in de overige 0,1% kostte het performance, zonder dat het daarbij een verbetering in IQ gaf. Dat kun je over hardware T&L niet zeggen. Of bijvoorbeeld toen ATI besloot dat FSAA en later MSAA toch wel belangrijk waren en je dat ineens aan kon zetten met nauwelijks een performance hit.

De MSRP's zijn op z'n best OK. En de daadwerkelijke prijzen zijn gewoon slecht. Over een paar maanden heeft m'n 1080 Ti m'n Voodoo na 20 jaar eindelijk van z'n troon gestoten als langstdienende videokaart, omdat er net als toentertijd met m'n Voodoo gewoon geen rationele vervanging beschikbaar is.

  • Postman
  • Registratie: Februari 2000
  • Laatst online: 27-01 22:33
https://videocardz.com/ne...t-have-a-founders-edition

Komt dus geen FE van de 2060 12GB. En waarschijnlijk zal er niet veel voorraad zijn, dus de prijzen zullen meteen weer skyhigh gaan, als er al iets te koop is op maandag.

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 03-02 14:23
Postman schreef op zaterdag 4 december 2021 @ 13:58:
https://videocardz.com/ne...t-have-a-founders-edition

Komt dus geen FE van de 2060 12GB. En waarschijnlijk zal er niet veel voorraad zijn, dus de prijzen zullen meteen weer skyhigh gaan, als er al iets te koop is op maandag.
Hilbert van Guru3d voorspeld een prijs van 750 dollar. Ik vrees dat hij aardig in de buurt zit.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Werelds schreef op zaterdag 4 december 2021 @ 12:32:


Ten tweede zijn de MSRP's op dit moment geheel irrelevant. Nvidia krijg je nergens tegen MSRP. Hetzelfde geldt voor AMD kaarten, behalve bij AMD zelf. De distributeurs zijn hoogstwaarschijnlijk degenen die al die centen in hun zak steken.
Waar AMD die kaarten via de 'eigen' website (eigenlijk Digital River) verkoopt, doet Nvidia dat via partners, o.a. NBB, of een franse partij LDLC geloof ik uit mijn hoofd. Waar ik zelf een AMD kaart heb weten te bemachtigen hebben diverse kennissen van me (IRL of bijv. mensen die ken via het gamen) Nvidia kaarten bemachtigd voor MSRP. Dat het alleen AMD is waarbij je een (kleine) kans hebt om voor het MSRP een kaart te kopen klopt dus niet.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op zondag 5 december 2021 @ 14:14:
[...]


Waar AMD die kaarten via de 'eigen' website (eigenlijk Digital River) verkoopt, doet Nvidia dat via partners, o.a. NBB, of een franse partij LDLC geloof ik uit mijn hoofd. Waar ik zelf een AMD kaart heb weten te bemachtigen hebben diverse kennissen van me (IRL of bijv. mensen die ken via het gamen) Nvidia kaarten bemachtigd voor MSRP. Dat het alleen AMD is waarbij je een (kleine) kans hebt om voor het MSRP een kaart te kopen klopt dus niet.
Nee hoor. Zij hebben dat wellicht rond launch kunnen doen en geluk gehad dat hun bestelling ook daadwerkelijk geleverd is, maar op dit moment zitten die ook allemaal een factor 2-3 boven MSRP. Ik was echter wel één bron vergeten: EVGA. Dat is de enige waar je in de buurt van de MSRP kunt komen.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Werelds schreef op zondag 5 december 2021 @ 14:26:
[...]

Nee hoor. Zij hebben dat wellicht rond launch kunnen doen en geluk gehad dat hun bestelling ook daadwerkelijk geleverd is, maar op dit moment zitten die ook allemaal een factor 2-3 boven MSRP. Ik was echter wel één bron vergeten: EVGA. Dat is de enige waar je in de buurt van de MSRP kunt komen.
Zeker niet, die drops met Founders kaarten voor MSRP gebeuren nog steeds, eind November was de laatste drop tot op heden voor Nederland (Alleen NBB levert officieel in Nederland, Belgen moeten dan weer bij LDLC zijn). Dit zijn gewoon door Nvidia aangewezen partijen die Founders Edition kaarten verkopen in de EU (Net als BestBuy in de VS doet bijvoorbeeld). Zie bijv. het Nvidia levertijden topic vanaf deze post: stin00 in "[NVIDIA GeForce RTX 30XX] Levertijden & Prijzen" of bijvoorbeeld het screenshot in deze post: Stinger01 in "[NVIDIA GeForce RTX 30XX] Levertijden & Prijzen"

Wat je hier zegt klopt echt niet.

[ Voor 20% gewijzigd door Dennism op 05-12-2021 14:34 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op zondag 5 december 2021 @ 14:31:
[...]


Zeker niet, die drops met Founders kaarten voor MSRP gebeuren nog steeds, eind November was de laatste drop tot op heden. Zie bijv. het Nvidia levertijden topic vanaf deze post: stin00 in "[NVIDIA GeForce RTX 30XX] Levertijden & Prijzen"

Wat je hier zegt klopt echt niet.
Ah, ze laten geen producten zien die niet beschikbaar zijn als je de URL niet hebt. Kan ik niet ruiken hè ;)
Pagina: 1 ... 103 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.