Huh? Het is toch gewoon een stock 3090Ti op 450W? Waar haal je vandaan dat het om een overclockte 3090Ti gaat?sunsmountain schreef op vrijdag 23 september 2022 @ 13:46:
[...]
En Nvidia vergelijkt inderdaad een relatief overgeclockte 3090 Ti met een relatief normaal geclockte 4090, wat best wel veel verschil maakt qua stroomverbruik. Ja logisch dat perf/Watt dan beter wordt...
Als het werkelijk zo zou zijn dat de prijs/prestatie van de nieuwere productieprocessen verminderd, dan zou je zien dat ze voor de goedkopere producten op het oude productieproces zouden blijven. Dan zou je de markt zien opsplitsen, met aan de ene kant de high-end waar men accepteert dat het alsmaar duurder wordt, zolang er maar in absolute zin betere prestaties zijn en de lower-end waar mensen meer op basis van een vast budget kopen. Die laatste categorie zou dan worden gemaakt met een ouder productieproces met de beste prijs/prestatieverhouding.
Dat zien we echter nog niet. De enige chips die op de oude nodes blijven hangen zijn vooralsnog de chips waar hele hoge prestaties niet zo erg van belang zijn.
Dat zien we echter nog niet. De enige chips die op de oude nodes blijven hangen zijn vooralsnog de chips waar hele hoge prestaties niet zo erg van belang zijn.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Elke 3090 Ti is overgeklokt vergeleken met een 3090. De performance/watt is veel slechter voor de 3090 Ti.napata schreef op vrijdag 23 september 2022 @ 14:40:
[...]
Huh? Het is toch gewoon een stock 3090Ti op 450W? Waar haal je vandaan dat het om een overclockte 3090Ti gaat?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik zei relatief: vergeleken met de 3090 op 350W, vind ik de 3090Ti relatief een overclock op 450W. Dus in die zin is een volledige GA102 chip vergelijken met een beperkte AD102 chip, niet helemaal eerlijk qua stroomverbruik. Ook niet als ze allebei "top performers" zijn.napata schreef op vrijdag 23 september 2022 @ 14:40:
[...]
Huh? Het is toch gewoon een stock 3090Ti op 450W? Waar haal je vandaan dat het om een overclockte 3090Ti gaat?
Gelijke monniken, gelijke kappen -> vergelijk de 4090 met een 3090 en je krijgt een beter beeld van performance/Watt.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Kun je straks eigenlijk twee 40XX kaarten linken? Zoals vroeger met SLI/NVLink kon?
Switch 2? Voeg me toe: SW-7213-3040-4357
Neem het met een korreltje zout, er staat immers eenKoldur schreef op vrijdag 23 september 2022 @ 14:04:
[...]
Wat een aannames en vooroordelen staan er in dit stukje.
De tekenen zijn niet erg goed, maar dat is allemaal nog op niet concrete zaken gebaseerd. Echte testen moeten nog komen.
Het laatste stuk is wel erg generaliserend en opruiend. Had ik niet van een mod hier verwacht, maar je doet het meermaals in dit topic.
In het licht van een prettigere community wat laatst verkondigd werd, is dit wel een vreemde reactie.
Jij bent niet de enige die zich hier schuldig aan maakt, maar als mod vind ik wel dat je hier een voorbeeldrol in hebt.
Laten we het bij de feiten houden en als er gespeculeerd wordt, niet als (halve) feiten stellen. Gewoon objectief benaderen.
Enige feit is, dat de prijzen objectief hoog zijn in vergelijking met de vorige generaties. Mijn mening hierin is dat dit voor mij veel te hoog is om over na te denken.
Andere feit is, als het verkoopt, dan zijn de prijzen markt conform, want het wordt ervoor betaald.
Het geklaag daarover doet niemand goed, want het verandert niets aan de situatie. Dan is het blijkbaar niet meer voor ons weggelegd om een top GPU te kopen.
Zou ik daar van balen? Ja, maar klagen hierover is niet alleen nutteloos, ook onvolwassen.
Nog een objectief punt, er wordt vanuit Nvidia veel ingezet op DLSS en weinig op echte FPS.
Minder objectief statement vanuit mij, dat lijkt mij niet veel goeds voorspellen. We gaan de reviews met bijbehorende benches hierin afwachten, want dan kunnen we er echt een mening over vormen.
@DaniëlWW2 kan ook niet in de toekomst kijken, dat weet hij zelf ook wel
Ik ben het niet met je eens dat klagen over prijzen nutteloos is.
Hoe meer mensen klagen (hoe meer mensen ontevreden zijn/stemmen met hun portemonnee/etc) hoe eerder het veranderd.
Maargoed dat is hier offtopic, ik wilde het wel even kwijt.
Stellen dat klagen nutteloos is vind ik ongefundeerd en niet objectief
De manier waarop je hier reageert ervaar ik als een stuk minder vriendelijk dan de reactie van @DaniëlWW2.
Laten we elkaar niet onvolwassen gaan noemen.
Excuses als dit op de man is en ook nogmaals excuses voor het offtopic zijn van mijn reactie.
Speculeren vind ik geen probleem, maar de vele overdreven reacties die als feiten neergelegd worden wel.sunsmountain schreef op vrijdag 23 september 2022 @ 14:31:
[...]
Niet aan mij of jou om mods te beoordelen, maar Daniel is niet de enige die speculeert in het licht van nieuws. Of dat mag of niet in de mod rules of de regels van dit forum weet ik niet, interesseert mij ook niet, eerlijk gezegd. Ik vind het vermakelijk om speculaties of meningen te lezen, en ik weet van Daniel dat hij als geschiedkundige graag een boekje open doet en niet alles hard onderbouwt.
We moeten wel wat meer on topic blijven, dus nieuws + speculatie + mening over Nvidia 4xxx videokaarten, niet AMD CPUs (ook al is AMD een relevante concurrent).
Een mening uiten is geen probleem, maar stel hem als mening en ga daar niet teveel in overdrijven.
Ik heb al gemeld dat hij niet de enige is die dit doet.
Tja, het is een feit dat als je iets niet kan/wil betalen, dat het niet voor je is weggelegd. Dat jij dit dramatisch vindt, is jouw mening. Maar maakt het niet minder waar. Er zijn genoeg mensen die het blijkbaar wel willen/kunnen betalen.sunsmountain schreef op vrijdag 23 september 2022 @ 14:31:
Voor iemand bij de feiten wil blijven, vind ik deze uitspraak wel vrij dramatisch: het klinkt mij in de oren als "[oh jee] het is niet meer voor ons [gewone kleine gamers] weggelegd" om een top GPU te kopen. Natuurlijk wel, al maken ze er 3000 EUR van, we gaan toch ook op vakantie voor meer dan dat? Of dat een verstandige keuze is, nee, maar als je Daniel aanvalt op tendentieuze uitspraken, doe ze zelf dan ook niet.
Daar kan ik ook niets anders van maken.
Klagen is en blijft nutteloos, gaat de situatie niet veranderen, dus kinderachtig ja. Als er hier dingen besproken mogen worden, mogen die ook hier weerlegd worden, of het nu een mod of iemand anders betreft.sunsmountain schreef op vrijdag 23 september 2022 @ 14:31:
En dit is het in de hoek zetten van forum gebruikers als kinderen, alleen maar omdat ze terecht klagen over hoge prijzen.
Ik zie dat je al jaren lid bent van tweakers en het forum, en ik weet niet of Daniel laatst bij de Moam (jaarlijkse mod meeting) geweest is, maar misschien kan je je grieven beter tijdens een dergelijk event bespreken.
Het geklaag biedt hier geen meerwaarde, eerder het tegenovergestelde.
Inhoudelijk heb ik gereageerd op de huidige nieuwsberichten, vooral de berichten waar ook daadwerkelijk goede bronnen voor beschikbaar zijn. De andere mogen natuurlijk besproken worden, maar dit moet hier echt niet als feitelijk en meteen met klaagzang gedaan worden (wat het praktisch feitelijke waarde geeft).
Als ik zo de eerste berichten zie, heeft het voor mij in ieder geval geen zin om voor een 4X serie te gaan met mijn 3080. Voor VR heb je aan alle beetjes extra nut, maar ga zelf liever de settings dan iets lager zetten met deze schijnbare lage rauwe prestatiewinsten.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Vroeger werd dit gewoon gezien als cheating.Thomas schreef op vrijdag 23 september 2022 @ 14:08:
[...]
Oef. Leuke technologie hoor, maar met dit soort artefacten doe je meer af aan de grafische pracht en praal dan met het verlagen van de instellingen is mijn bescheiden mening.
Nou we gaan het zien. Ben ook heel benieuwd wat er met de prijzen gaat gebeuren, ook bij AMD. Heb enerzijds het idee dat er echt wel weer lui zijn die zullen gaan scalpen, anderzijds lijkt het me bijna uitgesloten dat een weldenkend mens meer dan de MSRP gaat dokken.
nieuws: ATi Radeon Quake3 driver optimalisaties onderzocht
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Dan blijft klagen nog steeds nutteloos, stemmen met je portemonnee daarentegen is wel nuttig. Maar dat doe je dus door niet te kopen en niet hier te komen venten.HugoBoss1985 schreef op vrijdag 23 september 2022 @ 15:03:
[...]
Neem het met een korreltje zout, er staat immers eenbij.
@DaniëlWW2 kan ook niet in de toekomst kijken, dat weet hij zelf ook wel
Ik ben het niet met je eens dat klagen over prijzen nutteloos is.
Hoe meer mensen klagen (hoe meer mensen ontevreden zijn/stemmen met hun portemonnee/etc) hoe eerder het veranderd).
Maargoed dat is hier offtopic, ik wilde het wel even kwijt.
De manier waarop je hier reageert ervaar ik als een stuk minder prettig.
Excuses als dit op de man is en ook nogmaals excuses voor het offtopic zijn van mijn reactie.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Dus alle (bekende) Youtubers die nu al klagen (over o.a. de prijs) en alle negatieve reacties m.b.t. prijzen, op een frontpage artikel, over een product dat nog niet uitgebracht is volgens jou nutteloos.Koldur schreef op vrijdag 23 september 2022 @ 15:05:
[...]
Dan blijft klagen nog steeds nutteloos, stemmen met je portemonnee daarentegen is wel nuttig. Maar dat doe je dus door niet te kopen en niet hier te komen venten.
Ok.
Ik begrijp wel je punt dat het op het forum ("hier" ?) wellicht nutteloos is.
Maar hier lezen ook veel mensen mee die werkzaam zijn in de "videokaartenindustrie".
Let's agree to disagree.
[ Voor 15% gewijzigd door HugoBoss1985 op 23-09-2022 15:14 ]
Ja, dat is nutteloos, Nvidia gaat daarmee hun prijzen echt niet aanpassen. Die worden pas aangepast als de verkopen tegenvallen.HugoBoss1985 schreef op vrijdag 23 september 2022 @ 15:10:
[...]
Dus alle (bekende) Youtubers die nu al klagen (over o.a. de prijs) en alle negatieve reacties m.b.t. prijzen, op een frontpage artikel, over een product dat nog niet uitgebracht is volgens jou nutteloos.
Ok.
Ik begrijp wel je punt dat het op het forum ("hier" ?) wellicht nutteloos is.
Dit is een aanname, maar gezien al het geklaag dat er al over gaande is, zullen die video's de mensen weinig bewegen om en kaart wel of niet te kopen. Die mening is al aardig gevormd, bron daarvoor is al het geklaag hier
Wat het doet, is sfeer verlagend zijn.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Dus wij/youtubers mogen niet klagen maar jij mag hier wel klagen
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Er valt niks te scalpen.Thomas schreef op vrijdag 23 september 2022 @ 14:08:
[...]
Oef. Leuke technologie hoor, maar met dit soort artefacten doe je meer af aan de grafische pracht en praal dan met het verlagen van de instellingen is mijn bescheiden mening.
Nou we gaan het zien. Ben ook heel benieuwd wat er met de prijzen gaat gebeuren, ook bij AMD. Heb enerzijds het idee dat er echt wel weer lui zijn die zullen gaan scalpen, anderzijds lijkt het me bijna uitgesloten dat een weldenkend mens meer dan de MSRP gaat dokken.
Het gaat wereldwijd niet zo goed met mensen hun besteedbaar inkomen voor luxeproducten. Verder is cryptomining is volledig ingestort tot het punt dat eigenlijk elke coin nu verliesgevend is. Ruim 900TH/s zat in ETH en die hebben in een paar dagen de hele markt verpletterd toen ETH naar PoS ging. En nu zijn ze verliesgevend. Die videokaarten en dat zijn er miljoenen, gaan onherroepelijk op de tweedehands markt komen. Kijk zelf maar:
https://whattomine.com/
https://ycharts.com/indicators/ethereum_network_hash_rate
Tweede is dat ik een tijdje terug al een poging had gedaan om door te rekenen hoe duur die chips ongeveer zouden zijn. Tja de vermoede formaten destijds klopten dus die kan ik fijn hergebruiken. Neem nu $17.000 en deel het door het aantal chips. Voor AD102 reken ik met 70 chips dus gemiddelde kostprijs van $243, AD103 met 120 dus gemiddelde kostprijs van $142. AD104 reken ik met 140 en dus $121. Dit kan wat variëren omdat niemand precies weet wat de N5 waferkosten zijn. Ook kunnen die bedragen best verschillen tussen klanten en alleen binnen Nvidia en TSMC weten ze hoeveel chips ze precies moeten weggooien omdat ze echt niet werken. Het is dus een vrije ruwe inschatting om een idee te geven.
Nu weten we dat Nvidia gemiddeld 60%+ marges verdient op hun GPU's en dat lijken ze graag zo te houden gezien de RTX40 prijzen. Vermoedelijk verdient Nvidia ook meer marge op duurdere producten dan goedkopere om gemiddeld op 60%+ uit te komen. Moet ook bij gezegd worden dat zowel Nvidia zoals AMD het hele pakket van de GPU + substraat + geheugenchips aan hun partners verkopen. Dus er zullen nog zeker wel enkele tientallen dollars erbij komen. Vervolgens dus een fors marge erover en dan kan je inschatten wat de prijs is voor een chip die verkocht word aan een AIB. Die worden vervolgens uitgeknepen om hun eigen marges laag te houden. Daar zit ook wel een logica achter omdat het ontwerp van dergelijke chips zo duur en complex is geworden. Het probleem is dan ook dat die doorberekening nu wel heel erg hoog aan het worden is, zeker in combinatie met de teleurstellende prestatiewinsten alsmede de macro economische omstandigheden.
AD102 610mm2
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/ARky4j9C6WqfUqs1JK4EbE6o.jpg?f=user_large)
AD103 380mm2
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/7Z5l3bmxFToKDhGy6dYSynRj.jpg?f=user_large)
AD104 300mm2
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/JxV14k1Bztc4C2EYUM02iPqO.jpg?f=user_large)
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nee. SLI/NVLink zijn nu definitief dood. Je moet het hebben van software die zelf multi-GPU ondersteunt.Mog schreef op vrijdag 23 september 2022 @ 15:00:
Kun je straks eigenlijk twee 40XX kaarten linken? Zoals vroeger met SLI/NVLink kon?
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Even over de prijzen, ik denk dat het zeker wel zin heeft om te klagen over prijzen. Klagen is misschien negatief, maar ik zie nu dat er op verschillende fora flink wordt geklaagd. Wellicht dat dit sommige eventuele kopers nu twee keer laat nadenken voordat ze tot de koop over gaan.
En hoe minder mensen het product kopen, des te meer kans er is dat nVidia iets aan de belachelijke prijzen gaat doen.
Al meer dan 10 jaar houd ik een budget van rond de 600/700 euro aan voor een videokaart. Het is erg jammer om te zien dat je dus in die 10 jaar met dit budget van een absolute top chip (Radeon 7970), naar straks waarschijnlijk een 4060 gaat.
Zeker als ik nu kijk hoe weinig tijd ik nog heb om te gamen en hoe weinig echt goede games er de laatste tijd uit komen, vraag ik me echt af of ik met deze prijzen nog wel zin heb om te blijven investeren in een gaming PC.
Als ik met dit budget een kaart kan kopen waar ik allerlei consessies moet doen op de grafische instellingen, dan kan ik net zo goed een console kopen.
En hoe minder mensen het product kopen, des te meer kans er is dat nVidia iets aan de belachelijke prijzen gaat doen.
Al meer dan 10 jaar houd ik een budget van rond de 600/700 euro aan voor een videokaart. Het is erg jammer om te zien dat je dus in die 10 jaar met dit budget van een absolute top chip (Radeon 7970), naar straks waarschijnlijk een 4060 gaat.
Zeker als ik nu kijk hoe weinig tijd ik nog heb om te gamen en hoe weinig echt goede games er de laatste tijd uit komen, vraag ik me echt af of ik met deze prijzen nog wel zin heb om te blijven investeren in een gaming PC.
Als ik met dit budget een kaart kan kopen waar ik allerlei consessies moet doen op de grafische instellingen, dan kan ik net zo goed een console kopen.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Zelfs in 2017 kocht je nog voor $700 een GTX1080 Ti.hubhib schreef op vrijdag 23 september 2022 @ 15:57:
Al meer dan 10 jaar houd ik een budget van rond de 600/700 euro aan voor een videokaart. Het is erg jammer om te zien dat je dus in die 10 jaar met dit budget van een absolute top chip (Radeon 7970), naar straks waarschijnlijk een 4060 gaat.
Zo was de MSI GeForce GTX 1080 Ti Gaming X 11G voor minder dan 750 euro te koop...
[ Voor 10% gewijzigd door Paprika op 23-09-2022 16:20 ]
===napata schreef op vrijdag 23 september 2022 @ 14:40:
[...]
Huh? Het is toch gewoon een stock 3090Ti op 450W? Waar haal je vandaan dat het om een overclockte 3090Ti gaat?
https://www.guru3d.com/ne...ide-50c-temperatures.html
RTX 4090 no DLSS 3: 59.9 FPS average
RTX 4090 no DLSS 3: 461.3 W average
0,129 (tabel bevat een rekenfout)
RTX 3090 Ti no DLSS 2: 35.8 FPS average
RTX 3090 Ti no DLSS 2: 454.2 W average
0,079 (tabel is correct)
===
relative performance 1440p
3090 95%
3090 Ti 100%
https://www.techpowerup.c...-founders-edition/32.html
-> 3090:
34 FPS average
~350 W average
0,097 (schatting van 3090 perf/watt in FPS/Joule)
0,129/0,097 = 1,329
===
4090 is dus slechts 33% beter dan een 3090, qua performance/Watt.
De 60-70% tegenover een 3090 Ti is een unfaire Nvidia vergelijking (TDP 3090 Ti te afwijkend van de andere GA102 chips).
===
knip:
4090: 128/144 SM = 88,9%
3090: 82/84 SM = 97,6%
3080 10GB: 68/84 = 81,0%
3080 12GB: 70/84 = 83,3%
3080 Ti: 80/84 = 95,2%
Gezien de knip zou een 3080 12GB of 3080 Ti eerlijker zijn, maar TDP voor beide is hetzelfde als 3090 (350W).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Thanks voor je berekeningen. Bedenk dat er 8% ASICs achterblijft op het ETH netwerk (komt niet op de markt), en dat miners een deel van de GPUs kunnen achterhouden (zoals ze dat tijdens de vorige crypto-crash ook gedaan hebben).DaniëlWW2 schreef op vrijdag 23 september 2022 @ 15:22:
[...]
Er valt niks te scalpen.
Het gaat wereldwijd niet zo goed met mensen hun besteedbaar inkomen voor luxeproducten. Verder is cryptomining is volledig ingestort tot het punt dat eigenlijk elke coin nu verliesgevend is. Ruim 900TH/s zat in ETH en die hebben in een paar dagen de hele markt verpletterd toen ETH naar PoS ging. En nu zijn ze verliesgevend. Die videokaarten en dat zijn er miljoenen, gaan onherroepelijk op de tweedehands markt komen. Kijk zelf maar:
https://whattomine.com/
https://ycharts.com/indicators/ethereum_network_hash_rate
Tweede is dat ik een tijdje terug al een poging had gedaan om door te rekenen hoe duur die chips ongeveer zouden zijn. Tja de vermoede formaten destijds klopten dus die kan ik fijn hergebruiken. Neem nu $17.000 en deel het door het aantal chips. Voor AD102 reken ik met 70 chips dus gemiddelde kostprijs van $243, AD103 met 120 dus gemiddelde kostprijs van $142. AD104 reken ik met 140 en dus $121. Dit kan wat variëren omdat niemand precies weet wat de N5 waferkosten zijn. Ook kunnen die bedragen best verschillen tussen klanten en alleen binnen Nvidia en TSMC weten ze hoeveel chips ze precies moeten weggooien omdat ze echt niet werken. Het is dus een vrije ruwe inschatting om een idee te geven.
Nu weten we dat Nvidia gemiddeld 60%+ marges verdient op hun GPU's en dat lijken ze graag zo te houden gezien de RTX40 prijzen. Vermoedelijk verdient Nvidia ook meer marge op duurdere producten dan goedkopere om gemiddeld op 60%+ uit te komen. Moet ook bij gezegd worden dat zowel Nvidia zoals AMD het hele pakket van de GPU + substraat + geheugenchips aan hun partners verkopen. Dus er zullen nog zeker wel enkele tientallen dollars erbij komen. Vervolgens dus een fors marge erover en dan kan je inschatten wat de prijs is voor een chip die verkocht word aan een AIB. Die worden vervolgens uitgeknepen om hun eigen marges laag te houden. Daar zit ook wel een logica achter omdat het ontwerp van dergelijke chips zo duur en complex is geworden. Het probleem is dan ook dat die doorberekening nu wel heel erg hoog aan het worden is, zeker in combinatie met de teleurstellende prestatiewinsten alsmede de macro economische omstandigheden.
AD102 610mm2
[Afbeelding]
AD103 380mm2
[Afbeelding]
AD104 300mm2
[Afbeelding]
Waardoor reken je met 70 AD102 chips, je plaatje zegt 87 AD102 chips?
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik weet nog dat ik dat echt super duur vond.Paprika schreef op vrijdag 23 september 2022 @ 16:18:
[...]
Zelfs in 2017 kocht je nog voor $700 een GTX1080 Ti.

En dit is dus wel erg interessant van Nvidia. Met 2D beelden en AI modellen, 3D objecten gaan maken die bruikbaar zijn in games voor verdere bewerking.
nieuws: Nvidia ontwikkelt AI-tool die objecten voor virtuele werelden kan gen...
Er zijn waarschijnlijk altijd chips die een defect hebben op een dusdanig kritiek punt dat die chip niet meer te redden is. Verder geef ik ook aan dat niemand de precieze aantallen chips weet buiten TSMC en Nvidia.sunsmountain schreef op vrijdag 23 september 2022 @ 16:32:
[...]
Thanks voor je berekeningen. Bedenk dat er 8% ASICs achterblijft op het ETH netwerk (komt niet op de markt), en dat miners een deel van de GPUs kunnen achterhouden (zoals ze dat tijdens de vorige crypto-crash ook gedaan hebben).
Waardoor reken je met 70 AD102 chips, je plaatje zegt 87 AD102 chips?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Klopt, maar die kritieke plekken voeren ze dan ook redundant (dubbel) uit. De meeste van die partial dies zijn te redden met een knipDaniëlWW2 schreef op vrijdag 23 september 2022 @ 16:37:
[...]
Ik weet nog dat ik dat echt super duur vond.![]()
En dit is dus wel erg interessant van Nvidia. Met 2D beelden en AI modellen, 3D objecten gaan maken die bruikbaar zijn in games voor verdere bewerking.![]()
nieuws: Nvidia ontwikkelt AI-tool die objecten voor virtuele werelden kan gen...
[...]
Er zijn waarschijnlijk altijd chips die een defect hebben op een dusdanig kritiek punt dat die chip niet meer te redden is. Verder geef ik ook aan dat niemand de precieze aantallen chips weet buiten TSMC en Nvidia.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
NVIDIA AD103 and AD104 Chips Powering RTX 4080 Series Detailed (Samengevat door TPU obv o.a. eerder geposte Ryan Smiths' tweets
Dit zouden de full cut dies moeten zijn:
Dit zouden de full cut dies moeten zijn:

[ Voor 7% gewijzigd door Help!!!! op 23-09-2022 18:35 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Er zijn 2 goede manieren om een chip "eerlijk" met elkaar te vergelijken. Oftewel zet je de prestaties gelijk en meet je het stroomverbruik oftewel zet je het stroomverbruik gelijk en kijk je naar de prestaties.sunsmountain schreef op vrijdag 23 september 2022 @ 16:30:
[...]
===
https://www.guru3d.com/ne...ide-50c-temperatures.html
RTX 4090 no DLSS 3: 59.9 FPS average
RTX 4090 no DLSS 3: 461.3 W average
0,129 (tabel bevat een rekenfout)
RTX 3090 Ti no DLSS 2: 35.8 FPS average
RTX 3090 Ti no DLSS 2: 454.2 W average
0,079 (tabel is correct)
===
relative performance 1440p
3090 95%
3090 Ti 100%
https://www.techpowerup.c...-founders-edition/32.html
-> 3090:
34 FPS average
~350 W average
0,097 (schatting van 3090 perf/watt in FPS/Joule)
0,129/0,097 = 1,329
===
4090 is dus slechts 33% beter dan een 3090, qua performance/Watt.
De 60-70% tegenover een 3090 Ti is een unfaire Nvidia vergelijking (TDP 3090 Ti te afwijkend van de andere GA102 chips).
===
knip:
4090: 128/144 SM = 88,9%
3090: 82/84 SM = 97,6%
3080 10GB: 68/84 = 81,0%
3080 12GB: 70/84 = 83,3%
3080 Ti: 80/84 = 95,2%
Gezien de knip zou een 3080 12GB of 3080 Ti eerlijker zijn, maar TDP voor beide is hetzelfde als 3090 (350W).
Des te lager je de power limit zet des te zuiniger een chip wordt. Die 4090 gaat ook omhoog schieten qua efficiëntie als je hem limiteert op 350W. Net zoals ik maar 5% performance verlies als ik m'n power limit op 80% zet. Ja, je kan dan zeggen dat de 4090 33% efficiënter is dan de 3090 maar daar houdt het dan ook op. Een deel van de verklaring zit dan in het feit dat de ene kaart 100W meer verbruikt.
Uiteindelijk is een power limit niet veel meer dan een getal dat Nvidia of AMD kiezen om een bepaalde target te halen. Ze hadden even goed de 4090 als een 200W kaart kunnen lanceren. Qua performance zou die dan tegenvallen maar je zou wel een gigantische sprong in efficiëntie zien.
Dit geldt trouwens ook voor CPUs. Waarom denk je dat AMD in hun Zen 4 presentatie de 7950x gelijk zet qua TDP met de 5950x en de niet de werkelijke TDPs hanteert? Omdat de 7950x daar heel slecht uit zou komen. Waarschijnlijk zelfs als minder efficiënt zijnde want het zou me niet verbazen dat de 5950x op 140W efficiënter is dan de 7950x op 230W. Dit betekent dan enkel dat de 7950x minder efficiënt is dan de 5950x maar betekent absoluut niet dat Zen 4 minder efficiënt is dan Zen 3. Immers met hetzelfde stroomverbruik is de 7950x 40% sneller.
Ze worden toch op 5nm geproduceerd?
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
Ja, je kan dus een chip vergelijken die aan het maximum van zijn TDP zit, die op de voorgeschreven TDP zit, of daaronder, en op die manier de resultaten manipuleren. Dat is precies wat Nvidia en AMD doen.napata schreef op vrijdag 23 september 2022 @ 18:56:
[...]
Er zijn 2 goede manieren om een chip "eerlijk" met elkaar te vergelijken. Oftewel zet je de prestaties gelijk en meet je het stroomverbruik oftewel zet je het stroomverbruik gelijk en kijk je naar de prestaties.
Des te lager je de power limit zet des te zuiniger een chip wordt. Die 4090 gaat ook omhoog schieten qua efficiëntie als je hem limiteert op 350W. Net zoals ik maar 5% performance verlies als ik m'n power limit op 80% zet. Ja, je kan dan zeggen dat de 4090 33% efficiënter is dan de 3090 maar daar houdt het dan ook op. Een deel van de verklaring zit dan in het feit dat de ene kaart 100W meer verbruikt.
Uiteindelijk is een power limit niet veel meer dan een getal dat Nvidia of AMD kiezen om een bepaalde target te halen. Ze hadden even goed de 4090 als een 200W kaart kunnen lanceren. Qua performance zou die dan tegenvallen maar je zou wel een gigantische sprong in efficiëntie zien.
Dit geldt trouwens ook voor CPUs. Waarom denk je dat AMD in hun Zen 4 presentatie de 7950x gelijk zet qua TDP met de 5950x en de niet de werkelijke TDPs hanteert? Omdat de 7950x daar heel slecht uit zou komen. Waarschijnlijk zelfs als minder efficiënt zijnde want het zou me niet verbazen dat de 5950x op 140W efficiënter is dan de 7950x op 230W. Dit betekent dan enkel dat de 7950x minder efficiënt is dan de 5950x maar betekent absoluut niet dat Zen 4 minder efficiënt is dan Zen 3. Immers met hetzelfde stroomverbruik is de 7950x 40% sneller.
Als je echter de efficiëntie van 2 architecturen (Ampere en Lovelace) wil vergelijken, dan zou je volgens jou dus de prestaties gelijk moeten trekken of het stroomverbruik. Maar als je het stroomverbruik gelijk stelt, krijg je dat de oude generatie aan de max van haar kunnen zit, terwijl de nieuwe generatie nog ruimte heeft. Niet dat je die ruimte kan kopen (er is nog niks boven de 4090), maar die ruimte is er wel. Dus nee, stroomverbruik gelijk stellen is geen eerlijke vergelijking.
Performance gelijk stellen dan? Ook dan loop je aan tegen IPC verschillen tussen de architecturen. Nieuwe architecturen zijn dan wederom in het voordeel. Maar, dat zou ik al eerlijker vinden dan stroomverbruik gelijk stellen.
Wat moet je dan wel gelijk stellen om een eerlijke vergelijking van performance/stroomverbruik te krijgen? Nou ik zou zeggen het percentage van de chip dat gebruikt wordt, moet zoveel mogelijk hetzelfde zijn. En dat is wat ik geprobeerd heb, in het vergelijken van de 4090 met de huidige 3xxx generatie.
Lang verhaal kort: Lovelace is helemaal niet efficiënt, niet op 450W en dus ook niet daarboven. Maar misschien daar onder.
Zen 4 zal ook niet efficiënt zijn op de 7950X met onbegrensde TDP en goede koeling. Maar de meeste Zen4 processors zullen een mooie efficiëntie neerzetten. Wat ik van de meeste Intel processors daarentegen niet kan zeggen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Dus ter vergelijking, aangenomen dat beide 4080's een volle chip zijn:
Kaart | 3090 | 3080 | 3070 | 4090 | 4080 16GB | 4080 12GB |
SM's | 82 | 68 | 46 | 128 | 80 | 60 |
% t.o.v. x090 | 100% | 83% | 56% | 100% | 62% | 47% |
Dus puur op basis van de aantallen SM's zijn beide 4080's een slechtere deal vergeleken met de 4090, dan de 3080 en 3070 vergeleken met de 3090. En de 4080 12GB is dus nog meer beperkt dan de 3070, dus je zou al vraagtekens kunnen plaatsen bij het verkopen van de volle AD104 als een 4070 en het is mijns inziens absurd om hem te verkopen als een 4080 voor een veel hogere prijs dan de 3080.
Als de 4080's geen volle chip hebben is het nog minder positief voor de 4000 kaarten.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik heb ooit 750 euro betaald voor een 7800GTX, ik heb later gezegd dat ik nooit weer 750 euro voor een GPU zou betalen en in principe had ik gelijk nu mijn oog is gevallen op een 3080 12GB of een 4080 12GB.DaniëlWW2 schreef op vrijdag 23 september 2022 @ 16:37:
[...]
Ik weet nog dat ik dat echt super duur vond.![]()
@Ludewig, dan kun je het ook zo schetsen:
Dat maakt beide 4080 modellen helemaal belachelijk.
GPU | 3070 | 3080 | 3090 | 4080 12GB | 4080 16GB | 4090 |
Die Size | 392mm² | 628mm² | 628mm² | 295mm² | 379mm² | 608mm² |
MSRP in $ | $499 | $699 | $1499 | $899 | $1199 | $1599 |
$ per mm² | 1.273 | 1.113 | 2.387 | 3.014 | 3.164 | 2.630 |
Dat maakt beide 4080 modellen helemaal belachelijk.


[ Voor 16% gewijzigd door Paprika op 23-09-2022 20:48 ]
Ik denk dat je niet begrijpt dat TDPs maar artificiële limieten zijn die gekozen worden om een target te halen.sunsmountain schreef op vrijdag 23 september 2022 @ 19:54:
[...]
Ja, je kan dus een chip vergelijken die aan het maximum van zijn TDP zit, die op de voorgeschreven TDP zit, of daaronder, en op die manier de resultaten manipuleren. Dat is precies wat Nvidia en AMD doen.
Als je echter de efficiëntie van 2 architecturen (Ampere en Lovelace) wil vergelijken, dan zou je volgens jou dus de prestaties gelijk moeten trekken of het stroomverbruik. Maar als je het stroomverbruik gelijk stelt, krijg je dat de oude generatie aan de max van haar kunnen zit, terwijl de nieuwe generatie nog ruimte heeft. Niet dat je die ruimte kan kopen (er is nog niks boven de 4090), maar die ruimte is er wel. Dus nee, stroomverbruik gelijk stellen is geen eerlijke vergelijking.
Performance gelijk stellen dan? Ook dan loop je aan tegen IPC verschillen tussen de architecturen. Nieuwe architecturen zijn dan wederom in het voordeel. Maar, dat zou ik al eerlijker vinden dan stroomverbruik gelijk stellen.
Wat moet je dan wel gelijk stellen om een eerlijke vergelijking van performance/stroomverbruik te krijgen? Nou ik zou zeggen het percentage van de chip dat gebruikt wordt, moet zoveel mogelijk hetzelfde zijn. En dat is wat ik geprobeerd heb, in het vergelijken van de 4090 met de huidige 3xxx generatie.
Lang verhaal kort: Lovelace is helemaal niet efficiënt, niet op 450W en dus ook niet daarboven. Maar misschien daar onder.
Zen 4 zal ook niet efficiënt zijn op de 7950X met onbegrensde TDP en goede koeling. Maar de meeste Zen4 processors zullen een mooie efficiëntie neerzetten. Wat ik van de meeste Intel processors daarentegen niet kan zeggen.
Ik betwijfel of het gaat gebeuren maar nu hoop ik echt dat ze een AD102 kaart maken met 350W zodat we met een mooi voorbeeld je conclusie onderuit kunnen halen.
Kijk maar eens aan hoe efficient Ampere wel niet is.
/f/image/91MXGrE0PXSprWcW61eMGNEs.png?f=fotoalbum_large)
Maar hoe kan dit? Ampere is bijna dubbel zo efficient als Ampere
Dat is ook mijn punt met je vergelijkingen. Je kan zeggen dat de 4090 niet superveel efficienter is dan de 3090 maar niets over Lovelace in het algemeen.
En toch vergelijk je met de 3090. Dat is dan in het nadeel van de 4090.sunsmountain schreef op vrijdag 23 september 2022 @ 19:54:
[...]
Gezien de knip zou een 3080 12GB of 3080 Ti eerlijker zijn, maar TDP voor beide is hetzelfde als 3090 (350W).
Misschien moeten we binnenkort gewoon de A6000 AD102 even vergelijken met de 3090Ti? Beide zijn volledige chips dus dat zou eerlijk zijn volgens jou?
Een workstation kaart er bij gaan halen is natuurlijk onzin.napata schreef op vrijdag 23 september 2022 @ 20:53:
[...]
Ik denk dat je niet begrijpt dat TDPs maar artificiële limieten zijn die gekozen worden om een target te halen.
Ik betwijfel of het gaat gebeuren maar nu hoop ik echt dat ze een AD102 kaart maken met 350W zodat we met een mooi voorbeeld je conclusie onderuit kunnen halen.
Kijk maar eens aan hoe efficient Ampere wel niet is.
[Afbeelding]
Maar hoe kan dit? Ampere is bijna dubbel zo efficient als AmpereRDNA kan er gewoon niets tegenop. Is dit een eerlijke vergelijking? Nee.
Dat is ook mijn punt met je vergelijkingen. Je kan zeggen dat de 4090 niet superveel efficienter is dan de 3090 maar niets over Lovelace in het algemeen.
[...]
En toch vergelijk je met de 3090. Dat is dan in het nadeel van de 4090.
Misschien moeten we binnenkort gewoon de A6000 AD102 even vergelijken met de 3090Ti? Beide zijn volledige chips dus dat zou eerlijk zijn volgens jou?Of gaat dit niet tellen omdat het product een andere naam heeft gekregen?
Maar fair enough, dan vergelijken we een Lovelace kaart van 320W met een Ampere kaart van 320W.

4080 16GB (320W TGP) ziet er uit als 20% t.o.v. de 3090 Ti.
3090 Ti t.o.v. 3080 10GB (320W TGP) is 81%, zelfde 4k.
https://www.techpowerup.c...-founders-edition/32.html
Dan hebben we dus 1,2*(100/0,81) = +48% performance/Watt, zelfde aantal Watt.
Beter dan de 33% van een 4090,
maar niet zo'n vertekend 60-71% beeld als t.o.v. de 3090 Ti.
Te danken aan kloksnelheid: 46,7% (puur boost clocks vergeleken)
De overige 1,3% is dan dankzij de geweldige Lovelace architectuur vergeleken met de Ampere architectuur.
Enough said.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Maar dat is toch juist wat je wil zien, een RTX 3090 Ti is geen efficiënte kaart, dat weten we, maar het is wel een Sku die je in de praktijk kan kopen. Met die gegevens kan, mag en moet je dus eigenlijk ook gewoon rekenen. En juist dat wil je weten als je gaat kijken of het verstandig is om je RTX 3090 Ti in te ruilen voor een 4090 qua efficiëntie. Dat die RTX 3090 Ti op zijn max zit, en de 4090 geen volle die is maakt daarbij niet uit.sunsmountain schreef op vrijdag 23 september 2022 @ 19:54:
[...]
Ja, je kan dus een chip vergelijken die aan het maximum van zijn TDP zit, die op de voorgeschreven TDP zit, of daaronder, en op die manier de resultaten manipuleren. Dat is precies wat Nvidia en AMD doen.
Als je echter de efficiëntie van 2 architecturen (Ampere en Lovelace) wil vergelijken, dan zou je volgens jou dus de prestaties gelijk moeten trekken of het stroomverbruik. Maar als je het stroomverbruik gelijk stelt, krijg je dat de oude generatie aan de max van haar kunnen zit, terwijl de nieuwe generatie nog ruimte heeft. Niet dat je die ruimte kan kopen (er is nog niks boven de 4090), maar die ruimte is er wel. Dus nee, stroomverbruik gelijk stellen is geen eerlijke vergelijking.
Voor gamers zal die vraag 9 van de 10 keer nee zijn, al is natuurlijk de 3090 Ti sowieso nooit een goede koop geweest voor gamers (misschien straks als de prijzen nog verder instorten).
Voor mensen die er geld mee moeten verdienen kan die vraagstelling echter snel anders zijn. Die krijgen immers meer gedaan bij een gelijk verbruik of ze krijgen hetzelfde gedaan met minder verbruik. Dat levert gewoon geld op en kan met de huidige energie tarieven zichzelf mogelijk best snel terug verdienen.
Een RTX 3090 Ti met een 4090 vergelijken op hetzelfde TBP is gewoon appels met appels vergelijken, en ja, dat zal nadelig uitpakken voor de oude architectuur. En ja, dat moet ook, het zou beschamend zijn als een nieuwe architectuur op gelijk TBP niet efficiënter zou zijn.
Hoewel offtopic, dan kijk je waarschijnlijk alleen naar de reviews die 'efficiëntie' testen met CB23 of iets in die strekking. En niet met verschillende workloads, kijk bijvoorbeeld eens naar deze review van Igor, waar Intel in gaming net zo efficient of efficiënter is dan AMD. https://www.igorslab.de/e...d-really-frugal-part-1/9/Zen 4 zal ook niet efficiënt zijn op de 7950X met onbegrensde TDP en goede koeling. Maar de meeste Zen4 processors zullen een mooie efficiëntie neerzetten. Wat ik van de meeste Intel processors daarentegen niet kan zeggen.
In productiviteit workloads is AMD over het algemeen efficient, maar in gaming hoeft dat zeker niet zo te zijn.
Het ging mij meer om het eerlijk vergelijken van Lovelace met Ampere architecturen, niet om te upgraden. Maar ik snap het als je puur vanuit dat perspectief bekijkt.Dennism schreef op vrijdag 23 september 2022 @ 21:20:
[...]
Maar dat is toch juist wat je wil zien, een RTX 3090 Ti is geen efficiënte kaart, dat weten we, maar het is wel een Sku die je in de praktijk kan kopen. Met die gegevens kan, mag en moet je dus eigenlijk ook gewoon rekenen. En juist dat wil je weten als je gaat kijken of het verstandig is om je RTX 3090 Ti in te ruilen voor een 4090 qua efficiëntie. Dat die RTX 3090 Ti op zijn max zit, en de 4090 geen volle die is maakt daarbij niet uit.
Voor gamers zal die vraag 9 van de 10 keer nee zijn, al is natuurlijk de 3090 Ti sowieso nooit een goede koop geweest voor gamers (misschien straks als de prijzen nog verder instorten).
Voor mensen die er geld mee moeten verdienen kan die vraagstelling echter snel anders zijn. Die krijgen immers meer gedaan bij een gelijk verbruik of ze krijgen hetzelfde gedaan met minder verbruik. Dat levert gewoon geld op en kan met de huidige energie tarieven zichzelf mogelijk best snel terug verdienen.
Een RTX 3090 Ti met een 4090 vergelijken op hetzelfde TBP is gewoon appels met appels vergelijken, en ja, dat zal nadelig uitpakken voor de oude architectuur. En ja, dat moet ook, het zou beschamend zijn als een nieuwe architectuur op gelijk TBP niet efficiënter zou zijn.
[...]
Hoewel offtopic, dan kijk je waarschijnlijk alleen naar de reviews die 'efficiëntie' testen met CB23 of iets in die strekking. En niet met verschillende workloads, kijk bijvoorbeeld eens naar deze review van Igor, waar Intel in gaming net zo efficient of efficiënter is dan AMD. https://www.igorslab.de/e...d-really-frugal-part-1/9/
In productiviteit workloads is AMD over het algemeen efficient, maar in gaming hoeft dat zeker niet zo te zijn.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Is het sowieso niet heel lastig efficiëntie enkel uit architectuur te meten bij verschillende processen, daar een groot deel van de winst uit het proces zal komen.sunsmountain schreef op vrijdag 23 september 2022 @ 21:24:
[...]
Het ging mij meer om het eerlijk vergelijken van Lovelace met Ampere architecturen, niet om te upgraden. Maar ik snap het als je puur vanuit dat perspectief bekijkt.
Je hebt altijd een deel proces wat zich vertaalt naar kloksnelheid, en een deel architectuur wat zich vertaalt naar IPC (instructions per clock). Ik had graag gezien dat Nvidia ingenieurs de Lovelace architectuur wat efficiënter hadden gemaakt t.o.v. Ampere, maar voor zover ik nu kan zien, is dat niet/nauwelijks het geval.Dennism schreef op vrijdag 23 september 2022 @ 21:29:
[...]
Is het sowieso niet heel lastig efficiëntie enkel uit architectuur te meten bij verschillende processen, daar een groot deel van de winst uit het proces zal komen.
Ik zie vooral software truckjes en qua hardware iets betere ray tracing / tensor cores. Ouderwetse rasterization, waar nog steeds het gros van de spellen op draait, heeft geen aandacht gekregen van Nvidia. Jammer, maar helaas.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Misschien komt die 3x prijsverhoging eigenlijk wel redelijk overeen met realiteit.Paprika schreef op vrijdag 23 september 2022 @ 20:41:
@Ludewig, dan kun je het ook zo schetsen:
GPU 3070 3080 3090 4080 12GB 4080 16GB 4090 Die Size 392mm² 628mm² 628mm² 295mm² 379mm² 608mm² MSRP in $ $499 $699 $1499 $899 $1199 $1599 $ per mm² 1.273 1.113 2.387 3.014 3.164 2.630
Dat maakt beide 4080 modellen helemaal belachelijk.
[Afbeelding]
We weten niet echt wat Samsung 8LPP koste en van N5 weten we een 2020 prijs in $17.000. Daarbij is het alleen lastig om af te wegen wat doorslaggevend is voor de prijzen nu.
Aan de ene kant heb je nu de aanstaande introductie van N3 waardoor N5 niet meer cutting edge is. Ook is de periode van de productieramp voorbij die Apple eigenlijk altijd betaald in ruil voor exclusiviteit. Dat gaat nu naar N3 verschuiven. Zeker omdat niet elke klant de prijzen die Apple kan betalen, kan of wil betalen, zal er druk komen te staan op de prijs van N5 wafers. Aan de andere kant zullen productiekosten hoger zijn geworden door handelsoorlogen, productieverstoring, inflatie alsmede brandstofprijzen. Hoe het dus precies ligt is mij echt een raadsel, maar ergens zou ik niet verbaast zijn als de prijs per wafer rond de 3x van wat Samsung 8LPP was, zou zijn. Dat zou deze prijzen namelijk verklaren.
Wat we eigenlijk moeten zien zijn Nvidia hun marges over een tijdje. Probleem is dat RDNA3 er dan waarschijnlijk allang is en ik nu al vraagtekens plaats bij het idee dat Nvidia deze prijzen voor beide RTX4080's kan volhouden. Ik zie ze namelijk totaal niet competitief zijn.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar je halo product zou niet in verhouding het best moeten schalen lijkt mij.DaniëlWW2 schreef op vrijdag 23 september 2022 @ 22:56:
[...]
Misschien komt die 3x prijsverhoging eigenlijk wel redelijk overeen met realiteit.
[ Voor 6% gewijzigd door Paprika op 23-09-2022 23:09 ]
Dat moet ook niet, maar ik denk dat die RTX4080s snel in prijs gaan dalen met RDNA3. Ik zie ze gewoon geen schijn van kans maken tegen N32.Paprika schreef op vrijdag 23 september 2022 @ 23:09:
[...]
Maar je halo product zou niet in verhouding het best moeten schalen lijkt mij.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Denk dat RTX 4080 snel in prijs zal dalen zodra de resterende GA102 voorraad weg is. Dat zou in Q4 moeten zijn, als ik Jensen min of meer begrepen heb.
Dat verklaart de prijsverhogingen nog steeds niet, want de chips bepalen niet 100% van de prijs. Als de prijs bijvoorbeeld bestaat uit:DaniëlWW2 schreef op vrijdag 23 september 2022 @ 22:56:
[...]
maar ergens zou ik niet verbaast zijn als de prijs per wafer rond de 3x van wat Samsung 8LPP was, zou zijn. Dat zou deze prijzen namelijk verklaren.
10% koeler
30% chip
20% geheugen
10% PCB en diversen
30% winst
Dan zorgt een verdriedubbeling van de prijs van de chip voor iets minder dan verdubbeling van de prijs van een kaart met dezelfde chipgrootte. Maar de 4080 12 GB heeft een half zo grote chip, dus kun je de prijsverhoging weer halveren. Dan moeten alle andere componenten dus ook veel duurder zijn geworden, maar ik zie niet in waarom dat nu opeens zou gebeuren en niet al ingeprijst zit in de verhoogde prijzen voor de 3000 kaarten.
Ik geloof er gewoon helemaal niets van dat Nvidia slechts de hogere productiekosten doorberekend, tenzij ze echt een gigantisch slecht contract hebben gesloten met TSMC.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nvidia heeft tsmc laten gaan en is naar Samsung gestapt om vervolgens “met hangende pootjes” weer terug te komen naar tsmc. Reken maar van yes dat tsmc een leuke prijs door berekent aan nVidia. Die zijn echt niet gek. Nvidia heeft tsmc nodig en zeker niet andersom, dat is wel duidelijk geworden toen ze weggingen bij tsmc bij Ampere.
[ Voor 20% gewijzigd door OMD op 23-09-2022 23:38 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Iemand met verstand van psu’s hier die dit kan bekijken?
YouTube: SERIOUSLY?? MORE bad news for NVIDIA's 40 Series...
Ik heb echt 0 verstand van psu’s
YouTube: SERIOUSLY?? MORE bad news for NVIDIA's 40 Series...
Ik heb echt 0 verstand van psu’s
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Nvidia is niet de enige met forse prijsverhogingen. Juist alles van PCBs, transport, grondstoffen, energie etc is waarschijnlijk ook allemaal duurder geworden. Verder weten we gewoon niet precies hoeveel Nvidia moet betalen voor een wafer. Het kan zomaar zijn dat ze eerder naar 4x kijken over 8LPP en/of dat ze ook nog eens meer moeten betalen dan veel andere klanten omdat ze de generatie ervoor naar Samsung gingen na zo lang bij TSMC gezeten te hebben. Nu komen ze terug en dan heeft TSMC gewoon de betere onderhandelingspositie gehad.Ludewig schreef op vrijdag 23 september 2022 @ 23:26:
[...]
Dat verklaart de prijsverhogingen nog steeds niet, want de chips bepalen niet 100% van de prijs. Als de prijs bijvoorbeeld bestaat uit:
10% koeler
30% chip
20% geheugen
10% PCB en diversen
30% winst
Dan zorgt een verdriedubbeling van de prijs van de chip voor iets minder dan verdubbeling van de prijs van een kaart met dezelfde chipgrootte. Maar de 4080 12 GB heeft een half zo grote chip, dus kun je de prijsverhoging weer halveren. Dan moeten alle andere componenten dus ook veel duurder zijn geworden, maar ik zie niet in waarom dat nu opeens zou gebeuren en niet al ingeprijst zit in de verhoogde prijzen voor de 3000 kaarten.
Ik geloof er gewoon helemaal niets van dat Nvidia slechts de hogere productiekosten doorberekend, tenzij ze echt een gigantisch slecht contract hebben gesloten met TSMC.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja, maar dat is toch niet veranderd nu bij de introductie van de 4000 serie! Dat is allemaal al ingeprijst bij de verhoogde MSRP's voor de 3000 serie, want je geloofd toch zeker zelf niet dat Nvidia die kosten niet zou doorberekenen?DaniëlWW2 schreef op vrijdag 23 september 2022 @ 23:52:
[...]
Nvidia is niet de enige met forse prijsverhogingen. Juist alles van PCBs, transport, grondstoffen, energie etc is waarschijnlijk ook allemaal duurder geworden.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Een beetje.OMD schreef op vrijdag 23 september 2022 @ 23:49:
Iemand met verstand van psu’s hier die dit kan bekijken?
YouTube: SERIOUSLY?? MORE bad news for NVIDIA's 40 Series...
Ik heb echt 0 verstand van psu’s
Het maximum van 30x verbinden geldt ook voor o.a. de gewone mini-Fit contacten (waarmee de 6/8-pin pci-e, andere voeding connectoren en moederbord connectoren mee zijn uitgerust).
Het is echt niet iets nieuws. Maar omdat destijds de specificaties van pci-e relatief bescheiden zijn gehouden, op 4.17A per pin (50W/pin of 150W voor de hele stekker), zal het in de praktijk niet snel een probleem vormen. Er van uitgaande dat de stekkers niet mishandeld worden.
Met de 12VHPWR connector is het een heel ander verhaal.
Hierbij wordt de grens van het kunnen / de veiligheid echt opgezocht (met 600W).
Dat er nu al gevallen bestaan waarbij het niet goed gaat, verbaast mij niets.
Temeer omdat de 12VHPWR, fysiek gezien, een zwakkere connector is dan de vertrouwde 6/8-pin pci-e.
Eerlijk gezegd vind ik de nieuwe specificatie onverantwoord, omdat je als fabrikant altijd van het ergste moet uitgaan.
Anderzijds is het mogelijk dat de powerlimiet nauwelijks of niet te verhogen blijkt te zijn en dan speelt dit allemaal wat minder.
Hoewel ik mij een beetje erger aan de sensatieberichtgeving, ben ik ook blij dat dit (opnieuw) belicht wordt en zo meer bewustwording ontstaat over de mogelijke gevaren / valkuilen / aandachtspunten.
Een ander aandachtspunt is dat de AIB kaarten extreme formaten hebben aangenomen voor de RTX4**** serie. Niet alleen in dikte, maar ook in de breedte tot wel 165mm (wat ik zover gezien heb):

Het probleem hierbij is dat de ruimte tussen koeler en kastwand op deze manier wel heel klein wordt, zelfs bij brede kasten die 4 vertikale pcie sloten hebben op de achterzijde.
Het vermogen/verbruik van de kaart kan daardoor niet goed weggeblazen worden en dat zal de temperatuur rondom de gpu stekker doen toenemen. Ook al ligt deze dieper in de kaart of is er een uitsparing gemaakt, zoals bij Gigabyte.
Bij minder brede kasten bestaat ook het gevaar dat mensen de kabel dicht bij de connector gaan ombuigen. Dat is bij veercontacten altijd af te raden, ongeacht welke stekker.
Ik ben gelukkig redelijk technisch van aard en kan daarmee goed inschatten wat nodig is en wat wel / niet kan. Maar voor mensen die dat niet zijn, kan een opsomming van factoren tot gevaarlijke situaties leiden.
Vooral bij 600W is het echt oppassen geblazen.
/Offtopic
Om die reden heb ik eerder in dit topic geopperd om evt. een thermokoppel tussen de draden te plaatsen, zo dicht mogelijk bij de connector. Al is het maar voor de gemoedsrust.
Met bijv. een Aquacompter Octo (multi-controller voor o.a fans) of Highflow Next (flowmeter voor waterkoeling) is er een alarm temperatuur limiet in te stellen, dat vervolgens op verschillende manieren een alarm signaal af kan geven.
Het is zelfs mogelijk om de de computer uit te laten schakelen i.c.m. deze 'mainbord' powerswitch kabel: https://shop.aquacomputer...info.php?products_id=3488
Bij 450W zijn de gevaren een stuk minder, maar zijn de aandachtspunten even belangrijk.
Persoonlijk neem ik hierbij genoegen met een controle na installatie & flinke langdurige stresstest.
[ Voor 5% gewijzigd door CMT op 24-09-2022 08:13 ]
600 euro in 2022 was ongeveer 500 euro waard in 2012. Dat je op een gegeven moment niet meer een topkaart koopt voor een X-bedrag is dan ook niet zo gek. Het geld word minder waard. Jouw kaart van 600 euro tien jaar terug, zou nu zo'n 700 euro moeten kosten. Nieuwe top-kaarten zijn sneller,hebben o.a. meer geheugen en meer stroomvoorzieningen nodig. Ook dat zal een top-kaart nu duurder maken. Heb ik niet eens over de produktie-kosten. Koeling word ook extremer, meer koper/alu o.a. wat het allemaal niet goedkoper maakt. Een Top kaart van 600 euro in 2012, mag dan algauw enkele honderden euro's duurder zijn nu. Echter, ipv. 600 euro zitten we nu op 1500 euro plus, en ik vermoed dat dat ook weer meer is dan nodig. De aandeelhouders willen nml. ook meer, de CEO etc.etc. Iedereen wil meer. Dat zal ook in de prijs verrekend zijn/worden.hubhib schreef op vrijdag 23 september 2022 @ 15:57:
Al meer dan 10 jaar houd ik een budget van rond de 600/700 euro aan voor een videokaart. Het is erg jammer om te zien dat je dus in die 10 jaar met dit budget van een absolute top chip (Radeon 7970), naar straks waarschijnlijk een 4060 gaat.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
https://wccftech.com/atx-...adapter-confirms-pci-sig/
Lekker dit, moet je ook maar net weten dat er serieus brand gevaar kan vormen als je een 4090 hebt en je jaagt 600watt erdoorheen.
Lekker dit, moet je ook maar net weten dat er serieus brand gevaar kan vormen als je een 4090 hebt en je jaagt 600watt erdoorheen.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Geloof niet alles wat WCCftech je voorschotelt, het is een geruchten/sensatie 'nieuws site' waarbij nuance vaak achterwege wordt gelaten.
Een tijd geleden heb ik al over deze bangmakerij geschreven:
CMT in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Je kan het ook simpelweg met wat logica beredeneren dat het totale onzin is wat daar geschreven wordt.
Als de 12 pinnen van de 12VHPWR connector, verdeeld worden over 3 andere connectoren.
Dan betekent dat er per andere connector, 4 pinnen van de 12VHPWR worden gebruikt.
De 12VHPWR specificatie voor het maximum continue vermogen is 600W, verdeeld over deze 12 pinnen, dus 200W per 4 pinnen.
In de besproken test / zogenaamde probleem geval, wordt echter 282W getrokken en daarmee gaan ze ver over de maximum spec van de 12VHPWR.
Een tijd geleden heb ik al over deze bangmakerij geschreven:
CMT in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Je kan het ook simpelweg met wat logica beredeneren dat het totale onzin is wat daar geschreven wordt.
Als de 12 pinnen van de 12VHPWR connector, verdeeld worden over 3 andere connectoren.
Dan betekent dat er per andere connector, 4 pinnen van de 12VHPWR worden gebruikt.
De 12VHPWR specificatie voor het maximum continue vermogen is 600W, verdeeld over deze 12 pinnen, dus 200W per 4 pinnen.
In de besproken test / zogenaamde probleem geval, wordt echter 282W getrokken en daarmee gaan ze ver over de maximum spec van de 12VHPWR.
[ Voor 53% gewijzigd door CMT op 24-09-2022 10:02 ]
Valt me al op dat de PCIe5 connector op de RTX 40xx serie verhuist naar de korte kant ipv de lange kant. PC bouwers zullen wat minder fanatiek moeten cable managen, maar ik denk ook dat dat gegarandeerd fout zal gaan, met doorgebrande 12VHPWR kabels tot gevolg.CMT schreef op zaterdag 24 september 2022 @ 04:26:
[...]
Een beetje.
Het maximum van 30x verbinden geldt ook voor o.a. de gewone mini-Fit contacten (waarmee de 6/8-pin pci-e, andere voeding connectoren en moederbord connectoren mee zijn uitgerust).
Het is echt niet iets nieuws. Maar omdat destijds de specificaties van pci-e relatief bescheiden zijn gehouden, op 4.17A per pin (50W/pin of 150W voor de hele stekker), zal het in de praktijk niet snel een probleem vormen. Er van uitgaande dat de stekkers niet mishandeld worden.
Met de 12VHPWR connector is het een heel ander verhaal.
Hierbij wordt de grens van het kunnen / de veiligheid echt opgezocht (met 600W).
Dat er nu al gevallen bestaan waarbij het niet goed gaat, verbaast mij niets.
Temeer omdat de 12VHPWR, fysiek gezien, een zwakkere connector is dan de vertrouwde 6/8-pin pci-e.
Eerlijk gezegd vind ik de nieuwe specificatie onverantwoord, omdat je als fabrikant altijd van het ergste moet uitgaan.
Anderzijds is het mogelijk dat de powerlimiet nauwelijks of niet te verhogen blijkt te zijn en dan speelt dit allemaal wat minder.
Hoewel ik mij een beetje erger aan de sensatieberichtgeving, ben ik ook blij dat dit (opnieuw) belicht wordt en zo meer bewustwording ontstaat over de mogelijke gevaren / valkuilen / aandachtspunten.
Een ander aandachtspunt is dat de AIB kaarten extreme formaten hebben aangenomen voor de RTX4**** serie. Niet alleen in dikte, maar ook in de breedte tot wel 165mm (wat ik zover gezien heb):
[Afbeelding]
Het probleem hierbij is dat de ruimte tussen koeler en kastwand op deze manier wel heel klein wordt, zelfs bij brede kasten die 4 vertikale pcie sloten hebben op de achterzijde.
Het vermogen/verbruik van de kaart kan daardoor niet goed weggeblazen worden en dat zal de temperatuur rondom de gpu stekker doen toenemen. Ook al ligt deze dieper in de kaart of is er een uitsparing gemaakt, zoals bij Gigabyte.
Bij minder brede kasten bestaat ook het gevaar dat mensen de kabel dicht bij de connector gaan ombuigen. Dat is bij veercontacten altijd af te raden, ongeacht welke stekker.
Ik ben gelukkig redelijk technisch van aard en kan daarmee goed inschatten wat nodig is en wat wel / niet kan. Maar voor mensen die dat niet zijn, kan een opsomming van factoren tot gevaarlijke situaties leiden.
Vooral bij 600W is het echt oppassen geblazen.
/Offtopic
Om die reden heb ik eerder in dit topic geopperd om evt. een thermokoppel tussen de draden te plaatsen, zo dicht mogelijk bij de connector. Al is het maar voor de gemoedsrust.
Met bijv. een Aquacompter Octo (multi-controller voor o.a fans) of Highflow Next (flowmeter voor waterkoeling) is er een alarm temperatuur limiet in te stellen, dat vervolgens op verschillende manieren een alarm signaal af kan geven.
Het is zelfs mogelijk om de de computer uit te laten schakelen i.c.m. deze 'mainbord' powerswitch kabel: https://shop.aquacomputer...info.php?products_id=3488
Bij 450W zijn de gevaren een stuk minder, maar zijn de aandachtspunten even belangrijk.
Persoonlijk neem ik hierbij genoegen met een controle na installatie & flinke langdurige stresstest.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Natuurlijk doen ze dat.Ludewig schreef op zaterdag 24 september 2022 @ 02:05:
[...]
Ja, maar dat is toch niet veranderd nu bij de introductie van de 4000 serie! Dat is allemaal al ingeprijst bij de verhoogde MSRP's voor de 3000 serie, want je geloofd toch zeker zelf niet dat Nvidia die kosten niet zou doorberekenen?
Maar mijn punt is juist dat ik vermoed dat Nvidia hun gemiddeld 60%+ marges wil behouden. Dus als de GPU driemaal zoveel kost, dan kost die ook gewoon gewoon driemaal zoveel voor een AIB om te kopen. Vervolgens weten we inmiddels dat Nvidia flink wat prijsinvloed uitoefent. Wat er vermoedelijk dus gebeurd, is dat de rest van de kosten in de keten is doorgerekend door Nvidia en de prijsstelling zo is dat er net genoeg overblijft om die videokaarten te maken en in de winkels te krijgen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het probleem is vooral dat non-ATX v3 voedingen geen maximum kennen. Dus als er meer (door een 12VHPWR) gevraagd wordt, geven ze ook meer. Als dat meer is dan wat de kabel aan kan, tja...CMT schreef op zaterdag 24 september 2022 @ 08:24:
Geloof niet alles wat WCCftech je voorschotelt, het is een geruchten/sensatie 'nieuws site' waarbij nuance vaak achterwege wordt gelaten.
Een tijd geleden heb ik al over deze bangmakerij geschreven:
CMT in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Je kan het ook simpelweg met wat logica beredeneren dat het totale onzin is wat daar geschreven wordt.
Als de 12 pinnen van de 12VHPWR connector, verdeeld worden over 3 andere connectoren.
Dan betekent dat er per andere connector, 4 pinnen van de 12VHPWR worden gebruikt.
De 12VHPWR specificatie voor het maximum continue vermogen is 600W, verdeeld over deze 12 pinnen, dus 200W per 4 pinnen.
In de besproken test / zogenaamde probleem geval, wordt echter 282W getrokken en daarmee gaan ze ver over de maximum spec van de 12VHPWR.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik denk dat 60% marge wat optimistisch is voor een 4N wafer, die mèèr dan $17000 zal kosten, zeker als het aan TSMC ligt. 40% op de 4090 zou al knap zijn, zelfs met $1600. Bedenk ook dat er aardig wat snel 24GB geheugen bij zit.DaniëlWW2 schreef op zaterdag 24 september 2022 @ 10:31:
[...]
Natuurlijk doen ze dat.
Maar mijn punt is juist dat ik vermoed dat Nvidia hun gemiddeld 60%+ marges wil behouden. Dus als de GPU driemaal zoveel kost, dan kost die ook gewoon gewoon driemaal zoveel voor een AIB om te kopen. Vervolgens weten we inmiddels dat Nvidia flink wat prijsinvloed uitoefent. Wat er vermoedelijk dus gebeurd, is dat de rest van de kosten in de keten is doorgerekend door Nvidia en de prijsstelling zo is dat er net genoeg overblijft om die videokaarten te maken en in de winkels te krijgen.
Verder zullen de 4080 12GB en 4080 16GB waarschijnlijk in prijs zakken later dit kwartaal. De marges op die 2 kaarten zijn misschien nog wel hoger dan 60%.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
De nvidia bruto marge is ~62 %, een gemiddelde over alle produktlijnen. Ze maken deze marge niet perse ook op de Geforce serie. Echter als de marge op de Geforce serie omlaag gaat, gaat de gemiddelde marge ook omlaag, tenzij elders gecompenseerd.sunsmountain schreef op zaterdag 24 september 2022 @ 10:38:
[...]
Ik denk dat 60% marge wat optimistisch is voor een 4N wafer, die mèèr dan $17000 zal kosten, zeker als het aan TSMC ligt. 40% op de 4090 zou al knap zijn, zelfs met $1600. Bedenk ook dat er aardig wat snel 24GB geheugen bij zit.
Verder zullen de 4080 12GB en 4080 16GB waarschijnlijk in prijs zakken later dit kwartaal. De marges op die 2 kaarten zijn misschien nog wel hoger dan 60%.
Anyway het punt is dat nvidia er heel veel, zo niet alles aan zal doen om die gemiddelde marge / marge op Geforce produkten in stand te houden. Zie de 40 series prijzen
[ Voor 6% gewijzigd door Help!!!! op 24-09-2022 10:46 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Hopelijk brengt AMD ze in een positie waar ze moeten kiezen tussen hoge marges en marktaandeel.DaniëlWW2 schreef op zaterdag 24 september 2022 @ 10:31:
[...]
Maar mijn punt is juist dat ik vermoed dat Nvidia hun gemiddeld 60%+ marges wil behouden.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ook wel een interessante read aangaande ADA v.s. RDNA3 https://semianalysis.subs...-gpus-shows-how-desperate
Heb deze even in zowel het AMD als Nvidia topic gezet.
Heb deze even in zowel het AMD als Nvidia topic gezet.
Dank voor de uitleg! Weer iets om rekening mee te houden dus.CMT schreef op zaterdag 24 september 2022 @ 04:26:
[...]
Een beetje.
Het maximum van 30x verbinden geldt ook voor o.a. de gewone mini-Fit contacten (waarmee de 6/8-pin pci-e, andere voeding connectoren en moederbord connectoren mee zijn uitgerust).
Het is echt niet iets nieuws. Maar omdat destijds de specificaties van pci-e relatief bescheiden zijn gehouden, op 4.17A per pin (50W/pin of 150W voor de hele stekker), zal het in de praktijk niet snel een probleem vormen. Er van uitgaande dat de stekkers niet mishandeld worden.
Met de 12VHPWR connector is het een heel ander verhaal.
Hierbij wordt de grens van het kunnen / de veiligheid echt opgezocht (met 600W).
Dat er nu al gevallen bestaan waarbij het niet goed gaat, verbaast mij niets.
Temeer omdat de 12VHPWR, fysiek gezien, een zwakkere connector is dan de vertrouwde 6/8-pin pci-e.
Eerlijk gezegd vind ik de nieuwe specificatie onverantwoord, omdat je als fabrikant altijd van het ergste moet uitgaan.
Anderzijds is het mogelijk dat de powerlimiet nauwelijks of niet te verhogen blijkt te zijn en dan speelt dit allemaal wat minder.
Hoewel ik mij een beetje erger aan de sensatieberichtgeving, ben ik ook blij dat dit (opnieuw) belicht wordt en zo meer bewustwording ontstaat over de mogelijke gevaren / valkuilen / aandachtspunten.
Een ander aandachtspunt is dat de AIB kaarten extreme formaten hebben aangenomen voor de RTX4**** serie. Niet alleen in dikte, maar ook in de breedte tot wel 165mm (wat ik zover gezien heb):
[Afbeelding]
Het probleem hierbij is dat de ruimte tussen koeler en kastwand op deze manier wel heel klein wordt, zelfs bij brede kasten die 4 vertikale pcie sloten hebben op de achterzijde.
Het vermogen/verbruik van de kaart kan daardoor niet goed weggeblazen worden en dat zal de temperatuur rondom de gpu stekker doen toenemen. Ook al ligt deze dieper in de kaart of is er een uitsparing gemaakt, zoals bij Gigabyte.
Bij minder brede kasten bestaat ook het gevaar dat mensen de kabel dicht bij de connector gaan ombuigen. Dat is bij veercontacten altijd af te raden, ongeacht welke stekker.
Ik ben gelukkig redelijk technisch van aard en kan daarmee goed inschatten wat nodig is en wat wel / niet kan. Maar voor mensen die dat niet zijn, kan een opsomming van factoren tot gevaarlijke situaties leiden.
Vooral bij 600W is het echt oppassen geblazen.
/Offtopic
Om die reden heb ik eerder in dit topic geopperd om evt. een thermokoppel tussen de draden te plaatsen, zo dicht mogelijk bij de connector. Al is het maar voor de gemoedsrust.
Met bijv. een Aquacompter Octo (multi-controller voor o.a fans) of Highflow Next (flowmeter voor waterkoeling) is er een alarm temperatuur limiet in te stellen, dat vervolgens op verschillende manieren een alarm signaal af kan geven.
Het is zelfs mogelijk om de de computer uit te laten schakelen i.c.m. deze 'mainbord' powerswitch kabel: https://shop.aquacomputer...info.php?products_id=3488
Bij 450W zijn de gevaren een stuk minder, maar zijn de aandachtspunten even belangrijk.
Persoonlijk neem ik hierbij genoegen met een controle na installatie & flinke langdurige stresstest.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Dit vind ik wel erg triest, want juist bij het ontwerpen van een nieuwe connector kan men optimaliseren voor de bedoelde use case. Het had toch best allemaal wat dikker gekund.CMT schreef op zaterdag 24 september 2022 @ 04:26:
[...]
Met de 12VHPWR connector is het een heel ander verhaal.
Hierbij wordt de grens van het kunnen / de veiligheid echt opgezocht (met 600W).
Dat er nu al gevallen bestaan waarbij het niet goed gaat, verbaast mij niets.
Temeer omdat de 12VHPWR, fysiek gezien, een zwakkere connector is dan de vertrouwde 6/8-pin pci-e.
Eerlijk gezegd vind ik de nieuwe specificatie onverantwoord, omdat je als fabrikant altijd van het ergste moet uitgaan.
Nou ja, nog weer een reden om geen high-end 4000 kaarten te kopen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
@CMT en uiteraard de andere kenners, qua veiligheid, hoe zit het dan bijv. met verloopjes als deze zoals corsair deze weet gereleased heeft: https://www.corsair.com/u...-Power-Cable/p/CP-8920284
Ik kan me voorstellen dat zo'n kabel uit een stuk veiliger is dan van 8+8 pin naar een verloopje te gebruiken van 8+8 naar de nieuwe connector verbonden met 2 bestaande 8 pin kabels. Maar is dat ook daadwerkelijk zo?
Ik kan me voorstellen dat zo'n kabel uit een stuk veiliger is dan van 8+8 pin naar een verloopje te gebruiken van 8+8 naar de nieuwe connector verbonden met 2 bestaande 8 pin kabels. Maar is dat ook daadwerkelijk zo?
Corsair heeft kabels uitgebracht die je ATX 2.0 voeding compatible maken met de nieuwe 40 series videokaarten.
https://www.corsair.com/n...-40-series-graphics-cards
Nu staat er in het artikel: *600W load requires a 1200W rated CORSAIR PSU or higher. 450W load requires 1000W or higher. 300W load requires 750W or higher.
Betekend dit dat als je een 850 watt voeding hebt dat je 4090 dan maximaal 300 wat kan gebruiken?
Want als ik het goed begrijp gebruik je dan ook niet de kaart op zijn volle vermogen?
https://www.corsair.com/n...-40-series-graphics-cards
Nu staat er in het artikel: *600W load requires a 1200W rated CORSAIR PSU or higher. 450W load requires 1000W or higher. 300W load requires 750W or higher.
Betekend dit dat als je een 850 watt voeding hebt dat je 4090 dan maximaal 300 wat kan gebruiken?
Want als ik het goed begrijp gebruik je dan ook niet de kaart op zijn volle vermogen?
Ik heb nog een DLSS 3.0 vergelijkingsafbeelding gevonden. Dit lijkt er wel heel erg op dat DLSS 3.0 de RT effecten verstoord naast de duidelijke artefacts...

[ Voor 7% gewijzigd door DaniëlWW2 op 24-09-2022 14:13 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nvidia adviseert voor een 4090 FE minimaal een 850W psu:Vachan schreef op zaterdag 24 september 2022 @ 13:20:
Corsair heeft kabels uitgebracht die je ATX 2.0 voeding compatible maken met de nieuwe 40 series videokaarten.
https://www.corsair.com/n...-40-series-graphics-cards
Nu staat er in het artikel: *600W load requires a 1200W rated CORSAIR PSU or higher. 450W load requires 1000W or higher. 300W load requires 750W or higher.
Betekend dit dat als je een 850 watt voeding hebt dat je 4090 dan maximaal 300 wat kan gebruiken?
Want als ik het goed begrijp gebruik je dan ook niet de kaart op zijn volle vermogen?
:fill(white):strip_exif()/f/image/XWFwmWREC7ktTj5078bZBWgv.png?f=user_large)
Note: Minimum is based on a PC configured with a Ryzen 9 5900X processor. Power requirements can be different depending on system configuration.
Corsair neemt wat meer marge omdat een opgevoerde AIB-kaart meer kan vreten; in geval van 600W heb je eigenlijk al niet meer genoeg aan een 850W psu voor een Intel 13900 cpu onder max load.
Just pick a dead end and chill out 'till you die.
offtopic:
Ik mis nog "3. Check your wallet".
Ik mis nog "3. Check your wallet".
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Ik heb deze voeding, is deze nou nog geschikt voor een 4080?
Welke 4080? De 4080 of de 4070?Danielson schreef op zaterdag 24 september 2022 @ 15:20:
Ik heb deze voeding, is deze nou nog geschikt voor een 4080?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Moet makkelijk kunnen. 285 TDP x 2 = < 600, Dus heb je nog 400 over voor de CPU en de rest van je systeem.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat maakt niet zo heel veel uit, want de échte PCI-e stekkers kunnen dat allemaal met gemak hebben. Tuurlijk is uit één stuk altijd beter, elke koppeling geeft verlies en een punt waarop het mis kan gaan. Wat je natuurlijk níet moet doen is een gesplitste 8-pins (dus 1 aan PSU kant naar 2 aan PCIe kant) gebruiken, want dan ga je wel te ver. Dan zit je 6 +12V ladingen op 3 draden te proppen, wat met deze spec maximaal 2x9,5A per draad betekent. Maar zolang je 2 aparte 8-pins aansluitingen op de voeding gebruikt is een verloop naar 12-pins echt geen probleem.Dennism schreef op zaterdag 24 september 2022 @ 12:42:
@CMT en uiteraard de andere kenners, qua veiligheid, hoe zit het dan bijv. met verloopjes als deze zoals corsair deze weet gereleased heeft: https://www.corsair.com/u...-Power-Cable/p/CP-8920284
Ik kan me voorstellen dat zo'n kabel uit een stuk veiliger is dan van 8+8 pin naar een verloopje te gebruiken van 8+8 naar de nieuwe connector verbonden met 2 bestaande 8 pin kabels. Maar is dat ook daadwerkelijk zo?
Het is echt de 12-pin stekker zelf die het gevaar vormt, vóór die stekker verandert er eigenlijk niet echt iets, zelfs niet met een verloopstekker. @CMT en ik gaven het eerder al aan, maar het probleem is dat de 12-pin stekker (die overigens níet door Molex ontworpen is, of door AMP/TE Electronics, maar door Amphenol) alles veel dichter op elkaar heeft zitten. Er zitten even veel +12V draden in als in 2 8-pins PCIe, 6 stuks. Het verschil is dat de pitch (afstand tussen de pinnen) verkleind is van 4,2mm naar 3,0mm, met als gevolg dat je in net iets meer ruimte dan een énkele 8-pins nu 6 in plaats van 3 pinnen hebt die allemaal hitte kwijt moeten. De draden zijn het probleem niet, die kunnen zelfs nog veel meer hebben dan de 9,5A (114W @ 12V) die de spec voor schrijft, wat overigens op 16 AWG gebaseerd is, dus dat is nóg dikker dan je in de meeste voedingen hebt, en die kunnen die 9,5A al makkelijk hebben (12-14 is geen enkel probleem voor 18 AWG).
Ik ben het ook volledig met @CMT eens dat deze stekker eigenlijk onverantwoord is. Ze hadden gewoon 4,2mm pitch aan kunnen houden en de stekker een millimeter of 7-8 breder kunnen maken en dan had je een stevigere stekker gehad, met meer ruimte voor de pinnen om af hun warmte af te geven.
Edit: onverantwoord voor de consument welteverstaan. Als dit ding enkel in een industriële omgeving gebruikt zou worden, was het een ander verhaal. Maar dit is een stekker die elke Jan-met-korte-achternaam moet kunnen gebruiken en van hen kun je niet verwachten dat ze begrijpen wat er daadwerkelijke gaande is.
[ Voor 6% gewijzigd door Werelds op 24-09-2022 16:51 ]
Mss is dit niet 100% de juiste plaats, maar het gaat wel over Nvidia kaarten dus ik denk het wel 
Ik was eens aan het zoeken hoe goed de oudere GPU's zijn/waren tov de nieuwe.
Mijn initieel idee was dat de nieuwere altijd sneller zijn.
Dit blijkt totaal niet het geval.
Zo is bijvoorbeeld een GTX 1080 ti een stuk beter/sneller dan een GTX 1660 ti hoewel deze laatste een pak nieuwer is.
Daarom ben ik nu op zoek naar een site waar alle kaarten worden vergeleken.
Mijn interesse gaat vnl. uit naar gaming.
Ik heb gpucheck. com gevonden en gpu.userbenchmark.com
Zijn deze sites goed/betrouwbaar? Of zijn er betere bronnen?
Bedankt
Grt
Ik was eens aan het zoeken hoe goed de oudere GPU's zijn/waren tov de nieuwe.
Mijn initieel idee was dat de nieuwere altijd sneller zijn.
Dit blijkt totaal niet het geval.
Zo is bijvoorbeeld een GTX 1080 ti een stuk beter/sneller dan een GTX 1660 ti hoewel deze laatste een pak nieuwer is.
Daarom ben ik nu op zoek naar een site waar alle kaarten worden vergeleken.
Mijn interesse gaat vnl. uit naar gaming.
Ik heb gpucheck. com gevonden en gpu.userbenchmark.com
Zijn deze sites goed/betrouwbaar? Of zijn er betere bronnen?
Bedankt
Grt
Ik had deze gister al gezien, maar nog niet gelezen.Dennism schreef op zaterdag 24 september 2022 @ 11:47:
Ook wel een interessante read aangaande ADA v.s. RDNA3 https://semianalysis.subs...-gpus-shows-how-desperate
Heb deze even in zowel het AMD als Nvidia topic gezet.
Zitten wel een paar interessante dingen tussen. Zo zou de prijsverhoging tussen Samsung 8LPP en N5 maar 2,2x zijn. Dan vraag ik mij meteen af of N5 zoveel goedkoper is geworden of Samsung ook nog eens hartstikke duur was? Want over Samsung hun nodes alsmede eigenlijk veel van hun producten, is de laatste tijd wel meer te doen.
De BOM inschatting vind ik ook wel interessant. N32 zei ik gisteren al min of meer en N31 schatten ze hier wel duurder in dan AD103. Packaging kosten zou het verklaren. Ook interessant om te zien dat ze eigenlijk de grote RDNA3 leak onafhankelijk bevestigen.

Onder de streep blijf ik erbij dat N32, vrij makkelijk sneller zou moeten zijn dan AD103. En N33 zou het makkelijk moeten winnen van AD106/107 alsmede waarschijnlijk in de buurt moeten komen van AD104.
Iets anders dan wat er ook uit voorkomt. Tja was EVGA wel zo geweldig?
Eerst hadden we IgorsLab en ook dit:
This whole story of EVGA leaving Nvidia seems like an irrational actor.
— Dylan Patel @ ICML (@dylan522p) 16 september 2022
~80% of the business is GPU
CEO told Nvidia in April, before sell through collapsed to unprofitable levels.
Won't consider AMD or Intel GPU
CEO wants to retire/vacation
Glassdoor portrays him as cheap/erratic https://t.co/1hRbPLuE3R
Ben ook gaan kijken bij Glassdoor en daar branden ze het bedrijf eigenlijk ook af. Met name management dat geen idee heeft, CEO is te wispelturig, lange werktijden en weinig loon. Ook een paar die zeggen dat je met flink zeuren maar een nieuwe videokaart krijgt, ook buiten garantie.
Daarnaast heeft EVGA ook meerdere missers gehad de laatste jaren. Ze waren goed voor hun klanten, maar dat was het misschien ook wel.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Userbenchmark is van een AMD hater en is notoir voor het manipuleren van benchmarks om AMD zo laag mogelijk te laten eindigen t.o.v. Intel en Nvidia (voor CPU's en GPU's). Ze zijn wel heel goed in SEO, dus ze staan meestal bovenaan in de zoekmachines.Nuffel schreef op zaterdag 24 september 2022 @ 19:33:
Ik heb gpucheck. com gevonden en gpu.userbenchmark.com
Ik pak meestal de Techpowerup relative performance lijst, al kijkt die voor de snellere kaarten naar 4K, wat voor de recentere AMD-kaarten voor een onderschatting zorgt bij 1440k/1080p:
https://www.techpowerup.c...geforce-gtx-1080-ti.c2877
Uiteindelijk kun je zo'n versimpelde vergelijking hoogstens gebruiken om een grof idee te krijgen van performance.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
@DaniëlWW2
Ik vraag me af of de lage kosten voor Samsung 8 niet worden overdreven. Het wordt soms bijna gepresenteerd alsof Nvidia geld toe kreeg.
Ik vraag me af of de lage kosten voor Samsung 8 niet worden overdreven. Het wordt soms bijna gepresenteerd alsof Nvidia geld toe kreeg.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
@DaniëlWW2 @Ludewig
Het lijkt er in ieder geval wel op dat Samsung de laatste jaren meer verhoogd heeft dan TSMC.
Daarna is er natuurlijk ook zeker een kans dat Nvidia natuurlijk kortingen had van tijdelijke aard om ze binnen te halen. Zo zou Samsung met 20% verhoogd hebben ergens in 2021 / 2022.
Ik acht de kans dus wel redelijk aanwezig dat Nvidia nu (flink) meer betaald dan de tarieven op basis waarvan ze in 2017/2018 gekozen hebben voor Samsung. Er gingen immers geruchten rond dat Samsung voor rond $3000 per wafer ingestapt zou zijn, wat destijds uit mijn hoofd zo'n 50% korting zou zijn t.a.v. het geldende normale tarief van rond de $6000, wat mogelijk een redelijke compensatie is, voor de destijds geleakte relatief lage yields.
Kijk je naar een basis prijs van $6000, +20% en dat x 2.2 zit je op $16000, dat zou denk ik aardig overeen kunnen komen met een 5nm wafer heden ten dage als je de geruchten mag geloven.
Het lijkt er in ieder geval wel op dat Samsung de laatste jaren meer verhoogd heeft dan TSMC.
Daarna is er natuurlijk ook zeker een kans dat Nvidia natuurlijk kortingen had van tijdelijke aard om ze binnen te halen. Zo zou Samsung met 20% verhoogd hebben ergens in 2021 / 2022.
Ik acht de kans dus wel redelijk aanwezig dat Nvidia nu (flink) meer betaald dan de tarieven op basis waarvan ze in 2017/2018 gekozen hebben voor Samsung. Er gingen immers geruchten rond dat Samsung voor rond $3000 per wafer ingestapt zou zijn, wat destijds uit mijn hoofd zo'n 50% korting zou zijn t.a.v. het geldende normale tarief van rond de $6000, wat mogelijk een redelijke compensatie is, voor de destijds geleakte relatief lage yields.
Kijk je naar een basis prijs van $6000, +20% en dat x 2.2 zit je op $16000, dat zou denk ik aardig overeen kunnen komen met een 5nm wafer heden ten dage als je de geruchten mag geloven.
Er zit een rationeel achter. 8LPP was eigenlijk rebranded Samsung 10nm. Het is een node achter op N7 en twee op N5. Waar je EUV moet gebruiken bij N5 en je met complexe en dure quad patterning zit voor N7, kom je met Samsung haar 10nm nog weg met tripple patterning. Dat betekent in de praktijk een aantal productiestappen minder waardoor de tijd om die wafer te maken ook minder lang is en de kostprijs dus lager omdat je meer wafers in een bepaalde tijd kan maken. Immers is flink wat van de productiemachines gestandaardiseerd binnen de industrie. Niet alleen de DUV machines van ASML, maar ook veel eromheen.Ludewig schreef op zaterdag 24 september 2022 @ 20:20:
@DaniëlWW2
Ik vraag me af of de lage kosten voor Samsung 8 niet worden overdreven. Het wordt soms bijna gepresenteerd alsof Nvidia geld toe kreeg.
Overigens is Samsung waarschijnlijk ook de reden dat Nvidia waarschijnlijk weer teruggaat naar TSMC. Samsung wou voor elke node kleiner dan 10nm, flink wat EUV gebruiken, maar ze lijken het maar niet voor elkaar te krijgen. Ondertussen lopen de laatste klanten eigenlijk weg.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja, ik vind het ook erg jammer. Door het groter te maken, verliest het wel bestaansrecht als high-power oplossing. Want compactheid is het enige voordeel wat de 12VHPWR bied.Ludewig schreef op zaterdag 24 september 2022 @ 12:09:
[...]
Dit vind ik wel erg triest, want juist bij het ontwerpen van een nieuwe connector kan men optimaliseren voor de bedoelde use case. Het had toch best allemaal wat dikker gekund.
Nou ja, nog weer een reden om geen high-end 4000 kaarten te kopen.
Een compacte connector is daarentegen wel een uitkomst voor kleine ITX systemen en/of kleinere kaarten met met minder vermogen (zeg maar tot 250W). Dan is het wel fijn als het een kabel scheelt.
Ik vermoed dat het zo hard gepushed is omdat ze anders niet bij de Founders Editie micro PCB ontwerp kunnen blijven en perse de koeler zo ver eruit willen laten steken.
Nu de AIB ook geen variatie laten zien (hoogstwaarschijnlijk een eis van NV), zullen voedingsfabrikanten ook wel dankbaar van de gelegenheid gebruik maken om de verkopen aan te slingeren.
Maar ik zou de RTX4**** serie vanwege de connector nog niet afschrijven. De vermogens die we tot nu toe gezien hebben hinten op 450W stock verbruik en dat hoeft geen probleem te zijn.
Het is nog de vraag hoe makkelijk het is, om zo meteen de powerlimiet te verhogen richting 600W.
Daarnaast heb je met 450W te maken met serieuze koelingsproblemen binnen in een kast. Al die warmte moet uit de kast gehaald worden. Met de monster luchtkoelers die we gezien hebben, hoeft het geen probleem te zijn voor de GPU chip zelf, maar andere componenten in de PC kast kunnen wel in de knel raken met evt. oververhitte southbridge / MB chipset, oververhitte ram, CPU throttling etc. tot gevolg.
Verder kan je de videokaart nog undervolten, dat schijnt toch flink wat verbruik te besparen met minimaal verlies aan prestaties.
@Dennism
Ik sluit mij bij @Werelds aan. Mooi verwoord.
Zolang de kwaliteit van de verloop goed is met goede kabels, goede krimpingen, goede passing en goede contacten. Dan maakt het niet veel uit. Van Corsair verwacht ik ook wel dat deze hier aandacht aan besteden. Haar reputatie als PC -voeding leverancier is daarmee gemoeid.
Sanity check:
Parallel contactweerstand 6 aders = 1 / (1 / 0.01 ohm)*6 = 0.00167ohm
Bij 450W zal er ca. P= R * I^2 = 0.00167 * 37.5^2 = 2.35W over de 2 connectoren verstookt worden.
Bij 600W ca. R * I^2 = 0.00167 * 50^2 = 4.2W.
Hierbij is uitgegaan van een goed contact van alle pinnen en is de overgangsweerstand van een krimp niet meegerekend (zal een stuk minder zijn dan de de overgangsweerstand van het veercontact).
Maar heeft geeft wel een aardige schatting.
Zolang de warmte zich homogeen verspreid is het geen probleem (de aders van de kabels werken ook als heatsink).
Ik sluit mij bij @Werelds aan. Mooi verwoord.
Zolang de kwaliteit van de verloop goed is met goede kabels, goede krimpingen, goede passing en goede contacten. Dan maakt het niet veel uit. Van Corsair verwacht ik ook wel dat deze hier aandacht aan besteden. Haar reputatie als PC -voeding leverancier is daarmee gemoeid.
Sanity check:
Parallel contactweerstand 6 aders = 1 / (1 / 0.01 ohm)*6 = 0.00167ohm
Bij 450W zal er ca. P= R * I^2 = 0.00167 * 37.5^2 = 2.35W over de 2 connectoren verstookt worden.
Bij 600W ca. R * I^2 = 0.00167 * 50^2 = 4.2W.
Hierbij is uitgegaan van een goed contact van alle pinnen en is de overgangsweerstand van een krimp niet meegerekend (zal een stuk minder zijn dan de de overgangsweerstand van het veercontact).
Maar heeft geeft wel een aardige schatting.
Zolang de warmte zich homogeen verspreid is het geen probleem (de aders van de kabels werken ook als heatsink).
Jeetje dat ziet er wel erg uit. ik kan mij niet voorstellen dat zulke verschillen niet zichtbaar/storend zijn met beweging.DaniëlWW2 schreef op zaterdag 24 september 2022 @ 14:05:
Ik heb nog een DLSS 3.0 vergelijkingsafbeelding gevonden. Dit lijkt er wel heel erg op dat DLSS 3.0 de RT effecten verstoord naast de duidelijke artefacts...
[Afbeelding]
MSI heeft een switch op de 4090 om de power limit te verhogen. Dus we weten al dat ze meer dan 450W kunnen pakken. We weten nog niet zeker hoeveel.CMT schreef op zaterdag 24 september 2022 @ 22:26:
[...]
Het is nog de vraag hoe makkelijk het is, om zo meteen de powerlimiet te verhogen richting 600W.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Oke, laatste keer dan omdat ik ook niet altijd de brenger van slecht nieuws wil zijn.
Het is gewoon niet goed hoe het eruit ziet. Uiteindelijk ben ik ook een GPU enthousiasteling en vind ik dit gewoon teleurstellend...











https://imgur.com/a/LYJtqDM
Het is gewoon niet goed hoe het eruit ziet. Uiteindelijk ben ik ook een GPU enthousiasteling en vind ik dit gewoon teleurstellend...











https://imgur.com/a/LYJtqDM
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Spider-Man is ook bijna de ideale test om DLSS 3 onderuit te halen: veel dynamische beweging met moeilijk te voorspellen richting (outline artefacten op de laatste plaatjes) en een spinnenpakje met veel regelmatige lijnen die bijna gemaakt zijn om afwijkingen te laten zien. Bij iets als Flight Simulator heb je dat natuurlijk veel minder -- maar helaas heb je dan ook gelijk veel minder aan de verhoogde framerate, behalve om te patsen met het nummertje. Wellicht moet Nvidia de AI nog een beetje harder trainen en dan specifiek op Spider-Man.
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
VideoCardz.com: NVIDIA releases GeForce Experience 3.26 BETA with support for RTX 40 series.
https://videocardz.com/ne...support-for-rtx-40-series
https://videocardz.com/ne...support-for-rtx-40-series
win a gamepc: https://beamstream.gg/giveaway/beammeup https://kick.com/Pentiummania https://www.twitch.tv/Amazoontje https://beamstream.gg/what-is-beam
Er zijn natuurlijk meer games met veel dynamische bewegingen. Het moet gewoon correct functioneren in deze titel en dat doet het niet. DLSS is een mooie techniek maar ze willen nu volgens mij echt de FPS kroon in handen krijgen en houden, ongeacht de kwaliteit.MneoreJ schreef op zondag 25 september 2022 @ 10:27:
Spider-Man is ook bijna de ideale test om DLSS 3 onderuit te halen: veel dynamische beweging met moeilijk te voorspellen richting (outline artefacten op de laatste plaatjes) en een spinnenpakje met veel regelmatige lijnen die bijna gemaakt zijn om afwijkingen te laten zien. Bij iets als Flight Simulator heb je dat natuurlijk veel minder -- maar helaas heb je dan ook gelijk veel minder aan de verhoogde framerate, behalve om te patsen met het nummertje. Wellicht moet Nvidia de AI nog een beetje harder trainen en dan specifiek op Spider-Man.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
DLSS 2 bevalt mij prima. DLSS 1 hield niet echt over en van DLSS 3 verwacht ik vooralsnog dat het qua ervaring zeker in de eerste iteratie mogelijk nog minder is dan DLSS 1.
Uiteraard erg benieuwd naar de reviews.
Uiteraard erg benieuwd naar de reviews.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dé vragen zijn hoe het er uit gaat zien in beweging en hoe het aanvoelt qua latency, en minder hoe de stilstaande frames eruit zien. Met artefacten die zo nadrukkelijk zijn als deze verwacht ik dat je het ook in beweging nog zeer duidelijk gaat zien, maar dat is gissen (ik heb ook filmpjes gezien waar ze met AI frames interpoleren waar de individuele frames rare dingen doen, maar wat je niet ziet als de frames elkaar rap opvolgen).
De NV marketing presenteert het nu alsof dit een optie is die je gewoon aan kan zetten voor gratis perf, maar dat is het natuurlijk niet. Net als DLSS 2 zal het iets zijn wat je eventueel selectief aan wil zetten afhankelijk van of je het nodig hebt om voor andere dingen te compenseren, of het spel het kan verdragen en wat je ervan merkt, maar zo'n genuanceerd verhaal kunnen ze natuurlijk niet verkopen. Of nou ja, kan wel maar willen ze niet, 4x sneller bekt natuurlijk veel beter, ook als dat betekent dat Spoderman geen combos meer kan maken.
De NV marketing presenteert het nu alsof dit een optie is die je gewoon aan kan zetten voor gratis perf, maar dat is het natuurlijk niet. Net als DLSS 2 zal het iets zijn wat je eventueel selectief aan wil zetten afhankelijk van of je het nodig hebt om voor andere dingen te compenseren, of het spel het kan verdragen en wat je ervan merkt, maar zo'n genuanceerd verhaal kunnen ze natuurlijk niet verkopen. Of nou ja, kan wel maar willen ze niet, 4x sneller bekt natuurlijk veel beter, ook als dat betekent dat Spoderman geen combos meer kan maken.
[ Voor 6% gewijzigd door MneoreJ op 25-09-2022 12:05 ]
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Man wat ziet die DLSS 3 er bagger uit. Ik kan alleen maar hopen dat game makers dit niet in gaan zetten en gewoon 2.3 blijven gebruiken maar ben er bang voor.
Dat betekent dus dat ze beter FSR kunnen implementeren ondanks dat DLSS 2.3 nog net iets beter is.
Dat betekent dus dat ze beter FSR kunnen implementeren ondanks dat DLSS 2.3 nog net iets beter is.
DLSS 3 is feitelijk DLSS 2 + frame interpolation, dus het is simpel voor spellenbakkers om die optie een optie te houden (NV heeft al bevestigd dat dat kan). Net als bij DLSS nu zal het niet zo zijn dat je geen keuze hebt in of het gebruikt wordt. Dat zou ook behoorlijk onpraktisch zijn gegeven dat DLSS 3 alleen beschikbaar gaat worden voor 4xxx+ kaarten (for now).computerjunky schreef op zondag 25 september 2022 @ 12:17:
Man wat ziet die DLSS 3 er bagger uit. Ik kan alleen maar hopen dat game makers dit niet in gaan zetten en gewoon 2.3 blijven gebruiken maar ben er bang voor.
Dat betekent dus dat ze beter FSR kunnen implementeren ondanks dat DLSS 2.3 nog net iets beter is.
NV gaat dit wel marketen als het nieuwe hebbedingetje, dus uiteraard gaan spellenbakkers wel waar mogelijk DLSS 3 toevoegen, zeker als dat met relatief geringe wijzigingen kan, maar als het goed is kost je dat als eindgebruiker dus niks. Wel zou het natuurlijk fijn zijn als iedereen ook gewoon FSR implementeert.
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Dit is wel weer typisch een gevalletjes van misleidende marketing, waarbij het lijkt alsof DLSS 3 een verbeterde versie is van DLSS 2, terwijl het eigenlijk slechts een extra manier is om de FPS te verhogen.
Dit kan echter wel terugslaan op Nvidia als mensen een negatieve ervaring hebben met de interpolation en vervolgens Nvidia verwijten dat ze dingen slechter maken ipv beter.
Dit kan echter wel terugslaan op Nvidia als mensen een negatieve ervaring hebben met de interpolation en vervolgens Nvidia verwijten dat ze dingen slechter maken ipv beter.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Hopen dat dit meer een geval ultra performance/extreme performance preset word dan en dat performance, quality en ultra quality gewoon 2.3 is.MneoreJ schreef op zondag 25 september 2022 @ 12:37:
[...]
DLSS 3 is feitelijk DLSS 2 + frame interpolation, dus het is simpel voor spellenbakkers om die optie een optie te houden (NV heeft al bevestigd dat dat kan). Net als bij DLSS nu zal het niet zo zijn dat je geen keuze hebt in of het gebruikt wordt. Dat zou ook behoorlijk onpraktisch zijn gegeven dat DLSS 3 alleen beschikbaar gaat worden voor 4xxx+ kaarten (for now).
NV gaat dit wel marketen als het nieuwe hebbedingetje, dus uiteraard gaan spellenbakkers wel waar mogelijk DLSS 3 toevoegen, zeker als dat met relatief geringe wijzigingen kan, maar als het goed is kost je dat als eindgebruiker dus niks. Wel zou het natuurlijk fijn zijn als iedereen ook gewoon FSR implementeert.
Als dit in alle presets zo is dan is het natuurlijk gewoon iet wenselijk wat mij betreft.
[ Voor 5% gewijzigd door computerjunky op 25-09-2022 13:04 ]
Wat ik vaak mis bij het marketing-materiaal en reviews zijn de gebruikte settings. Leuk dat DLSS 3.0 een verdubbeling in performance geeft, maar is dat dan op 1080p, 1440p of 4K? En welke DLSS-setting is er dan gebruikt? Quality, Balanced of (Ultra) Performance? Dit alles maakt vergelijken wat lastiger.
Verder kijk ik wel uit naar DLSS 3.0, want als je ziet hoe DLSS zich blijft ontwikkelen en heeft ontwikkeld sinds release in 02-2019, wordt het alleen maar beter.
Verder kijk ik wel uit naar DLSS 3.0, want als je ziet hoe DLSS zich blijft ontwikkelen en heeft ontwikkeld sinds release in 02-2019, wordt het alleen maar beter.
^
Dat laatste is dus maar de vraag

Ben ook benieuwd naar de uitgebreide reviews!
Dat laatste is dus maar de vraag
Ben ook benieuwd naar de uitgebreide reviews!
[ Voor 36% gewijzigd door Help!!!! op 25-09-2022 14:03 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Een review die dat niet vermeldt is gewoon een slechte review. Alle goede reviewsites die ik ken zetten er altijd precies bij onder welke omstandigheden e.e.a. getest is (hardware en software) en vergelijken de verschillende instellingen ook met elkaar, als ze verschillende instellingen testen.Yonix schreef op zondag 25 september 2022 @ 13:48:
Wat ik vaak mis bij het marketing-materiaal en reviews zijn de gebruikte settings. Leuk dat DLSS 3.0 een verdubbeling in performance geeft, maar is dat dan op 1080p, 1440p of 4K? En welke DLSS-setting is er dan gebruikt? Quality, Balanced of (Ultra) Performance? Dit alles maakt vergelijken wat lastiger.
Bij marketingpraatjes krijg je dit er inderdaad ofwel niet bij ofwel alleen in de zeer slecht leesbare hele kleine lettertjes, maar daarom is het ook marketing.
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Zover elke sheet is geweest, alles op Super performance 4k, wat een native 1080 zou moeten zijn.Yonix schreef op zondag 25 september 2022 @ 13:48:
Wat ik vaak mis bij het marketing-materiaal en reviews zijn de gebruikte settings. Leuk dat DLSS 3.0 een verdubbeling in performance geeft, maar is dat dan op 1080p, 1440p of 4K? En welke DLSS-setting is er dan gebruikt? Quality, Balanced of (Ultra) Performance? Dit alles maakt vergelijken wat lastiger.
Ze zouden gewoon games moeten pakken die simpel geen DLSS ondersteuning hebben, ik krijg het idee dat we straks een 'DLSS gate' krijgen, waar stiekem bij bepaalde games DLSS wordt geactiveerd (ondanks je het uit hebt staan) om die 'cijfers' te boosten voor die specifieke games tov bv AMD of Intel.
Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.
als latency belangrijk is bijvoorbeeld in esport online shooter dan is beeld quality ondergeschikt aan elk minime voordeel om de win binnen te kunnen halen en is 1080P 144+ fps met low settings voor cqc bunnyhop combat belangrijker.MneoreJ schreef op zondag 25 september 2022 @ 12:03:
Dé vragen zijn hoe het er uit gaat zien in beweging en hoe het aanvoelt qua latency, en minder hoe de stilstaande frames eruit zien. Met artefacten die zo nadrukkelijk zijn als deze verwacht ik dat je het ook in beweging nog zeer duidelijk gaat zien, maar dat is gissen (ik heb ook filmpjes gezien waar ze met AI frames interpoleren waar de individuele frames rare dingen doen, maar wat je niet ziet als de frames elkaar rap opvolgen).
De NV marketing presenteert het nu alsof dit een optie is die je gewoon aan kan zetten voor gratis perf, maar dat is het natuurlijk niet. Net als DLSS 2 zal het iets zijn wat je eventueel selectief aan wil zetten afhankelijk van of je het nodig hebt om voor andere dingen te compenseren, of het spel het kan verdragen en wat je ervan merkt, maar zo'n genuanceerd verhaal kunnen ze natuurlijk niet verkopen. Of nou ja, kan wel maar willen ze niet, 4x sneller bekt natuurlijk veel beter, ook als dat betekent dat Spoderman geen combos meer kan maken.
Voor singleplayer adventure sandbox ecploring game dan is 60fps in 4K native ipv AI lapmiddelen altijd verzekerd van artifact loze hoge kwaliteit eventueel met Raytracing. Of 1440p
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Dat valt direct op via meerdere parameters die je kunt uitlezen en als 't visueel niet op zou vallen dan is DLSS sowieso geslaagd, want als je het niet merkt, waarom zou je 't dan niet willen gebruikenSinergyX schreef op zondag 25 september 2022 @ 14:25:
[...]
Ze zouden gewoon games moeten pakken die simpel geen DLSS ondersteuning hebben, ik krijg het idee dat we straks een 'DLSS gate' krijgen, waar stiekem bij bepaalde games DLSS wordt geactiveerd (ondanks je het uit hebt staan) om die 'cijfers' te boosten voor die specifieke games tov bv AMD of Intel.
Moet een dubbelblinde test worden waarbij ook de FPS teller aangepast wordt: de computer selecteert willekeurig welke combinaties van DLSS 3 + FPS hoog/laag je te zien krijgt, de reviewer schrijft op wat het volgens hen is, daarna gaan we kijken hoe het met de werkelijkheid overeen komt. Kan natuurlijk ook zonder FPS teller maar met is het interessanter omdat je dan ook gelijk kunt zien hoeveel bias dat oplevert ("meer FPS volgens het tellertje = meer beter of ik het nu zie of niet").Paprika schreef op zondag 25 september 2022 @ 15:35:
Dat valt direct op via meerdere parameters die je kunt uitlezen en als 't visueel niet op zou vallen dan is DLSS sowieso geslaagd, want als je het niet merkt, waarom zou je 't dan niet willen gebruiken.
Denk alleen niet dat NV zo'n test gaat sponsoren, maar ach.
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Weet niet of ik het daar mee eens ben. Juist Spider Man moet makkelijk zijn omdat je veel dingen hebt met een hoog contrast; daarnaast kunnen ze gebruik maken van o.a. de depth buffers. Ik vermoed ergens dat als je veel struiken en bos hebt dat het probleem alleen maar erger wordt. Ben benieuwd of het zo meteen in een Tomb Raider spel zit en hoe dat er uit ziet.MneoreJ schreef op zondag 25 september 2022 @ 10:27:
Spider-Man is ook bijna de ideale test om DLSS 3 onderuit te halen: veel dynamische beweging met moeilijk te voorspellen richting (outline artefacten op de laatste plaatjes) en een spinnenpakje met veel regelmatige lijnen die bijna gemaakt zijn om afwijkingen te laten zien. Bij iets als Flight Simulator heb je dat natuurlijk veel minder -- maar helaas heb je dan ook gelijk veel minder aan de verhoogde framerate, behalve om te patsen met het nummertje. Wellicht moet Nvidia de AI nog een beetje harder trainen en dan specifiek op Spider-Man.
Ik vind de artifacts behoorlijk storend; zeker op punten waar je van het hoge contrast van het blauw rode pak wisselt naar de achtergrond; dat moet gewoon perfect kunnen.
Indien het youtube compressie artifacts zijn (geen idee of het van youtube is of van hun Patreon? waar ze de volledige kwaliteit hebben). Dan hadden ze het maar op 30FPS moeten afspelen want hier gaan mensen met kritiek gewoon over vallen.
Lelijke frames + meer latency...
Dat is een manier van testen; maar 9 van de 10 mensen zien ook niet het verschil tussen de shading op high en ultra. Dat lijkt mij niet de juiste maatstaaf voor dit soort dingen want het is subjectief en niet objectief.MneoreJ schreef op zondag 25 september 2022 @ 15:39:
[...]
Moet een dubbelblinde test worden waarbij ook de FPS teller aangepast wordt: de computer selecteert willekeurig welke combinaties van DLSS 3 + FPS hoog/laag je te zien krijgt, de reviewer schrijft op wat het volgens hen is, daarna gaan we kijken hoe het met de werkelijkheid overeen komt. Kan natuurlijk ook zonder FPS teller maar met is het interessanter omdat je dan ook gelijk kunt zien hoeveel bias dat oplevert ("meer FPS volgens het tellertje = meer beter of ik het nu zie of niet").
Denk alleen niet dat NV zo'n test gaat sponsoren, maar ach.
Als dat dus de maatstaaf is wat houdt AMD/Nvidia dan tegen om in de drivers zo veel mogelijk te "cheaten"; dingen die we vroeger wel afkeurden.
Ik vind DLSS 3 nog niet op het niveau waarin je kan zeggen kijk we krijgen meer frames en het is beter! Gebruik dit dus graag in de vergelijkingen tegen Intel/AMD/3xxx; er zitten te veel haken en ogen aan.
Dat laatste klopt wel en het is inderdaad raar dat het algoritme daar steken laat vallen. Gegeven de uitleg met hoe het werkt is het niet logisch dat er rare kartelrandjes met "flufjes" pixels ontstaan terwijl het een solide vlak is in beide frames die wel gerenderd worden. Het ziet er bijna uit als een bug -- misschien dat de extra logica die ze toe moeten passen voor bewegende schaduwen ze hier parten speelt?Sp3ci3s8472 schreef op zondag 25 september 2022 @ 16:13:
Ik vind de artifacts behoorlijk storend; zeker op punten waar je van het hoge contrast van het blauw rode pak wisselt naar de achtergrond; dat moet gewoon perfect kunnen.
Wat ik me afvraag is of AMD al aan het broeden is op een open-sourced tegenhanger a la FSR die ook weer zonder dedicated hardware aan de slag gaat maar dan toch resultaten haalt die goed genoeg zijn. Zou toch een mooie coup zijn...
Ik bedoel het ook niet als maatstaf der dingen maar als manier om claims onderuit te halen dat DLSS geweldig is omdat het hoge framerates oplevert. Als reviewers makkelijk het verschil kunnen zien (wat ik verwacht) dan heb je op die manier een mooie stok achter de deur voor mensen (zoals Nvidia...) die claimen dat het gratis performance is.Sp3ci3s8472 schreef op zondag 25 september 2022 @ 16:18:
Dat is een manier van testen; maar 9 van de 10 mensen zien ook niet het verschil tussen de shading op high en ultra. Dat lijkt mij niet de juiste maatstaaf voor dit soort dingen want het is subjectief en niet objectief.
Daarbij wel de opmerking dat je maar tot op zekere hoogte "objectief" te werk kunt gaan hier, want dan moet je al met perceptuele modellen aankomen en whatnot. Je kunt namelijk wel een stilstaand frame pakken en gaan tellen hoeveel pixels het absoluut afwijkt van wat de ideale frame is (bijvoorbeeld) maar dat zegt niet alles omdat de ene storende afwijking de andere niet is.
Als je alle vormen van "valsspelen" categorisch wil afwijzen moet je dingen als DLSS eigenlijk sowieso al helemaal uitzetten, want het is natuurlijk nooit 100% wat het zou zijn als je native rendert. De afweging is altijd hoeveel en welke afwijkingen we acceptabel vinden.
Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.
Maar daar bewijs je de doelgroep van jou als reviewer toch geen dienst mee? Als ik als consument immers Nvidia zou overwegen, zou dat voornamelijk zijn vanwege hun feature set. Raster performance is AMD immers net zo goed, en straks mogelijk zelfs flink beter op het hetzelfde prijspunt of zelfs iets eronder.SinergyX schreef op zondag 25 september 2022 @ 14:25:
[...]
Zover elke sheet is geweest, alles op Super performance 4k, wat een native 1080 zou moeten zijn.
Ze zouden gewoon games moeten pakken die simpel geen DLSS ondersteuning hebben, ik krijg het idee dat we straks een 'DLSS gate' krijgen, waar stiekem bij bepaalde games DLSS wordt geactiveerd (ondanks je het uit hebt staan) om die 'cijfers' te boosten voor die specifieke games tov bv AMD of Intel.
Ik zou dus juist in reviews terug willen zien of die extra features een meerwaarde zijn, of juist niet. In plaats van een focus alleen op raster performance waar jij naar hint, waarvan ik al weer dat ik net zo goed, zo niet beter bij de concurrent kan zijn.


https://www.reddit.com/r/...expensive_x80_series_yet/
https://www.reddit.com/r/...es_of_nvidia_gaming_gpus/
[ Voor 16% gewijzigd door Paprika op 25-09-2022 23:16 ]
Bij Computerbase is nu wat meer info te vinden over problemen met de 12VHPWR stekker: https://www.computerbase....ch-ohne-adapter-moeglich/
Ze hebben kennelijk met 55A (660W) getest en een kleine buigradius van 30mm (wat zeker voorkomt in de praktijk). Deze miniTek PWR PCie connector van Amphenol heeft als absolute max specificatie 684W, dus onredelijk is de test niet van PCI-SIG. 60W minder gaat verder geen verschil maken, hooguit stelt het de problemen uit.
Kabels getest van 3 fabrikanten met verschillende configuraties.
Daarbij faalde de nieuwe 12VHPWR stekker door te smelten (na ca. 10-30uur) of gevaarlijke hotspots (na ca. 2,5uur) met minstens 10 exemplaren (jammer dat ze niet even een percentage of sample-size geven):
Het maximum van 30x is dus echt een maximum, mocht je van plan zijn met 600W te gaan spelen.
Molex is met haar gewone mini-Fit connector veel conservatiever (6-7A per pin bij een 8-pin stekker, oftewel 216W-252W totaal). Er bestaat ook een HCS versie die 8.5 tot 10A per pin kan hebben met 16-18AWG draad. Daarmee is +300W haalbaar per 8-pin.
Ze hebben kennelijk met 55A (660W) getest en een kleine buigradius van 30mm (wat zeker voorkomt in de praktijk). Deze miniTek PWR PCie connector van Amphenol heeft als absolute max specificatie 684W, dus onredelijk is de test niet van PCI-SIG. 60W minder gaat verder geen verschil maken, hooguit stelt het de problemen uit.
Kabels getest van 3 fabrikanten met verschillende configuraties.
Daarbij faalde de nieuwe 12VHPWR stekker door te smelten (na ca. 10-30uur) of gevaarlijke hotspots (na ca. 2,5uur) met minstens 10 exemplaren (jammer dat ze niet even een percentage of sample-size geven):
- bij buigen
- bij 40 keer opnieuw verbinden, zonder te buigen
Het maximum van 30x is dus echt een maximum, mocht je van plan zijn met 600W te gaan spelen.
Molex is met haar gewone mini-Fit connector veel conservatiever (6-7A per pin bij een 8-pin stekker, oftewel 216W-252W totaal). Er bestaat ook een HCS versie die 8.5 tot 10A per pin kan hebben met 16-18AWG draad. Daarmee is +300W haalbaar per 8-pin.
[ Voor 8% gewijzigd door CMT op 26-09-2022 02:50 ]
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.