Acties:
  • +6 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Igorslab heeft ook weer informatie vanuit de AIB's. :)
Die schijnen alweer boos op Nvidia te zijn omdat Nvidia ze had verteld dat de RTX4090 een 600W GPU zou worden. Dus hebben ze videokaarten ontwikkeld voor 600W en toen bleek de RTX4090 een 450W GPU te worden. Dat kost ze $10+ aan koeling die ze graag hadden bespaard. Ook ziet dit er niet goed uit omdat mensen die enorme koelers belachelijk aan het maken zijn.

Dit lijkt gebeurd te zijn omdat Nvidia een inschatting maakte voor hogere clock speeds met Ampere op Samsung 8nm als basis. Daarvoor hadden ze 600W nodig gehad omdat Samsung zo inefficiënt is. TSMC 4N lijkt ondertussen goede yields te hebben zowel in kwantiteit als kwaliteit, waardoor Nvidia ook naar 450W kon gaan.

Hetzelfde gebeurden ook met de RTX4080 die van 420W naar 340W en uiteindelijk naar 320W ging zonder prestatieverlies. Het lijkt eerder nog iets beter te zijn dan verwacht was van 420W.
https://www.igorslab.de/e...y-the-cards-are-so-giant/

Dit zou ook de constant veranderende TDP ratings verklaren die we steeds te horen kregen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Zou vooral zonde zijn van de power supply elektronica die erop zit en niet nodig is. Verder betekend het voor de consument vooral dat zolang het in je kast past, hij relatief stil zal zijn.

Acties:
  • +2 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

DaniëlWW2 schreef op vrijdag 7 oktober 2022 @ 09:01:
Igorslab heeft ook weer informatie vanuit de AIB's. :)
Die schijnen alweer boos op Nvidia te zijn omdat Nvidia ze had verteld dat de RTX4090 een 600W GPU zou worden. Dus hebben ze videokaarten ontwikkeld voor 600W en toen bleek de RTX4090 een 450W GPU te worden. Dat kost ze $10+ aan koeling die ze graag hadden bespaard. Ook ziet dit er niet goed uit omdat mensen die enorme koelers belachelijk aan het maken zijn.

Dit lijkt gebeurd te zijn omdat Nvidia een inschatting maakte voor hogere clock speeds met Ampere op Samsung 8nm als basis. Daarvoor hadden ze 600W nodig gehad omdat Samsung zo inefficiënt is. TSMC 4N lijkt ondertussen goede yields te hebben zowel in kwantiteit als kwaliteit, waardoor Nvidia ook naar 450W kon gaan.

Hetzelfde gebeurden ook met de RTX4080 die van 420W naar 340W en uiteindelijk naar 320W ging zonder prestatieverlies. Het lijkt eerder nog iets beter te zijn dan verwacht was van 420W.
https://www.igorslab.de/e...y-the-cards-are-so-giant/

Dit zou ook de constant veranderende TDP ratings verklaren die we steeds te horen kregen.
Dus als ik het goed begrijp. Nvidia kwam met het design aan de AIB's dat de kaart 600watt zou gaan trekken, dus moesten ze de koeler daarvoor aanpassen.
Is uitgevoerd en al uitgerold en nu komt Nvidia op de proppen zetten dat de kaart geen 600watt trekt maar 450watt, dus de jumbo jet koeling systeem was niet eens zo groot nodig geweest.

Damn, dat is een kick in the teeth door nvidia bij de AIB's. Voor de consument, ja prima als de kaart in de kast past en minder watt verbruikt dan men initieel dacht voor dezelfde prestaties. Maar houd het wel in dat je de kaart gewoon kan overklokken tot de volstrekte 600 watt?

Daarnaast blijken de kaarten een silent mode en performance mode switch te hebben op de kaarten. Is dan de performance mode de stap naar 600watt?
Zo onduidelijk als de pest :P

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +4 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 15:54
Ik vind de nieuwe AIB's wel bruut. :D


*knip* offtopic

Ondertussen is Nvidia de gemoederen al aan het sussen omtrent #PSUGate:



[ Voor 29% gewijzigd door br00ky op 07-10-2022 13:42 ]


Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 12-09 22:51
Moet de 4090 trouwens worden aangesloten op 4 aparte PCI-E 8 pin kabels?
Of mag er 1 van de 4 ook worden gesplit op 1 kabel?

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Lekiame schreef op vrijdag 7 oktober 2022 @ 09:24:
Moet de 4090 trouwens worden aangesloten op 4 aparte PCI-E 8 pin kabels?
Of mag er 1 van de 4 ook worden gesplit op 1 kabel?
Moet op apart aangesloten worden, zoveel weet ik wel. Is meer dat je op iedere kabel 150 watt gaat trekken. Tevens zit extra sensor kabel aangesloten die de PSU aanspreekt per kanaal.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DaniëlWW2 schreef op vrijdag 7 oktober 2022 @ 09:01:
Igorslab heeft ook weer informatie vanuit de AIB's. :)
Die schijnen alweer boos op Nvidia te zijn omdat Nvidia ze had verteld dat de RTX4090 een 600W GPU zou worden. Dus hebben ze videokaarten ontwikkeld voor 600W en toen bleek de RTX4090 een 450W GPU te worden. Dat kost ze $10+ aan koeling die ze graag hadden bespaard. Ook ziet dit er niet goed uit omdat mensen die enorme koelers belachelijk aan het maken zijn.

Dit lijkt gebeurd te zijn omdat Nvidia een inschatting maakte voor hogere clock speeds met Ampere op Samsung 8nm als basis. Daarvoor hadden ze 600W nodig gehad omdat Samsung zo inefficiënt is. TSMC 4N lijkt ondertussen goede yields te hebben zowel in kwantiteit als kwaliteit, waardoor Nvidia ook naar 450W kon gaan.

Hetzelfde gebeurden ook met de RTX4080 die van 420W naar 340W en uiteindelijk naar 320W ging zonder prestatieverlies. Het lijkt eerder nog iets beter te zijn dan verwacht was van 420W.
https://www.igorslab.de/e...y-the-cards-are-so-giant/

Dit zou ook de constant veranderende TDP ratings verklaren die we steeds te horen kregen.
Persoonlijk vind ik dit niet erg want de koeler zal waarschijnlijk minder luid zijn en de videokaart minder warm, een hogere boost vasthouden en beter overclocken. Maar ik snap de AIB partners ook wel want Nvidia is telkens onduidelijk en laat.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Xtr3me4me schreef op vrijdag 7 oktober 2022 @ 09:20:
[...]


Dus als ik het goed begrijp. Nvidia kwam met het design aan de AIB's dat de kaart 600watt zou gaan trekken, dus moesten ze de koeler daarvoor aanpassen.
Is uitgevoerd en al uitgerold en nu komt Nvidia op de proppen zetten dat de kaart geen 600watt trekt maar 450watt, dus de jumbo jet koeling systeem was niet eens zo groot nodig geweest.

Damn, dat is een kick in the teeth door nvidia bij de AIB's. Voor de consument, ja prima als de kaart in de kast past en minder watt verbruikt dan men initieel dacht voor dezelfde prestaties. Maar houd het wel in dat je de kaart gewoon kan overklokken tot de volstrekte 600 watt?

Daarnaast blijken de kaarten een silent mode en performance mode switch te hebben op de kaarten. Is dan de performance mode de stap naar 600watt?
Zo onduidelijk als de pest :P
Nee Nvidia heeft ze maanden geleden gezegd dat het 600W zou worden en kwam in de tussentijd erachter dat 450W ook wel zou gaan lukken. Vervolgens lijken ze stiekem hun FE model wel aangepast te hebben naar de 450W, immers is die toch wat kleiner. De AIB partners lijken te laat of helemaal niet verteld te zijn dat ze naar 450W gingen. Dat past ook precies in het plaatje waarom EVGA ermee gestopt zou zijn.

En 600W gaat niet gebeuren omdat blijkbaar Nvidia hun frequentie/voltage curve maar tot 450W zou gaan. Ze hebben dus geen referentiepunt voor frequenties en voltages. Verder stelt Nvidia al jaren een maximale TDP rating in die AIB's niet mogen passeren. Het schijnt ook EVGA te zijn die dit stiekem probeerde te omzeilen voor extreme overclocking en nooit wou vertellen hoe omdat Nvidia het dan blokkeerde. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Er wordt wel gerapporteerd dat de 4090 FE een max power limit van 600W zou hebben, al kan ik dat moeilijk geloven want meestal zie je niet veel meer dan +10% tegenover de stock TDP.

Het lijkt er wel op dat de 4080 rond de 3 GHz boost haalt. Als je naar de curve in TS kijkt, lijkt hij ook niet echt te zakken qua kloksnelheid. Hoewel max power draw wel 333W leest, zou het wel om een stock TDP kunnen gaan want mijn GPU gaat soms ook kort een paar % boven de limiet. 30-40W voor de VRAM en de rest lijkt met nog niet zo slecht voor GDDR6x.

Afbeeldingslocatie: https://tweakers.net/i/Kom0K8wl-woL9b4w0mWk05rVyoU=/800x/filters:strip_icc():strip_exif()/f/image/wLQJtjD0xClR8BWegSQRcnaY.jpg?f=fotoalbum_large

[ Voor 34% gewijzigd door napata op 07-10-2022 09:48 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
@DaniëlWW2 @Xtr3me4me

https://videocardz.com/ne...atts-with-gpu-stress-tool

Hier toch wel een 4090 die 616 watt trekt.

De AIB pcb's (wellicht het Nvidia pcb ook) én koelers zijn volgens mij dus gewoon voor die 600 watt gemaakt.

Maar even terug met beide benen op de grond kunnen we concluderen dat Nvidia toch hele snelle en redelijke efficiënte videokaarten gaat leveren.
Met helaas een hoog prijskaartje door o.a. TSMC 4nm.

Offtopic maar ik ben zeer benieuwd of AMD nog wel zo rooskleurig tegenover Nvidia gaat uitkomen.
Daar had Igorslab het ook over.
Aangezien AMD nog niet-efficiënte, oudere, processen gebruikt voor de chiplets.
Maar qua prijzen kan AMD dus wel een konijn uit de hoed gaan toveren, denk ik.

[ Voor 69% gewijzigd door HugoBoss1985 op 07-10-2022 10:00 ]


Acties:
  • 0 Henk 'm!

  • Markozv
  • Registratie: December 2017
  • Laatst online: 22-08 15:39
Probleem is wel en niet alleen bij Nvidia is dat als ze de consumenten markt willen blijven aanspreken er op een gegeven moment toch wat drastisch zal moeten veranderen.

Als de middenklasser de kosten straks niet meer kan dragen voor nieuwe hardware zal er veel winst verloren gaan bij hen.

600w of 450w is 150w verschil maar de CPU's daarintegen gaan ook drastisch omhoog met wattage.

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 12-09 22:51
Xtr3me4me schreef op vrijdag 7 oktober 2022 @ 09:26:
[...]


Moet op apart aangesloten worden, zoveel weet ik wel. Is meer dat je op iedere kabel 150 watt gaat trekken. Tevens zit extra sensor kabel aangesloten die de PSU aanspreekt per kanaal.
denk dat 9 van de 10 mensen max 3 * 8pin heeft waarbij je eventueel elke kabel kunt splitten.
Houd denk ik dus in dat veel mensen PSU moeten upgraden ;w

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Lekiame schreef op vrijdag 7 oktober 2022 @ 09:50:
[...]


denk dat 9 van de 10 mensen max 3 * 8pin heeft waarbij je eventueel elke kabel kunt splitten.
Houd denk ik dus in dat veel mensen PSU moeten upgraden ;w
Ja kan zijn inderdaad dat diegene die een 4090 willen zullen moeten upgraden met hun psu.

*knip* offtopic

[ Voor 14% gewijzigd door br00ky op 07-10-2022 13:43 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Markozv schreef op vrijdag 7 oktober 2022 @ 09:48:
Probleem is wel en niet alleen bij Nvidia is dat als ze de consumenten markt willen blijven aanspreken er op een gegeven moment toch wat drastisch zal moeten veranderen.

Als de middenklasser de kosten straks niet meer kan dragen voor nieuwe hardware zal er veel winst verloren gaan bij hen.

600w of 450w is 150w verschil maar de CPU's daarintegen gaan ook drastisch omhoog met wattage.
Een dingentje wat nu echt wel problemen zal gaan opleveren zijn de behuizingen (het formaat) van systeembuilders.
Daar zullen er wel flink wat bij zitten die ook naar een grotere behuizing moeten overstappen willen ze een AIB 4090 kaart gaan gebruiken...
$10 meerprijs per koeler is ook een ding.
En zoals hier/door Igor genoemd wellicht ook een power delivery overkill.

Het zijn allemaal onnodige (zo blijkt nu dus) uitgaven/kosten.

Of je koopt gewoon een 4090 bij Nvidia zelf... goedkoper en een compactere kaart/koeler (zien jullie wat Nvidia gedaan heeft? :+ ) dus geen andere behuizing nodig.

Ik denk overigens ook dat dit verhaal al speelde toen EVGA eruit stapte (immers lagen de kaarten toen al klaar en had EVGA al prototypes)?

[ Voor 13% gewijzigd door HugoBoss1985 op 07-10-2022 10:01 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 09:48:
@DaniëlWW2 @Xtr3me4me

https://videocardz.com/ne...atts-with-gpu-stress-tool

Hier toch wel een 4090 die 616 watt trekt.

Maar even terug met beide benen op de grond kunnen we concluderen dat Nvidia toch hele snelle en redelijke efficiënte videokaarten gaat leveren.
Met helaas een hoog prijskaartje door o.a. TSMC 4nm.

Offtopic maar ik ben zeer benieuwd of AMD nog wel zo rooskleurig tegenover Nvidia gaat uitkomen.
Daar had Igorslab het ook over.
Aangezien AMD nog niet-efficiënte, oudere, processen gebruikt voor de chiplets.
Maar qua prijzen kan AMD dus wel een konijn uit de hoed gaan toveren, denk ik.
Dan zal een 1000 watt toch nog voldoende moeten zijn ervoor, daarnaast denk ik ook niet dat de kaart 600watt continue vraagt. Nog even en moet een stroomcentrale in de tuin zetten om de videokaart van stroom te voorzien.

[ Voor 192% gewijzigd door br00ky op 07-10-2022 13:45 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Xtr3me4me schreef op vrijdag 7 oktober 2022 @ 10:01:
[...]


Dan zal een 1000 watt toch nog voldoende moeten zijn ervoor, daarnaast denk ik ook niet dat de kaart 600watt continue vraagt. Nog even en moet een stroomcentrale in de tuin zetten om de videokaart van stroom te voorzien.
Ik denk dat het daar een zwaar overgeklokte kaart betreft.
Volgens mij zou in theorie een voeding die een 3090ti trekt ook voldoende moeten zijn... korreltje zout.
Tdp = 450 watt maar qua pieken enz. zal het wel een ander verhaal worden.
En die nieuwe stekker heeft dus andere eisen.

Overigens is +-2200 rpm op 100% fan speed zeer en zeer netjes... maar de fans zijn inmiddels ook iets van 100-110mm ?
Temperaturen zijn helaas verborgen maar ik vermoed dat die dus ook zeer laag zijn i.v.m. overkill koelers (tenzij het hier om een Nvidia eigen kaart gaat).

[ Voor 17% gewijzigd door HugoBoss1985 op 07-10-2022 10:05 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 18:28

OMD

Het is ook met Kombuster he, 100% load non-stop. Dit laat zelfs je huidige kaart zweten ten opzichte van je game workloads.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 15:54
HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 10:03:
[...]


Ik denk dat het daar een zwaar overgeklokte kaart betreft.
Volgens mij zou in theorie zou een voeding die een 3090ti trekt ook voldoende moeten zijn... korreltje zout.
Tdp = 450 watt maar qua pieken enz. zal het wel een ander verhaal worden.
En die nieuwe stekker heeft dus andere eisen.
Nvidia geeft zelf aan dat een 850W PSU voor de RTX 4090 voldoende is: https://www.nvidia.com/en...ies-power-specifications/.

Met de RTX 3090 Ti had ik i.c.m. de Corsair RM850x ook geen issues. De 3090 Ti trok zelden 450W, eerder tussen de 410-430W (zonder OC).

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 10:03:
[...]


Ik denk dat het daar een zwaar overgeklokte kaart betreft.
Volgens mij zou in theorie een voeding die een 3090ti trekt ook voldoende moeten zijn... korreltje zout.
Tdp = 450 watt maar qua pieken enz. zal het wel een ander verhaal worden.
En die nieuwe stekker heeft dus andere eisen.

Overigens is +-2200 rpm op 100% fan speed zeer en zeer netjes... maar de fans zijn inmiddels ook iets van 100-110mm ?
Temperaturen zijn helaas verborgen maar ik vermoed dat die dus ook zeer laag zijn i.v.m. overkill koelers (tenzij het hier om een Nvidia eigen kaart gaat).
Dat denk ik ook. Ik denk als je de kaart gewoon in performance mode zet het 450 watt trekt. Daarnaast ligt eraan of je overklokt zelf dan kun je inderdaad die 600watt reiken en uiteraard welke GPU model je neemt, OC of niet.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Xtr3me4me schreef op vrijdag 7 oktober 2022 @ 10:07:
[...]


Dat denk ik ook. Ik denk als je de kaart gewoon in performance mode zet het 450 watt trekt. Daarnaast ligt eraan of je overklokt zelf dan kun je inderdaad die 600watt reiken en uiteraard welke GPU model je neemt, OC of niet.
Ja ik denk ook dat bij de AIB kaarten het enige wat je tegen kan/gaat houden is het bios :P
Want het lijkt er nu dus gewoon op dat deze kaarten geheel zijn klaar gestoomd (punt intended) voor 600 watt.

Wat ik me nu bedenk is dat er dus ook voordelen zijn voor de AIB's en ook voor de consumenten om voor AIB's te gaan.
Wellicht meer dan vorige generaties...
Formaat = voordeel en nadeel (koelingsvoordeel, nadeel formaat = grotere behuizing) want koeling en geluidsniveau zal véél beter zijn dan een Nvidia eigen kaart.
En je kan door een AIB kaart 600+ watt (voordeel en nadeel met stroomverbruik en warmte) pompen en dus mooi overklokken.

Wellicht zijn de pcb's van Nvidia kaarten gericht op max 450 watt en het bios dus ook (lekker kosten besparen door Nvidia zelf)?

[ Voor 36% gewijzigd door HugoBoss1985 op 07-10-2022 10:15 ]


Acties:
  • 0 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 15:54
HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 10:08:
[...]


Ja ik denk ook dat bij de AIB kaarten het enige wat je tegen kan/gaat houden is het bios :P
Want het lijkt er nu dus gewoon op dat deze kaarten geheel zijn klaar gestoomd (punt intended) voor 600 watt.
En dan toch is daar de vraag: wat levert dat de gemiddelde consument op? 🤔

Natuurlijk heb ik in het verleden ook gestoeid met een overclock hier-en-daar, maar dat was dan vooral om te kijken hoever ik de kaart kon pushen in benchmarks, zoals TimeSpy. Echter, bij het spelen van games leverde het zelden een noemenswaardige performance gain op.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Yonix schreef op vrijdag 7 oktober 2022 @ 10:15:
[...]


En dan toch is daar de vraag: wat levert dat de gemiddelde consument op? 🤔

Natuurlijk heb ik in het verleden ook gestoeid met een overclock hier-en-daar, maar dat was dan vooral om te kijken hoever ik de kaart kon pushen in benchmarks, zoals TimeSpy. Echter, bij het spelen van games leverde het zelden een noemenswaardige performance gain op.
Ik vraag me af welke gek +150 watt voor lief gaat nemen :+

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 12-09 22:51
*knip* offtopic

[ Voor 95% gewijzigd door br00ky op 07-10-2022 13:46 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 09:48:
@DaniëlWW2 @Xtr3me4me

https://videocardz.com/ne...atts-with-gpu-stress-tool

Hier toch wel een 4090 die 616 watt trekt.

De AIB pcb's (wellicht het Nvidia pcb ook) én koelers zijn volgens mij dus gewoon voor die 600 watt gemaakt.

Maar even terug met beide benen op de grond kunnen we concluderen dat Nvidia toch hele snelle en redelijke efficiënte videokaarten gaat leveren.
Met helaas een hoog prijskaartje door o.a. TSMC 4nm.

Offtopic maar ik ben zeer benieuwd of AMD nog wel zo rooskleurig tegenover Nvidia gaat uitkomen.
Daar had Igorslab het ook over.
Aangezien AMD nog niet-efficiënte, oudere, processen gebruikt voor de chiplets.
Maar qua prijzen kan AMD dus wel een konijn uit de hoed gaan toveren, denk ik.
Een GPU powerlimiet van 500W zou op zijn zachts gezegd behoorlijk zijn.
Maar als je hiermee 3GHz haalt terwijl je waarschijnlijk met 450W voor de hele videokaart, alsnog boven de 2600MHz zit, is niet bepaald efficiënt.

offtopic:
Tweede is dat ik het stuk over AMD bewust genegeerd heb omdat ik niet begrijp wat hij nu precies zegt. Ook snap ik de logica niet.
Uitgaande dat het inderdaad 50% en 140% meer alsmede 50% hogere perf/watt dan N21, tja dan moet AMD enorme problemen ervaren met MCM. Neem alleen N32 al. 7680 ALU's @300W en geen clock speed verbetering dus 2300MHz. Als het slecht schaalt en 30% sneller is dan de RX6900XT, tja dan zou je al ongeveer op RTX4080 16GB niveau moeten zitten. Vervolgens zou er nog een chip zijn die veel, veel groter is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Wimo.
  • Registratie: Maart 2000
  • Laatst online: 15:02

Wimo.

Shake and Bake!

Ik vind het allemaal wel mooi. 600+W is geen probleem. Mijn 3080 blijft hangen op 2300mhz i.c.m. chiller dus 3000+ gaat echt een enorme verbetering opleveren. Nu nog een keuze maken welke versie te preorderen..

Acties:
  • 0 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 15:54
*knip* offtopic

[ Voor 96% gewijzigd door br00ky op 07-10-2022 13:47 ]


Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

*knip* offtopic

[ Voor 95% gewijzigd door br00ky op 07-10-2022 13:47 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +3 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 16:29

br00ky

Moderator Harde Waren
Modbreak:De topic warning lijkt me duidelijk genoeg. Waarom hier dan hele verhalen langskomen over eigen voedingen is me niet duidelijk. Tuurlijk, nieuws over verbruik van kaarten kan hier prima maar welke voeding je zelf hebt en of dat gaat lukken hoort hier niet thuis.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

DaniëlWW2 schreef op vrijdag 7 oktober 2022 @ 09:01:
Igorslab heeft ook weer informatie vanuit de AIB's. :)
Die schijnen alweer boos op Nvidia te zijn omdat Nvidia ze had verteld dat de RTX4090 een 600W GPU zou worden. Dus hebben ze videokaarten ontwikkeld voor 600W en toen bleek de RTX4090 een 450W GPU te worden. Dat kost ze $10+ aan koeling die ze graag hadden bespaard. Ook ziet dit er niet goed uit omdat mensen die enorme koelers belachelijk aan het maken zijn.

Dit lijkt gebeurd te zijn omdat Nvidia een inschatting maakte voor hogere clock speeds met Ampere op Samsung 8nm als basis. Daarvoor hadden ze 600W nodig gehad omdat Samsung zo inefficiënt is. TSMC 4N lijkt ondertussen goede yields te hebben zowel in kwantiteit als kwaliteit, waardoor Nvidia ook naar 450W kon gaan.

Hetzelfde gebeurden ook met de RTX4080 die van 420W naar 340W en uiteindelijk naar 320W ging zonder prestatieverlies. Het lijkt eerder nog iets beter te zijn dan verwacht was van 420W.
https://www.igorslab.de/e...y-the-cards-are-so-giant/

Dit zou ook de constant veranderende TDP ratings verklaren die we steeds te horen kregen.
Toch wel redelijk tenenkrommend van Nvidia, maar het verbaast mij ook niets met de arrogante houding.
Voor ons als consument zijn de absurde koelers dan weer fijn nieuws eigenlijk.
Als de stroomvoorziening ook werkelijk berekend is op 600W, dan kunnen de kaarten bij 450W relatief erg stil zijn met weinig tot geen merkbare coilwhine.

Alleen 450W stil uit de kast krijgen is een 2e :P

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Lekiame schreef op vrijdag 7 oktober 2022 @ 09:24:
Moet de 4090 trouwens worden aangesloten op 4 aparte PCI-E 8 pin kabels?
Of mag er 1 van de 4 ook worden gesplit op 1 kabel?
In principe heb je al aan 2x PCIe 6-8pin connectoren genoeg. Maar omdat er destijds een conservatief vermogen van 150W per aansluiting als norm is gekozen, zie je nu dit soort belachelijke constructies.
Eigenlijk zouden ze de PCIe connector opnieuw moeten waarderen en de grens verhogen, maar Nvidia zal dit ongetwijfeld weer blokkeren omdat dan goed zichtbaar wordt hoe weinig voordeel de nieuwe 12VPHWR connector bied. Om deze manier ziet het er natuurlijk wel uit alsof de 12VPHWR zo fantastisch is :F |:(

Voor een verloop van 1 naar 4x zal je helaas alle 4 de connectoren moet gebruiken. Persoonlijk zou ik ook geen splitters gebruiken. Hoe meer overgangen er zijn, hoe groter de kans is dat het ergens mis kan gaan.
Neem in plaats daarvan een zinnig verloop van 1x naar 2x of 1x naar 3x (om op safe te spelen).

[ Voor 17% gewijzigd door CMT op 07-10-2022 15:20 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op vrijdag 7 oktober 2022 @ 15:01:
[...]

Toch wel redelijk tenenkrommend van Nvidia, maar het verbaast mij ook niets met de arrogante houding.
Voor ons als consument zijn de absurde koelers dan weer fijn nieuws eigenlijk.
Als de stroomvoorziening ook werkelijk berekend is op 600W, dan kunnen de kaarten bij 450W relatief erg stil zijn met weinig tot geen merkbare coilwhine.

Alleen 450W stil uit de kast krijgen is een 2e :P
Voor €2000 mag je ook wel een 450W videokaart met een 600W koeloplossing hebben die doodstil is. ;)
Maar het laat wederom zien dat EVGA waarschijnlijk niet loog over hun vertrek. Want zo laat je je "partners" weer flink zitten. Zeker omdat het FE model veel meer rond de 450W ontworpen lijkt te zijn met een relatief veel kleiner koelblok en twee ventilatoren. Nvidia maakt al iets waar op esthetische kwaliteit, simpelweg niet tegen te concurreren valt. En nu lijkt het erop dat het product ook nog eens beter toegespitst kan zijn op de gebruikerservaring. Want wie zit er nu precies te wachten op meer dan drie slot videokaarten met zo'n enorm formaat en gewicht dat een beugel geen overbodige luxe meer lijkt?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 09:48:
@DaniëlWW2 @Xtr3me4me
Maar even terug met beide benen op de grond kunnen we concluderen dat Nvidia toch hele snelle en redelijke efficiënte videokaarten gaat leveren.
Met helaas een hoog prijskaartje door o.a. TSMC 4nm.
4N is niet 4nm. Het is een 5nm custom node voor Nvidia. Ze zullen vast efficienter zijn dan Ampere maar daar heb je niet veel voor nodig :+.
Aangezien AMD nog niet-efficiënte, oudere, processen gebruikt voor de chiplets.
Zou je dit willen toelichten, ik snap niet wat je hier precies mee bedoelt? AMD zit gewoon ook op 5nm (en 6nm voor de Infinity Cache als de geruchten kloppen), alleen is het geen custom node.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Sp3ci3s8472 schreef op vrijdag 7 oktober 2022 @ 15:45:
[...]

4N is niet 4nm. Het is een 5nm custom node voor Nvidia. Ze zullen vast efficienter zijn dan Ampere maar daar heb je niet veel voor nodig :+.


[...]

Zou je dit willen toelichten, ik snap niet wat je hier precies mee bedoelt? AMD zit gewoon ook op 5nm (en 6nm voor de Infinity Cache als de geruchten kloppen), alleen is het geen custom node.
Ach, je begrijpt/begreep wat ik bedoelde... ik zit niet zo diep in de materie als jij ;)

Ik kan je aanraden om het stukje van Igorslab even te lezen, daar doelde ik eigenlijk op met mijn laatste stukje tekst.

https://www.igorslab.de/e...y-the-cards-are-so-giant/

I don’t presume to be able to really assess AMD’s next generation, but according to all available information, it should hardly be possible to create the targeted power consumption AND increase the performance as much as NVIDIA might have managed thanks to TSMC with the older nodes.

Nu ik het na lees heb ik het wellicht verkeerd gelezen/begrepen?
Maar ik had in het achterhoofd dat Nvidia duurdere/nieuwere/efficiëntere/betere nodes gebruikt t.o.v. AMD (vandaar mijn conclusie n.a.v. het artikel)

Kijk ook even wat @DaniëlWW2 hierover eerder postte.
Wellicht kan hij het beter toelichten want hij snapt het vast (beter dan ik) :P

DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

[ Voor 40% gewijzigd door HugoBoss1985 op 07-10-2022 15:58 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@HugoBoss1985 Nvidia gebruikt zeer waarschijnlijk N5 waarbij ze extra veel nadruk hebben gelegd op dichtheid. Vervolgens noemen ze het 4N. Het is niet N4, maar de transistordichtheid is wel fors. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 15:48:
[...]


Ach, je begrijpt/begreep wat ik bedoelde... ik zit niet zo diep in de materie als jij ;)

Ik kan je aanraden om het stukje van Igorslab even te lezen, daar doelde ik eigenlijk op met mijn laatste stukje tekst.

https://www.igorslab.de/e...y-the-cards-are-so-giant/

I don’t presume to be able to really assess AMD’s next generation, but according to all available information, it should hardly be possible to create the targeted power consumption AND increase the performance as much as NVIDIA might have managed thanks to TSMC with the older nodes.

Nu ik het na lees heb ik het wellicht verkeerd gelezen/begrepen?
Maar ik had in het achterhoofd dat Nvidia duurdere/nieuwere/efficiëntere/betere nodes gebruikt t.o.v. AMD (vandaar mijn conclusie n.a.v. het artikel)

Kijk ook even wat @DaniëlWW2 hierover eerder postte.
Wellicht kan hij het beter toelichten want hij snapt het vast (beter dan ik) :P

DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Hah dank voor de directe quote!

Is Igor niet Duits? Want dat zou het verklaren; hij doelt met "with the older nodes" op de Samsung node waar Nvidia vandaan komt. De stap die Nvidia nu maakt van Samsung naar TSMC is iets groter dan die AMD nu maakt.
Het is een hele kromme zinsopbouw :+.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Sp3ci3s8472 schreef op vrijdag 7 oktober 2022 @ 16:17:
[...]


Hah dank voor de directe quote!

Is Igor niet Duits? Want dat zou het verklaren; hij doelt met "with the older nodes" op de Samsung node waar Nvidia vandaan komt. De stap die Nvidia nu maakt van Samsung naar TSMC is iets groter dan die AMD nu maakt.
Het is een hele kromme zinsopbouw :+.
:D gelukkig lag het niet alleen aan mij en als @DaniëlWW2 zegt dat hij niet helemaal snapt/begrijpt voel ik me ook niet zo slecht :+

Ja, hij is Duits.
En ik denk dat het inderdaad zo te lezen is als jij stelt (maar kortom geeft hij wel aan dat hij vermoed dat AMD achterloopt/nadeel heeft).
Maar wellicht doelt hij alleen op het verschil in stap tussen de twee, zoals jij noemt!

[ Voor 15% gewijzigd door HugoBoss1985 op 07-10-2022 16:23 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Ik ben nu vooral benieuwd naar de cijfers van een undervolted 4090. Zou je die zo goed als passief kunnen koelen op 250-300W? De helft van de target board power is immers best een gigantisch verschil.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 7 oktober 2022 @ 16:17:
[...]


Hah dank voor de directe quote!

Is Igor niet Duits? Want dat zou het verklaren; hij doelt met "with the older nodes" op de Samsung node waar Nvidia vandaan komt. De stap die Nvidia nu maakt van Samsung naar TSMC is iets groter dan die AMD nu maakt.
Het is een hele kromme zinsopbouw :+.
Ik begreep ook eerst echt niks van dat stukje. :P

Maar ik vermoed dat hij bedoeld dat hij het ook niet weet met AMD. Dat is logisch want het is AMD.
Vervolgens denkt hij dat AMD niet zo'n grote perf/watt verbetering zal zien en moet kiezen tussen perf en watt. Maar daar plaats ik eigenlijk mijn twijfels bij. RTX4090 lijkt zeker 50% perf/watt te gaan halen over de RTX3090Ti. Maar gaat de RTX4080 wel 50% sneller zijn dan de RTX3080? Immers beiden 320W. Het kan misschien net als de RTX4080 ongeveer 30% sneller uitvalt dan de RTX3090Ti.

offtopic:
Ondertussen loopt AMD al een tijdje te trollen met perf/watt en hun 50%. Hoe ze dat invullen is altijd de vraag. Als je het letterlijk neemt dan krijg je: 225W = RX6800XT/6900XT, 300W = RTX6900XT+50%. Dat zou aardig overeen kunnen komen met N33 en N32.
Grote vraag daarin is N31. Het waarschijnlijke monster is moeilijk in te schatten, veel lastiger dan Lovelace of de rest van RDNA3, zowel hoe die nu echt zou gaan presteren als waar de limieten kunnen liggen als verbruik.


Een van de redenen waarom MCM niet zomaar gedaan word door Nvidia en Intel is dat de verbinding tussen je chiplets ook veel energie kost. Voor AMD was het uiteindelijk ook een wanhoopsactie omdat ze iets moesten doen. IF bleek een ongelofelijk succes te zijn. Nu heeft AMD het redelijk onder controle, maar dat is geen dat het perfect werkte. En ook AMD vindt het nog steeds nodig om APU's monolithisch te maken en dit is de voornaamste reden.

TSMC speelt hier op de achtergrond ook een grote rol in omdat zij de verbindingen mogelijk maken met een speciale substraattechnologie InFO_oS. Het is dus zeker niet buiten bereik voor Nvidia, maar ze hebben er duidelijk niet voor gekozen en het gaat ze deze generatie waarschijnlijk opbreken als AMD zichzelf niet alweer in de voet schiet, met een spoorwegkanon. :z

[ Voor 67% gewijzigd door DaniëlWW2 op 07-10-2022 17:26 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Zijn Engelse vertalingen vind ik helaas wel vaker wat 'stroef'.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13
Help!!!! schreef op vrijdag 7 oktober 2022 @ 17:06:
^
Zijn Engelse vertalingen vind ik helaas wel vaker wat 'stroef'.
Schadenfreude (zoals uit het artikel). :+
Het is offtopic, sorry ik kon het niet laten

Zeker met vertalen naar een vreemde taal kun je beter "KISS" aanhouden ;) (hij gebruikt behoorlijke ingewikkelde Engelse woorden)

[ Voor 19% gewijzigd door HugoBoss1985 op 07-10-2022 17:12 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
@HugoBoss1985 Nvidia heeft wel vaker aangepaste varianten van procedé's. Zo gebruikten ze "12FFN" van TSMC, wat niet standaard is. 12FF (zonder N dus) bestaat wel en is een verbeterde versie van 16FF: ander cel ontwerp waardoor alles net even iets sneller kan tikken zonder meer sap, en dichter op elkaar kan. Nvidia's versie van 12FF nam wel het cel ontwerp over (waardoor ze meer performance er uit kregen), maar niet de dichtheid, waardoor Turing (gemaakt op 12FFN) dezelfde dichtheid had als Pascal (gemaakt op 16FF), maar wel iets hoger klokte.

Verder zaten zij met Ampère op Samsung's 8N, wat een verbeterde versie van Samsung's "10nm" procedé is. AMD daarentegen zat met RDNA2 op TSMC's N7, wat een stap verder is. Moet wel gezegd worden dat Samsung iets anders werkt dan TSMC en de cijfers dus niet helemaal gelijk lopen. Samsung's 14nm is bijvoorbeeld vergelijkbaar met TSMC's 16/12 (12 was niet zo heel boeiend). Hun "8nm" zit ergens tussen 10nm van zowel TSMC als zij zelf, en TSMC's N7.

Acties:
  • +1 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Zou dat echt waar zijn 600->450 W en is daarom de koeling bij de AIB's zo gigantisch en zou het nu overkill zijn?

offtopic:
De strix past niet eens in mijn kast. Heb de MSI LIquid op het oog maar had twijfels bij de kleine radiator, die zou na dit nieuws wellicht wel afdoende zijn. Vraag me alleen af welke pomp ze gebruiken. Op reddit las ik dat je geen Apaltek moet hebben?
Founders ziet er ook nog steeds goed uit, maar of die voldoende leverbaar is om er niet naast te grijpen

https://www.reddit.com/r/...th_of_4090_suprim_liquid/

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Als je een 4090 bestelt is het meebestellen van een passende kast hooguit wat wisselgeld toch.... 8)

Dat filmpje van JayzTwocents wat hier gedeeld werd geeft trouwens wel goed aan hoe insane groot die 4090 FE is, laat staan de AIB versies....

[ Voor 42% gewijzigd door Help!!!! op 07-10-2022 19:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

HugoBoss1985 schreef op vrijdag 7 oktober 2022 @ 16:18:
[...]


:D gelukkig lag het niet alleen aan mij en als @DaniëlWW2 zegt dat hij niet helemaal snapt/begrijpt voel ik me ook niet zo slecht :+

Ja, hij is Duits.
En ik denk dat het inderdaad zo te lezen is als jij stelt (maar kortom geeft hij wel aan dat hij vermoed dat AMD achterloopt/nadeel heeft).
Maar wellicht doelt hij alleen op het verschil in stap tussen de twee, zoals jij noemt!
Het is erg verwarrend inderdaad. Ik lees het als volgt; dat Igor's vermoeden is dat het voor AMD bijna onmogelijk is om zowel het vermogen toename (target = 450W), als de efficiëntie toename te behalen die Nvidia gekregen heeft, door van Samsung 8N naar TSMC 5N (4N) te gaan.
Hij doet verder geen uitspraak over de verwachte prestaties & efficiëntie van de aanstaande AMD RX4**** serie. Het kan dus best zijn dat het zo meteen op gelijke voet is qua efficiëntie, maar dat mogelijk de RX4900XT het niet kan bijbenen t.o.v. een RTX4090 (*heerlijke* naamgevingen :P), vanwege een kleiner vermogenbudget.

Pakken we echter het marketingplaatje van Nvidia met Overwatch2 dan is de efficiëntietoename (507fps / 450W) / (249fps / 300W 320W) = 1.45x, Oftewel 45% t.o.v. een RTX3080.
We weten allemaal dat een RX6900XT sneller is dan een RTX3080, dus als AMD de 'tot' 50% efficiëntietoename kan waarmaken dan heeft Nvidia alsnog een probleem. In ieder geval bij spellen die meer leunen op de GPU geheugensnelheid.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:38
CMT schreef op vrijdag 7 oktober 2022 @ 20:31:
[...]


Pakken we echter het marketingplaatje van Nvidia met Overwatch2 dan is de efficiëntietoename (507fps / 450W) / (249fps / 300W) = 1.36x, Oftewel maar 36% t.o.v. een RTX3080.
We weten allemaal dat een RX6900XT sneller is dan een RTX3080, dus als AMD de 'tot' 50% efficiëntietoename kan waarmaken dan heeft Nvidia alsnog een probleem. In ieder geval bij spellen die meer leunen op de GPU geheugensnelheid.
Moet die 300W geen 320W zijn? Ik kom dan uit op +-1,45

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

@Dennism
Ik heb als uitgangspunt de average gaming power consumption van TPU gepakt. Daar wordt 303W aangegeven voor een RTX3080FE: https://www.techpowerup.c...-founders-edition/31.html
Is het werkelijk 320W?

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:38
CMT schreef op vrijdag 7 oktober 2022 @ 20:54:
@Dennism
Ik heb als uitgangspunt, de average gaming power consumption van TPU gepakt. Daar wordt 303W aangegeven voor een RTX3080FE: https://www.techpowerup.c...-founders-edition/31.html
Is het werkelijk 320W?
TBP van de 3080 is 320W, TBP van de 4090 is 450W, lijkt me handig om die waarde te rekenen voor beide kaarten wanneer je dat in ieder geval voor 1 kaart doet :) Average power consumption van een 4090 weten we immers nog niet, en kunnen we dus ook nog niet mee rekenen.

Zie o.a. https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621 (al noemen ze TBP hier TDP, wat volgens mij niet correct is).
En https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889

[ Voor 13% gewijzigd door Dennism op 07-10-2022 20:59 ]


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Je hebt helemaal gelijk, ik heb het nu aangepast. Voor de rest van de redenering veranderd er niet veel.
Ik denk dat het nog wel eens spannend kan gaan worden ^^.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:38
@CMT

Kijk je naar de 3080 10GB en de 4080 16GB is het +-1,48 trouwens.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Ik zie het (had er nog niet naar gekeken). Liever heb ik een RTX3090 als referentie, maar die moet ongeveer even efficiënt zijn als een RTX3080 10GB. Met een vlaggenschip model gaat een beetje efficiëntie vaak overboord.

Kon ik maar een maand in de toekomst kijken *zucht* O-)

Acties:
  • +2 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Help!!!! schreef op vrijdag 7 oktober 2022 @ 19:51:
^
Als je een 4090 bestelt is het meebestellen van een passende kast hooguit wat wisselgeld toch.... 8)

Dat filmpje van JayzTwocents wat hier gedeeld werd geeft trouwens wel goed aan hoe insane groot die 4090 FE is, laat staan de AIB versies....
offtopic:
Nee, maar als het niet loont zo'n bakbeest te halen bespaar ik me de moeite van alles over te zetten in een nieuwe kast ;)


Reviews komen geloof ik een dag eerder, de 11e, dan de start van de verkoop?

Niet op voorraad.


Acties:
  • +4 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
https://videocardz.com/ne...t-82-faster-than-rtx-3090

https://videocardz.com/ne...3w-peak-power-consumption

GeForce RTX 4090/3090 performance uplift:

FireStrike Ultra: 2.00x – 2.04x
TimeSpy Extreme: 1.84x – 1.89x
Port Royal: 1.82x – 1.86x

[ Voor 25% gewijzigd door Paprika op 08-10-2022 15:59 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Ik geloof wel dat port Royal's RT nog aangepast moet worden aan Ada's micro mesh- en shaderengine, dus dat verschil kan dus verder oplopen bij een evt. update.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

edward2 schreef op vrijdag 7 oktober 2022 @ 19:41:
[...]


Zou dat echt waar zijn 600->450 W en is daarom de koeling bij de AIB's zo gigantisch en zou het nu overkill zijn?

offtopic:
De strix past niet eens in mijn kast. Heb de MSI LIquid op het oog maar had twijfels bij de kleine radiator, die zou na dit nieuws wellicht wel afdoende zijn. Vraag me alleen af welke pomp ze gebruiken. Op reddit las ik dat je geen Apaltek moet hebben?
Founders ziet er ook nog steeds goed uit, maar of die voldoende leverbaar is om er niet naast te grijpen

https://www.reddit.com/r/...th_of_4090_suprim_liquid/
Die 600w waren geruchten. Maar vaak is ook niet duidelijk of engineering sample of power test was.
Maar wat men ook vaak niet duidelijk is of het voor 4090 of 4090ti. Test kan dus volledige ad102 zijn.
En 4090ti zal stock ruim over de 450 zijn. En als navi31 rond de 4090 presteert kan 4090ti een titan worden en mogelijk niet eens volledig enabled ad102. En als navi31 tegenvalt zelf niet al te veel meer dan 450 mogelijk 500 tot 550 wat.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
edward2 schreef op zondag 9 oktober 2022 @ 00:06:
Ik geloof wel dat port Royal's RT nog aangepast moet worden aan Ada's micro mesh- en shaderengine, dus dat verschil kan dus verder oplopen bij een evt. update.
Dat gaat niet gebeuren totdat het deel wordt van DX12, als dat al gebeurt :)

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:13

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38

Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Nu weet ik niet hoe echt dit is, maar goed.

RTX 4090 24GB vs RTX 3090 Ti 24GB | PC Gameplay Tested in 7 Games in 4K

YouTube: RTX 4090 24GB vs RTX 3090 Ti 24GB | PC Gameplay Tested in 7 Games in 4K

Dit is zonder RT en zonder DLSS aan.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 18:28

OMD

Xtr3me4me schreef op zondag 9 oktober 2022 @ 21:12:
Nu weet ik niet hoe echt dit is, maar goed.

RTX 4090 24GB vs RTX 3090 Ti 24GB | PC Gameplay Tested in 7 Games in 4K

YouTube: RTX 4090 24GB vs RTX 3090 Ti 24GB | PC Gameplay Tested in 7 Games in 4K

Dit is zonder RT en zonder DLSS aan.
Als het echt is dan is het in ieder geval bij lange na geen 2x. Maar goed, volgens mij zijn er nog niet eens officiele drivers beschikbaar. Het kan ook zijn dat dit een reviewer is en hij een apart kanaal heeft voor "leaks"

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
OMD schreef op zondag 9 oktober 2022 @ 21:51:
[...]
Als het echt is dan is het in ieder geval bij lange na geen 2x. Maar goed, volgens mij zijn er nog niet eens officiele drivers beschikbaar. Het kan ook zijn dat dit een reviewer is en hij een apart kanaal heeft voor "leaks"
Volgens de presentatie van Nvidia zelf is het ook geen 2x zonder toepassing van DLSS 3.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 18:28

OMD

Ludewig schreef op zondag 9 oktober 2022 @ 22:03:
[...]


Volgens de presentatie van Nvidia zelf is het ook geen 2x zonder toepassing van DLSS 3.
Dat klopt, bedoelde het ook meer als teleurstelling. Had meer verwacht na de leaks van afgelopen dagen.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Xtr3me4me schreef op zondag 9 oktober 2022 @ 21:12:
Nu weet ik niet hoe echt dit is, maar goed.

RTX 4090 24GB vs RTX 3090 Ti 24GB | PC Gameplay Tested in 7 Games in 4K

YouTube: RTX 4090 24GB vs RTX 3090 Ti 24GB | PC Gameplay Tested in 7 Games in 4K

Dit is zonder RT en zonder DLSS aan.
Nul variatie in kloksnelheid over meerdere games. Het kan maar dan moet je het al manueel gaan vastzetten en waarom zou je dat doen in een dergelijke test.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

OMD schreef op zondag 9 oktober 2022 @ 22:14:
[...]


Dat klopt, bedoelde het ook meer als teleurstelling. Had meer verwacht na de leaks van afgelopen dagen.
Zelfs in de presentatie slides van Nvidia was het vaak lager als er geen DLSS 3 was. Dus waarom zou het hoger zijn :p.

Acties:
  • +4 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Wat een onzin kanaal. Drie filmpjes, statische waardes voor de kloksnelheid, het geheugen van beide kaarten is identiek, maar de 4090 gebruikt altijd 12.xxx-13.xxx waar de 3090 Ti altijd op 11.xxx-12.xxx zit voor dezelfde instellingen en dezelfde scene :+. Gelukkig zijn dit soort filmpjes op reddit niet toegestaan.

Afbeeldingslocatie: https://tweakers.net/i/-rO4zGghCNq7Hnayfi16DP7OEg4=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/hvo8w29arTBRs01l0zDzBTka.jpg?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/i0oKWD0P9ib3yPa76ThHHAYiEAQ=/800x/filters:strip_exif()/f/image/ZvwH9ru2M1rKT9CEdPnHAD4A.png?f=fotoalbum_large

Er is geen enkele reden waarom een game met een kaart met evenveel beschikbare vram opeens 50% meer nodig heeft. De cijfers zelf zijn willekeurige waardes doorberekend op basis van wat men al weet, dus die hoeven niet super ver van de waarheid af te liggen, maar het zijn puur fictieve cijfers.

[ Voor 71% gewijzigd door Paprika op 10-10-2022 03:28 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
https://www.reddit.com/r/...m=ios_app&utm_name=iossmf

Zelfs prima formaat cases hebben dus problemen met sommige 4090 modellen :+. Betreft dus niet de XL versie van die case of het zou echt helemaal uit de hand lopen.

[ Voor 16% gewijzigd door Paprika op 10-10-2022 08:04 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 14:54
Ze zijn idd enorm, toen ik een paar jaar geleden m'n kast aan het ontwerpen was was de grootste kaart in de pricewatch een 2080ti van 32 cm. Nu dus nog 4cm langer en een extra slot
Er is dacht ik ook nog een rx6900 die langer dan 32cm is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op maandag 10 oktober 2022 @ 07:59:
https://www.reddit.com/r/...m=ios_app&utm_name=iossmf

Zelfs prima formaat cases hebben dus problemen met sommige 4090 modellen :+. Betreft dus niet de XL versie van die case of het zou echt helemaal uit de hand lopen.
Dat filmpje van JayzTwoCents liet ook goed zien hoe insane groot die 4090 kaarten zij.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:20
De lengte vind ik met mijn kast geen enkel probleem. Mijn kast heeft ruimte voor een kaart van 42.5 cm
Wat wel een probleem is us het gewicht dat aan je PCI Express slot hangt en de hoogte van de kaart.
Support voor de gpu is gewoon broodnodig geworden.
En ik heb met deze dikke kaarten geen ruimte meer voor een exit fan onder mijn gpu bij de 4 pci sloten zoals ik dat nu heb met mijn 6900XT. Dat scheelt echt heel veel in de temps omdat dat fannetje de warme lucht onder mijn gpu vandaan zuigt en mijn hele kast zo elke paar seconden van verse koele lucht voorziet.
Het scheelde echt gewoon 8 graden in intake temps van mijn gpu en 3 graden bij de cpu.

Met nog meer hitte in je kast word dat dus alleen maar belangrijker. En mijn kast is echt geen slechte voor airflow. (H500p mesh zonder fijne mesh met dus wat airflow mods).


Edit: typo

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
@computerjunky

Ik vraag me af of een videokaart ook echt gaat hangen? Ik neem aan dat de kaart met 3 schoeven word vast gezet aan de achterkant, komt dan niet alle druk op het voorste gedeelte te liggen?

Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

ItalianStyle schreef op maandag 10 oktober 2022 @ 12:46:
@computerjunky

Ik vraag me af of een videokaart ook echt gaat hangen? Ik neem aan dat de kaart met 3 schoeven word vast gezet aan de achterkant, komt dan niet alle druk op het voorste gedeelte te liggen?
Ik geloof bij elke kaart zit er een ondersteuningspilaartje bij. In ieder geval wel bij de MSI en ASUS modellen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
computerjunky schreef op maandag 10 oktober 2022 @ 12:25:
De lengte vind ik met mijn kast geen enkel probleem.
Het probleem is eerder de breedte van de kaarten. Zo vermeldt Corsair bij jouw kast een maximale hoogte voor de CPU koeler van 190mm, terwijl de AORUS dus 165mm breed/diep is zonder(!) de voedingskabel en die zal dus nog verder uitsteken. Dan is 2.5 cm aan marge met zulke dikke en stugge kabels + de connector zelf opeens heel weinig.

[ Voor 7% gewijzigd door Paprika op 10-10-2022 13:16 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Paprika schreef op maandag 10 oktober 2022 @ 13:14:
[...]

Het probleem is eerder de breedte van de kaarten. Zo vermeldt Corsair bij jouw kast een maximale hoogte voor de CPU koeler van 190mm, terwijl de AORUS dus 165mm breed/diep is zonder(!) de voedingskabel en die zal dus nog verder uitsteken. Dan is 2.5 cm opeens heel weinig.
Ik snap alleen niet, waarom perse de aansluiting voor stroom daar moet zitten. Ja ok de PCB is zo gemaakt, maar de positie van de 16pin is gewoon ruk.

In ieder geval, heb zelf ook de Corsair 500p mesh Big Tower en 190mm maximale cpu hoogte, echter denk ik niet dat de kabel heel veel issue zal geven.
Ben het met je eens, veel ruimte zit er niet tussen met het glas, maar goed, denk zelf dat het wel gaat passen.
Voor mij wordt het of MSI Suprim, ASUS Rog of Gigabyte Aorus Master model. Klote is, dat NL shops nog steeds geen prijzen geven tot de 12e om 15:00, dat zodra je refresh geeft je enorm zit te twijfelen van welke te doen en dan opeens naast de boot pist wanneer je wilt afrekenen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Xtr3me4me schreef op maandag 10 oktober 2022 @ 13:19:
[...]
Voor mij wordt het of MSI Suprim, ASUS Rog of Gigabyte Aorus Master model. Klote is, dat NL shops nog steeds geen prijzen geven tot de 12e om 15:00, dat zodra je refresh geeft je enorm zit te twijfelen van welke te doen en dan opeens naast de boot pist wanneer je wilt afrekenen.
De drie modellen die je nu noemt gaan echt niet binnen een minuut uitverkocht zijn. Voor de 3080 van MSI had je bij de launch 'n kwartier de tijd alleen wilde iedereen eerst een FE. De 3090 was sowieso geen probleem de eerste dag. Nu zijn er volgens de geruchten meer kaarten, het animo is overduidelijk nog geen 1/10e van wat het was (ik neig zelfs naar veel minder dan dat) én je wil geen FE kaart.

[ Voor 3% gewijzigd door Paprika op 10-10-2022 13:25 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Paprika schreef op maandag 10 oktober 2022 @ 13:23:
[...]

De drie modellen die je nu noemt gaan echt niet binnen een minuut uitverkocht zijn. Voor de 3080 van MSI had je bij de launch 'n kwartier de tijd alleen wilde iedereen eerst een FE. Nu zijn er volgens de geruchten meer kaarten, het animo is overduidelijk nog geen 1/10e van wat het was (ik neig zelfs naar veel minder dan dat) én je wil geen FE kaart.
Ik heb geen idee of ze snel uitverkocht zullen zijn. Ik heb namelijk geen idee hoeveel de shop in voorraad zal hebben liggen.
Ik heb nu een 3090FE en wil dit keer iets anders, zit alleen in dubio welke te doen. Prijs maakt mij niks uit, wil alleen een goed model hebben. Ik neigde altijd naar Asus, Gigabyte heb ik alleen voor de 1080 gehad en MSI voor de 970.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:20
Paprika schreef op maandag 10 oktober 2022 @ 13:14:
[...]

Het probleem is eerder de breedte van de kaarten. Zo vermeldt Corsair bij jouw kast een maximale hoogte voor de CPU koeler van 190mm, terwijl de AORUS dus 165mm breed/diep is zonder(!) de voedingskabel en die zal dus nog verder uitsteken. Dan is 2.5 cm aan marge met zulke dikke en stugge kabels + de connector zelf opeens heel weinig.
Zullen idd zat kasten zijn waar dat een probleem is mijn kast heeft een verticale 2 slots gpu bracket voor de PCI-E sloten dus dat zal wel mee vallen maar de meeste kasten zullen dat iig niet hebben. Al ben ik totaal geen fan van die power steker aan de zijkant nu het zon foei lelijke stekker geworden is.
Ik hoop dat er snel cable mods voor beschikbaar komen.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:20
Xtr3me4me schreef op maandag 10 oktober 2022 @ 13:05:
[...]


Ik geloof bij elke kaart zit er een ondersteuningspilaartje bij. In ieder geval wel bij de MSI en ASUS modellen.
De 20 en 30 series met multi slot schroeven hebben al sag dus dat zal bij deze alleen nog maar erger worden. meer gewicht is meer zag ten zij het geheel aan elkaar gemonteerd word waardoor sag onmogelijk is maar dat heb ik nog niet gezien.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Xtr3me4me

De printplaat is nog niet de helft van de kaart. De koeler steekt gigantisch uit. Om de connector aan het eind van de kaart te plaatsen moet er nog een printplaatje bij en dan stroomkabels vandaar naar de echte printplaat. Bovendien moet dit dan ook nog los kunnen voor assemblage en de-assemblage, wat een groter risico geeft op kortsluiting of brand.

Het valt me trouwens op dat je behoorlijk loopt te stressen, maar waarom niet even geduld hebben en rustig kijken welke kaart goed uit de reviews komen & goede eerste gebruikerservaringen hebben? Deze kaarten komen echt wel snel genoeg permanent op voorraad, met deze prijzen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:38
Ja, verkrijgbaarheid op lange termijn zou ik me momenteel inderdaad niet echt zorgen om maken. Dag 1 uitverkopen zou mogelijk nog kunnen, maar zelfs daar denk ik eigenlijk niet direct dat dit zal gebeuren. Maar problemen zoals bij Ampere voorzie ik deze keer echt helemaal niet.

[ Voor 49% gewijzigd door Dennism op 10-10-2022 15:05 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ludewig schreef op maandag 10 oktober 2022 @ 15:01:
@Xtr3me4me

De printplaat is nog niet de helft van de kaart. De koeler steekt gigantisch uit. Om de connector aan het eind van de kaart te plaatsen moet er nog een printplaatje bij en dan stroomkabels vandaar naar de echte printplaat. Bovendien moet dit dan ook nog los kunnen voor assemblage en de-assemblage, wat een groter risico geeft op kortsluiting of brand.

Het valt me trouwens op dat je behoorlijk loopt te stressen, maar waarom niet even geduld hebben en rustig kijken welke kaart goed uit de reviews komen & goede eerste gebruikerservaringen hebben? Deze kaarten komen echt wel snel genoeg permanent op voorraad, met deze prijzen.
Mwah stressen doe ik niet. Sowieso qua performance, zitten ze allemaal bij elkaar. Ik zit meer te kijken naar lengte, breedte en bouwkwaliteit.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 15:13
Dennism schreef op maandag 10 oktober 2022 @ 15:04:
Ja, verkrijgbaarheid op lange termijn zou ik me momenteel inderdaad niet echt zorgen om maken. Dag 1 uitverkopen zou mogelijk nog kunnen, maar zelfs daar denk ik eigenlijk niet direct dat dit zal gebeuren. Maar problemen zoals bij Ampere voorzie ik deze keer echt helemaal niet.
Ik heb zo nu een dan een half oog op het levertijden topic en dat loopt ook nog niet echt storm. Ook denk ik dat er genoeg scalpers zijn die zich in de latere fase's van Ampere flink gebrand hebben en nu dus ietwat voorzichtiger zullen zijn.

Wie goed doet, die goed ontmoet.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 9 oktober 2022 @ 09:01:
[...]

Dat gaat niet gebeuren totdat het deel wordt van DX12, als dat al gebeurt :)
Wat eigenlijk best fijn zou zijn als het onderdeel zou worden van een nieuwe DXR1.2 specificatie. Het blijft het enige stukje van "Lovelace" waarbij ik wel potentie in zie voor de eindgebruiker, zowel gamers als content creators. De grap is natuurlijk dat dit just niet exclusief zou zijn en alleen geaccelereerd. De rest van Lovelace lijkt vooral erg handig te kunnen zijn als je een game developer bent, met AI werkt etc. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op maandag 10 oktober 2022 @ 16:52:
[...]


Wat eigenlijk best fijn zou zijn als het onderdeel zou worden van een nieuwe DXR1.2 specificatie. Het blijft het enige stukje van "Lovelace" waarbij ik wel potentie in zie voor de eindgebruiker, zowel gamers als content creators. De grap is natuurlijk dat dit just niet exclusief zou zijn en alleen geaccelereerd. De rest van Lovelace lijkt vooral erg handig te kunnen zijn als je een game developer bent, met AI werkt etc. :)
Zou zeker goed zijn en aan Microsoft, AMD, Intel en de rest zal het niet liggen. De vraag is in hoeverre Nvidia bereid is water bij hun wijn te doen en leuk met de andere kinderen in de zandbak te spelen. Kan ook zijn dat die gesprekken al gevoerd zijn en dat de aankomende SDK's al een implementatie van die standaard zijn.

Ik ben er in elk geval gewoon nog niet zeker van, simpelweg omdat het niet vaak is voorgekomen dat Nvidia zulke dingen deed. Aan de andere kant zijn zij de drijvende kracht achter DXR geweest. We'll see.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 10 oktober 2022 @ 17:23:
[...]

Zou zeker goed zijn en aan Microsoft, AMD, Intel en de rest zal het niet liggen. De vraag is in hoeverre Nvidia bereid is water bij hun wijn te doen en leuk met de andere kinderen in de zandbak te spelen. Kan ook zijn dat die gesprekken al gevoerd zijn en dat de aankomende SDK's al een implementatie van die standaard zijn.

Ik ben er in elk geval gewoon nog niet zeker van, simpelweg omdat het niet vaak is voorgekomen dat Nvidia zulke dingen deed. Aan de andere kant zijn zij de drijvende kracht achter DXR geweest. We'll see.
Toen ik het zag met de presentatie en erna op hun website ook ging kijken was ook mijn eerste gedachte: open source, Nvidia, wat zit daarachter? :P

Maar het lijkt me vooral zo interessant als vervanger van veel (complexe) BvH creatie met reguliere ALU's. Ironisch genoeg zie ik er misschien meer in voor AMD dan Nvidia, maar dan moet het wel echt open source worden alsmede fatsoenlijk draaien op reguliere ALU's. En als Nvidia het niet doet, tja het idee lijkt relatief simpel te zijn, maar de winst is overduidelijk. Doet Nvidia het niet, dan doet AMD het hopelijk wel snel en pushen die het DXR in. Immers profiteren de consoles hier waarschijnlijk ook van wat een argument voor Microsoft zal zijn.

Uiteindelijk denk ik dat je RT het beste kan versnellen met zo snel mogelijk een BvH creëren die zo weinig mogelijk rays nodig heeft voor de intersection tests en vervolgens denoising verbeteren door het op een (klein) stukje gespecialiseerde hardware te laten draaien. Ray box en triangle intersection is brute force en dat zie ik niet veranderen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Paprika schreef op maandag 10 oktober 2022 @ 13:23:
[...]

De drie modellen die je nu noemt gaan echt niet binnen een minuut uitverkocht zijn. Voor de 3080 van MSI had je bij de launch 'n kwartier de tijd alleen wilde iedereen eerst een FE. De 3090 was sowieso geen probleem de eerste dag. Nu zijn er volgens de geruchten meer kaarten, het animo is overduidelijk nog geen 1/10e van wat het was (ik neig zelfs naar veel minder dan dat) én je wil geen FE kaart.
Ik weet niet meer waar ik het gelezen heb en of het überhaubt waar is en/of veel uitmaakt, maar het komt er op neer dat Nvidia dit keer de beste cores (core binning)voor zichzelf gehouden heeft en een max. powerlimit van 600W heeft.
Maar goed, we zullen het morgen vanzelf zien.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@edward2

De 4090 is een flink geknipte AD102, dus uiteraard zullen ze daarvoor zoveel mogelijk de mindere chips gebruiken. De allerbeste gaan allemaal de opslag in, voor de 4090 Ti of een Titan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

/\ Ik bedoel binning op de chips die al niet het volledige aantal cores enabled hebben.
Uiteraard gaat de volledig werkende chips naar een Ti/Titan over een half jaartje, dan icm met 30 gbps v-ram ? ;)

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
edward2 schreef op maandag 10 oktober 2022 @ 20:05:
/\ Ik bedoel binning op de chips die al niet het volledige aantal cores enabled hebben.
Uiteraard gaat de volledig werkende chips naar een Ti/Titan over een half jaartje, met 30 gbps v-ram ;)
Zo werkt het normaliter niet. TSMC heeft naar verluid ook al boven de 70% yield op TSMC N4. Van die goede chips is dan misschien nog wel een deel niet goed genoeg voor een Ti/Titan, maar dan nog denk ik niet dat ze ook nog eens chips met een defect in de opslag willen gooien. Uiteindelijk moeten er nu al flink wat kaarten in de winkel komen. Het liefst eerst de wat mindere variant, zodat ze later de verkopen nog eens flink kunnen opkrikken met een betere versie.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Ik weet er idd het fijne niet van, maar ik neem aan dat de chips, nadat ze gebakken zijn, eerst getest worden en zodoende de beste niet volledige bv. direct voor de founders bestemd zijn?

Maar goed, dit bericht komt van reddit, zie:
https://www.overclock.net...ners-club.1800847/page-21

Post 417.

[ Voor 28% gewijzigd door edward2 op 10-10-2022 20:50 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@edward2

Ik heb nooit enig bewijs gezien dat ze de FE beter of slechter binnen.

Maar ze testen inderdaad elke chip. Over het algemeen zullen ze al bepaald hebben welke varianten ze van een chip willen maken op basis van modellen. In dat model konden ze dan bijvoorbeeld voor de release al zien dat als ze de 3080 meer hadden geknipt, ze minder chips hoefden weg te gooien, maar ze ook een lagere prijs konden vragen. Daar zoeken ze dan een balans in.

En net zo goed kiezen ze voor de 4090 Ti een kleine knip zodat ze veel kleine defecten nog weg kunnen werken door een klein deel van de chip uit te zetten, maar ook niet te klein zodat ze er te weinig voor kunnen vragen.

In theorie zouden ze dan inderdaad de beste chips van een bepaalde specificatie in hun FE kunnen zetten, waardoor ze hun FE op een lager voltage kunnen draaien, waardoor hij weer hoger kan boosten. Maar dat zou dan heel zichtbaar zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Nee, ik ook niet en bovendien denk ik dat ze het ook niet kunnen maken dat de verschillen in (asic) kwaliteit te prominent zijn voor wat gaat naar de Aib's vs de FE.

We gaan het evt. morgen zien.

[ Voor 9% gewijzigd door edward2 op 10-10-2022 21:54 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 18:28

OMD

Voorheen gingen juist de beste chips naar de aib’s. EVGA had bijvoorbeeld de Kingpin, MSI had de Lightning kaarten etc. Daar stelde ze zelf dat het de best gebinde chips waren. Of dat waar is, is natuurlijk vraag 2 maar goed. Dat was in ieder geval de informatie wat ze aan de consument voorschotelde en Kingpin zei dat ook.

[ Voor 29% gewijzigd door OMD op 10-10-2022 22:23 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

OMD schreef op maandag 10 oktober 2022 @ 22:23:
Voorheen gingen juist de beste chips naar de aib’s. EVGA had bijvoorbeeld de Kingpin, MSI had de Lightning kaarten etc. Daar stelde ze zelf dat het de best gebinde chips waren. Of dat waar is, is natuurlijk vraag 2 maar goed. Dat was in ieder geval de informatie wat ze aan de consument voorschotelde en Kingpin zei dat ook.
Defineer wat een goed gebinde chip is. Ik kan mij voorstellen dat Nvidia juist de chips wil hebben met een lage lek stroom zodat ze net wat zuiniger zijn en in kasten van Dell etc passen (ik noem Dell maar die maakt waarschijnlijk zijn eigen kaarten, denk aan de kleinere SI's).
AIB's willen eerder kaarten met een hogere lek stroom omdat die beter overclocken.

Zo is er voor ieder wat wils.

Acties:
  • 0 Henk 'm!

  • Abbadon
  • Registratie: Februari 2000
  • Laatst online: 12-09 12:04
Ludewig schreef op maandag 10 oktober 2022 @ 19:36:
@edward2

De 4090 is een flink geknipte AD102, dus uiteraard zullen ze daarvoor zoveel mogelijk de mindere chips gebruiken. De allerbeste gaan allemaal de opslag in, voor de 4090 Ti of een Titan.
Denk voorlopig met name de RTX 6000, die heeft 18.176 van de 18.432 CUDA cores geactiveerd (142 v.d. 144 Streaming Multiprocessors).

Just pick a dead end and chill out 'till you die.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
edward2 schreef op maandag 10 oktober 2022 @ 20:45:
Ik weet er idd het fijne niet van, maar ik neem aan dat de chips, nadat ze gebakken zijn, eerst getest worden en zodoende de beste niet volledige bv. direct voor de founders bestemd zijn?

Maar goed, dit bericht komt van reddit, zie:
https://www.overclock.net...ners-club.1800847/page-21

Post 417.
En in post 440 linkt ie naar een fake YouTube kanaal en in post 441 vraagt iemand naar proof over die reverse binning en zegt ie:
No proof that I know of, only conjecture, but I could be mistaken.
Al die gasten spugen ook de grootste onzin met mijn sources dit mijn sources dat. Toen ik jaren terug een kleine patch had uitgebracht voor nvflash wist de helft van de mensen die in dat draadje posten niet eens wat een bios was :+. Die owners threads worden altijd gevuld door dezelfde posters en het is iedere release hetzelfde liedje, maar je moet toch wat als je zoveel geld uitgeeft aan videokaarten iedere release en niet eens er echt mee gamed. Dit is echt de "kijk mijn hardware" club.

Verder, al jaren wordt er over binning gepraat en ondertussen zie je soms de duurste kaarten die amper boven stock uitkomen en instappers die tot de 1% behoren. Totdat ik statisch relevante data zie die anders aantoont (en die hebben we na al die jaren nog niet), blijf ik erbij dat bij alle niet limited edition modellen het OC model niets meer is dan een andere bios met een 100-600 USD markup, mits dezelfde die wordt gebruikt.

Nu eerst maar eens wachten op de cijfers later vandaag. Dan wordt 't grootste gedeelte van de vraag (performance) beantwoord.

[ Voor 23% gewijzigd door Paprika op 11-10-2022 02:14 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
En uiteraard komt er een nieuwe benchmark voor de kopers beschikbaar.

https://www.techpowerup.c...unching-on-october-12?amp

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ludewig schreef op maandag 10 oktober 2022 @ 20:24:
TSMC heeft naar verluid ook al boven de 70% yield op TSMC N4.
TSMC "heeft" geen yield, want dat is niet iets waar zij rechtstreeks controle over hebben. TSMC heeft een defect rate en hun klanten hebben dan, afhankelijk van de grootte van hun chip, een yield. Yield is de kans dat een die geen (D0) defecten bevat. De grootte van de die is daarbij één van de factoren.

Nvidia haalt van z'n leven geen 70% yield met AD102. Daarvoor zou TSMC's defect rate op 0,06/mm² of lager moeten zitten. N20 en N16 zitten tegenwoordig op ~0,08, N7 op 0,09~0,10 en dat is dan dus waar N5 ook ongeveer op zit, aangezien TSMC gezegd heeft dat N5 defects op N7 niveau zitten. En dan heb je het over net geen 60% yield voor Nvidia.

Als je Angstronomics' 308mm² als grootte neemt voor de Navi 31 GCD, zal AMD daar uit komen op rond de 75% yield met die waarde.

Acties:
  • 0 Henk 'm!

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
Iemand een idee hoe laat de NDA zal vervallen vandaag/morgen?

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Chromanin schreef op dinsdag 11 oktober 2022 @ 09:49:
Iemand een idee hoe laat de NDA zal vervallen vandaag/morgen?
Voor NL is het voor Nvidia altijd 15.00 tenzij anders aangegeven.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia doet echt hun best voor deze launch. :z
Geen DP 2.0, geen HDMI 2.1, op wat details na het RTX3090Ti PCB, de rasterisation lijkt bijna helemaal vanuit Ampere overgenomen te zijn en de prijs komt waarschijnlijk behoorlijk richting de €2000.

Ik ben echt benieuwd wat het nu gaat worden. Ik denk nog steeds 50-70% over de RTX3090Ti, maar ik wil vooral weten wat er gebeurd met verschillende processoren en resoluties. Het gaat mij ook een beetje om de vraag of Nvidia nog meer tegen de beperkingen hun drivermodel gaat aanlopen. Apart daarvan wil ik zien wat waarschijnlijk 72MB aan L2 cache doet voor occupency. Het was behoorlijk slecht met GA102 en de vraag is nu in hoeverre het hangt op data i.p.v. scheduling. Eigenlijk vraag ik me af hoe consistent de verbetering zal zijn over de RTX3090Ti.
Werelds schreef op dinsdag 11 oktober 2022 @ 09:36:
[...]

TSMC "heeft" geen yield, want dat is niet iets waar zij rechtstreeks controle over hebben. TSMC heeft een defect rate en hun klanten hebben dan, afhankelijk van de grootte van hun chip, een yield. Yield is de kans dat een die geen (D0) defecten bevat. De grootte van de die is daarbij één van de factoren.

Nvidia haalt van z'n leven geen 70% yield met AD102. Daarvoor zou TSMC's defect rate op 0,06/mm² of lager moeten zitten. N20 en N16 zitten tegenwoordig op ~0,08, N7 op 0,09~0,10 en dat is dan dus waar N5 ook ongeveer op zit, aangezien TSMC gezegd heeft dat N5 defects op N7 niveau zitten. En dan heb je het over net geen 60% yield voor Nvidia.

Als je Angstronomics' 308mm² als grootte neemt voor de Navi 31 GCD, zal AMD daar uit komen op rond de 75% yield met die waarde.
Ik denk alleen dat veel mensen, yield eerder uitleggen als hoeveel functionele chips uit een wafer haalt. Ik weet dat dit niet klopt, maar het is realistischer dan strikt ja/nee. Immers gooi je iets dat alsnog werkt niet weg, zeker niet met N5 wafer prijzen. :)
En op die manier kan Nvidia waarschijnlijk wel de 70% halen. Immers zitten er waarschijnlijk iets meer dan 85 chips per wafer en circa 50 zouden goed moeten uitvallen met 0,1 defect density. Dan kan je met nog tien gedeeltelijk defecte chips, 70% halen.

Voor een 300mm2 chip zou je inderdaad 75% echte yields halen. Het verklaard voor mij ook een beetje waarom de eerste AD104 SKU nu de volle chip is. We hebben immers twee generaties gehad waar de 104 chip vrij groot was.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 119 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.