Acties:
  • +1 Henk 'm!

  • Mr Magic
  • Registratie: Juni 1999
  • Laatst online: 00:41
computerjunky schreef op zaterdag 15 oktober 2022 @ 16:47:
[...]


Dat is dan de schuld van de AIB's die hadden gewoon beter hun huiswerk moeten doen ipv van roddels uit gaan dat hij 600 watt trekt. Gewoon vragen aan je leverancier of wachten tot je de specs heb.
Jij denkt serieus dat de AIB's op basis van roddels hun kaarten ontwerpen? |:(

Nvidia heeft gewoon pas heel laat in het proces de switch gemaakt van Samsung 8 nm naar TSMC 4 nm, terwijl de AIB's toen hun ontwerpen al hadden vastgezet op de verwachte 600 W die de chip zou hebben verbruikt op het Samsung procede.
Nvidia treft hier juist geen enkele blaam. Die hebben helemaal niet gevraagd om leaks en 600 watt roddels waardoor iedereen boos werd en velen nog steeds denken dat de kaart dus een extreme stroomvreter is (zie het forum en de review waar mensen niet eens naar de feiten kijken maar nog steeds roddels geloven).
Ik denk dat je je voortaan iets beter moet inlezen voordat je met dergelijke ongefundeerde uitspraken komt.

De koeler van de FE zelf is overigens ook veel te groot omdat Nvidia die ook ontworpen heeft voor 600 W. Anders hadden ze wel een kaart uitgebracht die ongeveer even groot is als de 3090 Ti die ook 450 W trekt.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 02-05 23:58
Mr Magic schreef op zondag 16 oktober 2022 @ 00:17:
[...]


Jij denkt serieus dat de AIB's op basis van roddels hun kaarten ontwerpen? |:(

Nvidia heeft gewoon pas heel laat in het proces de switch gemaakt van Samsung 8 nm naar TSMC 4 nm, terwijl de AIB's toen hun ontwerpen al hadden vastgezet op de verwachte 600 W die de chip zou hebben verbruikt op het Samsung procede.


[...]

Ik denk dat je je voortaan iets beter moet inlezen voordat je met dergelijke ongefundeerde uitspraken komt.

De koeler van de FE zelf is overigens ook veel te groot omdat Nvidia die ook ontworpen heeft voor 600 W. Anders hadden ze wel een kaart uitgebracht die ongeveer even groot is als de 3090 Ti die ook 450 W trekt.
toon volledige bericht
Serieus? Sorry maar ik moet beter lezen maar je weet zelf niet eens dat in april al bekend was dat ada op 4nm gemaakt ging worden en dus mogelijk nog eerder bij nvidia...

En je kaart grootte is niets dan een aanname. Misschien is het wel voor de cijfertjes en geluid gedaan. Kijk maar naar ryzen 7000 en hoe mensen vallen over 95 graden ondanks dat het technisch een non issue is.

Bij 3000 kregen ze juist veel commentaar op geluid en warmte. Dat hebben ze nu opgelost.
Daarnaast kunnen de kaarten met oc wel degelijk 600 watt trekken.

En iets als "even over switchen naar 4nm". Laat me niet lachen. Dat word al meer als een jaar van tevoren ingepland en ingekocht en dus voor de geruchten. Daarnaast was nooit bevestigd of ook maar sprat van ada op Samsung 8nm... Dat verzin je er ter plekke bij om proberen puntjes te scoren.

Verder negeer je zelf feiten dus zijn we uitgepraat.
Echt wat is dat toch voor een rare trend van bijna persoonlijke aanvallen zonder eerst in de spiegel te kijken...

Acties:
  • +1 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:25
Jeetje, wat is MSI Center k*t. :( :X

Ik wil gewoon de RGB-verlichting van mijn kaart aanpassen / uitzetten, maar de software is zo compleet bagger dat ik dat niet voor elkaar krijg.

Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Yonix schreef op zondag 16 oktober 2022 @ 09:56:
Jeetje, wat is MSI Center k*t. :( :X

Ik wil gewoon de RGB-verlichting van mijn kaart aanpassen / uitzetten, maar de software is zo compleet bagger dat ik dat niet voor elkaar krijg.
Ik wil mijn verlichting 1 vaste kleur geven dus ik zal ook eens kijken hoe ver ik kom met MSI mistic light.

Acties:
  • +3 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-05 13:25

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
Yonix schreef op zondag 16 oktober 2022 @ 09:56:
Jeetje, wat is MSI Center k*t. :( :X

Ik wil gewoon de RGB-verlichting van mijn kaart aanpassen / uitzetten, maar de software is zo compleet bagger dat ik dat niet voor elkaar krijg.
Ik zou zeggen houd https://openrgb.org/ in de gaten voor een update. Dat is een stukje opensource software waarmee je de RGB effecten van meerdere merken moederborden, videokaarten en randapparatuur kunt instellen. Zodra die de nieuwe spullen ondersteunt installeer ik het ook weer. :)

Erg handig als je componenten van verschillende vendors mixt en matcht.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +3 Henk 'm!

  • juggle
  • Registratie: December 2003
  • Laatst online: 02-05 11:27

juggle

Papa, ondernemer, gamer

Yonix schreef op zaterdag 15 oktober 2022 @ 17:26:
Zo, inmiddels staat het nieuwe systeem en heb ik de RTX 4090 al even aan het werk kunnen zetten. Wat een beest! 8)

[Afbeelding]

[Afbeelding]

https://www.3dmark.com/spy/31463880
Haha, jij hebt ook al 1tje 😉 had ook niet anders verwacht van je...

Wat een kaart heh, ben zelf voor de Gigabyte Gaming OC gegaan, over brakke RGB software gesproken...

Veel plezier ermee man, kom je hem binnenkort eens showen op FOT? 😀

Zoek je mede papa's om gezellig mee te gamen? kijk op: fathersoftweakers.nl


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:12
Mr Magic schreef op zondag 16 oktober 2022 @ 00:17:
[...]


Jij denkt serieus dat de AIB's op basis van roddels hun kaarten ontwerpen? |:(

Nvidia heeft gewoon pas heel laat in het proces de switch gemaakt van Samsung 8 nm naar TSMC 4 nm, terwijl de AIB's toen hun ontwerpen al hadden vastgezet op de verwachte 600 W die de chip zou hebben verbruikt op het Samsung procede.
Dat is heel onwaarschijnlijk, het proces kiezen hoort een van de eerste zaken te zijn die je doet. Immers dat bepaald de designregels voor de chip. Je kan niet zomaar ergens op het einde gaan shoppen naar een ander proces.

Acties:
  • 0 Henk 'm!

  • Mr Magic
  • Registratie: Juni 1999
  • Laatst online: 00:41
Dennism schreef op zondag 16 oktober 2022 @ 11:00:
[...]


Dat is heel onwaarschijnlijk, het proces kiezen hoort een van de eerste zaken te zijn die je doet. Immers dat bepaald de designregels voor de chip. Je kan niet zomaar ergens op het einde gaan shoppen naar een ander proces.
Misschien is "laat" niet het juiste woord in deze context. Maar Nvidia heeft zeker de verwachting uitgesproken naar de board partners dat de chip tot 600 W kon gaan trekken volgens het doorgaans goed ingelichte Igor's Lab:

https://www.igorslab.de/e...y-the-cards-are-so-giant/

Er is ook sprake geweest van Samsung al heeft Igor de verwijzing naar het 8 nm procede wel verwijderd uit het artikel. Samsung heeft als ik het goed begrijp een nieuw 5 nm procede, maar blijkbaar is het 4 nm procede van TSMC nog een stuk efficienter dan men van te voren had ingeschat.

Daarnaast is er nog zoiets als doorlooptijd. De board partners kunnen niet zomaar hun fabricage proces omgooien ook al is dat een half jaar of jaar van te voren. De ontwerpen van de PCB's en koelers liggen dan al lang vast en alles weggooien en opnieuw beginnen zou veel te duur worden.

Acties:
  • +1 Henk 'm!




MyDrivers reports that NVIDIA has prepaid TSMC around $1.64 Billion US in Q3 2021and will pay $1.79 Billion US in Q1 2022. The total long-term 'Multi-Billion' dollar deal is set to cost NVIDIA an insane $6.9 Billion US which is much higher than what they paid last year. NVIDIA will not just use this money to procure wafer supply from TSMC but also from Samsung but it looks like that the majority of the amount will be spent on TSMC's 5nm technology.
https://m.mydrivers.com/newsview/805332.html

[Twitter: https://mobile.twitter.com/greymon55/status/1457931961796743168?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1457931961796743168%7Ctwgr%5E9cbe6fe4ac4072baf14db31f640675c5b07d8a69%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Famd-nvidia-next-gen-flagship-gpus-detailed-rdna-3-radeon-rx-7900-xt-with-15360-cores-ada-lovelace-geforce-rtx-4090-with-18432-cores%252]

https://wccftech.com/amd-...tx-4090-with-18432-cores/

Als je terug in de tijd gaat, dan is genoeg te vinden dat 1:1 spot on is gebleken met de realiteit qua specs.

Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Ik heb met de 4090 weer dezelfde problemen als bij de launch van de 3080/3090.

TV aangesloten via HDMI 2.1, als deze uit heeft gestaan dan krijg ik geen beeld meer. Alleen op te lossen met een harde reset van de PC. :/

Acties:
  • +1 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:25
Blaat schreef op zondag 16 oktober 2022 @ 10:40:
[...]


Ik zou zeggen houd https://openrgb.org/ in de gaten voor een update. Dat is een stukje opensource software waarmee je de RGB effecten van meerdere merken moederborden, videokaarten en randapparatuur kunt instellen. Zodra die de nieuwe spullen ondersteunt installeer ik het ook weer. :)

Erg handig als je componenten van verschillende vendors mixt en matcht.
Bedankt voor de tip! Dit zijn projecten die ik alleen maar aan kan moedigen. (y)
juggle schreef op zondag 16 oktober 2022 @ 10:59:
[...]


Haha, jij hebt ook al 1tje 😉 had ook niet anders verwacht van je...

Wat een kaart heh, ben zelf voor de Gigabyte Gaming OC gegaan, over brakke RGB software gesproken...

Veel plezier ermee man, kom je hem binnenkort eens showen op FOT? 😀
Heel m'n systeem weer voorzien van een update! 8)

Misschien dat ik binnenkort even hoi kom zeggen in de Discord. :)

Acties:
  • 0 Henk 'm!

  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 03-05 13:30
Mede Tweakers, om mijn 4090 te plaatsen heb ik denk ik net als vele van jullie gebruik moeten maken van een vertical gpu mount. Ik heb deze aangeschaft voor mij Lian Li 011 Dynamic: Link Alternate

Tijdens mijn benchmarks van Timespy haalde ik max 25000 GPU punten, dat is gemiddeld als ik kijk naar vergelijkbare systemen (cpu i7-9700k @4.9Ghz) maar ik vind het erg laag. Had op z'n minst rond de 30k punten verwacht.

Nu heb ik mijn GPU mount verwijderd en de kaart er rechtstreeks in geprikt voor testen (denk maar niet dat de sidepanel nog past |:( )

Nu haal ik bijna 32k punten in time-spy. GPU clocks zijn hetzelfde als met 25K score)
Afbeeldingslocatie: https://tweakers.net/i/fU_tAYQ79b9bSE1X0MVmhfr8DvI=/800x/filters:strip_exif()/f/image/R9ei8tl6jyEkX1nBIfYluLC5.png?f=fotoalbum_large


In de bios had ik gisteren alle PCI-E slots al hard op Gen-3 gezet, de Riser kabel is volgens specs ook 3.0

Waar komt dit verschil vandaan en hebben jullie ook vergelijkbare issues gehad?

Specs:
Mobo: MSI Z370 Carbon Wifi
I7-9700k @ 4.9Ghz
32GB @XMP 3200
GPU 4090 (inno3d x3 OC, niet de meest OC variant maar net iets sneller dan de FE)
PSU: Delta 1300watt (die van alternate actie :P )

Acties:
  • +2 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

kmichael schreef op zaterdag 15 oktober 2022 @ 12:24:
@dierkx36
Precies ik wordt er ook moe van.
Alles begint al jaren met "WAT DUUR" zelfs de reviewers doen daar aan mee.
Iedereen kan voor zich zelf wel bepalen wat ze duur vinden, of uit willen geven.
De eerste reacties gaan meestal altijd eerst over de prijs.

@Help!!!!
Ik heb die kabel ook gezien voor mijn Corsair PSU alleen wat ik niet snap, iedereen zegt PCI-e plug levert met 8 pinnen maximaal +- 150 watt, hoe kun je met "2" PCI-e plugs dan "veilig" 600 watt trekken.

@Finalchaos
Om je vraag te beantwoorden:
Ik speel games om het er mooi uit te laten zien in 4K, ook online gaming probeer ik de mooiste settings aan te zetten (Niet maximum settings want sommige dingen zie je nagenoeg niet maar hebben wel een grote impact op de FPS)
Vanaf ongeveer het jaar 2000 maakte altijd gebruik van 2 videokaarten AMD of NVidia, toen was ik inclusief waterkoeling ook altijd wel rond de 1600 a >2000 euro kwijt.
Maar de laatste 5 jaar is Dual GPU zo goed als dood. Toen kwam gelukkig de 3090, 4K gaming met redelijke frame rates. Ik heb toen gelukkig net een Inno3D 3090 inc waterblock kunnen kopen voor 1800 euro voor dat het helemaal uit de hand liep met die Bitcoins.
De 4090 is een grote stap vooruit ten opzichte van de 3090.
Ja hij is aan de dure kant, ik zou wel een jaar kunnen wachten tot de prijzen lager zijn, maar dan kun je net zo goed nog een jaar wachten op de 5090 enzovoort.
toon volledige bericht
Ik vind het ook irritant dat mensen constant janken over anderen die het wel kunnen/willen kopen voor X prijs. Maar wat je zegt over reviewers / de markt algemeen dat mensen aangeven dat iets relatief gezien 'te duur' is moet er altijd wel wezen.

De reviewers proberen de klanten te beschermen, dat moet ook gebeuren want anders zijn bepaalde dingen echt niet te stoppen. Laat ik het zo zeggen; het maakt soms niet uit hoeveel geld je hebt of hoe rijk je bent, soms is het gewoon zo dat je voor X geld niet dezelfde waarde terugkrijgt uit een product en dat is wanneer er tegendruk gezet moet worden.

Ik heb zelf het geluk dat ik over het algemeen alles wat ik wil meteen kan betalen, maar dan nog doe ik zelf niet mee aan sommige dingen. Soms zien we bijvoorbeeld zulke vreemde acties van bepaalde bedrijven dat we daar gewoon niet aan mee willen doen. Dit bijvoorbeeld zijn dat een bedrijf de klant in de zak ziet en zo een random prijs of product opstellen dat je daar niet aan wilt / of zelfs mee moet doen. Om dat soort redenen hebben we de media nodig die aan de kant van de klant staat. Kijk maar hoe nvidia de 4080 12GB heeft gecanceled na zo veel backlash...

Uiteindelijk moet iedereen na de feiten natuurlijk zelf gaan bepalen of ze iets wel/niet willen en wel/niet kunnen kopen.

Zelf ga ik zeker een nieuw topmodel GPU kopen, ik hou mezelf nog tegen omdat ik hoop dat RDNA3 een leuke verrassing wordt , en anders maar een 4090FE of een AIB die er niet zo kinderachtig uit ziet :9B

--

Vraag: is er iemand die een INNO3D kaart heeft? Hoe zit het met de adapter van die kaart? Ik las ergens dat zij een adapter leveren die naar 3x 8-pin gaat i.p.v. 4x 8-pin zoals nvidia en de andere AIBs. Levert dat minder performance of problemen op? Ik geloof dat GamersNexus daarover iets gezegd had over de verdeling van stroom oid.. Het design van de INNO3D vind ik zelf wel minimaal en netjes, maar vraag me toch af hoe het met de kwaliteit van dat merk zit..

[ Voor 7% gewijzigd door GTX404 op 16-10-2022 14:36 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

laurensxeon schreef op zondag 16 oktober 2022 @ 11:38:
Mede Tweakers, om mijn 4090 te plaatsen heb ik denk ik net als vele van jullie gebruik moeten maken van een vertical gpu mount. Ik heb deze aangeschaft voor mij Lian Li 011 Dynamic: Link Alternate

Tijdens mijn benchmarks van Timespy haalde ik max 25000 GPU punten, dat is gemiddeld als ik kijk naar vergelijkbare systemen (cpu i7-9700k @4.9Ghz) maar ik vind het erg laag. Had op z'n minst rond de 30k punten verwacht.

Nu heb ik mijn GPU mount verwijderd en de kaart er rechtstreeks in geprikt voor testen (denk maar niet dat de sidepanel nog past |:( )

Nu haal ik bijna 32k punten in time-spy. GPU clocks zijn hetzelfde als met 25K score)
[Afbeelding]


In de bios had ik gisteren alle PCI-E slots al hard op Gen-3 gezet, de Riser kabel is volgens specs ook 3.0

Waar komt dit verschil vandaan en hebben jullie ook vergelijkbare issues gehad?

Specs:
Mobo: MSI Z370 Carbon Wifi
I7-9700k @ 4.9Ghz
32GB @XMP 3200
GPU 4090 (inno3d x3 OC, niet de meest OC variant maar net iets sneller dan de FE)
PSU: Delta 1300watt (die van alternate actie :P )
toon volledige bericht
Das wel vreemd inderdaad, wellicht een andere riser monteren en proberen?

Ik zie nu net dat jij een INNO3D hebt, zou jij mijn vraag in de vorige post hierboven kunnen beantwoorden? En zit er trouwens veel 'wiggle' op de power connector?

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!
Een connector met 3 kabels kan afhankelijk van het ontwerp maximaal 450W toestaan, maar ik vraag mij af of dat 'n probleem moet zijn. Van 450W naar 330-350 scheelt één tot twee procent in fps op 4k en behoorlijk in de warmte.

450W naar 600W:
For enthusiasts and overclockers, NVIDIA allows manual power limit adjustments up to 600 W. This is huge—previously the company was fairly conservative with this range, limiting it to +50 W or less on most cards. There are no fundamental changes to overclocking, it works just like before. With manual OC we were able to break 3 GHz actual clock frequency—very impressive. The performance gains were somewhat limited though at 4.5%, when compared to a frequency increase of 12%.
Dit is dus met powerlimit maximaal én een overclock: resultaat 4.5% :+, waarvan een groot deel alleen de overclock zonder de verhoogde limiet ook al te halen valt.

600W + 2, 3 of 4 monitoren (een 4090 setup met één monitor, serieus?) + een goede cpu + accessoires etc gaat gewoon richting de 1000W. Zet maar eens een elektrische kachel op 1000W en kom over 'n uurtje terug die kamer in :p.

[ Voor 4% gewijzigd door Paprika op 16-10-2022 15:01 ]


Acties:
  • +5 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:08
GTX404 schreef op zondag 16 oktober 2022 @ 14:33:
[...]


[knip]

--

Vraag: is er iemand die een INNO3D kaart heeft? Hoe zit het met de adapter van die kaart? Ik las ergens dat zij een adapter leveren die naar 3x 8-pin gaat i.p.v. 4x 8-pin zoals nvidia en de andere AIBs. Levert dat minder performance of problemen op? Ik geloof dat GamersNexus daarover iets gezegd had over de verdeling van stroom oid.. Het design van de INNO3D vind ik zelf wel minimaal en netjes, maar vraag me toch af hoe het met de kwaliteit van dat merk zit..
Ik heb een Inno3d. Die heeft een 3x8-pin kabel. Levert geen problemen op, allleen dat je eerder te maken hebt met de powerlimit die niet hoger dan 100% kan. Concreet betekent dit dat ik, als ik powerlimit wil vermijden, mijn maximum clock vastzet op 950 mV en 2760 coreclock.

Afbeeldingslocatie: https://tweakers.net/i/jx7w-JIebzTHEhT8nC__cXicWkU=/800x/filters:strip_exif()/f/image/I71x31F6ZtROhEkbhSI6eaxO.png?f=fotoalbum_large

Een groot gedeelte van dit weekend heb ik mij bezig gehouden met optimaliseren van mijn RTX 4090. Ik vind dit leuk, houd van efficientie, en de Inno3d x3 heeft een redelijk luide cooler. Ik kwam uit op bovenstaande resultaten. Een kleine reductie in clocks heeft amper invloed op het aantal FPS zoals je ziet. Met de 950 mV heb ik geen last van powerlimit, daarboven wel. Bij cyberpunk draaide de benchmark met alles op max, 4k, en dlss op balanced. Ik wilde ook een non-rt titel, dus die optie bij Tomb raider uitgezet. Verder alle settings op max en 4k resolutie.

Op youtube en andere kanalen is er veel discussie of undervolten wel nuttig is met de rtx 4090. Er wordt gesproken over powerlimit. Ik heb dit ook geprobeerd, en mijn beste resultaten waren met powerlimit op 80 en de core op +150. Bij volle belasting komt dit ongeveer neer op hetzelfde verbruik en dezelfde prestaties van het 950 mV profiel. Echter, als je een game hebt waarbij de rtx 4090 niet helemaal belast wordt, door een framerate cap of een cpu-bottleneck, dan kan het verbruik een stuk hoger zijn met het powerlimit-profiel. Bij een van de games kwam ik zo op 310 watt voor het powerlimit 80+150 core profiel, en 230 watt voor het 950 mV profiel. Dit maakt de powerlimit een suboptimale oplossing.

Dat qua performance een memory-OC nuttig is, staat buiten kijf. Het scheelde met +1710 mHz zo'n 5 procent. Het verbruik gaat echter wel met 20 watt omhoog. Ik vroeg me dus af of het ook efficient is. Het blijkt echter dat de core minder hard hoeft te werken door de mem-oc. Puntje bij paaltje, efficientie blijft ongeveer gelijk. Gecheckt met de Nvidia overlay in combinatie met een meter aan het stopcontact. Dus, mijn advies is om wel de memory-OC te doen, voor extra performance.

Al met al: de setting van 900mV met memory-OC is het voor mij. Kan de fanspeed lekker op 30% blijven en heb ik een enorm goede efficientie. Een verschil van 89 of 92 fps ga ik ook echt niet herkennen in een denkbeeldige a/btest.

Mocht je vragen hebben, eventueel over mijn methodiek, let me know!

Acties:
  • +1 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

t0mmiiiii schreef op zondag 16 oktober 2022 @ 15:14:
[...]


Ik heb een Inno3d. Die heeft een 3x8-pin kabel. Levert geen problemen op, allleen dat je eerder te maken hebt met de powerlimit die niet hoger dan 100% kan. Concreet betekent dit dat ik, als ik powerlimit wil vermijden, mijn maximum clock vastzet op 950 mV en 2760 coreclock.

[Afbeelding]

Een groot gedeelte van dit weekend heb ik mij bezig gehouden met optimaliseren van mijn RTX 4090. Ik vind dit leuk, houd van efficientie, en de Inno3d x3 heeft een redelijk luide cooler. Ik kwam uit op bovenstaande resultaten. Een kleine reductie in clocks heeft amper invloed op het aantal FPS zoals je ziet. Met de 950 mV heb ik geen last van powerlimit, daarboven wel. Bij cyberpunk draaide de benchmark met alles op max, 4k, en dlss op balanced. Ik wilde ook een non-rt titel, dus die optie bij Tomb raider uitgezet. Verder alle settings op max en 4k resolutie.

Op youtube en andere kanalen is er veel discussie of undervolten wel nuttig is met de rtx 4090. Er wordt gesproken over powerlimit. Ik heb dit ook geprobeerd, en mijn beste resultaten waren met powerlimit op 80 en de core op +150. Bij volle belasting komt dit ongeveer neer op hetzelfde verbruik en dezelfde prestaties van het 950 mV profiel. Echter, als je een game hebt waarbij de rtx 4090 niet helemaal belast wordt, door een framerate cap of een cpu-bottleneck, dan kan het verbruik een stuk hoger zijn met het powerlimit-profiel. Bij een van de games kwam ik zo op 310 watt voor het powerlimit 80+150 core profiel, en 210 watt voor het 950 mV profiel. Dit maakt de powerlimit een suboptimale oplossing.

Dat qua performance een memory-OC nuttig is, staat buiten kijf. Het scheelde met +1710 mHz zo'n 3 procent. Het verbruik gaat echter wel met 20 watt omhoog. Ik vroeg me dus af of het ook efficient is. Het blijkt echter dat de core minder hard hoeft te werken door de mem-oc. Puntje bij paaltje, efficientie blijft ongeveer gelijk. Gecheckt met de Nvidia overlay in combinatie met een meter aan het stopcontact. Dus, mijn advies is om wel de memory-OC te doen, voor extra performance.

Al met al: de setting van 900mV met memory-OC is het voor mij. Kan de fanspeed lekker op 30% blijven en heb ik een enorm goede efficientie. Een verschil van 89 of 92 fps ga ik ook echt niet herkennen in een denkbeeldige a/btest.

Mocht je vragen hebben, eventueel over mijn methodiek, let me know!
toon volledige bericht
Erg mooi leesvoer was dat!

Ik zou graag meer willen weten over je methodiek natuurlijk. Wat is je testsetup? Welke games heb je getest en hoeveel test cycles en hoe lang duurt een cycle?

Ik ben ook erg benieuwd naar je fan profile op het 900mV profiel!

Dankjewel voor deze info!

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +2 Henk 'm!

  • dutchman666
  • Registratie: December 2013
  • Laatst online: 14:51
GTX404 schreef op zondag 16 oktober 2022 @ 14:33:
[...]


Ik vind het ook irritant dat mensen constant janken over anderen die het wel kunnen/willen kopen voor X prijs. Maar wat je zegt over reviewers / de markt algemeen dat mensen aangeven dat iets relatief gezien 'te duur' is moet er altijd wel wezen.

De reviewers proberen de klanten te beschermen, dat moet ook gebeuren want anders zijn bepaalde dingen echt niet te stoppen. Laat ik het zo zeggen; het maakt soms niet uit hoeveel geld je hebt of hoe rijk je bent, soms is het gewoon zo dat je voor X geld niet dezelfde waarde terugkrijgt uit een product en dat is wanneer er tegendruk gezet moet worden.

Ik heb zelf het geluk dat ik over het algemeen alles wat ik wil meteen kan betalen, maar dan nog doe ik zelf niet mee aan sommige dingen. Soms zien we bijvoorbeeld zulke vreemde acties van bepaalde bedrijven dat we daar gewoon niet aan mee willen doen. Dit bijvoorbeeld zijn dat een bedrijf de klant in de zak ziet en zo een random prijs of product opstellen dat je daar niet aan wilt / of zelfs mee moet doen. Om dat soort redenen hebben we de media nodig die aan de kant van de klant staat. Kijk maar hoe nvidia de 4080 12GB heeft gecanceled na zo veel backlash...

Uiteindelijk moet iedereen na de feiten natuurlijk zelf gaan bepalen of ze iets wel/niet willen en wel/niet kunnen kopen.

Zelf ga ik zeker een nieuw topmodel GPU kopen, ik hou mezelf nog tegen omdat ik hoop dat RDNA3 een leuke verrassing wordt , en anders maar een 4090FE of een AIB die er niet zo kinderachtig uit ziet :9B

--

Vraag: is er iemand die een INNO3D kaart heeft? Hoe zit het met de adapter van die kaart? Ik las ergens dat zij een adapter leveren die naar 3x 8-pin gaat i.p.v. 4x 8-pin zoals nvidia en de andere AIBs. Levert dat minder performance of problemen op? Ik geloof dat GamersNexus daarover iets gezegd had over de verdeling van stroom oid.. Het design van de INNO3D vind ik zelf wel minimaal en netjes, maar vraag me toch af hoe het met de kwaliteit van dat merk zit..
toon volledige bericht
Ik heb een INNO 3D ichill X3 (via alternate) de kaart valt me prima mee hij ziet er degelijk uit een voelt robuust aan. Eigenlijk ga ik meestal voor MSI echter die zijn nauwelijks te vinden.

Wel is de kaart vrij robuust (breder en dikker dan de RTX 3080 die er in zat) en ik was daarom blij dat ik de kaart probleemloos heb kunnen plaatsen O-)

Over de scores ben ik erg tevreden. Het zijn niet de scores zoals ik bij de YouTube vloggers zie. Maar de behaalde resultaten vallen gewoon netjes binnen de gemiddelde bandbreedte. Ik vermoed dat de AMD 5800 X3D niet zo'n ster is met benchmarks echter tijdens het gamen op 4K merk ik niet echt een CPU bottleneck.

Het hoogste verbruik dat ik constateerde was tijdens het testen namelijk zo'n 430 watt. Bij alle games is het verbruik van de kaart op 4K meestal tussen de 340 tot 380 watt. Afhankelijk van de titel.

https://www.3dmark.com/spy/31420942

De adapter connectoren sluiten erg strak. En de 12 pin connector is erg soepel te plaatsen op de kaart (vergt nauwelijks kracht). Als de officiële connector kabels van SEASONIC beschikbaar komen dan bestel ik zo'n kabel want dat scheelt een heel wirwar van kabels in mijn krappe kast en kan de bijgeleverde adapter terug in de doos :)

P2 LRDM|Midnight|20"|Pilot,Plus,Per|Nappa|350KW


Acties:
  • +1 Henk 'm!

  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 03-05 13:30
GTX404 schreef op zondag 16 oktober 2022 @ 14:39:
[...]


Das wel vreemd inderdaad, wellicht een andere riser monteren en proberen?

Ik zie nu net dat jij een INNO3D hebt, zou jij mijn vraag in de vorige post hierboven kunnen beantwoorden? En zit er trouwens veel 'wiggle' op de power connector?
Heb niet zo een andere riser liggen.
De wiggle op de power connector is nihil, enige dat beweegt is de kaart zelf. Filmpje

Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

t0mmiiiii schreef op zondag 16 oktober 2022 @ 15:14:
[...]


Ik heb een Inno3d. Die heeft een 3x8-pin kabel. Levert geen problemen op, allleen dat je eerder te maken hebt met de powerlimit die niet hoger dan 100% kan. Concreet betekent dit dat ik, als ik powerlimit wil vermijden, mijn maximum clock vastzet op 950 mV en 2760 coreclock.

[Afbeelding]

Een groot gedeelte van dit weekend heb ik mij bezig gehouden met optimaliseren van mijn RTX 4090. Ik vind dit leuk, houd van efficientie, en de Inno3d x3 heeft een redelijk luide cooler. Ik kwam uit op bovenstaande resultaten. Een kleine reductie in clocks heeft amper invloed op het aantal FPS zoals je ziet. Met de 950 mV heb ik geen last van powerlimit, daarboven wel. Bij cyberpunk draaide de benchmark met alles op max, 4k, en dlss op balanced. Ik wilde ook een non-rt titel, dus die optie bij Tomb raider uitgezet. Verder alle settings op max en 4k resolutie.

Op youtube en andere kanalen is er veel discussie of undervolten wel nuttig is met de rtx 4090. Er wordt gesproken over powerlimit. Ik heb dit ook geprobeerd, en mijn beste resultaten waren met powerlimit op 80 en de core op +150. Bij volle belasting komt dit ongeveer neer op hetzelfde verbruik en dezelfde prestaties van het 950 mV profiel. Echter, als je een game hebt waarbij de rtx 4090 niet helemaal belast wordt, door een framerate cap of een cpu-bottleneck, dan kan het verbruik een stuk hoger zijn met het powerlimit-profiel. Bij een van de games kwam ik zo op 310 watt voor het powerlimit 80+150 core profiel, en 230 watt voor het 950 mV profiel. Dit maakt de powerlimit een suboptimale oplossing.

Dat qua performance een memory-OC nuttig is, staat buiten kijf. Het scheelde met +1710 mHz zo'n 5 procent. Het verbruik gaat echter wel met 20 watt omhoog. Ik vroeg me dus af of het ook efficient is. Het blijkt echter dat de core minder hard hoeft te werken door de mem-oc. Puntje bij paaltje, efficientie blijft ongeveer gelijk. Gecheckt met de Nvidia overlay in combinatie met een meter aan het stopcontact. Dus, mijn advies is om wel de memory-OC te doen, voor extra performance.

Al met al: de setting van 900mV met memory-OC is het voor mij. Kan de fanspeed lekker op 30% blijven en heb ik een enorm goede efficientie. Een verschil van 89 of 92 fps ga ik ook echt niet herkennen in een denkbeeldige a/btest.

Mocht je vragen hebben, eventueel over mijn methodiek, let me know!
toon volledige bericht
Als toevoeging aan mijn eerdere 'requests' zou ik graag ook willen weten of je de 1% lows zou kunnen delen, zit daar een merkbaar verschil in met de custom profiles? _/-\o_

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

dutchman666 schreef op zondag 16 oktober 2022 @ 15:43:
[...]


Ik heb een INNO 3D ichill X3 (via alternate) de kaart valt me prima mee hij ziet er degelijk uit een voelt robuust aan. Eigenlijk ga ik meestal voor MSI echter die zijn nauwelijks te vinden.
...
Heb je weleens eerder een INNO3D gehad? Ik heb in de loop van de jaren alleen MSI, ASUS en NVidia founders gehad.

Ik zit te kijken naar de INNO3D X3 OC als alternatief in het geval dat ik geen FE kan kopen, voor de schone looks maar ik vraag me toch echt af of INNO3D kwalitatief een goede keuze is voor een lange periode. Ook ben ik benieuwd naar enige 'kostenbesparingen' op de PCB zelf zoals power phases e.d.

Ik neem aan dat het missen van een dual-bios ook geen probleem moet zijn op een AIB kaart?

Zijn er anderen die ook ervaring hebben met INNO3D?

Alvast bedankt Tweakers! _/-\o_

[ Voor 10% gewijzigd door GTX404 op 16-10-2022 16:31 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • juggle
  • Registratie: December 2003
  • Laatst online: 02-05 11:27

juggle

Papa, ondernemer, gamer

[b]Yonix in "[NVIDIA GeForce RTX 40XX] Ervaringen & Discussie"Yonix schreef op zondag 16 oktober

Misschien dat ik binnenkort even hoi kom zeggen in de Discord. :)
Doe maar ff man! Ben ik niet de enige met een 4090 😉 ojah Stephan wel maar die telt niet...

Zoek je mede papa's om gezellig mee te gamen? kijk op: fathersoftweakers.nl


Acties:
  • +2 Henk 'm!

  • dutchman666
  • Registratie: December 2013
  • Laatst online: 14:51
GTX404 schreef op zondag 16 oktober 2022 @ 16:25:
[...]


Heb je weleens eerder een INNO3D gehad? Ik heb in de loop van de jaren alleen MSI, ASUS en NVidia founders gehad.

Ik zit te kijken naar de INNO3D X3 OC als alternatief in het geval dat ik geen FE kan kopen, voor de schone looks maar ik vraag me toch echt af of INNO3D kwalitatief een goede keuze is voor een lange periode. Ook ben ik benieuwd naar enige 'kostenbesparingen' op de PCB zelf zoals power phases e.d.

Ik neem aan dat het missen van een dual-bios ook geen probleem moet zijn op een AIB kaart?

Zijn er anderen die ook ervaring hebben met INNO3D?

Alvast bedankt Tweakers! _/-\o_
Ik heb nog nooit kaart van INNO3D gehad sterker nog tot ongeveer 2 jaar geleden of zo wist ik niet eens dat dit merk bestond. Ik heb altijd gigabyte en MSI kaarten gehad. Echter omdat ik nu een geval van F.O.M.O had en gezien het feit dat bij de 3000 serie de top kaarten ook zo waren uitverkocht. En ik nu al de prijzen zag stijgen, heb ik niet geaarzeld en direct toegeslagen ;)

Tevens zit er gewoon netjes 3 jaar garantie op de kaart. En gezien de enorme koeling die er op zit en het feit dat de kaart zelfs bij de benchmarks altijd onder de 60 graden is gebleven maak ik me eerlijk gezegd niet zo veel zorgen. Hou wel rekening met het feit dat de Powerlimit al op de max zit dus je zult niet hoger dan 450 watt kunnen (of je moet een bypass weten hiervoor).

Mijn RTX 3070 en 3080 gaming trio kaarten van MSI hadden ook geen dual boot en aangezien ik niet overclock, heb ik deze optie ook nooit gemist of zo.

En op zich oogt de kaart nog mooi ook in de kast (al is dat natuurlijk afhankelijk van iemand persoonlijke smaak).

Afbeeldingslocatie: https://tweakers.net/i/O8hcJ0WAaHXkeN_C4qr2loGs1Qo=/800x/filters:strip_icc():strip_exif()/f/image/oMh1a1ld6nDkBTVMIM6TZGKw.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/oCREYVF7FjTXblOYicgogsKgdxg=/800x/filters:strip_icc():strip_exif()/f/image/sSSncBDQIYBhK2GKA33UTVsR.jpg?f=fotoalbum_large

P2 LRDM|Midnight|20"|Pilot,Plus,Per|Nappa|350KW


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:23

OMD

dutchman666 schreef op zondag 16 oktober 2022 @ 15:43:
[...]


Ik heb een INNO 3D ichill X3 (via alternate) de kaart valt me prima mee hij ziet er degelijk uit een voelt robuust aan. Eigenlijk ga ik meestal voor MSI echter die zijn nauwelijks te vinden.

Wel is de kaart vrij robuust (breder en dikker dan de RTX 3080 die er in zat) en ik was daarom blij dat ik de kaart probleemloos heb kunnen plaatsen O-)

Over de scores ben ik erg tevreden. Het zijn niet de scores zoals ik bij de YouTube vloggers zie. Maar de behaalde resultaten vallen gewoon netjes binnen de gemiddelde bandbreedte. Ik vermoed dat de AMD 5800 X3D niet zo'n ster is met benchmarks echter tijdens het gamen op 4K merk ik niet echt een CPU bottleneck.

Het hoogste verbruik dat ik constateerde was tijdens het testen namelijk zo'n 430 watt. Bij alle games is het verbruik van de kaart op 4K meestal tussen de 340 tot 380 watt. Afhankelijk van de titel.

https://www.3dmark.com/spy/31420942

De adapter connectoren sluiten erg strak. En de 12 pin connector is erg soepel te plaatsen op de kaart (vergt nauwelijks kracht). Als de officiële connector kabels van SEASONIC beschikbaar komen dan bestel ik zo'n kabel want dat scheelt een heel wirwar van kabels in mijn krappe kast en kan de bijgeleverde adapter terug in de doos :)
toon volledige bericht
De 5800x3d moet juist een ster zijn. Sterker nog, de meeste reviews zij met slechtere cpu’s gedaan dus je fps moet minimaal overeen komen. Ik zou toch even kijken hoevee het scheelt want dat klopt niet.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +2 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

dutchman666 schreef op zondag 16 oktober 2022 @ 17:48:
[...]


Ik heb nog nooit kaart van INNO3D gehad sterker nog tot ongeveer 2 jaar geleden of zo wist ik niet eens dat dit merk bestond. Ik heb altijd gigabyte en MSI kaarten gehad. Echter omdat ik nu een geval van F.O.M.O had en gezien het feit dat bij de 3000 serie de top kaarten ook zo waren uitverkocht. En ik nu al de prijzen zag stijgen, heb ik niet geaarzeld en direct toegeslagen ;)

Tevens zit er gewoon netjes 3 jaar garantie op de kaart. En gezien de enorme koeling die er op zit en het feit dat de kaart zelfs bij de benchmarks altijd onder de 60 graden is gebleven maak ik me eerlijk gezegd niet zo veel zorgen. Hou wel rekening met het feit dat de Powerlimit al op de max zit dus je zult niet hoger dan 450 watt kunnen (of je moet een bypass weten hiervoor).

Mijn RTX 3070 en 3080 gaming trio kaarten van MSI hadden ook geen dual boot en aangezien ik niet overclock, heb ik deze optie ook nooit gemist of zo.

En op zich oogt de kaart nog mooi ook in de kast (al is dat natuurlijk afhankelijk van iemand persoonlijke smaak).

[Afbeelding]

[Afbeelding]
toon volledige bericht
Ah ja zal waarschijnlijk prima zijn. Wel jammer dat ze op de iChill zo veel 'spam' hebben geplaatst, we weten het wel na 1 keer hoor! 8)7 Voor de rest ziet het er prima uit!

Vorige launch had ik meteen toegeslagen en met geluk een 3080FE voor MSRP kunnen bemachtigen, dit jaar wacht ik nog even met de verwachting dat er meer competitie komt en het rustiger wordt... Hopelijk niet weer hetzelfde verhaal met voorraden en prijsstijgingen!

Als ik Jensen van nVidia moet geloven dan hebben ze genoegsilicon en overschot aan 3000 kaarten die ze naast de 4000 series willen blijven verkopen, dus we gaan het zien! Als dit hetzelfde verhaal is voor AMD, dan zullen ze minimaal nieuwe generatie kaarten bevoorraaden om de oudere te verkopen, fingers crossed :P

Mijn doel is om over te stappen van een Acer X34A 3440x1440 100hz naar de Acer X38S 3840x1600 175hz.. Das volgens mij bijna 4K en ik wil eens hoge refresh rates proberen dus kom maar op met die 4090 of 4080 / 90 Ti! :P

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Die van mij: https://www.3dmark.com/3dm/81146239?

Maar goed draai nog op een coffeelake cpu. PCI 3.0

[ Voor 4% gewijzigd door Xtr3me4me op 16-10-2022 18:09 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • jbbrans
  • Registratie: Augustus 2000
  • Laatst online: 21:34

jbbrans

 

Als je een kaart koopt die origineel geleverd wordt met een voedingskabel met 3 connectors en je neemt later, als ze los beschikbaar komen, een kabel met 4 connectors, zou je dan de powerlimit alsnog boven de 100% kunnen gebruiken?

2e vraag: verwacht iemand nog andere kaarten, behalve die van Asus, met 3x displayport en 2x HDMI?
Ik heb nu een Gigabyte 3080ti met alle 5 de poorten in gebruik.

[ Voor 26% gewijzigd door jbbrans op 16-10-2022 18:43 ]


Acties:
  • +1 Henk 'm!

  • EdvanAl
  • Registratie: September 2016
  • Laatst online: 15:17
jbbrans schreef op zondag 16 oktober 2022 @ 18:37:
Als je een kaart koopt die origineel geleverd wordt met een voedingskabel met 3 connectors en je neemt later, als ze los beschikbaar komen, een kabel met 4 connectors, zou je dan de powerlimit alsnog boven de 100% kunnen gebruiken?
Ik zelf zie niet het probleem met een 3x8.
Heb de MSI X Gaming 4090 en je moet echt heel erg je best doen om over 400 watt te komen.
Kaart blijft echt koel.
Alles draait als een dolle.

Waarom overklokken met toename van instabiliteit en wat enkel frames erbij.
Niet mijn ding in ieder geval

Acties:
  • 0 Henk 'm!

  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 03-05 13:30
Xtr3me4me schreef op zondag 16 oktober 2022 @ 18:08:
Die van mij: https://www.3dmark.com/3dm/81146239?

Maar goed draai nog op een coffeelake cpu. PCI 3.0
Nette scores, gebruik je ook een vertical gpu mount, en zo ja welke?
Met gpu mount haal ik 25k gpu scores, zonder 32k.

Acties:
  • +3 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

jbbrans schreef op zondag 16 oktober 2022 @ 18:37:
Als je een kaart koopt die origineel geleverd wordt met een voedingskabel met 3 connectors en je neemt later, als ze los beschikbaar komen, een kabel met 4 connectors, zou je dan de powerlimit alsnog boven de 100% kunnen gebruiken?

2e vraag: verwacht iemand nog andere kaarten, behalve die van Asus, met 3x displayport en 2x HDMI?
Ik heb nu een Gigabyte 3080ti met alle 5 de poorten in gebruik.
1e vraag: bij de Inno3D X3 OC kan dat niet, ookal verander je de adapter.
Zie hier: YouTube: Inno3D RTX 4090 X3 OC Review - taking on the Founders!

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:23

OMD

EdvanAl schreef op zondag 16 oktober 2022 @ 18:45:
[...]


Ik zelf zie niet het probleem met een 3x8.
Heb de MSI X Gaming 4090 en je moet echt heel erg je best doen om over 400 watt te komen.
Kaart blijft echt koel.
Alles draait als een dolle.

Waarom overklokken met toename van instabiliteit en wat enkel frames erbij.
Niet mijn ding in ieder geval
Sommige mensen vinden het gewoon leuk. LN2 overclocking is ook nergens goed voor maar het is wel leuk :)

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

laurensxeon schreef op zondag 16 oktober 2022 @ 18:49:
[...]


Nette scores, gebruik je ook een vertical gpu mount, en zo ja welke?
Met gpu mount haal ik 25k gpu scores, zonder 32k.
Nee geen gpu mount, is rechtstreeks in de PCI-E slot van de mobo.

Eind deze maand is de upgrade naar top build 13900k en DDR5-6000. Maar moet wel geluk hebben dat ze dan ook de Z790 uitbrengen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

jbbrans schreef op zondag 16 oktober 2022 @ 18:37:
Als je een kaart koopt die origineel geleverd wordt met een voedingskabel met 3 connectors en je neemt later, als ze los beschikbaar komen, een kabel met 4 connectors, zou je dan de powerlimit alsnog boven de 100% kunnen gebruiken?

2e vraag: verwacht iemand nog andere kaarten, behalve die van Asus, met 3x displayport en 2x HDMI?
Ik heb nu een Gigabyte 3080ti met alle 5 de poorten in gebruik.
1e vraag: Ja

2e vraag: Ben zelf bang van niet of er moet een exotische variant komen ergens volgend jaar, maar ben bang van niet nee.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • jbbrans
  • Registratie: Augustus 2000
  • Laatst online: 21:34

jbbrans

 

Bedankt voor de antwoorden.
1e “probleem”: de situatie met 3 voedingskabels is dus voldoende.
2e: dat wordt dus weer een 2e kaart plaatsen. Ik heb nog een gt710??? met 4 uitgangen liggen. Traag als dikke …… maar het is genoeg voor een timing scherm.

Acties:
  • +3 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Ik heb zelf ook voor het eerst een Inno3D, de ichill variant. Volgens mij zijn alle 4090's zwaar overbemeten qua koeling, dus ik heb gekozen voor de kaart die op dat moment beschikbaar en 'normaal' geprijsd was. Ze zijn al duur genoeg.

Doet het prima en inderdaad die 4e aansluiting mis je niet. Ik zou juist aanraden om hem te undervolten of een power limit in te stellen. Ik gebruik hem zelfs op een 750 watt voeding tot ik er eentje kan kopen met zo'n nieuwe connector. Wordt niet aangeraden maar met deze instellingen is hij zuiniger dan de 3080 die hij vervangt.

Ik was overigens aangenaam verrast toen deze kaart dunner bleek dan mijn vorige 3080 Master van Gigabyte.

[ Voor 16% gewijzigd door DKWB op 16-10-2022 21:00 ]


Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
t0mmiiiii schreef op zondag 16 oktober 2022 @ 15:14:
[...]


Ik heb een Inno3d. Die heeft een 3x8-pin kabel. Levert geen problemen op, allleen dat je eerder te maken hebt met de powerlimit die niet hoger dan 100% kan. Concreet betekent dit dat ik, als ik powerlimit wil vermijden, mijn maximum clock vastzet op 950 mV en 2760 coreclock.

[Afbeelding]

Een groot gedeelte van dit weekend heb ik mij bezig gehouden met optimaliseren van mijn RTX 4090. Ik vind dit leuk, houd van efficientie, en de Inno3d x3 heeft een redelijk luide cooler. Ik kwam uit op bovenstaande resultaten. Een kleine reductie in clocks heeft amper invloed op het aantal FPS zoals je ziet. Met de 950 mV heb ik geen last van powerlimit, daarboven wel. Bij cyberpunk draaide de benchmark met alles op max, 4k, en dlss op balanced. Ik wilde ook een non-rt titel, dus die optie bij Tomb raider uitgezet. Verder alle settings op max en 4k resolutie.

Op youtube en andere kanalen is er veel discussie of undervolten wel nuttig is met de rtx 4090. Er wordt gesproken over powerlimit. Ik heb dit ook geprobeerd, en mijn beste resultaten waren met powerlimit op 80 en de core op +150. Bij volle belasting komt dit ongeveer neer op hetzelfde verbruik en dezelfde prestaties van het 950 mV profiel. Echter, als je een game hebt waarbij de rtx 4090 niet helemaal belast wordt, door een framerate cap of een cpu-bottleneck, dan kan het verbruik een stuk hoger zijn met het powerlimit-profiel. Bij een van de games kwam ik zo op 310 watt voor het powerlimit 80+150 core profiel, en 230 watt voor het 950 mV profiel. Dit maakt de powerlimit een suboptimale oplossing.

Dat qua performance een memory-OC nuttig is, staat buiten kijf. Het scheelde met +1710 mHz zo'n 5 procent. Het verbruik gaat echter wel met 20 watt omhoog. Ik vroeg me dus af of het ook efficient is. Het blijkt echter dat de core minder hard hoeft te werken door de mem-oc. Puntje bij paaltje, efficientie blijft ongeveer gelijk. Gecheckt met de Nvidia overlay in combinatie met een meter aan het stopcontact. Dus, mijn advies is om wel de memory-OC te doen, voor extra performance.

Al met al: de setting van 900mV met memory-OC is het voor mij. Kan de fanspeed lekker op 30% blijven en heb ik een enorm goede efficientie. Een verschil van 89 of 92 fps ga ik ook echt niet herkennen in een denkbeeldige a/btest.

Mocht je vragen hebben, eventueel over mijn methodiek, let me know!
toon volledige bericht
Bedankt voor je bericht, daar hebben we wat aan. _/-\o_ Ik heb nog wat zitten pielen en ben ook tot dezelfde conclusie gekomen.

Met name bij een framecap werkt de power limit niet lekker. Het voltage ging daar richting de 1100 mV terwijl dat helemaal niet nodig is. Met een undervolt blijft hij netjes op 900 mV draaien en is hij lekker zuinig.

Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

DKWB schreef op zondag 16 oktober 2022 @ 22:39:
[...]


Bedankt voor je bericht, daar hebben we wat aan. _/-\o_ Ik heb nog wat zitten pielen en ben ook tot dezelfde conclusie gekomen.

Met name bij een framecap werkt de power limit niet lekker. Het voltage ging daar richting de 1100 mV terwijl dat helemaal niet nodig is. Met een undervolt blijft hij netjes op 900 mV draaien en is hij lekker zuinig.
Welke app gebruiken jullie om de kaart op 900mV te zetten?

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
GTX404 schreef op zondag 16 oktober 2022 @ 23:20:
Welke app gebruiken jullie om de kaart op 900mV te zetten?
Ik gebruik MSI Afterburner. Dit is een video voor de 3080, maar het werkt hetzelfde op een 4090:

YouTube: How To Undervolt RTX 3080 For Huge Efficiency Gains

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:23

OMD

DKWB schreef op zondag 16 oktober 2022 @ 23:36:
[...]


Ik gebruik MSI Afterburner. Dit is een video voor de 3080, maar het werkt hetzelfde op een 4090:

YouTube: How To Undervolt RTX 3080 For Huge Efficiency Gains
Undervolting wordt niet aangeraden bij de 4090:
YouTube: Don't Undervolt the RTX 4090.

Der8bauer geeft aan dat je beter het powertarget kan verlagen. Je kan de laatste video ook ook nog van def8bauer erbij pakken als je wilt. Uiteraard moet iedereen het zelf weten maar ik meld het voor de zekerheid maar wel even. Ding heeft genoeg performance dus die paar % fps maakt niet zoveel uit maar er is een reden dat ie trager loopt op dezelfde clockspeeds. Fijn vinden ze het blijkbaar niet.

[ Voor 11% gewijzigd door OMD op 17-10-2022 08:24 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
De video van Der8bauer heb ik gezien inderdaad. Helaas testen zij niet met frame limiters denk ik.

De resultaten zonder frame limiter zijn vrijwel hetzelfde, allebei rond de 900 mV op 2600 MHz, misschien iets sneller met een power target zoals der8bauer zegt, maar zodra ik de fps limiteer met RivaTuner dan schiet het voltage omhoog naar 1100 mV en de core naar 2900 MHz. Ik weet niet of dit een bekend probleem is? Ik heb me er bij de vorige generatie niet zo mee bezig gehouden.

Met een undervolt is dat uiteraard niet het geval en blijft hij netjes op 900 mV draaien.

Acties:
  • +1 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:08
DKWB schreef op maandag 17 oktober 2022 @ 08:35:
De video van Der8bauer heb ik gezien inderdaad. Helaas testen zij niet met frame limiters denk ik.

De resultaten zonder frame limiter zijn vrijwel hetzelfde, allebei rond de 900 mV op 2600 MHz, misschien iets sneller met een power target zoals der8bauer zegt, maar zodra ik de fps limiteer met RivaTuner dan schiet het voltage omhoog naar 1100 mV en de core naar 2900 MHz. Ik weet niet of dit een bekend probleem is? Ik heb me er bij de vorige generatie niet zo mee bezig gehouden.

Met een undervolt is dat uiteraard niet het geval en blijft hij netjes op 900 mV draaien.
Helemaal eens. En met een game die bijv 70% gpu load vraagt, kan dat verschil zo 80 watt zijn. En die 80 watt heeft alleen maar nadelen (kaart heeft meer voltage dus mogelijk slijtage, meer geluid, extra kosten).

Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Inderdaad, ik zou verwachten dat het verbruik daalt met een frame cap + power limit, maar dat gebeurt niet helaas. Ik zie nog steeds hetzelfde verbruik, maar dan met een hogere clock en voltage.

Ik lees vrijwel alleen maar berichten dat undervolten slecht zou zijn. Ik denk als gevolg van die der8bauer en Optimum tech video. Als dat zo zou zijn dan ben ik wel benieuwd waarom.

Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-05 13:25

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
@DKWB dat klinkt voor mij alsof de powerlimit die je instelt niets doet eigenlijk...

Ik ga daar binnenkort ook even mee experimenteren, maar ik wilde eerst een baseline performance vaststellen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 03-05 13:30
Korte vraag, welke vertical GPU mount + kabel gebruiken jullie? De Lancool II gpu mount beperkt mijn scores in Timespy behoorlijk, 7k verschil.

Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Blaat schreef op maandag 17 oktober 2022 @ 10:14:
@DKWB dat klinkt voor mij alsof de powerlimit die je instelt niets doet eigenlijk...
Het lijkt allemaal prima te werken zoals de reviewers aangeven, maar alleen als ik de framerate z'n gang laat gaan. Dan daalt het stroomverbruik van 400+ naar 320 watt ongeveer.

Zodra ik een fps cap instel, waardoor de GPU bijvoorbeeld maar 60-70% belast wordt zou ik nog een verdere verlaging verwachten naar 240 watt. Dit gebeurt wel bij een undervolt, maar niet met een power limit. Zodra ik de cap instel schieten de core clock en voltage omhoog waardoor het verbruik op 320 watt blijft hangen i.p.v. 240.

Acties:
  • +1 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:08
DKWB schreef op maandag 17 oktober 2022 @ 10:46:
[...]


Het lijkt allemaal prima te werken zoals de reviewers aangeven, maar alleen als ik de framerate z'n gang laat gaan. Dan daalt het stroomverbruik van 400+ naar 320 watt ongeveer.

Zodra ik een fps cap instel, waardoor de GPU bijvoorbeeld maar 60-70% belast wordt zou ik nog een verdere verlaging verwachten naar 240 watt. Dit gebeurt wel bij een undervolt, maar niet met een power limit. Zodra ik de cap instel schieten de core clock en voltage omhoog waardoor het verbruik op 320 watt blijft hangen i.p.v. 240.
Het enige wat powerlimit doet, is het maximale verbruik aftoppen. Dus, bijvoorbeeld 450 watt. Dan treedt het mechanisme in werking waarbij hij zowel voltage als coreclock verlaagt. Als je daaronder onder de 450 watt zit, dan loopt de 4090 zoals op stock en heb je dus geen energieverlaging. (overigens, bij mij lijkt hij met een gemiddeld verbruik van 410 watt soms alsnog in powerlimit te schieten, wellicht door pieken. Vandaar de lage vcore waar ik op uitkwam.
Als je dus een zwaar spel draait en je hebt geen fps-cap of een CPU-bottleneck, dan heb je iets aan de powerlimit. Anders volgens mij niet.
Natuurlijk is het wel zo dat als je je powerlimit op 60% zet, dat in een relatief groot aantal scenario's er een vermindering van voltages en clocks zal zijn. Meer dan als je de powerlimit op 80% zet.
DKWB schreef op maandag 17 oktober 2022 @ 08:56:
Inderdaad, ik zou verwachten dat het verbruik daalt met een frame cap + power limit, maar dat gebeurt niet helaas. Ik zie nog steeds hetzelfde verbruik, maar dan met een hogere clock en voltage.

Ik lees vrijwel alleen maar berichten dat undervolten slecht zou zijn. Ik denk als gevolg van die der8bauer en Optimum tech video. Als dat zo zou zijn dan ben ik wel benieuwd waarom.
Optimum Tech lijkt als argument te hebben dat je geen volledige controle hebt bij undervolten, nameljk dat de clock die je kiest, soms afwijkt van de werkelijke clock. Wat betreft der8bauer heb ik niet kunnen ontdekken dat hij negatief is over manueel undervolten. Waar zegt hij dat?
Blaat schreef op maandag 17 oktober 2022 @ 11:23:
[...]


Aha, maar dat lijkt me ook redelijk normaal gedrag. Een lagere powerlimit zelf doet immers niks met het eerste gedeelte van de efficiency curve.

Enkel undervolting levert ook wisselende resultaten op qua stroomverbruik, i.e. het is afhankelijk van de game hoe hoog het verbruik dan uitpakt, dus idealiter gebruik je een combinatie van beiden. Namelijk zowel een undervolt als een powerlimit.
Dat zou je kunnen doen, maar wat is dan het voordeel van het gebruiken van powerlimit, als je al een undervolt hebt die het maximale verbruik ook beperkt? Bijv 900mV en 2655 mHz geeft een max verbruik van 345 watt. Dat komt overeen met een powerlimit van circa 77%.
Als je de powerlimit van 60% zet, gaat hij bij volledig gpu-verbruik verder afknijpen. En dan maximaliseert hij het verbruik op 270 watt. Maar dat kun je dat dan vergelijken met een denkbeeldig profiel van 850 mV en 2500 mHz, met hetzelfde maximale verbruik. Dan heb je alsnog het nadeel dat bij een lagere belasting (fps-cap, cpu-bottleneck), de undervolt + powerlimit een hoger verbruik heeft, dan de pure undervolt met lagere spanning.

[ Voor 40% gewijzigd door t0mmiiiii op 17-10-2022 11:31 ]


Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-05 13:25

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
DKWB schreef op maandag 17 oktober 2022 @ 10:46:
[...]


Het lijkt allemaal prima te werken zoals de reviewers aangeven, maar alleen als ik de framerate z'n gang laat gaan. Dan daalt het stroomverbruik van 400+ naar 320 watt ongeveer.

Zodra ik een fps cap instel, waardoor de GPU bijvoorbeeld maar 60-70% belast wordt zou ik nog een verdere verlaging verwachten naar 240 watt. Dit gebeurt wel bij een undervolt, maar niet met een power limit. Zodra ik de cap instel schieten de core clock en voltage omhoog waardoor het verbruik op 320 watt blijft hangen i.p.v. 240.
Aha, maar dat lijkt me ook redelijk normaal gedrag. Een lagere powerlimit zelf doet immers niks met het eerste gedeelte van de efficiency curve.

Enkel undervolting levert ook wisselende resultaten op qua stroomverbruik, i.e. het is afhankelijk van de game hoe hoog het verbruik dan uitpakt, dus idealiter gebruik je een combinatie van beiden. Namelijk zowel een undervolt als een powerlimit.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Ah oké, dat klinkt logisch. Dan lijkt me een undervolt nog steeds de beste optie, er is blijkbaar genoeg ruimte om over de hele curve op een lager voltage te draaien. Ik begrijp nog steeds niet zo goed waarom het nu ineens voor de 4090 tegen wordt gesproken. Straks nog eens wat verder onderzoek naar doen.

Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-05 13:25

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
t0mmiiiii schreef op maandag 17 oktober 2022 @ 11:22:

[...]


Dat zou je kunnen doen, maar wat is dan het voordeel van het gebruiken van powerlimit, als je al een undervolt hebt die het maximale verbruik ook beperkt? Bijv 900mV en 2655 mHz geeft een max verbruik van 345 watt. Dat komt overeen met een powerlimit van circa 77%.
Als je de powerlimit van 60% zet, gaat hij bij volledig gpu-verbruik verder afknijpen. En dan maximaliseert hij het verbruik op 270 watt. Maar dat kun je dat dan vergelijken met een denkbeeldig profiel van 850 mV en 2500 mHz, met hetzelfde maximale verbruik. Dan heb je alsnog het nadeel dat bij een lagere belasting (fps-cap, cpu-bottleneck), de undervolt + powerlimit een hoger verbruik heeft, dan de pure undervolt met lagere spanning.
Omdat een undervolt het maximale verbruik eigenlijk helemaal niet beperkt. Speel je een oude DX11 game met een undervolt, en je verbruik komt dan (verzonnen voorbeeld) niet boven de 330w uit. Pak CB2077 met alle registers open getrokken, en je verbruik stijgt dan alsnog naar de 400w+ omdat dit laatste voorbeeld veel meer transistors laat zweten op de GPU. Op stock settings zal je ook zien dat het laatste voorbeeld op lagere spanningen/clock speeds zal werken als het eerste DX11 voorbeeld.

Hoe minder van de GPU gebruikt wordt, hoe minder impact een lagere power target zal hebben. Hoe meer er van de GPU gebruikt wordt, hoe minder winst een undervolt oplevert.

Laat je daar in niet om de tuin leiden door het "GPU usage" getal in je software, want het kan heel goed zijn dat je ROPs verzadigd zijn, terwijl de helft van je SM's uit hun reukorgaan zitten te smikkelen, met een laag verbruik tot gevolg.

Daarom wil je -denk ik- een combinatie van beiden. Klinkt dit een beetje logisch?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +2 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:08
GTX404 schreef op zondag 16 oktober 2022 @ 15:29:
[...]


Erg mooi leesvoer was dat!

Ik zou graag meer willen weten over je methodiek natuurlijk. Wat is je testsetup? Welke games heb je getest en hoeveel test cycles en hoe lang duurt een cycle?

Ik ben ook erg benieuwd naar je fan profile op het 900mV profiel!

Dankjewel voor deze info!
Mooi zo. Het is een simpele tabel maar er zaten aardig wat uurtjes in. Scheelt weer iets voor anderen, al is voor elke kaart de benodigde spanning voor een bepaalde clock natuurlijk weer anders.
Ik heb los van de RTX 4090 een budget mini-itx build.
#CategoryProductPrijsSubtotaal
1ProcessorsIntel Core i5-12400 Boxed€ 226,48€ 226,48
1MoederbordenGigabyte H610I DDR4€ 118,90€ 118,90
1VideokaartenInno3D GeForce RTX 4090 X3 OC€ 0,-€ 0,-
1BehuizingenCooler Master MasterBox NR200P Zwart€ 76,-€ 76,-
1Processorkoelingbe quiet! Pure Rock 2 Zwart€ 39,55€ 39,55
3Ventilatorenbe quiet! Pure Wings 2 PWM, 120mm€ 9,11€ 27,33
1Geheugen internG.Skill Aegis F4-3200C16D-16GIS€ 52,82€ 52,82
1VoedingenCorsair SF750 (2018)€ 169,90€ 169,90
1Solid state drivesSamsung 980 1TB€ 94,51€ 94,51
Bekijk collectie
Importeer producten
Totaal€ 805,49


In de headers kun je zien welke games ik waarvoor heb getest. Ik wilde voor het verbruik games die een verschillende zwaarte hebben. Ik heb steeds de ingame benchmarks gebruikt, slechts eenmaal. De meeste benchmarks duren 2 minuten. Omdat het gaat om verschillende games kun je echter goed de rode lijn ontdekken.

Wat betreft de fan profile op het 900mV profiel, heb ik deze zo ingesteld dat hij vanaf 65 graden van 0 naar 30% fanspeed gaat, en hij blijft op die 30% fanspeed. De temperatuur gaat ook niet hoger dan 72 graden ofzo (ruw getal). Mocht hij in een hypothetisch geval te warm worden, dan gaat hij vanaf 80 graden of iets dergelijks underclocken en undervolten. Dat is standaard.
dutchman666 schreef op zondag 16 oktober 2022 @ 15:43:
[...]


Ik heb een INNO 3D ichill X3 (via alternate) de kaart valt me prima mee hij ziet er degelijk uit een voelt robuust aan. Eigenlijk ga ik meestal voor MSI echter die zijn nauwelijks te vinden.

Wel is de kaart vrij robuust (breder en dikker dan de RTX 3080 die er in zat) en ik was daarom blij dat ik de kaart probleemloos heb kunnen plaatsen O-)

Over de scores ben ik erg tevreden. Het zijn niet de scores zoals ik bij de YouTube vloggers zie. Maar de behaalde resultaten vallen gewoon netjes binnen de gemiddelde bandbreedte. Ik vermoed dat de AMD 5800 X3D niet zo'n ster is met benchmarks echter tijdens het gamen op 4K merk ik niet echt een CPU bottleneck.

Het hoogste verbruik dat ik constateerde was tijdens het testen namelijk zo'n 430 watt. Bij alle games is het verbruik van de kaart op 4K meestal tussen de 340 tot 380 watt. Afhankelijk van de titel.

https://www.3dmark.com/spy/31420942

De adapter connectoren sluiten erg strak. En de 12 pin connector is erg soepel te plaatsen op de kaart (vergt nauwelijks kracht). Als de officiële connector kabels van SEASONIC beschikbaar komen dan bestel ik zo'n kabel want dat scheelt een heel wirwar van kabels in mijn krappe kast en kan de bijgeleverde adapter terug in de doos :)
toon volledige bericht
Ik sluit me wel aan bij jou verhaal, behalve dat de scores prima zijn, ondanks mijn i5-12400f. Heb jij ook het ding dat de gpu-fanspeed niet handmatig lager dan 30% kan worden gezet?
Blaat schreef op maandag 17 oktober 2022 @ 11:39:
[...]


Omdat een undervolt het maximale verbruik eigenlijk helemaal niet beperkt. Speel je een oude DX11 game met een undervolt, en je verbruik komt dan (verzonnen voorbeeld) niet boven de 330w uit. Pak CB2077 met alle registers open getrokken, en je verbruik stijgt dan alsnog naar de 400w+ omdat dit laatste voorbeeld veel meer transistors laat zweten op de GPU. Op stock settings zal je ook zien dat het laatste voorbeeld op lagere spanningen/clock speeds zal werken als het eerste DX11 voorbeeld.

Hoe minder van de GPU gebruikt wordt, hoe minder impact een lagere power target zal hebben. Hoe meer er van de GPU gebruikt wordt, hoe minder winst een undervolt oplevert.

Laat je daar in niet om de tuin leiden door het "GPU usage" getal in je software, want het kan heel goed zijn dat je ROPs verzadigd zijn, terwijl de helft van je SM's uit hun reukorgaan zitten te smikkelen, met een laag verbruik tot gevolg.

Daarom wil je -denk ik- een combinatie van beiden. Klinkt dit een beetje logisch?
toon volledige bericht
Ik begrijp denk ik wat je zegt. Maar denk je dat zelfs met een undervolt van bijv 900mV, het verbruik nog tegen de powerlimit aankomt bij Cyberpunk met max-raytracing en zonder DLSS? Ik kan namelijk zeggen dat dit niet het geval is (345 watt max, en bij lichtere games zonder fps-cap rond de 300 watt).

Acties:
  • +2 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-05 13:25

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
t0mmiiiii schreef op maandag 17 oktober 2022 @ 11:47:
[...]

Ik begrijp denk ik wat je zegt. Maar denk je dat zelfs met een undervolt van bijv 900mV, het verbruik nog tegen de powerlimit aankomt bij Cyberpunk met max-raytracing en zonder DLSS? Ik kan namelijk zeggen dat dit niet het geval is (345 watt max, en bij lichtere games zonder fps-cap rond de 300 watt).
Daarom zei ik, verzonnen voorbeeld. De exacte getallen zijn natuurlijk afhankelijk van de ingestelde undervolt. :)

En niet vervelend bedoeld, maar ik denk dat je in CB2077 met een 12400f wellicht ook tegen CPU bottlenecks aanloopt. Met een dikke CPU zou het verschil denk ik groter zijn.

Maar je post geeft wel precies mijn punt aan. Met enkel een undervolt is je daadwerkelijke verbruik nog steeds variabel en afhankelijk van de game die je speelt. Je kan natuurlijk zo heftig undervolten dat je effectief nooit boven de 350w uitkomt maar vraag me af of dit wel echt het meest optimaal is.

Ik moet zelf even gaan testen denk ik.

[ Voor 20% gewijzigd door Blaat op 17-10-2022 12:00 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +2 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Mijn kaart komt ook op ~350 watt bij de zwaarste games met een flinke undervolt. Het lijkt gewoon genoeg te zijn, performance blijft nagenoeg gelijk.

Voor mijn gevoel is het standaard voltage veel te hoog. Misschien voor het geval dat er een slechtere chip tussen zit die daadwerkelijk zoveel nodig heeft?

Acties:
  • +1 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:08
Blaat schreef op maandag 17 oktober 2022 @ 11:54:
[...]


Daarom zei ik, verzonnen voorbeeld. De exacte getallen zijn natuurlijk afhankelijk van de ingestelde undervolt. :)

En niet vervelend bedoeld, maar ik denk dat je in CB2077 met een 12400f wellicht ook tegen CPU bottlenecks aanloopt. Met een dikke CPU zou het verschil denk ik groter zijn.

Maar je post geeft wel precies mijn punt aan. Met enkel een undervolt is je daadwerkelijke verbruik nog steeds variabel en afhankelijk van de game die je speelt. Je kan natuurlijk zo heftig undervolten dat je effectief nooit boven de 350w uitkomt maar vraag me af of dit wel echt het meest optimaal is.

Ik moet zelf even gaan testen denk ik.
Ik ben benieuwd naar je resultaten.

Wat betreft de bottleneck met Cyberpunk heb je wel gelijk inderdaad. Ik merk als ik DLSS aan heb, vooral op performance of balanced, ondanks de 4k met alle setting op max, dat de 99% fps verder achter gaat lopen op de gemiddelde fps, en dat soms de gpu load wat minder dan 99% wordt. Dat is duidelijk een teken van een cpu-bottleneck. Je kunt beter een GPU-bottleneck hebben dan een CPU-bottleneck. Een CPU-bottleneck zorgt voor meer variatie in frametimes (kleine haperingen, minder vloeiende beelden). Ik ga echter niet upgraden. Digital Foundry gaf al aan dat het erop lijkt dat zelfs de nieuwste en zwaarste cpu's de rtx 4090 wat tegen kunnen houden, vooral op 1080p en 1440p of met het gebruik van image reconstruction-technieken zoals DLSS waardoor de interne resolutie lager dan 4k is. De CPU-bottleneck is voor mij minder een issue omdat ik op maximaal 117fps game.
DLSS3 zal wel een positieve invloed hebben op de cpu-bottleneck, begrijp ik van Digital Foundry. Echter heeft dit ook limieten. Als de orginele frametimes erg afwijkend zijn, dan gaat dat niet minder worden met DLSS3.
Met mijn vorige 3080 had ik zelfs al een cpu-bottleneck, maar dan alleen met Spiderman. Nu zijn Spiderman en Cyberpunk 2077 ook wel notoir games voor de CPU. >100fps is daar lastig haalbaar.

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DKWB schreef op maandag 17 oktober 2022 @ 12:14:
Voor mijn gevoel is het standaard voltage veel te hoog. Misschien voor het geval dat er een slechtere chip tussen zit die daadwerkelijk zoveel nodig heeft?
Het is altijd zo dat het standaard voltage te hoog is voor de gemiddelde chip, want die voltages zijn gemaakt voor de kneusjes. Hoe lager het voltage, hoe meer chips omlaag gebinned moeten worden naar een mindere kaart (ik neem aan dat de echt slechte AD102's straks in de 4080 Ti komen).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:23

OMD

t0mmiiiii schreef op maandag 17 oktober 2022 @ 11:22:
[...]

[...]

Optimum Tech lijkt als argument te hebben dat je geen volledige controle hebt bij undervolten, nameljk dat de clock die je kiest, soms afwijkt van de werkelijke clock. Wat betreft der8bauer heb ik niet kunnen ontdekken dat hij negatief is over manueel undervolten. Waar zegt hij dat?
[...]
Waar die de video van Optimum Tech aanraad om te kijken en dat hij dezelfde ervaring heeft. Hij laat ook de beelden zien van Optimum Tech, die zijn niet van hem.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 22:47
Help!!!! schreef op zaterdag 15 oktober 2022 @ 11:54:
Corsair heeft overigens een mooie maar niet al te goedkope 12VHPWR kabel uitgebracht waardoor je niet met de clunky adapterkabel hoeft te werken:

https://www.corsair.com/e...-Power-Cable/p/CP-8920284

[Afbeelding]
Desktop is grotendeels al "gereed" gemaakt voor een water gekoelde 4090, ben alleen nog aan het twijfelen over nieuwe ATX3.0 voeding of zo'n kabel als deze gebruiken.

Heb nou een Corsair HX850i, welke in theorie een RTX 4090 zou moeten aankunnen
(Trek nou max 600 watt dus zou idd kunnen)

Alleen quick sollutions zoals dit krijg ik niet snel warme gevoelens van.

Andere optie is 1 van de nieuwe voeding van Seasonic die in december uitkomen, alleen zoals ik het tot nu toe begrepen heb, krijgen deze geen mogelijkheid om uit te meten wat de voeding daadwerkelijk levert (wat je met Corsair AXi, HXi en RMien wel kan) : deze optie is een absolute must voor me.

Van de website van Corsair is wel duidelijk dat zij niet snel op de ATX3.0 trein gaan stappen.

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

dierkx36 schreef op maandag 17 oktober 2022 @ 14:00:
[...]


Desktop is grotendeels al "gereed" gemaakt voor een water gekoelde 4090, ben alleen nog aan het twijfelen over nieuwe ATX3.0 voeding of zo'n kabel als deze gebruiken.

Heb nou een Corsair HX850i, welke in theorie een RTX 4090 zou moeten aankunnen
(Trek nou max 600 watt dus zou idd kunnen)

Alleen quick sollutions zoals dit krijg ik niet snel warme gevoelens van.

Andere optie is 1 van de nieuwe voeding van Seasonic die in december uitkomen, alleen zoals ik het tot nu toe begrepen heb, krijgen deze geen mogelijkheid om uit te meten wat de voeding daadwerkelijk levert (wat je met Corsair AXi, HXi en RMien wel kan) : deze optie is een absolute must voor me.

Van de website van Corsair is wel duidelijk dat zij niet snel op de ATX3.0 trein gaan stappen.
toon volledige bericht
Ja alleen die kabel is al weken niet op voorraad.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 22:47
Xtr3me4me schreef op maandag 17 oktober 2022 @ 14:08:
[...]


Ja alleen die kabel is al weken niet op voorraad.
Zag het , heb ook al overal zitten zoeken :Y

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +1 Henk 'm!

  • Mr Magic
  • Registratie: Juni 1999
  • Laatst online: 00:41
Xtr3me4me schreef op maandag 17 oktober 2022 @ 14:08:
[...]


Ja alleen die kabel is al weken niet op voorraad.
Ik heb ooit dit gedaan voor de oude 12-pins kabel van Corsair.

Dat was toen erg netjes van ze. Misschien een poging waard?

Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DKWB schreef op maandag 17 oktober 2022 @ 12:14:
Mijn kaart komt ook op ~350 watt bij de zwaarste games met een flinke undervolt. Het lijkt gewoon genoeg te zijn, performance blijft nagenoeg gelijk.

Voor mijn gevoel is het standaard voltage veel te hoog. Misschien voor het geval dat er een slechtere chip tussen zit die daadwerkelijk zoveel nodig heeft?
Uit interesse; hoeveel is flink, en welk model heb je?

Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Thomas schreef op maandag 17 oktober 2022 @ 20:15:
Uit interesse; hoeveel is flink, en welk model heb je?
Ik heb de Inno3D ichill x3. Hij draait nu op 900mV en ~2600 MHz. Performance is wel iets lager dan wanneer hij naar 2900 MHz mag boosten, maar het verschil vind ik voor nu te klein. Die paar extra frames zij nog niet nodig. Bij de meeste games tikt hij toch constant de frame limiter aan.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Mr Magic schreef op maandag 17 oktober 2022 @ 17:42:
[...]


Ik heb ooit dit gedaan voor de oude 12-pins kabel van Corsair.

Dat was toen erg netjes van ze. Misschien een poging waard?
Gedaan, wie weet. Thanks voor de info, hopelijk hebben ze nog wat liggen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Ik ben weer wat aan het experimenteren met DLSS 3.0 (Frame generation) op Spider-Man. Vanuit nvidia control panel v-sync geforceerd aangezet. Dan ziet het er echt stukken beter uit, super vloeiend, net alsof het native 120 fps is. Ik hoop echt dat ze in de toekomst een officiele mogelijkheid toevoegen om de framerate te cappen. Qua latency lijkt het nog enigszins mee te vallen. Voor meer details zie: YouTube: Nvidia DLSS 3 Analysis: Image Quality, Latency, V-Sync + Testing Methodology

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

DKWB schreef op maandag 17 oktober 2022 @ 22:02:
Ik ben weer wat aan het experimenteren met DLSS 3.0 (Frame generation) op Spider-Man. Vanuit nvidia control panel v-sync geforceerd aangezet. Dan ziet het er echt stukken beter uit, super vloeiend, net alsof het native 120 fps is. Ik hoop echt dat ze in de toekomst een officiele mogelijkheid toevoegen om de framerate te cappen. Qua latency lijkt het nog enigszins mee te vallen. Voor meer details zie: YouTube: Nvidia DLSS 3 Analysis: Image Quality, Latency, V-Sync + Testing Methodology
Tenzij je G-Sync monitor/tv hebt. Dan heb je precies hetzelfde alleen dan nog een stuk beter dan V-sync.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Xtr3me4me schreef op maandag 17 oktober 2022 @ 22:24:
Tenzij je G-Sync monitor/tv hebt. Dan heb je precies hetzelfde alleen dan nog een stuk beter dan V-sync.
Die heb ik. :P

Ik speel op een CX48 OLED. Als het goed is schakelt hij nu v-sync in als de framerate boven de 120fps komt, en daaronder gebruikt hij g-sync. Ik gebruik meestal de settings uit deze guide:
https://blurbusters.com/g...lag-tests-and-settings/14

Normaal gesproken zet ik een frame cap aan op 117 fps zodat g-sync altijd actief blijft, maar dat werkt helemaal niet met frame generation helaas.

[ Voor 12% gewijzigd door DKWB op 17-10-2022 22:34 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

DKWB schreef op maandag 17 oktober 2022 @ 22:31:
[...]


Die heb ik. :P

Ik speel op een CX48 OLED. Als het goed is schakelt hij nu v-sync in als de framerate boven de 120fps komt, en daaronder gebruikt hij g-sync. Ik gebruik meestal de settings uit deze guide:
https://blurbusters.com/g...lag-tests-and-settings/14

Normaal gesproken zet ik een frame cap aan op 117 fps zodat g-sync altijd actief blijft, maar dat werkt helemaal niet met frame generation helaas.
Heb je in control panel van Nvidia ook de max frame rate op 117 gezet en max framrate achtergrond app ook 117?

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +2 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Met Nvidia control panel werkt de frame cap niet. Dan gaat hij er gewoon overheen.

Met Rivatuner gaat de framerate omlaag terwijl die nog niet aan de limiet zit vreemd genoeg. Van 105 naar 80 bijvoorbeeld.

Voor nu lijkt alleen forced v-sync te werken. Dat merk je ook direct aan de latency helaas. Het wordt ook nog niet officieel ondersteund, dus het zal in de toekomst vast nog wel beter worden dan dit. Dat is het nadeel van early adopter zijn.

[ Voor 37% gewijzigd door DKWB op 17-10-2022 22:55 ]


Acties:
  • +4 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:25
Damn, wat blijft het een heerlijk kaartje. Vanavond 'God of War' mogen spelen @4K en alle 'toeters en bellen' met ruim 130+ FPS. Heerlijk!

Trouwens, deze is ook wel leuk:
Afbeeldingslocatie: https://tweakers.net/i/6GqWS8DeziNhJPW4OeGMj8VhfEI=/800x/filters:strip_exif()/f/image/hyWI40ZtmpUqDo8VHpWVj3Di.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/YRyF4CRZaQJXiJ_Y7l73cgC5dBI=/800x/filters:strip_exif()/f/image/cWBkBL3lmcbzyKWBX1vucam2.png?f=fotoalbum_large

Quake 2 RTX met 70+ FPS. 8) Mijn RTX 3090 Ti deed 50+.

Dan nog even iets anders: zijn er hier meer mensen met Windows 11 22H2 waarbij de Nvidia Performance Overlay geen juiste waarde laat zien bij de CPU Usage? Blijkt nog steeds een ding te zijn.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 02-05 23:58
Blaat schreef op maandag 17 oktober 2022 @ 11:39:
[...]


Omdat een undervolt het maximale verbruik eigenlijk helemaal niet beperkt. Speel je een oude DX11 game met een undervolt, en je verbruik komt dan (verzonnen voorbeeld) niet boven de 330w uit. Pak CB2077 met alle registers open getrokken, en je verbruik stijgt dan alsnog naar de 400w+ omdat dit laatste voorbeeld veel meer transistors laat zweten op de GPU. Op stock settings zal je ook zien dat het laatste voorbeeld op lagere spanningen/clock speeds zal werken als het eerste DX11 voorbeeld.

Hoe minder van de GPU gebruikt wordt, hoe minder impact een lagere power target zal hebben. Hoe meer er van de GPU gebruikt wordt, hoe minder winst een undervolt oplevert.

Laat je daar in niet om de tuin leiden door het "GPU usage" getal in je software, want het kan heel goed zijn dat je ROPs verzadigd zijn, terwijl de helft van je SM's uit hun reukorgaan zitten te smikkelen, met een laag verbruik tot gevolg.

Daarom wil je -denk ik- een combinatie van beiden. Klinkt dit een beetje logisch?
toon volledige bericht
Helemaal mee eens vaak als je echt power draw wil verlagen werkt een underclock veel beter/consistenter.

Ik heb alleen nog geen reviewers gevonden die hier moeite voor gedaan hebben. Iedereen lijkt zich blind te staren op power draw via undervolt en power limieten terwijl je die clock ook gewoon kan verlagen voor een paar % minder prestaties en veel stroombesparing.

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
Hoe is de coil whine eigenlijk bij iedereen bij de 4090 series? Er wordt natuurlijk nogal wat fps richting de 200-300 gepushed met deze generational gains :)

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Lekiame schreef op dinsdag 18 oktober 2022 @ 18:18:
Hoe is de coil whine eigenlijk bij iedereen bij de 4090 series? Er wordt natuurlijk nogal wat fps richting de 200-300 gepushed met deze generational gains :)
Geen coilwhine hier. Immers speel op 4k
Vooralsnog is me kaart uitstekend

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 17:38
Xtr3me4me schreef op dinsdag 18 oktober 2022 @ 18:52:
[...]


Geen coilwhine hier. Immers speel op 4k
Vooralsnog is me kaart uitstekend
Hoor je helemaal niets met bijvoorbeeld een Superposition 1080p benchrun en waarbij het volgende in acht wordt genomen? :
  • 450W load of dicht daarbij
  • GPU fan's tijdelijk uit of op minimaal <800 rpm (kan je zonder problemen 10 seconden doen)
  • Muziek, alle andere fan's en achtergrond geluid uit
  • Open kast, dus direct naast de videokaart luisteren
Tot nu toe is het bij mij altijd weer gebleken dat wanneer mensen beweren dat er geen coilwhine is, het achteraf toch zo blijkt te zijn (meestal omdat het gemaskeerd werd door ander geluid).
Ik ben ook nog niet één high-end GPU tegengekomen die geen last had van coilwhine. Het hoeft niet perse een fluittoon te zijn, maar kan ook gesis, geknars, rattel, pruttel, buzz etc zijn.

Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
Ik hoor hier wel coilwhine tijdens loading screens waar hij richting de 500+ fps gaat. Tijdens het spelen hoor ik niets, of valt het niet op in ieder geval.

[ Voor 5% gewijzigd door DKWB op 18-10-2022 20:15 ]


Acties:
  • +4 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:25
Mijn MSI Gaming X Trio is anders wel een 'whining b*tch' hoor, maar mijn vrouw maskeert dat geluid meestal. :+


Maar even serieus: vooral tijdens benchmarks is de coil whine noticable.

Acties:
  • +3 Henk 'm!

  • juggle
  • Registratie: December 2003
  • Laatst online: 02-05 11:27

juggle

Papa, ondernemer, gamer

Yonix schreef op dinsdag 18 oktober 2022 @ 20:26:
Mijn MSI Gaming X Trio is anders wel een 'whining b*tch' hoor, maar mijn vrouw maskeert dat geluid meestal. :+


Maar even serieus: vooral tijdens benchmarks is de coil whine noticable.
Haha, mijn 3090 was lawaaieriger dan mijn 4090 Gaming oc... hier dus ook wel wat maar stukken minder dan eerst...

Zoek je mede papa's om gezellig mee te gamen? kijk op: fathersoftweakers.nl


Acties:
  • +2 Henk 'm!

  • Swizzler24
  • Registratie: Juni 2011
  • Laatst online: 30-04 09:20
[quote]Yonix schreef op dinsdag 18 oktober 2022 @ 20:26:
Mijn MSI Gaming X Trio is anders wel een 'whining b*tch' hoor, maar mijn vrouw maskeert dat geluid meestal. :+


Maar even serieus: vooral tijdens benchmarks is de coil whine noticable.
[/quote

Voegt de silent mode niks toe?

Acties:
  • 0 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:25
Swizzler24 schreef op dinsdag 18 oktober 2022 @ 21:03:
[quote]Yonix schreef op dinsdag 18 oktober 2022 @ 20:26:
Mijn MSI Gaming X Trio is anders wel een 'whining b*tch' hoor, maar mijn vrouw maskeert dat geluid meestal. :+


Maar even serieus: vooral tijdens benchmarks is de coil whine noticable.
[/quote

Voegt de silent mode niks toe?
Bij mijn vrouw? :P

Acties:
  • +3 Henk 'm!

  • Swizzler24
  • Registratie: Juni 2011
  • Laatst online: 30-04 09:20
Vrouwen hebben die mode niet 😂

Acties:
  • 0 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:25
Swizzler24 schreef op dinsdag 18 oktober 2022 @ 21:05:
[...]


Vrouwen hebben die mode niet 😂
Maar zonder dollen, ik kan later deze week de 'Silent Mode' wel eens proberen. Echter, de coil whine is, ondanks met tijden aanwezig, niet storend.

Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Yonix schreef op dinsdag 18 oktober 2022 @ 21:18:
[...]


Maar zonder dollen, ik kan later deze week de 'Silent Mode' wel eens proberen. Echter, de coil whine is, ondanks met tijden aanwezig, niet storend.
Zelfde hier met de Gaming X Trio

Acties:
  • 0 Henk 'm!

  • gaudio.
  • Registratie: November 2013
  • Laatst online: 21-04 08:34
DKWB schreef op maandag 17 oktober 2022 @ 22:02:
Ik ben weer wat aan het experimenteren met DLSS 3.0 (Frame generation) op Spider-Man. Vanuit nvidia control panel v-sync geforceerd aangezet. Dan ziet het er echt stukken beter uit, super vloeiend, net alsof het native 120 fps is. Ik hoop echt dat ze in de toekomst een officiele mogelijkheid toevoegen om de framerate te cappen. Qua latency lijkt het nog enigszins mee te vallen. Voor meer details zie: YouTube: Nvidia DLSS 3 Analysis: Image Quality, Latency, V-Sync + Testing Methodology
Ik vind de latency nog wel echt te hoog hoor met geforceerde vsync aan... idd heel vloeiend, ziet er super uit en mega framerate, maar ik speel ook op een OLED 120Hz 4K en ik merk dat je OF te hoge latency krijgt met vsync geforceerd aan in control panel OF met vsync uit in controlpanel mega tearing omdat je steeds over de 120hz schiet (maar wel oke latency..)....

Als ze gewoon zorgen met een update dat de framerate cap WEL werkt ben je er denk ik...In potentie ontzettend mooie techniek, want ik zie op een afstandje op de TV ampoer verschil met native hoor..

[ Voor 5% gewijzigd door gaudio. op 19-10-2022 11:33 ]


Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
gaudio. schreef op woensdag 19 oktober 2022 @ 11:31:
Als ze gewoon zorgen met een update dat de framerate cap WEL werkt ben je er denk ik...
Ik denk dat ik onder de 120fps zat. (dus gsync ipv vsync) Ik heb het gisteren nog een keer geprobeerd en de latency is inderdaad echt wel merkbaar met v-sync aan. Alsof je de frame interpolatie van de TV zelf aan hebt gezet.

Hopelijk komen ze snel met een werkbare oplossing. V-sync uit is ook geen optie, boven de 120fps is het niet te doen qua screen tearing. Lijkt wel erger dan native 120+?

Acties:
  • 0 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 02-05 21:55
In A Plague Tale: Requiem is het nog erger. Er zit sowieso al een soort van mouse smoothing op. Als je dan daar bovenop frame generation inschakelt is het helemaal niet meer te doen.

Acties:
  • +2 Henk 'm!

  • gaudio.
  • Registratie: November 2013
  • Laatst online: 21-04 08:34
DKWB schreef op woensdag 19 oktober 2022 @ 11:37:
[...]


Ik denk dat ik onder de 120fps zat. (dus gsync ipv vsync) Ik heb het gisteren nog een keer geprobeerd en de latency is inderdaad echt wel merkbaar met v-sync aan. Alsof je de frame interpolatie van de TV zelf aan hebt gezet.

Hopelijk komen ze snel met een werkbare oplossing. V-sync uit is ook geen optie, boven de 120fps is het niet te doen qua screen tearing. Lijkt wel erger dan native 120+?
Ik speelde daarna trouwens spiderman op een 270Hz scherm 1440p en daar bleef het onder de 260Hz en dan is de prestatie dus wel gewoon super! Latency meer dan acceptabel. Dus DLSS 3 is gewoon helemaal prima zolang je niet boven de refreshrate van je monitor/tv komt denk ik

Ben ook erg benieuwd hoe Cyberpunk het straks dan doet, want dan kom je niet boven de 120 FPS denk ik, dus zou het ook moeten kunnen werken...

[ Voor 8% gewijzigd door gaudio. op 19-10-2022 13:26 ]


Acties:
  • +2 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Heb zonet bestelling geplaatst met i9-13900k en DDR 5 @ 6000Mhz met 2 x WD m.2 850x 2TB en Aorus Master Z790 met Arctic Freezer 2 420

Moest wel gelijk een nieuwe kast erbij aanschaffen, aangezien geen 420 in de huidige kast kan en de 13900k erg warm kan worden, dus wilde perse waterkoeling hebben.

Benieuwd of mijn FPS in ieder geval iets omhoog gaat met de RTX4090 en niet zo'n bottleneck krijgt van mijn 9700k met ddr4 3200Mhz.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:08
DKWB schreef op woensdag 19 oktober 2022 @ 11:37:
[...]


Ik denk dat ik onder de 120fps zat. (dus gsync ipv vsync) Ik heb het gisteren nog een keer geprobeerd en de latency is inderdaad echt wel merkbaar met v-sync aan. Alsof je de frame interpolatie van de TV zelf aan hebt gezet.

Hopelijk komen ze snel met een werkbare oplossing. V-sync uit is ook geen optie, boven de 120fps is het niet te doen qua screen tearing. Lijkt wel erger dan native 120+?
Je zou eens kijken of je met DLDSR de workload kunt verzwaren, waardoor je niet boven de 120fps komt. Dat je mikt op 95-100 fps o.i.d.

Eindelijk heb ik DLDSR gisteren goed werkzaam gekregen. Ik had het probleem waarbij met een tv die je als monitor gebruikt, hij de hoogste ondersteunde resolutie pakt om de DSR-resoluties op te baseren (4096 x2160). Dan krijg je echter zwarte balken. Oplossing is het via CRU (Custom Resoluiton Utility) de resolutie van 4096x2160 te verwijderen en dan je pc opnieuw op te starten.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 17:38
@Yonix @Swizzler24

Bedankt voor de info. Dan is het coilwhine probleem gewoon hetzelfde gebleven.
Ik had de hoop dat het met de extra powerstages en lager verbruik niet meer zou spelen
Voor €2000-2500 hadden ze, wat mij betreft, daar wel aandacht aan mogen besteden.

Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-05 13:25

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
CMT schreef op donderdag 20 oktober 2022 @ 10:11:
[...]Voor €2000-2500 hadden ze, wat mij betreft, daar wel aandacht aan mogen besteden.
Daarmee ga je er vanuit dat het iets is wat te voorkomen is. Dat is helaas een misvatting. De EMF die wordt gegenereerd door het open en dichtklappen van de power stages veroorzaakt het geluid. Dit is inherent aan powerstages (of geschakelde DC-DC converters i.h.a.) en ga je nooit kunnen voorkomen ben ik bang.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Childofbodom
  • Registratie: November 2012
  • Laatst online: 29-04 12:03
Hallo, ik ben van plan een RTX4090 aan te schaffen (MSI Suprim X) om mn 3080Ti te vervangen als de prijs rond de 2100 komt.

Ik heb nu een systeem met de volgende specs:
- MSI MPG Z490 GAMING EDGE WIFI
- i9 10900K @5,3Ghz all core
- 32GB DDR4 4000Mhz CL13
- 1200W Platinum + PSU

Gaat dit systeem de 4090 bottlenecken? Het is een PCIe 3.0 opstelling dus zal zowieso iets qua bandbreedte moeten inleveren.

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 21:36
Denk dat het meevalt , maar hangt nogal van je doel af? Hoge fps of 4k? Raytracing?

Acties:
  • 0 Henk 'm!

  • Childofbodom
  • Registratie: November 2012
  • Laatst online: 29-04 12:03
meljor schreef op donderdag 20 oktober 2022 @ 13:08:
Denk dat het meevalt , maar hangt nogal van je doel af? Hoge fps of 4k? Raytracing?
Doel is inderdaad 4K gamen op mn 120hz TV met HDR, G-sync, raytracing en alles maxed out als t kan :9~

Acties:
  • 0 Henk 'm!
Childofbodom schreef op donderdag 20 oktober 2022 @ 12:59:

Gaat dit systeem de 4090 bottlenecken?
Ja. Ga je er maar 20 fps mee hebben? Over het algemeen niet. :+

[ Voor 5% gewijzigd door Paprika op 20-10-2022 15:30 ]


Acties:
  • +1 Henk 'm!

  • dResign
  • Registratie: November 2009
  • Laatst online: 02-05 21:27
Childofbodom schreef op donderdag 20 oktober 2022 @ 12:59:
Hallo, ik ben van plan een RTX4090 aan te schaffen (MSI Suprim X) om mn 3080Ti te vervangen als de prijs rond de 2100 komt.

Ik heb nu een systeem met de volgende specs:
- MSI MPG Z490 GAMING EDGE WIFI
- i9 10900K @5,3Ghz all core
- 32GB DDR4 4000Mhz CL13
- 1200W Platinum + PSU

Gaat dit systeem de 4090 bottlenecken? Het is een PCIe 3.0 opstelling dus zal zowieso iets qua bandbreedte moeten inleveren.

Alvast bedankt!
https://www.techpowerup.c...i-express-scaling/28.html

paar % verlies

[ Voor 11% gewijzigd door dResign op 20-10-2022 16:14 ]


Acties:
  • +7 Henk 'm!

  • pt0x
  • Registratie: Juni 2001
  • Laatst online: 03-01 13:33

pt0x

Why are we here..

Officieel lid van de "Obese GPU club", het is een strix 4090 oc geworden. Net voor mijn vakantie bij proshop besteld op de release dag en zojuist ingebouwd ter vervanging van mijn strix 2080 Ti oc.

Moest het gewoon even met foto's posten want dat ding is zoals eerder gezegd niet normaal groot! Past letterlijk niet in een O11 dynamic Xl als er een reservoir aan je side fans zit!! Dus... nu maar geen side panel er op.

Performance is insane! Coil wine het zelfde als de 2080 ti wat niet gek is want de kaart gebruikt de zelfde chokes. Nog niet overclocked, ik wacht tot Watercool hun block released en dan spelen!

Afbeeldingslocatie: https://tweakers.net/i/2UwCH1-0Cc3hweEJPuwC8e5HL_0=/800x/filters:strip_icc():strip_exif()/f/image/pQdJ8AflSLvDXIqqYcOcIslE.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/zvnq0TgkNyt4sWsZ1D1UTJhge4U=/x800/filters:strip_icc():strip_exif()/f/image/vBgANfMAajtFUcinOWSWCBjX.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/BnNy6hl7NA5lvzF70oGwtZleCGE=/x800/filters:strip_icc():strip_exif()/f/image/DxuXbTG2VDPTDHHw3WpboHOq.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/y5jnQwPWPAOfIiABB39M_TIHBSM=/800x/filters:strip_icc():strip_exif()/f/image/7uB4WdU502YDICBbVXVKL5Yb.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!
Vind je het niet zonde om 500 euro meer te betalen, oftewel ruim 25%, voor geen druppel meer performance? Dit is in vergelijking met de FE.

Je hebt nu een gigantische premium betaald voor de "beste" luchtkoeler (1 graden verschil normalized):
Afbeeldingslocatie: https://tweakers.net/i/3i6L6m08mUKftCNQTFDjz1yvKEA=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/xU9qqsX6a9v0iaeyfwsX21jX.png?f=user_large

Waarbij de Suprim 210 euro goedkoper was geweest én betere VRMs heeft. Iets waar je in theorie wel nog van zou profiteren met een waterblok erop. Al is alles behalve de instappers van Gainward / Palit eigenlijk al overengineered, ook voor een grote custom loop.

De Inno3D IChill wordt zelfs met een waterblok erop geleverd voor 2250 euro en dan ben je dus al klaar. Nu ga je nog eens 250 euro(?) betalen voor een waterblok om uiteindelijk precies dezelfde performance te hebben als een FE + waterblok (2200-2300) of de Inno3D (2250), maar dan voor 2480 + 200 a 300 is zo'n 2750 euro. I'm z'n totaliteit ga je dan dus 40% meer betalen voor 0-5% meer performance en die marge van 0-5% loopt van het meest extreme geval (5%, zijnde stock FE op 450W naar een volledige tuned watergekoelde kaart op 600W) tot 0% met een STRIX, Suprim Liquid of die Inno3D iChill vol open.

Aan "binning" doen ze ook al niet voor de STRIX gezien het tegenwoordig net als de TUF hun mainstream consumenten line betreft alleen dan met een iets betere pcb en koeler voor een stevige premium.

Afbeeldingslocatie: https://tweakers.net/i/03GZZ5ALWwk3xCTrBvo3nEM66zE=/800x/filters:strip_icc():strip_exif()/f/image/9Ai2xIZ3xfuSfviStaKn2nUA.jpg?f=fotoalbum_large

Misschien dat Asus ooit iets gaat proberen met een Matrix series, gezien die normaal allemaal LN2 features hebben net als de Hall of Fame van Galax en de Kingpin series van EVGA (rip), maar zelfs daar is het verschil zonder LN2 niet spannend, zie ook:
Afbeeldingslocatie: https://tweakers.net/i/cme_sVyy4bvSBeAoReGCwMVq-go=/800x/filters:strip_exif()/f/image/Lwe0Ik43OFMHCLfd0hgjgcRd.png?f=fotoalbum_large

Uiteindelijk is het ieders zijn of haar eigen geld, en er zijn mensen die het leuk vinden om forse bedragen betalen om hun kast te vullen met de tekst Republic of Gamers, maar met een waterblok ga je die tekst immers ook van de kaart afhalen :p. Ik begrijp de keuze dan ook niet zo.

Acties:
  • +3 Henk 'm!

  • pt0x
  • Registratie: Juni 2001
  • Laatst online: 03-01 13:33

pt0x

Why are we here..

Paprika schreef op vrijdag 21 oktober 2022 @ 01:57:
Vind je het niet zonde om 500 euro meer te betalen, oftewel ruim 25%, voor geen druppel meer performance? Dit is in vergelijking met de FE.

Je hebt nu een gigantische premium betaald voor de "beste" luchtkoeler (1 graden verschil normalized):
[Afbeelding]

Waarbij de Suprim 210 euro goedkoper was geweest én betere VRMs heeft. Iets waar je in theorie wel nog van zou profiteren met een waterblok erop. Al is alles behalve de instappers van Gainward / Palit eigenlijk al overengineered, ook voor een grote custom loop.

De Inno3D IChill wordt zelfs met een waterblok erop geleverd voor 2250 euro en dan ben je dus al klaar. Nu ga je nog eens 250 euro(?) betalen voor een waterblok om uiteindelijk precies dezelfde performance te hebben als een FE + waterblok (2200-2300) of de Inno3D (2250), maar dan voor 2480 + 200 a 300 is zo'n 2750 euro. I'm z'n totaliteit ga je dan dus 40% meer betalen voor 0-5% meer performance en die marge van 0-5% loopt van het meest extreme geval (5%, zijnde stock FE op 450W naar een volledige tuned watergekoelde kaart op 600W) tot 0% met een STRIX, Suprim Liquid of die Inno3D iChill vol open.

Aan "binning" doen ze ook al niet voor de STRIX gezien het tegenwoordig net als de TUF hun mainstream consumenten line betreft alleen dan met een iets betere pcb en koeler voor een stevige premium.

[Afbeelding]

Misschien dat Asus ooit iets gaat proberen met een Matrix series, gezien die normaal allemaal LN2 features hebben net als de Hall of Fame van Galax en de Kingpin series van EVGA (rip), maar zelfs daar is het verschil zonder LN2 niet spannend, zie ook:
[Afbeelding]

Uiteindelijk is het ieders zijn of haar eigen geld, en er zijn mensen die het leuk vinden om forse bedragen betalen om hun kast te vullen met de tekst Republic of Gamers, maar met een waterblok ga je die tekst immers ook van de kaart afhalen :p. Ik begrijp de keuze dan ook niet zo.
toon volledige bericht
Volgens mij is deze vraag, discussie of hoe je het wilt noemen al eerder gevoerd en weetje, ook ik heb heb zoiets van, waarom vragen naar de bekende weg? Ik heb de kaart toch gekocht? Daar is je antwoord in het kort.

Daarnaast, je vraagt dit aan iemand met een custom loop. Duidelijk dat het dus niet alleen gaat om geld.

Aanvullend; ik kreeg niet de kans om een FE te kopen, helaas waren die in enkele seconde weg. En bij NBB krijg je ook al heb je het artikel in je winkelmandje geen reservering tot je afrekend van enkele minuten.

Bij proshop wel. 10 minuten zelfs. Dus daar heb ik direct de strix toegevoegd, toen de FE niet beschikbaar bleek heb ik die gekocht.

Waarom dan de strix? Simpelweg omdat het zeer goede kaarten zijn als het gaat om overclocken. Tevens zijn er altijd water blokken voor de strix, met andere kaarten is dat altijd een gok. Aangezien ik altijd Watercool blokken gebruik was het dus reden genoeg om de premium te betalen.

Watercool heeft tevens al aangegeven dat er voor nu alleen FE en Strix/Tuf blokken komen.

De Matrix is sinds de 2000 serie gewoon een strix PCB met een andere BIOS trouwens, de Tuf gebruikt de zelfde PCB, maar minder power stages en mogelijk ook minder filtering, een potentiële reden voor aanzienlijke coil wine bij sommige.

Asus binned naar eigen zeggen de Strix kaarten wel. Verifiëren kan ik dat natuurlijk niet.

[ Voor 5% gewijzigd door pt0x op 21-10-2022 02:41 ]


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 17:38
Blaat schreef op donderdag 20 oktober 2022 @ 10:48:
[...]


Daarmee ga je er vanuit dat het iets is wat te voorkomen is. Dat is helaas een misvatting. De EMF die wordt gegenereerd door het open en dichtklappen van de power stages veroorzaakt het geluid. Dit is inherent aan powerstages (of geschakelde DC-DC converters i.h.a.) en ga je nooit kunnen voorkomen ben ik bang.
Voorkomen is misschien een groot woord, maar minimaliseren tot een punt dat het haast niet meer waarneembaar is, is goed mogelijk.
De VRM sectie op het moederbord voor de CPU zijn (tegenwoordig) in het algemeen vrij van 'coilwhine', ondanks dat daarbij ook sprake is van hoge vermogens + transients.
PC voedingen en daarbij de DC-DC omvormers, hebben het net zo zwaar als een GPU, maar ook daar is met een kwaliteits voeding praktisch geen 'coilwhine'.

Het is ongetwijfeld een zeer lastig probleem om aan te pakken, maar ik krijg om bovenstaande redenen het idee dat het geen prioriteit is bij een GPU ontwerp. Zolang iedereen het maar blijft kopen is er ook geen motivatie voor de fabrikanten om er écht iets aan te doen.

De term EMF is mij overigens bij electronica niet zo bekend. Ik neem aan dat je daarmee de inductie bedoeld die optreed in de spoelen? Ik weet wel dat FET's en MLCC's kunnen gaan zingen d.m.v. het piezoelectric effect en dat bij spoelen sprake kan zijn van magenetostrictie. Effecten die de coilwhine kunnen veroorzaken en door de PCB flink versterkt kan worden (dat onderdeel fungeert als klankbord).

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 21-04 13:50

GTX404

Hi

pt0x schreef op vrijdag 21 oktober 2022 @ 02:31:
[...]


Volgens mij is deze vraag, discussie of hoe je het wilt noemen al eerder gevoerd en weetje, ook ik heb heb zoiets van, waarom vragen naar de bekende weg? Ik heb de kaart toch gekocht? Daar is je antwoord in het kort.

Daarnaast, je vraagt dit aan iemand met een custom loop. Duidelijk dat het dus niet alleen gaat om geld.

Aanvullend; ik kreeg niet de kans om een FE te kopen, helaas waren die in enkele seconde weg. En bij NBB krijg je ook al heb je het artikel in je winkelmandje geen reservering tot je afrekend van enkele minuten.

Bij proshop wel. 10 minuten zelfs. Dus daar heb ik direct de strix toegevoegd, toen de FE niet beschikbaar bleek heb ik die gekocht.

Waarom dan de strix? Simpelweg omdat het zeer goede kaarten zijn als het gaat om overclocken. Tevens zijn er altijd water blokken voor de strix, met andere kaarten is dat altijd een gok. Aangezien ik altijd Watercool blokken gebruik was het dus reden genoeg om de premium te betalen.

Watercool heeft tevens al aangegeven dat er voor nu alleen FE en Strix/Tuf blokken komen.

De Matrix is sinds de 2000 serie gewoon een strix PCB met een andere BIOS trouwens, de Tuf gebruikt de zelfde PCB, maar minder power stages en mogelijk ook minder filtering, een potentiële reden voor aanzienlijke coil wine bij sommige.

Asus binned naar eigen zeggen de Strix kaarten wel. Verifiëren kan ik dat natuurlijk niet.
toon volledige bericht
Mag ik vragen wanneer/hoe je bij Proshop hebt besteld? Ik zat gisteren te wachten tot de kaarten besteld konden worden, maar die bleven maar op 'notificatie ontvangen' terwijl ze op voorraad stonden..

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black

Pagina: 1 2 ... 39 Laatste

Let op:
Mensen lezen dit topic om ervaringen te delen over RTX 40xx kaarten, of om over de achterliggende techniek te praten. We willen die discussie graag zo houden, blijf dus ontopic! Reacties die ergens anders over gaan (prijzen, levertijden, aankoopadvies etc etc) worden verwijderd of gemod.

Let bij het reageren op het volgende:
  • Blijf vriendelijk naar elkaar!
  • Reageer niet op "foute" berichten, maar rapporteer ze!
  • V&A op het forum is overal verboden, dus ook in dit topic. Een verwijzing naar verkoop (met of zonder link) naar je advertentie wordt verwijderd.
  • Net zoals in heel VB; geen persoonlijk aankoopadvies!
  • Voor informatie over voedingen en aansluitingen moet je hier zijn: Voeding advies en informatie topic - Deel 34
  • Voor levertijden en prijzen: [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen


Afbeeldingslocatie: https://tweakers.net/i/KnmyHiDpIX5duOtwQyfWg99GF7s=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/aYnEOc9vWTETmuPnQnGMS37b.png?f=user_large
Gezellig leuteren, kletsen, slowchatten?
Vergezel ons op de Officiele Tweakers Discord