• Dennism
  • Registratie: September 1999
  • Laatst online: 19:59
CMT schreef op maandag 5 januari 2026 @ 03:59:


Een belangrijk gegeven is dus dat het qua workstations GPU's, hoofdzakelijk gaat om een TDP tot maximaal 300W.
De enige uitzondering is de RTX 6000 Pro Blackwell '600W Edition': https://www.techpowerup.c...-pro-6000-blackwell.c4272. In feite een 5090FE met 96GB DDR7.
De blowerstyle uitvoering van de RTX6000 Pro backwell is ook beperkt tot 300W: https://www.pny.com/File%...ackwell-Max-Q-Edition.pdf

Is het dus niet aannemelijk dat de ervaring uit de directe zakelijke omgeving waarop je beroep doet, vooral van toepassing is op GPU's <300W. Het lijkt mij niet dat de 600W 'passthrough' variant gretig aftrek heeft voor een workstation. Het is in een dergelijke kast onpraktisch i.v.m. de koeling. Ik kan het natuurlijk mis hebben en wie weet heeft een deel van de klanten de blowerstyle koeler inmiddels vaarwel gezegd.
Dat is denk ik zeker het geval, vergis je er ook niet in dat de Workstation markt relatief gezien klein is, even uit mijn hoofd +-600-700 miljoen omzet per kwartaal voor Nvidia tegenover +-4 miljard in gaming. Daarom ook mijn verwachting dat ik niet direct denk ik dat het probleem in de zakelijke markt groter zou zijn, maar wat ik vreemd vind is dat je er helemaal niets over hoort en voor mij belangrijker, zelf ziet in de praktijk.

Maar ik zou zeker verwachten, zie ook de matrix die ik postte, de 600W variant kan maar in 3 systemen besteld worden, en geen supported dual / triple of quad GPU opstellingen. Dat de 300W varianten die wel multi GPU kunnen een stuk meer verkocht worden. Ik zie zelf ook zeker meer varianten met 300W GPU's in het veld.

Dat het minder zal voorkomen dan in DiY verwachtte ik zeker, maar helemaal geen gemelde casussen bevreemd mij wel als louter de connector het hoofdzakelijke probleem zou zijn.

Het 300W argument had ik daarbij zelf ook voor me in het verleden, maar sinds het ook voorkomt bij RX 9070 XT's van Sapphire, een chip die standaard een 300W TDP heeft (w.s. in die kaart iets hoger), terwijl dat 'vroeger' iets waarvan in het verleden gezegd werd, het komt (vrijwel) alleen voor bij hoge TDP kaarten (450W+), iets dat nu lastiger vol te houden is.

En daar komt dan ook mijn vraag weer, is het nu bij die Sapphire kaarten enkel de connector, of is er toch user error in het spel.
Ik bedoel daarmee dat als er iets mis is er niet echt over gepraat wordt, zolang het maar meteen aangepakt en opgelost is. Het zal de klant denk ik een worst wezen wat de reden is geweest van het defect, tenzij het een structureel probleem wordt en het werk dwarsboomt. Dan wordt de kans dat de media er lucht van krijgt waarschijnlijk ook wat groter.
Ja en Nee, je zal inderdaad niet snel schreeuwende koppen zien, maar als met enige regelmaat zou voorkomen zou ik bijvoorbeeld als iemand in dit veld zeker meldingen verwachten van Sysadmins / system enigneers e.d. op bijvoorbeeld Reddit/hardware of de sysadmin / workstation / server hardware gerelateerde reddits die ik met grote regelmaat volg, die kleine 'probleempjes' in het vak komen daar immers direct naar voren, en iets als workstations die potentieel in brand kunnen vliegen door een flimsy connector zou m.i. niet gezien worden als 'klein probleempje'. En zou het daar op komen, dat zou een Videocardzz oid dat toch ook redelijk snel moeten oppakken vanaf daar.

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Of je koopt een kaart met 2x 12vhpwr stekkers :+ die blijkbaar tot 1600W gaat?

nieuws: MSI RTX 5090 Lightning Z heeft twee 12V-2x6-aansluitingen en 360mm-wa...

AMD 5800X3D, ASUS ROG Strix B550-F, 32GB Corsair DDR4, MSI RTX 5070 Ti 16G SHADOW 3X OC


  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 20:26

DeNachtwacht

youtube.com/@hisrep

Sorry maar ik snap eigenlijk niet zo goed waarom deze discussie nu bijna een jaar later voor de zoveelste keer opnieuw gevoerd wordt. Blijft mij verbazen hoe vaak dit wordt herkauwd overal terwijl de daadwerkelijke foto's/filmpjes met bewijzen (zéker van de 50XX generatie) op één hand te tellen zijn op ongetwijfeld miljoenen verkochte kaarten.

Let gewoon extra op dat je bij installatie alles goed en netjes vast zit en dat was het dan.

[ Voor 4% gewijzigd door DeNachtwacht op 05-01-2026 22:20 ]

youtube.com/@hisrep


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:23
Sissors schreef op maandag 5 januari 2026 @ 08:32:
Het gaat mij niet erom dat het in het nieuws komt, maar dat individuele gevallen in het nieuws komen! En dat is meer mijn punt, als dit met regelmaat voorkwam, kreeg je echt geen individuele gevallen meer in het nieuws. Er zijn vele miljoenen GPUs in omloop met deze connector, als 0.1% faalde, dan zouden er dus duizenden GPUs met gesmolten connector zijn, dan komt nummer 7431 niet meer op de voorpagina in het nieuws. (En daaraan gerelateerd, deze connector is hetgeen wat gebruikt wordt bij veruit de meeste verkochte GPUs, en hoeveel gesmolten connectoren hebben we binnen de grootste tech community van Nederland gezien?)
Ah in die zin. Ja, daar valt wat voor te zeggen. Ik zou toch liever cijfers zien met failure rates (met oorzaak gesmolten connector) van fabrikanten of leveranciers. Vreemd genoeg is het kennelijk moeilijk om aan deze informatie te komen en/of wordt er geen journalistiek onderzoek naar gedaan. Sinds de introductie van de RTX4090 is meer dan 3 jaar verstreken, dus betrouwbare data moet er inmiddels gewoon zijn.
* Voor de volledigheid mijn mening, niet dat iemand die wat uitmaakt maar toch :P :
- De connector is met te kleine marges ontworpen, eens! Maar dit is wel eigenlijk vooral relevant bij de 5090, als je 'maar' 300W erdoorheen doet zou je zat marge horen te hebben.
- Maar het probleem is niet zo groot als mensen zeggen, simpelweg dus omdat ik nog nooit iemand hier gezien heb met een gesmolten connector, en dat een individueel geval nog groot genoeg is om in het nieuws te komen.
- Netjes doorgeven hoeveel power een voeding kan leveren is een heel goed idee en een pluspunt. Maar het is kut geimplementeerd doordat het alleen doorgeeft hoeveel stroom de kabel kan hebben en niet de voeding, plus dat nergens fatsoenlijk gedocumenteerd is welke aansluiting de GPU nodig heeft.
- En misschien wel mijn grootste verschil met de massa: Ik vind de 8-pins connector kut. Zowel in gebruik (specifiek de 6+2 pin is gewoon niet lekker), maar ook met de hele daisy chain puinhoop. En eerlijk is eerlijk, daar is het probleem natuurlijk niet direct de connector, maar de puinhoop die PSU fabrikanten ervan maken door een kabel te leveren voor 2x150W, maar je mag hem niet gebruiken voor 2x150W 8)7

Dus ik ben itt veel andere groot voorstander van die 8-pins connector uit te faseren. Maar ik ben het ermee eens dat de 12VHPWR het gewoon net niet is, en dat is jammer dat als je iets nieuws doet, je het niet direct echt goed doet.
Er is op tweakers een post geweest van iemand met een RTX4090 waarbij de connector (na verloop van tijd) gefaald heeft. Diegene gaf aan alles goed gecontroleerd en de aandachtspunten opgevolgd te hebben.
Ik kan het helaas niet meer terug vinden, het was een losse post van iemand die niet aktief is op het forum.

Uit deze draad zijn er in ieder geval wel voorbeelden te geven waarbij gemeten is én op tijd ingegrepen.
Dat zijn gevallen waarbij het pas na verloop van tijd is ontstaan:
star-saber schreef op vrijdag 25 juli 2025 @ 10:40:
Vandaag kreeg ik ineens een melding vanuit GPUTweak tijdens spelen van Cyberpunk.
Blijkt dat pin 6 ineens niet meer mee doet..

[Afbeelding]

Opnieuw erin drukken helpt helaas niet op GPU kant. Voeding kant nog niet bekeken. zie geen smelt issues.. Wel alvast nieuwe kabel besteld.

Iemand anders dit al gehad? ik gebruik een originele kabel die destijds bij mijn Rog Thor P2 1200 zat
https://gathering.tweaker...message/83537976#83537976
Degrader schreef op zaterdag 27 september 2025 @ 17:30:
De load balance van mijn Corsair sleeved-kabel (om precies te zijn: CP-8920323) was niet meer goed in balans in combinatie met een MSI 5090 Suprim. Sommige draden gaven meer dan 10 A, waarbij een zelfs dik 12 A. Ik heb van Corsair een nieuwe kabel gekregen en nu is het weer in orde, maximaal 9 A. Zo'n stroomtang (DC) blijft dus van pas komen, ook al leek je kabel in eerste instantie in orde.
https://gathering.tweaker...message/83006968#83006968

De implementatie van de connector speelt natuurlijk een rol hierbij.
Voor mij is het om het even, want het feit is dat Nvidia het in deze vorm als standaard geforceerd heeft en door de strot van de consument gedrukt.
Het staat hopelijk buiten kijf, dat een grote marge dit probleem zeer waarschijnlijk af kan vangen (anders was dit ook een issue met de 20 jaar oude miniFit 8-pin).

Een andere grote reden waarom ik zo tegen de 12VHPWR connector ben, is dat de consument weer gedwongen wordt om nieuwe kabels & voedingen aan te schaffen en dus weer een onnodige berg E-waste erbij komt.
Alles was mooi gestandaardiseerd met 1 type plug voor de insteekkaarten en de PSU.
Nvidia & SIG hadden net zo goed de specificatie van de 8-pin kunnen verruimen van 150W naar evt. 200W.
Dan is een 450W GPU met 2 kabels te voeden en blijft er alsnog een ruime veiligheidsmarge over.
Evt. een 16-pin miniFit introduceren als er een wens is naar 1 kabel (de dikte & het aantal draden zijn letterlijk niet veranderd, met de 12VHPWR is het alleen gebundeld / een bandkabel geworden).

Ik had er beter mee kunnen leven als de GPU's niet zo gigantisch duur waren geworden, de beschikbaarheid gewoon goed was (en stabiel) en een evt. gesmolten connector gegarandeerd met een RMA opgelost kon worden. Voor de 5090FE kan ik geen Ampinel of Wireview aanschaffen omdat er geen variant daarvoor gemaakt wordt. En dus maar met knagende spanning moet blijven zitten of de €2400 GPU niet na verloop van tijd defect raakt..en moet hopen dat RMA dan niet geweigerd wordt.

De 6+2 variant van de 8-pin vind ik trouwens ook vreselijk hoor. Dat hadden ze echt niet moeten doen.
En daisy-chainen sowieso verbieden. Wat een puinhoop is dat. Een hoop gesmolten 6-/ 8-pin connectors of problemen met de GPU zijn daar van gekomen.
DeNachtwacht schreef op maandag 5 januari 2026 @ 22:19:
Sorry maar ik snap eigenlijk niet zo goed waarom deze discussie nu bijna een jaar later voor de zoveelste keer opnieuw gevoerd wordt. Blijft mij verbazen hoe vaak dit wordt herkauwd overal terwijl de daadwerkelijke foto's/filmpjes met bewijzen (zéker van de 50XX generatie) op één hand te tellen zijn op ongetwijfeld miljoenen verkochte kaarten.
Dat is niet waar wat je zegt. Het aantal gevallen is wel meer dan 10 vingers.
En dat is zonder de gevallen met problemen aan de kant van de voedingen meegerekend.
Anders moet je toch beter het nieuws volgen op Igorslab / Der8auer youtube / Techpower / Reddit / Videocardz e.d.
Let gewoon extra op dat je bij installatie alles goed en netjes vast zit en dat was het dan.
Zie de voorbeelden die ik zojuist heb gegeven uit deze draad. Wat je noemt is daarmee te weerleggen.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 18:10
DeNachtwacht schreef op maandag 5 januari 2026 @ 22:19:

Let gewoon extra op dat je bij installatie alles goed en netjes vast zit en dat was het dan.
Zou je dat ook zeggen als je een nieuwe auto koopt van 2 ton en je staat constant langs de weg of de motor begeeft het? Want dat is in feite wat hier gebeurt. Ik vind het niet kunnen. We praten wel over videokaarten van meer dan 2000 euro. Ja tijden zijn veranderen, ja prijzen zijn veranderd, nee je kan het niet vergelijken met 20 jaar geleden, maar toen ik begon met computers had je voor 2000 euro een complete datacenter. Ik had altijd drie categorieën PC's: budget 500 euro mid-range 750 euro high-end 1000 euro. Tegenwoordig begint budget bij 1000 euro. Om maar te zeggen..

  • Vishari Beduk
  • Registratie: Februari 2009
  • Laatst online: 20:27

Vishari Beduk

loves f/1.8 primes

Dit topic gaat toch over ervaringen? Nou mijn ervaring met de 5090 is dat deze luidruchtig is (ook vanwege de overige fans in de pc). En in de zomer erg warm.
Ik kocht de (goedkoopste) 5090 vanwege de VRAM om flux dev te kunnen draaien. Ik game verder nooit.
Maar nu zijn er de berichten dat video kaarten binnenkort duurder gaan worden en vooral de kaarten met veel VRAM misschien zelfs niet meer te krijgen.
Dus daarom een 5060 erbij gekocht met 16 GB aangezien deze weinig in waarde daalt. En deze in mijn oude AM4 PC gezet. En ik moet zeggen dat het een prima kaart is voor mijn doeleinden (prutsen met ComfyUI). Klein en lekker stil. :)

Waarschuwing; gebruik geen Copilot. Het genereert onzin antwoorden die je veel tijd kosten.


  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
chim0 schreef op dinsdag 6 januari 2026 @ 04:20:
[...]

Zou je dat ook zeggen als je een nieuwe auto koopt van 2 ton en je staat constant langs de weg of de motor begeeft het? Want dat is in feite wat hier gebeurt. Ik vind het niet kunnen. We praten wel over videokaarten van meer dan 2000 euro. Ja tijden zijn veranderen, ja prijzen zijn veranderd, nee je kan het niet vergelijken met 20 jaar geleden, maar toen ik begon met computers had je voor 2000 euro een complete datacenter. Ik had altijd drie categorieën PC's: budget 500 euro mid-range 750 euro high-end 1000 euro. Tegenwoordig begint budget bij 1000 euro. Om maar te zeggen..
Voor 1000 euro heb je alleen een setje RAM geheugen tegenwoordig :D

AMD 5800X3D, ASUS ROG Strix B550-F, 32GB Corsair DDR4, MSI RTX 5070 Ti 16G SHADOW 3X OC

chim0 schreef op dinsdag 6 januari 2026 @ 04:20:
[...]

Zou je dat ook zeggen als je een nieuwe auto koopt van 2 ton en je staat constant langs de weg of de motor begeeft het?
Als hij het begeeft omdat je verkeerde brandstof erin hebt gegooid: Ja.
Ik had altijd drie categorieën PC's: budget 500 euro mid-range 750 euro high-end 1000 euro. Tegenwoordig begint budget bij 1000 euro. Om maar te zeggen..
Wanneer was dat? Want heel vroeger waren PCs ook stervens duur. En het ligt natuurlijk aan je definities wat high-end was, was dat een 970 in je PC? Of was dat een 980ti SLI setup?

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Sissors schreef op dinsdag 6 januari 2026 @ 09:48:
[...]

Als hij het begeeft omdat je verkeerde brandstof erin hebt gegooid: Ja.


[...]

Wanneer was dat? Want heel vroeger waren PCs ook stervens duur. En het ligt natuurlijk aan je definities wat high-end was, was dat een 970 in je PC? Of was dat een 980ti SLI setup?
Idd, mijn 468DX2 PC met monitor was destijds (1993, '94) ook iets van 4000~4500 gulden. Ze werden daarna wel iets goedkoper maar volgens mij heb ik ooit nog een Voodoo5 gekocht voor ruim 700 gulden in 2000...
Als je kijkt naar de inflatie over 25 jaar dan zijn PC onderdelen iets goedkoper geworden (nu voel ik me echt oud...)

AMD 5800X3D, ASUS ROG Strix B550-F, 32GB Corsair DDR4, MSI RTX 5070 Ti 16G SHADOW 3X OC


  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 20:26

DeNachtwacht

youtube.com/@hisrep

Ja, je overdrijft wel wat @chim0
Een NUC voor basistaken koop je tegenwoordig vanaf €150 op AliExpress of €200 hier inclusief 12GB ram en 512GB SSD. Vroeger was voor zo'n bedrag dat simpelweg niet eens mogelijk, maar de basis zelfbouw van tweakers was op moment van schrijven €374 en nu door de hogere ssd/geheugenprijzen €525: Best Buy Guide: De beste basis-pc

Eigenlijk geldt voor de digitale markt dat er vooral bovenop een "prosumer" categorie is bij gekomen, maar de standaard topkaart is tegenwoordig echt niet zoveel duurder dan vroeger.

Mijn eerste Voodoo 2 kaart was destijds 700 gulden, dus even omrekenen naar euro en vervolgens 25 jaar inflatie erover heen. Dan zegt Gemini dat het mij €600-650 zou kosten kortom je komt gewoon op de prijs van een mooie RX 9070 XT uit.

Je mag de gulden van 25 jaar terug dus min of meer naar een euro omrekenen; vroeger kocht je een top pc voor rond de 1500 gulden, tot de enorme geheugen prijzenstijging, die altijd af en toe plaats vindt, kon je voor €1500 een top pc met RX 9070 XT kopen inclusief 2tb ram en 32gb ram. Dus kortom zo h eel veel veranderd is er echt niet buiten het feit dat er een aantal topmodellen bovenop zijn gekomen, maar laten we eerlijk zijn de RTX 5090 koop je ook niet eens puur voor gamen (ik althans niet) want daar is het gewoon te duur voor.

[ Voor 8% gewijzigd door DeNachtwacht op 06-01-2026 10:05 ]

youtube.com/@hisrep


  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 20:08
Lees op Reddit toch een aardige performance hit met de nieuwe DLSS 4.5.
Ook op 5xxx generatie GPU's.

Afbeeldingslocatie: https://tweakers.net/i/NXYhgHF_ztTwDDsrHACeiYXIj7o=/x800/filters:strip_icc():strip_exif()/f/image/7JY9HBGzFL5nv9jcKXtlugvy.jpg?f=fotoalbum_large

Preset J: Similar to preset K. Preset J might exhibit slightly less ghosting at the cost of extra flickering. Preset K is generally recommended over preset J

Preset K: Default preset for DLAA/Balanced/Quality modes. Less expensive performance wise compared to Preset L.

Preset L: Default preset for UltraPerformance mode. Delivers a sharper, more stable image with less ghosting than Preset J, K but are more expensive performance wise. Preset L is peak performant on RTX 40 series GPUs and above.

Preset M: Default preset for Performance mode. Delivers similar image quality improvements as Preset L but closer in speed to Presets J, K. Preset M is peak performant on RTX 40 series GPUs and above.

‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


  • nzall
  • Registratie: Januari 2022
  • Laatst online: 19:57
en wat zijn de feitelijke FPS nummers? Want het verschil tussen 0.91 en 1.46 zegt me eigenlijk niets...

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 20:08
Je hebt de meest recente driver 591.74 (vandaag verschenen) niet nodig voor het nieuwe transformer model. Simpelweg NPI 2.4.0.30 gebruiken en daar de Override op Latest zetten. Dan heb je automatisch de M preset met DLSS 310.5.0. Dit in combinatie met driver 591.59 op mijn machine.

Afbeeldingslocatie: https://tweakers.net/i/5DkX10DrTKsABGPNm81GYC7tKnM=/x800/filters:strip_icc():strip_exif()/f/image/U844ANKmRARiIhJlOJZHkCyt.jpg?f=fotoalbum_large

[ Voor 33% gewijzigd door Rivanov op 06-01-2026 19:45 ]

‘25 Tesla MY Juniper LR RWD - Stealth Grey - 20" Helix || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


  • !mark
  • Registratie: November 2013
  • Laatst online: 20:59
nzall schreef op dinsdag 6 januari 2026 @ 10:32:
en wat zijn de feitelijke FPS nummers? Want het verschil tussen 0.91 en 1.46 zegt me eigenlijk niets...
Ik zat met dezelfde vragen, de video van Daniel legt het allemaal prima uit en doet ook nog wat eigen testen, Present M is het nieuwe DLSS 4.5 model, L is niet zo relevant verder en K is het 'oude' model.
Tldr: Op de 20/30 series kun je het beter niet gebruiken want het vraagt zo veel van je kaart dat je fps met DLSS Quality lager is dan native resolutie. 40/50 series kost het wel meetbaar meer FPS dan het vorige model maar het ziet er wel weer een stapje beter uit.

[ Voor 9% gewijzigd door !mark op 08-01-2026 16:56 ]


  • Bintzak
  • Registratie: Februari 2010
  • Laatst online: 22-01 06:53
ArcticWolf schreef op dinsdag 6 januari 2026 @ 09:58:
[...]

Idd, mijn 468DX2 PC met monitor was destijds (1993, '94) ook iets van 4000~4500 gulden. Ze werden daarna wel iets goedkoper maar volgens mij heb ik ooit nog een Voodoo5 gekocht voor ruim 700 gulden in 2000...
Als je kijkt naar de inflatie over 25 jaar dan zijn PC onderdelen iets goedkoper geworden (nu voel ik me echt oud...)
Gelukkig doe je nu gemiddeld 7 jaar met een PC van 3/4000 euro. Toen was die 486 na twee jaar al een oud ding waar Quake niet eens op draaide.
Ik gebruik nu Preset M in plaats van K, maar soms kan de extra scherpte ook wel iets of wat nadelig zijn dat het minder prettig wegkijkt, een nadeel van extra scherpte is dat het met name zaken zoals vegetatie e.d. wat meer 'shimmering' kan gaan zien.

Al dan niet is het wel zo dat M gewoon vrijwel geen detecteerbare ghosting heeft, L dus ook, maar L is een zwaarder model dan M die eigenlijk enkel is toegespitst op DLSS Ultra Performance om zoveel mogelijk details weer te reconstrueren.

Model M kan prima gebruikt worden op alle DLSS modi inclusief DLAA, maar het ligt aan je videokaart welke preset je het beste kan gebruiken i.v.m. performance, de oudere RTX-20/30 kaarten konden in sommige gevallen zelfs betere resultaten neerzetten dan native versus DLSS 4.5 Quality zoals Hardware Unboxed aangaf in hun video.

Bij de Tech demonstratie bij CES van o.a. Linus Tech Tips en Hardware Unboxed was het ook te zien dat de particles die heel erg klein zijn ook gewoon veel beter in beeld worden gebracht t.a.v. DLSS 4 naar 4.5 maar ook zeker de ghosting van hele kleine bewegende dingen zoals de blaadjes van bomen dus in Wukong.

Je moet alleen wel in de gaten houden dat Ray Reconstruction met Path Tracing deze presets niet gebruikt, Ray Reconstructino heeft DLSS upscaling en een denoiser in een, terwijl je Ray Tracing zonder PT/RR wel met deze modellen kan gebruiken.

Ray Reconstruction heeft nog altijd de DLSS 4 presets D en E, waarbij E de hogere kwaliteit is, maar dat is nog de eerste generatie dus totdat Nvidia deze presets een update heeft zullen zaken als ghosting daar nog steeds relevant zijn.

Je kan hier overigens een tool downloaden die de DLSS-hud met een knop aan/uit kan zetten om het zelf te checken:
https://github.com/Watn3y/DLSS-indicator-toggle

Verder heeft de Nvidia App de eigenaardigheid bij sommige games de DLSS overrides te resetten nadat je het profiel hebt opgeslagen en dan het spel opstart, de enige remedie daarvoor is of de Nvidia App verwijderen die een .json database bijhoudt met welke opties je wel/niet mag gebruiken per spel of je voert het onderstaande powershell script uit en herstart de PC, daarna zouden de DLSS overrides gewoon permanent moeten blijven staan.

https://gist.github.com/J...af55104a2bfc5c9be32118203

Zou altijd aanraden via Nvidia Profile Inspector die recent ook een update heeft gehad de profielen te exporteren en bij elke driver update weer opnieuw te importeren anders blijf je aan de gang.

https://github.com/Orbmu2...tor/releases/tag/2.4.0.30

Merk wel met de 591.74 driver dat PhysX voor 32-bits games niet standaard weer aanstond in het globale profiel, merkte het op omdat de PhysX toggle niet was aangevinkt in GPU-Z, in de nieuwe Nvidia Profile Inspector is de flag ook hernoemd naar PhysX dus dan is het makkelijker te vinden.

Ook heeft GTA V Enhanced nu de eigenaardigheid wanneer G-sync actief is en je DLSS MFG gebruikt dat de framerate op willekeurige momenten zakt en dan weer hersteld, of laag blijft, vaak te triggeren bij een alt-tab. Enige remedie is G-sync volledig uitzetten want V-sync uitforceren of andere zaken aanpassen lijkt niet te helpen.

Dat was bij 591.59 nog niet het geval.

Normaliter haal ik zo'n 440-500 FPS in GTA V Enhanced maar dat blijft soms dus hangen op 320-330 FPS.
Iemand anders heeft hetzelfde gerapporteerd overigens bij Call of Duty Black Ops 7.

Heb er een bug voor gerapporteerd bij zowel GeForce JacobF als in het driver feedback kanaal van Nvidia op het forum.

Core i9 13900K @5.8Ghz: https://valid.x86.fr/7ex679 & https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8


  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Gisteren een 5080 gekocht ter vervanging van mijn 4080 super. An sich was ik heel tevreden over die laatste maar de FOMO heeft me toch overstag doen gaan. Vooral de nieuwe DLSS trucjes, zeker MFG zijn interessant voor gamen op een hoge refreshrate. Hoewel het zeker geen enorme stap is van de 4080 naar 5080 valt me wel op dat de performance gains groter zijn dan ik had verwacht.

Ik heb wat 3dmark benchmarks gedraaid en de 5080 doet het 28% beter in Steel Nomad. Beiden kaarten draaien "stock" al zijn het wel beiden modellen met een lichte OC uit de doos (4080S Windforce v2 en 5080 INNO3D X3 OC). In Clair Obscur: Expedition 33 merk ik ook een behoorlijke uplift. Met mijn 4080S haalde ik in een bepaald boss fight 70-85fps, met de 5080 is dit met dezelfde settings 90-105. Dat vertaalt naar pakweg 25% meer performance. Dit is natuurlijk niet de meest wetenschappelijke testmethode, maar ik heb ook n.a.v. wat recentere (re)reviews van de 5080 het beeld dat ze t.o.v. een jaar terug meer performance uit de 5080 weten te persen met moderne drivers.

Het verschilt natuurlijk per game / workload maar ik haal bijna 10% meer performance uplift in Steel Nomad dan T.net in hun benchmark begin vorig jaar. Dat terwijl mijn GPU's volgens 3dmark volledig in lijn met het gemiddelde presteren.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

Redblader in "[NVIDIA GeForce RTX 50XX] Levertijden & Prijzen"

@Redblader


Ik zal die guide op Reddit ook eens proberen mbt de undervolt. (Heb een Gainward Phantom 5090)

Het is mij al wel duidelijk dat 600w bij lange na niet nodig is om ~"maximale" performance uit een/mijn 5090 te halen.

Plus die van mij wordt wel tegen de 80C als ik hem flink belast met 600w en alle toeters en bellen aan. (Moet mijn casefans even anders inprogrammeren dat ze wat harder draaien. Heb ze nu ingesteld dat ze max 1000rpm draaien, maar de 5090 heeft iets meer frisse lucht nodig dan mijn 4090 FE. (Die werd trouwens ook 80C onder full load met rt e.d. aan. En 80c valt natuurlijk gewoon binnen de marges, helemaal bij 5090, maar ga ff kijken of ik hem rond de 70 kan krijgen)

Als ik hem ff snel cap op 80% vermogen (~460W) dan haal ik nog zon beetje 95% performance tov 100% power. En dan wordt ie maar 70C.

[ Voor 68% gewijzigd door Format-C op 12-01-2026 13:26 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 09:46
Format-C schreef op maandag 12 januari 2026 @ 12:43:
Redblader in "[NVIDIA GeForce RTX 50XX] Levertijden & Prijzen"

@Redblader


Ik zal die guide op Reddit ook eens proberen mbt de undervolt. (Heb een Gainward Phantom 5090)

Het is mij al wel duidelijk dat 600w bij lange na niet nodig is om ~"maximale" performance uit een/mijn 5090 te halen.

Plus die van mij wordt wel tegen de 80C als ik hem flink belast met 600w en alle toeters en bellen aan. (Moet mijn casefans even anders inprogrammeren dat ze wat harder draaien. Heb ze nu ingesteld dat ze max 1000rpm draaien, maar de 5090 heeft iets meer frisse lucht nodig dan mijn 4090 FE. (Die werd trouwens ook 80C onder full load met rt e.d. aan. En 80c valt natuurlijk gewoon binnen de marges, helemaal bij 5090, maar ga ff kijken of ik hem rond de 70 kan krijgen)

Als ik hem ff snel cap op 80% vermogen (~460W) dan haal ik nog zon beetje 95% performance tov 100% power. En dan wordt ie maar 70C.
Ik ben nog steeds erg tevreden met de undervolt volgens die guide! Ben nog geen enkel probleem tegengekomen en het stroomverbruik is een stuk beter. Zou iedereen met een RTX 5090 aanraden om undervolten te proberen en die guide maakt het heel simpel.

Alleen in 3dmark krijg ik de peak powerdraw nog tot zo'n ~520w maar in daadwerkelijke game situaties blijft het nu altijd ruim onder de 500w. Bij mijn 5090 Vanguard betekent dit over het algemeen fans op de minimale stand (1000 rpm) met ~60-65 core temp en 65-70 memory. Dit in een Corsair 5000D Airflow met 3 intake fans en 2 outtake fans op ~800-900 rpm.
Er is een nieuwe GPU benchmark tool uitgebracht die gebaseerd is op FP32 calculaties die zelfs een RTX 5090 naar de single-digits in framerates kan brengen.

De benchmark:
https://gaming67.com/index.html#atelier
Radiance
A Raymarching Benchmark

The same Breakout geometry — bricks, paddle, ball — rendered through pure mathematics. Raymarching calculates the path of every photon, simulating light as it truly behaves. Signed distance functions define surfaces. Global illumination fills the space. Shadows fall where physics dictates they must.

This is our creative vision for what these games could become: the timeless mechanics we've refined, expressed through computational light. The same heritage, the same precision, but rendered with techniques that push current hardware to its absolute limits.

The vision currently exceeds the technology. Radiance requires an RTX 5090 to achieve playable framerates with advanced lighting — and that's with the debris system disabled. Full visual fidelity awaits hardware perhaps a generation away. We release it now as a benchmark: a way to stress-test today's GPUs, and a glimpse of where we're headed.
Heb de twee presets even getest op de overklokte ROG Astral RTX 5090 OC met de reguliere 600W bios.
Het is op 4K met 640 debris zo zwaar, dat de powerspikes op de videokaart worden gerapporteerd boven de 700W!
Dat komt zéér waarschijnlijk omdat de dermate lage framerate zulke variërende stroompieken veroorzaakt dat de bios/videokaart deze powerspikes niet tijdig kan bijbenen om ze te limiteren.

Afbeeldingslocatie: https://i.imgur.com/YQsv88D.png

Twee scores van de voorgestelde presets:
Afbeeldingslocatie: https://i.imgur.com/z0lVqIB.pngAfbeeldingslocatie: https://i.imgur.com/gy5HHen.png

Pas dus even goed op je stroomconnectoren als je deze tests wilt gaat draaien. _O-

Core i9 13900K @5.8Ghz: https://valid.x86.fr/7ex679 & https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8


  • INNO3D
  • Registratie: December 2021
  • Laatst online: 26-01 10:40

INNO3D

Bedrijfsaccount INNO3D
CMT schreef op dinsdag 6 januari 2026 @ 03:47:
[...]

Ah in die zin. Ja, daar valt wat voor te zeggen. Ik zou toch liever cijfers zien met failure rates (met oorzaak gesmolten connector) van fabrikanten of leveranciers. Vreemd genoeg is het kennelijk moeilijk om aan deze informatie te komen en/of wordt er geen journalistiek onderzoek naar gedaan. Sinds de introductie van de RTX4090 is meer dan 3 jaar verstreken, dus betrouwbare data moet er inmiddels gewoon zijn.


[...]

Er is op tweakers een post geweest van iemand met een RTX4090 waarbij de connector (na verloop van tijd) gefaald heeft. Diegene gaf aan alles goed gecontroleerd en de aandachtspunten opgevolgd te hebben.
Ik kan het helaas niet meer terug vinden, het was een losse post van iemand die niet aktief is op het forum.

Uit deze draad zijn er in ieder geval wel voorbeelden te geven waarbij gemeten is én op tijd ingegrepen.
Dat zijn gevallen waarbij het pas na verloop van tijd is ontstaan:

[...]
https://gathering.tweaker...message/83537976#83537976

[...]
https://gathering.tweaker...message/83006968#83006968

De implementatie van de connector speelt natuurlijk een rol hierbij.
Voor mij is het om het even, want het feit is dat Nvidia het in deze vorm als standaard geforceerd heeft en door de strot van de consument gedrukt.
Het staat hopelijk buiten kijf, dat een grote marge dit probleem zeer waarschijnlijk af kan vangen (anders was dit ook een issue met de 20 jaar oude miniFit 8-pin).

Een andere grote reden waarom ik zo tegen de 12VHPWR connector ben, is dat de consument weer gedwongen wordt om nieuwe kabels & voedingen aan te schaffen en dus weer een onnodige berg E-waste erbij komt.
Alles was mooi gestandaardiseerd met 1 type plug voor de insteekkaarten en de PSU.
Nvidia & SIG hadden net zo goed de specificatie van de 8-pin kunnen verruimen van 150W naar evt. 200W.
Dan is een 450W GPU met 2 kabels te voeden en blijft er alsnog een ruime veiligheidsmarge over.
Evt. een 16-pin miniFit introduceren als er een wens is naar 1 kabel (de dikte & het aantal draden zijn letterlijk niet veranderd, met de 12VHPWR is het alleen gebundeld / een bandkabel geworden).

Ik had er beter mee kunnen leven als de GPU's niet zo gigantisch duur waren geworden, de beschikbaarheid gewoon goed was (en stabiel) en een evt. gesmolten connector gegarandeerd met een RMA opgelost kon worden. Voor de 5090FE kan ik geen Ampinel of Wireview aanschaffen omdat er geen variant daarvoor gemaakt wordt. En dus maar met knagende spanning moet blijven zitten of de €2400 GPU niet na verloop van tijd defect raakt..en moet hopen dat RMA dan niet geweigerd wordt.

De 6+2 variant van de 8-pin vind ik trouwens ook vreselijk hoor. Dat hadden ze echt niet moeten doen.
En daisy-chainen sowieso verbieden. Wat een puinhoop is dat. Een hoop gesmolten 6-/ 8-pin connectors of problemen met de GPU zijn daar van gekomen.


[...]

Dat is niet waar wat je zegt. Het aantal gevallen is wel meer dan 10 vingers.
En dat is zonder de gevallen met problemen aan de kant van de voedingen meegerekend.
Anders moet je toch beter het nieuws volgen op Igorslab / Der8auer youtube / Techpower / Reddit / Videocardz e.d.

[...]

Zie de voorbeelden die ik zojuist heb gegeven uit deze draad. Wat je noemt is daarmee te weerleggen.
Als je een EU-cijfer wilt: bij ons RMA-centrum in Nederland, dat de hele EU voor INNO3D afhandelt, zijn er in de 4090- en 5090-range nog geen 15 gevallen geweest. We treffen vaker door gebruikers beschadigde kaarten aan dan kaarten met een gesmolten connector.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:23
INNO3D schreef op maandag 12 januari 2026 @ 23:08:
[...]

Als je een EU-cijfer wilt: bij ons RMA-centrum in Nederland, dat de hele EU voor INNO3D afhandelt, zijn er in de 4090- en 5090-range nog geen 15 gevallen geweest. We treffen vaker door gebruikers beschadigde kaarten aan dan kaarten met een gesmolten connector.
Bedankt, dat is goed en waardevol nieuws. Eindelijk iets concreets :).
Voor alle duidelijkheid; bedoel je daarmee dat INNO3D 1 RMA centrum heeft en dat dit centrum alle INNO3D RMA gevallen van heel Europa behandeld? En als ik ook vragen mag, over welke periode hebben we het dan? Sinds de launch van de 4090?

Het stelt mij in ieder geval meer gerust. Als andere fabrikanten/insiders nu ook eens het boekje open deden..

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 26-01 10:40

INNO3D

Bedrijfsaccount INNO3D
CMT schreef op dinsdag 13 januari 2026 @ 15:40:
[...]

Bedankt, dat is goed en waardevol nieuws. Eindelijk iets concreets :).
Voor alle duidelijkheid; bedoel je daarmee dat INNO3D 1 RMA centrum heeft en dat dit centrum alle INNO3D RMA gevallen van heel Europa behandeld? En als ik ook vragen mag, over welke periode hebben we het dan? Sinds de launch van de 4090?

Het stelt mij in ieder geval meer gerust. Als andere fabrikanten/insiders nu ook eens het boekje open deden..
Het RMA centre in Nederland doet heel europa, inclusief oost. en ja dit is data vanaf launch 4090.

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 19:57
INNO3D schreef op dinsdag 13 januari 2026 @ 20:51:
[...]

Het RMA centre in Nederland doet heel europa, inclusief oost. en ja dit is data vanaf launch 4090.
En hoeveel verkochte 4090s en 5090s in totaal? 5 cijfers? 6?

[ Voor 9% gewijzigd door nzall op 13-01-2026 23:24 ]

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 09:50

Jumpiefox

Hoi ?

INNO3D schreef op dinsdag 13 januari 2026 @ 20:51:
[...]

Het RMA centre in Nederland doet heel europa, inclusief oost. en ja dit is data vanaf launch 4090.
Ha! cool om Inno3d hier gerept te zien. Mijn go 2 brand geworden voor GPU's sinds de 2080TI. Had de Ichill black edition. wat een stoere kaart was dat...alleen jammer dat we nooit de optie kregen om de tekst op de display aan te passen hehe.gevolgd door de 3090 forstbite..nu de 4090frostbite en toen het nieuws was gepost over Nvidia en de 5090 shenigans maar snel een 5090Frostbite besteld, vorige week binnen en zie dat ze nu al weer niet te krijgen zijn. Echt alleen maar positieve ervaringen so far. Elke keer heb ik elke keer net zo goed kunnen overclocken als de asus tegenhangers etc. Moet nog wachten op wat nieuwe onderdelen dan gaat de 5090 in een nieuw systeem hehe.

The first casualty in war is always the truth...


  • INNO3D
  • Registratie: December 2021
  • Laatst online: 26-01 10:40

INNO3D

Bedrijfsaccount INNO3D
nzall schreef op dinsdag 13 januari 2026 @ 23:23:
[...]

En hoeveel verkochte 4090s en 5090s in totaal? 5 cijfers? 6?
Ik ben niet van de salesafdeling, maar ik heb onze lead engineer om een reactie gevraagd.

Mijn vraag is: What would you say the percentage is of cards that have had a burned connector so far, from 4090/5090 until now?

Antwoord: Not counted before But ...just a few

Ik maak me huidig meer zorgen om dit soort zaken,
Afbeeldingslocatie: https://tweakers.net/i/ASrsFZz1LqsDG5zBrxO3oIjZ7So=/800x/filters:strip_icc():strip_exif()/f/image/V764kH70aBCNuihvZruMJMi7.jpg?f=fotoalbum_large

Dit is een 5090 die rma komt waar iemand dus de chip en het ram van heeft gestolen,

[ Voor 4% gewijzigd door INNO3D op 14-01-2026 12:04 ]


  • Protax
  • Registratie: Januari 2010
  • Laatst online: 15:13
INNO3D schreef op woensdag 14 januari 2026 @ 12:03:
[...]

Ik ben niet van de salesafdeling, maar ik heb onze lead engineer om een reactie gevraagd.

Mijn vraag is: What would you say the percentage is of cards that have had a burned connector so far, from 4090/5090 until now?

Antwoord: Not counted before But ...just a few

Ik maak me huidig meer zorgen om dit soort zaken,
[Afbeelding]

Dit is een 5090 die rma komt waar iemand dus de chip en het ram van heeft gestolen,
Met welk doel doen mensen dit?

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 26-01 10:40

INNO3D

Bedrijfsaccount INNO3D
Protax schreef op woensdag 14 januari 2026 @ 12:09:
[...]


Met welk doel doen mensen dit?
Winst maken, Chips en ram verkopen en kaart RMA sturen voor een credit,

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 09:50

Jumpiefox

Hoi ?

Protax schreef op woensdag 14 januari 2026 @ 12:09:
[...]


Met welk doel doen mensen dit?
Ik weet dat je voor de 4090 een custom pcb kan kopen die 48gb mem accepteert, misschien is dat tegenwoordig voor de 5090 ook zo? In china is het modden van de rtx kaarten normale kost..je kan zo een winkeltje binnen lopen en je kaart laten modden naar 2x de mem. Vraag me af waarom huidige aanbieders van kaarten dat niet doen..mag zeker niet van Nvidia?
kant en klaar soms ook via alibaba te vinden:
https://www.alibaba.com/p...s-Card_1601577163842.html

The first casualty in war is always the truth...


  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Hmm, met de nieuwe NVIDIA app heb ik bij DLSS Override geen optie meer om "Latest" te kiezen voor de Super Resolution preset. Ik vond dat wel makkelijk, maar moet nu een preset uitkiezen. Als ik het goed begrijp is K het beste voor quality / balanced?

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 19:57
Thomas schreef op woensdag 14 januari 2026 @ 18:31:
Hmm, met de nieuwe NVIDIA app heb ik bij DLSS Override geen optie meer om "Latest" te kiezen voor de Super Resolution preset. Ik vond dat wel makkelijk, maar moet nu een preset uitkiezen. Als ik het goed begrijp is K het beste voor quality / balanced?
Hangt af van je resolutie en de kaart die je gebruikt. Ik ga ervan uit dat je een RTX 50 series gebruikt en op 1440p speelt. Op die resolutie is het nieuwe model onder preset M het best geschikt, en dan zet je het zelfs best op Performance. Dat klinkt misschien vreemd, maar DLSS 4.5 is een dusdanige verbetering over DLSS 4 dat Performance 4.5 er beter uit ziet dan 4.0 Balanced en in sommige situaties zelfs Quality. Ja, zelfs op 1440p. En als je 4K zou gebruiken kun je zelfs voor Ultra Performance gaan met preset L. Je kunt beide modellen ook gebruiken voor Quality of Balanced, maar dan boet je flink in aan performance tegenover K.

Overigens is die "Latest" optie vervangen door "Recommended" in de app, en dat kiest automatisch L als je Ultra Performance gebruikt en M als je Performance gebruikt.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • Brozef
  • Registratie: Augustus 2016
  • Laatst online: 20:52
Ik heb sinds kort nu de wireview pro 2 binnen, en moet zeggen is een fijn ding, alleen al het feit dat die nu mijn per pin verdeling laat zien en ik dus weet dat mijn kabel nu op zich oke is zonder smeltende connectors is toch geruststellend. Ook al was de kans opzich al heel klein. Maar kan hem wel aanraden als je een 5090 of 4090 ofzo hebt.

Afbeeldingslocatie: https://tweakers.net/i/JVWu2CIyiRKCbFhs8KC-cuoQ9Xw=/800x/filters:strip_icc():strip_exif()/f/image/HzZ5FdkuXuf5tz7Tv6MKsn09.jpg?f=fotoalbum_large

  • xtreme_lunatic
  • Registratie: Januari 2003
  • Laatst online: 00:07
Brozef schreef op donderdag 15 januari 2026 @ 13:46:
Ik heb sinds kort nu de wireview pro 2 binnen, en moet zeggen is een fijn ding, alleen al het feit dat die nu mijn per pin verdeling laat zien en ik dus weet dat mijn kabel nu op zich oke is zonder smeltende connectors is toch geruststellend. Ook al was de kans opzich al heel klein. Maar kan hem wel aanraden als je een 5090 of 4090 ofzo hebt.

[Afbeelding]
Mooie techniek en dat het kan, maar eigenlijk toch echt te zot voor woorden! Je zou toch mogen verwachten dat een product van enkele duizenden euro's niet zo'n zwak punt heeft. 8)7

Om nog iets toe te voegen dat hopelijk helemaal ontopic is:
Iedereen nog tevreden met de PNY versie van de RTX 5080?
In eerste instantie had ik het idee dat die van mij quq geluidsproductie niet goed was en een ratelende fan had. Nu we een heel stuk verder zijn kom ik eigenlijk tot de conclusie dat dat niet meer het geval is. Wellicht moest de fan inlopen. :?
Tijdens het gamen blijft de kaart ook keurig koel, zelfs in de zomermaanden. De temperatuur komt zeker nooit boven de 70 en blijft zelfs meestal rond de 60 graden tijdens het gamen.

Press any button... "Where is the 'any button'?!"


  • Brozef
  • Registratie: Augustus 2016
  • Laatst online: 20:52
xtreme_lunatic schreef op donderdag 15 januari 2026 @ 14:14:
[...]

Mooie techniek en dat het kan, maar eigenlijk toch echt te zot voor woorden! Je zou toch mogen verwachten dat een product van enkele duizenden euro's niet zo'n zwak punt heeft. 8)7
Ja eens, dit probleem zou er gewoon niet moeten zijn. Maarja aan de andere kant ik kies er zelf voor om een 5090 te kopen because I like my frames }:O

  • Protax
  • Registratie: Januari 2010
  • Laatst online: 15:13
Sinds gisteren heb ik het 3XS-systeem dat eerder deze week hier voorbij kwam. Normaal gesproken zou ik nooit zo’n voorgebouwd systeem kopen; ik bouw al meer dan 20 jaar mijn eigen systemen.

In dit geval kan ik het echter echt aanraden. Het voelt simpelweg alsof je alle componenten los bij een winkel hebt gekocht en zelf een systeem hebt gebouwd. In mijn geval zitten er uitsluitend Asus (TUF) Mobo en GPU-5090 en Corsair-componenten in. Alles is keurig verpakt en alle accessoires worden netjes meegeleverd.

Het systeem draait direct uit de doos als een zonnetje → alleen Windows Home heb ik nog even geüpgraded naar Pro.

Blij persoon hier :-)

  • Tjona100
  • Registratie: December 2006
  • Laatst online: 20:40
Protax schreef op vrijdag 16 januari 2026 @ 11:10:
Sinds gisteren heb ik het 3XS-systeem dat eerder deze week hier voorbij kwam. Normaal gesproken zou ik nooit zo’n voorgebouwd systeem kopen; ik bouw al meer dan 20 jaar mijn eigen systemen.

In dit geval kan ik het echter echt aanraden. Het voelt simpelweg alsof je alle componenten los bij een winkel hebt gekocht en zelf een systeem hebt gebouwd. In mijn geval zitten er uitsluitend Asus (TUF) Mobo en GPU-5090 en Corsair-componenten in. Alles is keurig verpakt en alle accessoires worden netjes meegeleverd.

Het systeem draait direct uit de doos als een zonnetje → alleen Windows Home heb ik nog even geüpgraded naar Pro.


Blij persoon hier :-)
4199.., voor dat geld is het een dikke steal. een losse 5090 kost dat al zowat, zoniet meer soms

Kendrick Lamar - Ignorance is Bliss


  • !mark
  • Registratie: November 2013
  • Laatst online: 20:59
Tjona100 schreef op vrijdag 16 januari 2026 @ 11:43:
[...]
4199.., voor dat geld is het een dikke steal. een losse 5090 kost dat al zowat, zoniet meer soms
Ja als je een 5090 PC zoekt dan is dit by far de goedkoopste manier idd.
32GB DDR5 kost je ook al snel 400 euro, 450 voor een 9800X3D, 200 voor de SSD, 200 voor het moederbord en zeg 3x100 voor een behuizing, voeding en koeling. Dan kom je netto op 2650 euro voor een 5090, ofwel 700 euro minder dan de goedkoopste in de pricewatch.

Vindt het zelf nog steeds veel te veel geld voor een videokaart, maar goed mijn hele PC (op basis van een 5070Ti) was ruim goedkoper dan het niet langer bestaande MSRP van een 5090 :+

  • TheProst
  • Registratie: November 2024
  • Laatst online: 14:18

TheProst

comparison is the thief of joy

!mark schreef op vrijdag 16 januari 2026 @ 12:42:
[...]
Ja als je een 5090 PC zoekt dan is dit by far de goedkoopste manier idd.
Voor mijn gevoel geld was je 10 a 15 jaar geleden veel goedkoper uit als je je pc zelf bouwde. Volgens mij is dat verschil tegenwoordig heel klein tot soms niet. 2 vrienden van mij hadden een prebuild gekocht met een 5060 Ti. Ik had via price watch pc precies na gebouwd en was de pre build 150 euro duurder. Maar je krijgt natuurlijk voor die 150 euro wel garantie.

An audi a day keeps de doctor away | AMD R5 9600X + ASUS 5080 ASTRAL | Bekijk mijn inventaris


  • Waah
  • Registratie: Maart 2009
  • Laatst online: 19:35
TheProst schreef op vrijdag 16 januari 2026 @ 12:54:
[...]

Voor mijn gevoel geld was je 10 a 15 jaar geleden veel goedkoper uit als je je pc zelf bouwde. Volgens mij is dat verschil tegenwoordig heel klein tot soms niet. 2 vrienden van mij hadden een prebuild gekocht met een 5060 Ti. Ik had via price watch pc precies na gebouwd en was de pre build 150 euro duurder. Maar je krijgt natuurlijk voor die 150 euro wel garantie.
Daarom niet precies nabouwen. Vaak kun je met zelfbouw dezelfde (en vaak betere) kwaliteit kiezen voor minder geld. AIO waterkoeling is misschien leuk, maar luchtkoeling is een stuk goedkoper en werkt vaak even goed...

[ Voor 7% gewijzigd door Waah op 16-01-2026 13:38 ]


  • nDirect090
  • Registratie: Augustus 2013
  • Laatst online: 19:30
Gisteren een bestelling kunnen plaatsen voor een zotac 5080 solid core voor een prijs van €1020. Begreep dat de solid core een SFF is en dus vraag ik me af of dit wel een kaart is die je wil hebben? Of dat ik beter kan blijven kijken naar een ander model.

Verder heb ik geen eerdere ervaring met Zotac nog en online vind ik vooral over solid (niet SFF) versie.

Was me ook nog niet helemaal duidelijk uit het leveringen topic wat jij @nadh ervan vondt? Of ik heb het volledig verkeerd begrepen

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 09:46
nDirect090 schreef op zaterdag 17 januari 2026 @ 10:19:
Gisteren een bestelling kunnen plaatsen voor een zotac 5080 solid core voor een prijs van €1020. Begreep dat de solid core een SFF is en dus vraag ik me af of dit wel een kaart is die je wil hebben? Of dat ik beter kan blijven kijken naar een ander model.

Verder heb ik geen eerdere ervaring met Zotac nog en online vind ik vooral over solid (niet SFF) versie.

Was me ook nog niet helemaal duidelijk uit het leveringen topic wat jij @nadh ervan vondt? Of ik heb het volledig verkeerd begrepen
Er zijn op Reddit wel een paar posts te vinden over deze kaart.

Uiteindelijk zou ik me geen zorgen maken, ze maken tegenwoordig geen high end kaarten meer met écht belabberde koelers zoals vroeger. :)

  • nDirect090
  • Registratie: Augustus 2013
  • Laatst online: 19:30
Redblader schreef op zaterdag 17 januari 2026 @ 12:48:
[...]


Er zijn op Reddit wel een paar posts te vinden over deze kaart.

Uiteindelijk zou ik me geen zorgen maken, ze maken tegenwoordig geen high end kaarten meer met écht belabberde koelers zoals vroeger. :)
Al gaan die dan wel weer over de oc variant, misschien maakt dat ook wel weer wat verschil.

Maar niet dat je minder performance kan verwachten omdat die warmer wordt?

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 09:46
nDirect090 schreef op zaterdag 17 januari 2026 @ 17:19:
[...]


Al gaan die dan wel weer over de oc variant, misschien maakt dat ook wel weer wat verschil.

Maar niet dat je minder performance kan verwachten omdat die warmer wordt?
Nee, er zijn geen 5080s op de markt die echt slechter presteren door de koeler. Het verschil zit hem hooguit in de temperaturen en hoe hard de fans moeten draaien maar ze houden allemaal de 5080 koel genoeg. Je zou waarschijnlijk wel verschil merken als je tot het uiterste gaat met overclocken maar tegenwoordig is juist undervolten populairder.

De Solid Core OC en de Solid Core zijn in principe exact dezelfde kaart, beide hebben dezelfde 2.5 slot koeler.

[ Voor 10% gewijzigd door Redblader op 17-01-2026 17:26 ]


  • nDirect090
  • Registratie: Augustus 2013
  • Laatst online: 19:30
Redblader schreef op zaterdag 17 januari 2026 @ 17:25:
[...]


Nee, er zijn geen 5080s op de markt die echt slechter presteren door de koeler. Het verschil zit hem hooguit in de temperaturen en hoe hard de fans moeten draaien maar ze houden allemaal de 5080 koel genoeg. Je zou waarschijnlijk wel verschil merken als je tot het uiterste gaat met overclocken maar tegenwoordig is juist undervolten populairder.

De Solid Core OC en de Solid Core zijn in principe exact dezelfde kaart, beide hebben dezelfde 2.5 slot koeler.
Top dat klinkt goed. Misschien zit ik ook wat teveel naar cijfertjes te kijken en zal het in praktijk allemaal wel meevallen. Geen plannen voor overclocken dus dat moet wel goed komen dan.

Ik denk dat ik maar eens moet gaan genieten dat het me gelukt is om hem voor een mooi prijsje te scoren ipv in m’n hoofd te zitten over dat het een SFF is :)

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 19:57
https://videocardz.com/ne...ope-since-rtx-4090-launch Blijkbaar vond Videocardz dit nieuwswaardig genoeg. Het blijft toch altijd een beetje absurd om een verwijzing te zien naar je eigen activiteiten online in een nieuwsbericht...

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • rapture
  • Registratie: Februari 2004
  • Laatst online: 21:02

rapture

Zelfs daar netwerken?

Je kan de pinnen in een connector zoals draadoppervlakte van een draad doorrekenen.

Beginnend met de oude situatie: Molex MINI-FIT PCI EXPRESS datasheet met de typenummers dat je kan doorklikken voor als je zelf de kabels wilt maken.

Dan kom je bij de algemene MINI-FIT JR connectoren en pinnen. Nog wat doorklikken en ik krijg een CAD-tekening met de pin dikte.

Afbeeldingslocatie: https://tweakers.net/i/vmFnmRP2s8Nbt32QETPpCZ6g63w=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/L59Es9DZZzIPCjLY6WfubmgH.jpg?f=user_large
https://www.molex.com/con...556/5569/039300040_sd.pdf

1,07 mm * 1,07 mm = 1,15 mm²

In een 8 pin connector worden 3 pinnen voor +12V gebruikt en dat is 3 * 1,15 mm² = 3,45 mm². 150 W / 12 V = 12,5 A en 12,5 A / 3,45mm² = 3,62 A per mm².

Als 1 pin onderbroken is, dan gaat 12,5 A / 2,3mm² = 5,44 A per mm².

Volgens het AREI mag je 2,5 mm² koperdraad in een huishoudelijke installatie met 20A automaat afzekeren en 20A / 2,5mm² = 8A per mm². Meestal zijn de pinnen van een stekker (mannelijke connector) en de contacten van een stopcontact (vrouwelijke connector) veel groter/dikker dan de koperdraden om zeker te zijn dat het goed contact maakt en voldoende lage contactweerstand heeft.

De normen/regels voor de huishoudelijke elektrische installatie zijn vereenvoudigde no-brainers om te voorkomen dat elektrotechniekers voor elke kabellengte de draadoppervlakte moet uitrekenen. Naast spanningsval over de draad, opwarming van de draden,... moet de kortsluitstroom groot genoeg zijn om de kortsluitbeveiliging te activeren.

Als je bij Molex het zwakste spul bestelt, dan gaat 12,5 A gemakkelijk door 3 keren 6A per pin.

Afbeeldingslocatie: https://tweakers.net/i/O6buQueCPJ64qcbwnkV2kOShjHY=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/dWFI8LQv1QeOJGSVpbXlXIyf.jpg?f=user_large
https://www.molex.com/con...S-5556-001-001.pdf?inline

18A * 12V = 216W

Als je goed spul bestelt om de limieten op te zoeken, dan mag 10A per pin erdoor.

Afbeeldingslocatie: https://tweakers.net/i/IrePd2uV04Ms9BfnYZloDa2G4W8=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/teQxVc2rvwOFo6OuHefXvmzY.jpg?f=user_large
https://www.molex.com/con...-45750-001-001.pdf?inline

30A * 12V = 360W

20+ jaren geleden was het gebruik van high current wire terminals verplicht:
ATX12V 2.2Also released in March 2005[5] it includes corrections and specifies High Current Series wire terminals for 24-pin ATX motherboard and 4-pin +12 V power connectors.
Wikipedia: ATX
Er kan in ATX-versie update een verbod op zwak spul gezet worden.

150W door een 8 pin connector is heel conservatief gekozen en de fabrikanten van kabels, voedingen,... kunnen weinig verkeerd doen.


Ik heb naar een technische tekening van de nieuwste revisie, 12V-2x6, gezocht:

Afbeeldingslocatie: https://tweakers.net/i/eeSxbh20MKFnJzCScFchJUnykrg=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/IAbMc8BD02Es2ugVBUNcup30.jpg?f=user_large
https://cdn.amphenol-cs.c...iles/drawing/10163894.pdf

0,64 mm * 0,64 mm = 0,41 mm².

600W / 12V = 50A en 6 * 0,41 mm² = 2,46 mm², dan delen we 50A door 2,46 mm² is 20,3A per mm².

6 pinnen is de nieuwe connector is in draadoppervlakte even veel waard als 2 pinnen in de oude connector. What could possibly go wrong?

We gingen van 3,62 A per mm² en als een pin onderbroken was dan steeg het naar 5,44 A per mm². Nu is het YOLO met 20,3A per mm². Amphenol belooft 9,5A per pin, 9,5A / 0,41 mm² = 23,2A per mm².

Van 600W naar 300W deraten is 10,15A per mm² en nog altijd veel meer dan de oude connector. 12VHPWR aan een Sapphire RX 9070 XT Nitro+ smelt even goed op 330W. 330W / 12V = 27,5A en 27,5A / 2,46 m² = 11,2A per mm².


We hadden even goed 300W of 25A door 4 +12V pinnen in een EPS12V connector gejaagd en dat is 5,44A per mm².
Afbeeldingslocatie: https://tweakers.net/i/-u-8V7MkHFYxdG4nfGQdaFS3TTs=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/xSI91Xo4ZIVQlA93OfY1YD33.png?f=user_large

Dat werd door Nvidia ook gedaan:

Afbeeldingslocatie: https://tweakers.net/i/f_GRA8OcvPdObvaWQiOnq7bCg68=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/B5b8eZo6iS63zsFf0h77ndlv.png?f=user_large
Prior generation NVIDIA Quadro RTX and GeForce 20 series graphics boards utilize the PCI Express style 6-pin and 8-pin connections to supply auxiliary power. On the NVIDIA RTX A6000 graphics board, NVIDIA transitioned to the EPS-12V 8-pin connector commonly found on rackmount server systems. For desktop users, this style of connector usually plugs directly into the motherboard to supply auxiliary power for the CPU.

The EPS-12V 8-pin connection utilizes additional 12V connections to the power supply relative to the PCI Express style 8-pin and 6-pin connections. Consequently, an EPS-12V 8-pin connection is able to provide more power to the graphics board with a single connector.

PNY understands that not every customer has the EPS-12V 8-pin connector needed to power the NVIDIA RTX A6000 graphics board, so we include a dual PCIe 8-pin to EPS-12V 8-pin adapter with all RTX A6000 products.
https://blog.pny.com/blogpnycom/protip23_eps
Met 2 EPS12V connectors aan een grafische kaart kunnen we gemakkelijk richting 600W gaan, maar dat was te gemakkelijk voor het management? We hebben last van iemand die 600W door 1 te klein ontworpen connector wilt jagen.

Doet mij denken aan:
Als het door technici wordt bedacht werkt het meestal goed, zolang managers anderen er maar af blijven.
https://www.hoogspannings...ikel/kerstspecial-entsoe/

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

Heb mijn 5090 Phantom nu een weekje oid in gebruik en moet zeggen dat ik er erg tevreden over ben. Flink wat games getest en gespeeld.
:)
Hij is een stuk sneller dan mijn 4090. Ik cap hem op 85%. Dat deed ik ook bij mijn 4090 FE, en ik verlies dan nagenoeg geen performance tov stock.. (scheelt wel veel stroom en warmte. Ik vind 575W ook best wel een beetje absurd dus ik speel altijd gecapped)

Moet zeggen dat DLSS Multi Frame Generation in een aantal games best heel goed werkt. Waar dat eerst meh was.

Voorheen had ik heel veel tearing en artifacts met FG, maat ik zie nu echt nagenoeg geen verschil meer tussen wel of geen Frame Generation in een aantal games. Dus dat doet nVidia goed!

Ook is de beeldkwaliteit met DLSS Quality in een hoop games inmiddels beter dan native. Dus dat doet nVidia ook goed.

Maar goed. Dat was met de 4090 natuurlijk ook zo dus dat ligt er niet aan dat ik nu een 5090 heb.

De 25-35% overhead tov de 4090 is op 4K wel echt prettig. Kom nu in bepaalde games echt niet meer onder de 60FPS waar dat met de 4090 nog wel eens zo was. Daar zit ik nu op 75 fps of hoger.

Enige nadeel is dat mn 5090 relatief warm wordt als ik echt alles omhoog crank en 575W ga trekken.

Maar dat komt door mijn behuizing denk ik. Geen bottom intake fans. Met de kast open blijft hij een stuk koeler

En dat neem ik maar op de koop toe. Heb de fans iets harder staan om hem koel te houden.

Over het algemeen kijk ik naar max 70C (vaak lager) maar echt vol open met RT @4k 120 kan die de 80 aantikken. Ietwat warm maar niet onoverkomelijk.

Edit:

Afbeeldingslocatie: https://tweakers.net/i/TC3SCXbO6N7kJDsV4yVTa1MUbR4=/x800/filters:strip_icc():strip_exif()/f/image/6T3GTAhl0NvgrMQ1Bw5sYj8f.jpg?f=fotoalbum_large

Zie hem trouwens boosten naar 2910MHz in wat oudere games. Maar meestal zit die rond de ~2760Mhz boostclock.

Happy. Kan weer een paar jaar vooruit.
:)

[ Voor 14% gewijzigd door Format-C op 19-01-2026 15:01 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 17:59
Protax schreef op vrijdag 16 januari 2026 @ 11:10:
Sinds gisteren heb ik het 3XS-systeem dat eerder deze week hier voorbij kwam. Normaal gesproken zou ik nooit zo’n voorgebouwd systeem kopen; ik bouw al meer dan 20 jaar mijn eigen systemen.

In dit geval kan ik het echter echt aanraden. Het voelt simpelweg alsof je alle componenten los bij een winkel hebt gekocht en zelf een systeem hebt gebouwd. In mijn geval zitten er uitsluitend Asus (TUF) Mobo en GPU-5090 en Corsair-componenten in. Alles is keurig verpakt en alle accessoires worden netjes meegeleverd.

Het systeem draait direct uit de doos als een zonnetje → alleen Windows Home heb ik nog even geüpgraded naar Pro.

Blij persoon hier :-)
link naar je systeem? waar heb je die dan gekocht?

  • TheProst
  • Registratie: November 2024
  • Laatst online: 14:18

TheProst

comparison is the thief of joy

MetalSonic schreef op maandag 19 januari 2026 @ 16:05:
[...]

link naar je systeem? waar heb je die dan gekocht?
Denk gewoon bij bol.com. Onder tussen wel terug gestegen van 4199 naar 4499:
https://www.bol.com/nl/nl...OptionButton#productTitle

uitvoering: Scan 3XS Systems Curve, Powered By ASUS, R7 9800X3D, 32GB ram, 2T...

[ Voor 25% gewijzigd door TheProst op 19-01-2026 16:11 ]

An audi a day keeps de doctor away | AMD R5 9600X + ASUS 5080 ASTRAL | Bekijk mijn inventaris


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 17:59
thanks, ja mooie build hoor wat ik daar zie _/-\o_ 4,5k maarja dan heb je wel wat :) krachtige hardware en het ziet er slick uit. Ik zal het onthouden voor als mijn huidige build ineens overlijd :')

  • TheProst
  • Registratie: November 2024
  • Laatst online: 14:18

TheProst

comparison is the thief of joy

MetalSonic schreef op maandag 19 januari 2026 @ 16:24:
[...]

thanks, ja mooie build hoor wat ik daar zie _/-\o_ 4,5k maarja dan heb je wel wat :) krachtige hardware en het ziet er slick uit. Ik zal het onthouden voor als mijn huidige build ineens overlijd :')
Ja, Zelfs tegen de 4,5k kan je niet op om het zelf te bouwen. Je hebt bij prebuild ook nog eens garantie. Ik ben in ieder geval blij dat ik blij dat ik nov 2025 mijn pc had gebouwd met de mooie RTX 5080 Astral die ik stock heb draaien met fps cap op 165fps. kaart komt niet boven de 50 graden en blijft onder 80% usage. 5090 vind ik persoonlijk net iets te duur.

An audi a day keeps de doctor away | AMD R5 9600X + ASUS 5080 ASTRAL | Bekijk mijn inventaris


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 17:59
TheProst schreef op maandag 19 januari 2026 @ 16:30:
[...]

Ja, Zelfs tegen de 4,5k kan je niet op om het zelf te bouwen. Je hebt bij prebuild ook nog eens garantie. Ik ben in ieder geval blij dat ik blij dat ik nov 2025 mijn pc had gebouwd met de mooie RTX 5080 Astral die ik stock heb draaien met fps cap op 165fps. kaart komt niet boven de 50 graden en blijft onder 80% usage. 5090 vind ik persoonlijk net iets te duur.
Wat ik bij de afgelopen 2 builds deed was dat ik het hele systeem liet assembleren door Azerty en daarvoor een keer Alternate. Dan heb je ook de garantie maar dan is wel elk onderdeel dat er in zit precies wat je zelf wil. Nadeel van zo'n pre build van Bol.com is dat er vaak één of meerdere onderdelen zijn die net niet precies zijn wat je wil. Vaak zitten er fans in zie luidruchtiger zijn dan nodig, of een PSU die net iets sterker kan, zelfde voor de CPU koeler.

Maar nogmaals deze Bol.com pre build is van wat ik zo zi erg netjes!

  • Protax
  • Registratie: Januari 2010
  • Laatst online: 15:13
MetalSonic schreef op maandag 19 januari 2026 @ 16:46:
[...]

Wat ik bij de afgelopen 2 builds deed was dat ik het hele systeem liet assembleren door Azerty en daarvoor een keer Alternate. Dan heb je ook de garantie maar dan is wel elk onderdeel dat er in zit precies wat je zelf wil. Nadeel van zo'n pre build van Bol.com is dat er vaak één of meerdere onderdelen zijn die net niet precies zijn wat je wil. Vaak zitten er fans in zie luidruchtiger zijn dan nodig, of een PSU die net iets sterker kan, zelfde voor de CPU koeler.

Maar nogmaals deze Bol.com pre build is van wat ik zo zi erg netjes!
Ik heb vorige week ook een vergelijkbaar systeem binnengekregen en ik kan niet anders dan concluderen dat het echt top is. Het zit netjes in elkaar, bestaat volledig uit Asus- en Corsair-componenten en ik heb nergens het idee dat er op bezuinigd is. Absoluut een aanrader (al gaat het een beetje tegen mijn Tweakers-principes in).

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:23
Format-C schreef op maandag 19 januari 2026 @ 14:28:
Ook is de beeldkwaliteit met DLSS Quality in een hoop games inmiddels beter dan native. Dus dat doet nVidia ook goed.
Je bedoeld DLAA is beter dan TAA ;). DLSS/upscaling van een lagere resolutie is nooit beter dan native.
Nvidia gooit er wel een scherpte filter overheen, dus misschien dat het daardoor beter lijkt?

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

Zou kunnen idd.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • nzall
  • Registratie: Januari 2022
  • Laatst online: 19:57
Protax schreef op maandag 19 januari 2026 @ 17:16:
[...]


Ik heb vorige week ook een vergelijkbaar systeem binnengekregen en ik kan niet anders dan concluderen dat het echt top is. Het zit netjes in elkaar, bestaat volledig uit Asus- en Corsair-componenten en ik heb nergens het idee dat er op bezuinigd is. Absoluut een aanrader (al gaat het een beetje tegen mijn Tweakers-principes in).
Principes zijn leuk om te hebben, maar op een gegeven moment zitten ze in de weg van waar het echt om gaat: genieten van wat we met ons geld kopen en van wat we met onze aankopen doen. Als je een prebuilt hebt gekocht en je bent tevreden van de onderdelen, dan is er niets mis mee met daar gewoon blij om te zijn en te genieten van de games die je wilt spelen.

En als je dan toch absoluut een beetje het gevoel wilt hebben dat je hem zelf gebouwd heb: research en koop een case die je mooier vindt dan die waar de prebuilt in gekomen is en zet de hardware over. Op die manier kun je toch een beetje het genot voelen van een eigen build, maar moet je niet de woekerprijzen van moderne hardware betalen. En je steekt ook een beetje van je eigen voorkeuren in de PC.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Het zal niet heel veel uitmaken maar vandaag m'n 9 jaar oude MSI X370 Gaming Pro Carbon (PCI-e 3.0 16x) vervangen voor een ASUS ROG Strix B550-F Gaming (PCI-e 4.0 16x) en gelijk ook maar de CPU cooling vervangen voor een Arctic Freezer III Pro 360 (de Arctic Freezer II 280 was echt slecht jammer genoeg...). Het grappige is dat ik 80 euro voor die set RAM geheugen heb betaald een paar jaar geleden... 240 euro is madness.
#CategorieProductPrijsSubtotaal
1ProcessorsAMD Ryzen 7 5800X3D Boxed€ 0,-€ 0,-
1MoederbordenASUS ROG Strix B550-F Gaming€ 129,-€ 129,-
1VideokaartenMSI GeForce RTX 5070 Ti 16G SHADOW 3X OC€ 0,-€ 0,-
1Interne harde schijvenSeagate FireCuda (3,5"), 2TB€ 0,-€ 0,-
1BehuizingenCooler Master MasterCase H500P Zwart€ 0,-€ 0,-
1MonitorsGigabyte GS27QXA Zwart€ 339,-€ 339,-
1WaterkoelingArctic Liquid Freezer III Pro 360€ 86,67€ 86,67
1Geheugen internCorsair Vengeance LPX CMK32GX4M2E3200C16€ 239,90€ 239,90
1VoedingenCorsair RM650x Zwart€ 0,-€ 0,-
1Interne SSD'sSamsung 960 EVO 250GB€ 105,-€ 105,-
Bekijk collectie
Importeer producten
Totaal€ 899,57
Heb nog nooit dergelijke temperaturen gehad tijdens het spelen van Cyberpunk 2077:
Afbeeldingslocatie: https://tweakers.net/i/saSySH3gWgCHw1xcKXPTSHBfHUM=/800x/filters:strip_icc():strip_exif()/f/image/3mOYBrIU1ymNZSEV8bSQV4Nl.jpg?f=fotoalbum_large

Erg tevreden, door deze AIO kan de GPU ook een beter z'n hitte kwijt.

AMD 5800X3D, ASUS ROG Strix B550-F, 32GB Corsair DDR4, MSI RTX 5070 Ti 16G SHADOW 3X OC


  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20:48

MazeWing

The plot thickens...

Format-C schreef op maandag 19 januari 2026 @ 14:28:
Heb mijn 5090 Phantom nu een weekje oid in gebruik en moet zeggen dat ik er erg tevreden over ben. Flink wat games getest en gespeeld.
:)
Hij is een stuk sneller dan mijn 4090. Ik cap hem op 85%. Dat deed ik ook bij mijn 4090 FE, en ik verlies dan nagenoeg geen performance tov stock.. (scheelt wel veel stroom en warmte. Ik vind 575W ook best wel een beetje absurd dus ik speel altijd gecapped)

Moet zeggen dat DLSS Multi Frame Generation in een aantal games best heel goed werkt. Waar dat eerst meh was.

Voorheen had ik heel veel tearing en artifacts met FG, maat ik zie nu echt nagenoeg geen verschil meer tussen wel of geen Frame Generation in een aantal games. Dus dat doet nVidia goed!

Ook is de beeldkwaliteit met DLSS Quality in een hoop games inmiddels beter dan native. Dus dat doet nVidia ook goed.

Maar goed. Dat was met de 4090 natuurlijk ook zo dus dat ligt er niet aan dat ik nu een 5090 heb.

De 25-35% overhead tov de 4090 is op 4K wel echt prettig. Kom nu in bepaalde games echt niet meer onder de 60FPS waar dat met de 4090 nog wel eens zo was. Daar zit ik nu op 75 fps of hoger.

Enige nadeel is dat mn 5090 relatief warm wordt als ik echt alles omhoog crank en 575W ga trekken.

Maar dat komt door mijn behuizing denk ik. Geen bottom intake fans. Met de kast open blijft hij een stuk koeler

En dat neem ik maar op de koop toe. Heb de fans iets harder staan om hem koel te houden.

Over het algemeen kijk ik naar max 70C (vaak lager) maar echt vol open met RT @4k 120 kan die de 80 aantikken. Ietwat warm maar niet onoverkomelijk.

Edit:

[Afbeelding]

Zie hem trouwens boosten naar 2910MHz in wat oudere games. Maar meestal zit die rond de ~2760Mhz boostclock.

Happy. Kan weer een paar jaar vooruit.
:)
Kun je niet beter gewoon undervolten. Dan heb je meer dan 100% van de performance en toch pakweg 80-100W minder verbruik.

Ik zou je deze guide kunnen aanraden (en deze video). Die heb ik zelf ook gedaan en het is 100% stabiel en levert een stuk lager verbruik op en dus ook een lage fanspeed = minder geluid.
CMT schreef op maandag 19 januari 2026 @ 18:02:
[...]

Je bedoeld DLAA is beter dan TAA ;). DLSS/upscaling van een lagere resolutie is nooit beter dan native.
Nvidia gooit er wel een scherpte filter overheen, dus misschien dat het daardoor beter lijkt?
DLSS op quality is toch echt wel beter dan native met TAA inmiddels.... Misschien niet als je dit gebruikt op 1080p (of zelfs 1440p) maar op 4k (in mijn geval een LG C3 42" TV) is het verschil duidelijk zichtbaar in het voordeel van DLSS.

[ Voor 5% gewijzigd door MazeWing op 21-01-2026 04:21 ]

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • Speedmaster321
  • Registratie: November 2023
  • Laatst online: 11:06
- opgelost -

[ Voor 97% gewijzigd door Speedmaster321 op 22-01-2026 11:05 ]


  • nDirect090
  • Registratie: Augustus 2013
  • Laatst online: 19:30
Nu twijfel ik wel, net via amazon spanje een 'GIGABYTE GeForce RTX 5070 Ti WINDFORCE OC ' voor 800 kunnen bestellen. Maar heb ook de 'zotac gaming geforce rtx 5080 solid core' nog in bestelling voor 1020. Vraag me af of het die 200,- verschil waard is of niet.

Daarnaast dacht ik gelezen te hebben dat Gigabyte kaarten problemen zouden hebben met koelpasta(?), waardoor je deze beter kon negeren. Vooral bij mensen die hem verticaal plaatsen.

  • Brozef
  • Registratie: Augustus 2016
  • Laatst online: 20:52
nDirect090 schreef op donderdag 22 januari 2026 @ 17:54:
Nu twijfel ik wel, net via amazon spanje een 'GIGABYTE GeForce RTX 5070 Ti WINDFORCE OC ' voor 800 kunnen bestellen. Maar heb ook de 'zotac gaming geforce rtx 5080 solid core' nog in bestelling voor 1020. Vraag me af of het die 200,- verschil waard is of niet.

Daarnaast dacht ik gelezen te hebben dat Gigabyte kaarten problemen zouden hebben met koelpasta(?), waardoor je deze beter kon negeren. Vooral bij mensen die hem verticaal plaatsen.
is volgens mij een 10-15% performance verschil in de twee, dus afwegen of dat de extra 200 euro waard is.

Gigabyte probleem is opgelost, ze deden teveel koelputty op de eerste batches maar als je nu eentje koopt zou dat niet meer zo moeten zijn. Wel is het minder als je de kaart ooit zelf zou moeten open maken aangezien het niet zo makkelijk is als koelpads.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

MazeWing schreef op woensdag 21 januari 2026 @ 04:18:
[...]

Kun je niet beter gewoon undervolten. Dan heb je meer dan 100% van de performance en toch pakweg 80-100W minder verbruik.

Ik zou je deze guide kunnen aanraden (en deze video). Die heb ik zelf ook gedaan en het is 100% stabiel en levert een stuk lager verbruik op en dus ook een lage fanspeed = minder geluid.


[
Was er al even mee bezig geweest maar dat was op een hoger voltage. Zal er vandaag of morgen even verder induiken. Thanks! 👍

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • nDirect090
  • Registratie: Augustus 2013
  • Laatst online: 19:30
Brozef schreef op donderdag 22 januari 2026 @ 18:00:
[...]


is volgens mij een 10-15% performance verschil in de twee, dus afwegen of dat de extra 200 euro waard is.

Gigabyte probleem is opgelost, ze deden teveel koelputty op de eerste batches maar als je nu eentje koopt zou dat niet meer zo moeten zijn. Wel is het minder als je de kaart ooit zelf zou moeten open maken aangezien het niet zo makkelijk is als koelpads.
Helder, dan ga ik denk voor de 5080. Ik ga hem ook voor VR gebruiken dus dan is die extra kracht wel erg fijn gok ik. Dat in combinatie met die koel gel i.p.v. pads vind ik het verschil het wel waard.

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20:48

MazeWing

The plot thickens...

nDirect090 schreef op donderdag 22 januari 2026 @ 18:57:
[...]


Helder, dan ga ik denk voor de 5080. Ik ga hem ook voor VR gebruiken dus dan is die extra kracht wel erg fijn gok ik. Dat in combinatie met die koel gel i.p.v. pads vind ik het verschil het wel waard.
De 5070Ti is middels overclocken (of beter gezegd: undervolten) tot zo'n 5% van de 5080 te krijgen. Maar de 5080 is ook weer te overclocken/undervolten waarbij je weer gaat uitlopen. Daarom zal het verschil inderdaad rond de 10-15% zijn, waarbij het verschil in sommige spellen kleiner zal zijn en in andere groter.

Het verschil tussen tussen de 2 als je een fatsoenlijke versie kiest (dus niet de goedkoopste met luidruchtige/matige koelen) is zo rond de €300-350. De vraag is dus of je bereid bent ongeveer 30% meer te betalen voor 10-15% meer performance.

Hoe dan ook zou ik niet te lang wachten aangezien de prijzen in rap tempo aan het stijgen zijn.

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • vinom
  • Registratie: Augustus 2009
  • Nu online
Ik zat zelf ook in het dubio. Ik heb momenteel een RTX4070 Super, maar met deze prijsstijgingen zag ik mezelf over een jaar geen nieuwe kaart kopen. Gisteren dan toch maar overstag gegaan om €80,- meer neer te leggen dan de goedkoopste prijs dat ie ooit was voor een RTX 5070 Ti. Her en der zijn er af en toe prijs drops waardoor het nog net uit kan (zeg ik maar tegen mezelf). Hopelijk kan ik mijn RTX 4070 Super nog voor een redelijke prijs verkopen.

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

vinom schreef op vrijdag 23 januari 2026 @ 13:07:
Ik zat zelf ook in het dubio. Ik heb momenteel een RTX4070 Super, maar met deze prijsstijgingen zag ik mezelf over een jaar geen nieuwe kaart kopen. Gisteren dan toch maar overstag gegaan om €80,- meer neer te leggen dan de goedkoopste prijs dat ie ooit was voor een RTX 5070 Ti. Her en der zijn er af en toe prijs drops waardoor het nog net uit kan (zeg ik maar tegen mezelf). Hopelijk kan ik mijn RTX 4070 Super nog voor een redelijke prijs verkopen.
Hier min of meer hetzelfde gedaan vanaf een 4080 Super naar een 5080. Ik heb er an sich geen spijt van omdat de resell value van GPU's gewoon heel hoog ligt waardoor het een relatief kleine klap in de portemonnee is, en de performance gains zijn er zeker wel, maar om nou te zeggen dat het echt anders is? Nee. Ik pushte alle games al op max graphics met prima framerates. Die framerates zijn nu wat hoger. In de ene game is het verschil echt wel merkbaar (maar goed, van 80 naar 90fps is niet echt een gigantische gain), in de ander vrijwel niet.

Nogmaals, geen spijt. Beetje futureproofen waar je het het geld waard vindt is nooit mis. Zeker nu de prijzen alleen maar aan het stijgen zijn vond ik het het wel waard. High refresh OLED's worden alleen maar goedkoper en G-Sync Pulsar ziet er ook veelbelovend uit, dus dan is multi frame generation heel mooi meegenomen.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:23
MazeWing schreef op woensdag 21 januari 2026 @ 04:18:
[...]

DLSS op quality is toch echt wel beter dan native met TAA inmiddels.... Misschien niet als je dit gebruikt op 1080p (of zelfs 1440p) maar op 4k (in mijn geval een LG C3 42" TV) is het verschil duidelijk zichtbaar in het voordeel van DLSS.
Ik beweer ook niet anders? Sterker nog, ik heb geschreven dat DLAA beter is dan TAA. Waar het mij de schoen wringt is dat DLSS tegenover 'native' word gezet, wat imho tot een onjuiste vergelijking & conclusie leidt.
Native is een verkorting van native (screen) resolution. Dus als men het heeft over 'native', dan wordt daar in het algemeen de beeldscherm resolutie mee bedoeld waar de game op draait/gerendered wordt. Tenminste zo heb ik dat geleerd lang geleden.

De vergelijking die men hoort te maken is tussen de AA technieken.
Dus TAA / SSAA / SMAA / FXAA / MSAA e.d. versus DLAA.
Voor alle duidelijkheid DLAA = DLSS zonder upscaling, dus op native resolutie: Wikipedia: Deep Learning Anti-Aliasing
Maar als vervolgens DLAA met bijv. native + TAA wordt vergeleken, dan kan de conclusie getrokken worden dat: native is beter dan native? Dat kan natuurlijk niet. De vergelijking is tussen de AA, niet de resoluties. Of in het geval van DLSS: niet de upscaled resolutie versus native/oorspronkelijk.

Hopelijk is het nu wel duidelijk wat ik bedoel en waarom bij mij de haren overeind gaan wanneer iemand zegt DLSS is beter dan native (inclusief Techpowerup!). Moet er overigens bij zeggen dat DLSS erg goed is geworden inmiddels en de keuze snel is gemaakt voor een vloeiend beeld (minder sample & hold).

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20:48

MazeWing

The plot thickens...

CMT schreef op zaterdag 24 januari 2026 @ 06:12:
[...]

Ik beweer ook niet anders? Sterker nog, ik heb geschreven dat DLAA beter is dan TAA. Waar het mij de schoen wringt is dat DLSS tegenover 'native' word gezet, wat imho tot een onjuiste vergelijking & conclusie leidt.
Native is een verkorting van native (screen) resolution. Dus als men het heeft over 'native', dan wordt daar in het algemeen de beeldscherm resolutie mee bedoeld waar de game op draait/gerendered wordt. Tenminste zo heb ik dat geleerd lang geleden.

De vergelijking die men hoort te maken is tussen de AA technieken.
Dus TAA / SSAA / SMAA / FXAA / MSAA e.d. versus DLAA.
Voor alle duidelijkheid DLAA = DLSS zonder upscaling, dus op native resolutie: Wikipedia: Deep Learning Anti-Aliasing
Maar als vervolgens DLAA met bijv. native + TAA wordt vergeleken, dan kan de conclusie getrokken worden dat: native is beter dan native? Dat kan natuurlijk niet. De vergelijking is tussen de AA, niet de resoluties. Of in het geval van DLSS: niet de upscaled resolutie versus native/oorspronkelijk.

Hopelijk is het nu wel duidelijk wat ik bedoel en waarom bij mij de haren overeind gaan wanneer iemand zegt DLSS is beter dan native (inclusief Techpowerup!). Moet er overigens bij zeggen dat DLSS erg goed is geworden inmiddels en de keuze snel is gemaakt voor een vloeiend beeld (minder sample & hold).
Ik heb het toch echt over DLSS quality, dus resolutie op 66% van native. Dat is tegenwoordig in bijna alle gevallen beter dan native met TAA.

DLAA is inderdaad het allerbeste alhoewel ook daar het verschil tegenwoordig erg klein is vergeleken met DLSS op quality.

Uiteraard alles op 4K. Ik heb geen idee of dit nog allemaal zo is op 1440p en 1080p….

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
^
Het lijkt onlogisch dat bijv. DLSS quality beter dan native is.

Wat ik volgensmij recent ergens tegenkwam is dat het AI model dat nvidia gebruikt inmiddels zo goed is (en op zo'n hoge resolutie draait) dat de data die daaruit komt en gebruikt wordt voor de upscaling inderdaad van hogere kwaliteit kan zijn dan native zelf. Hoe verwarrend en onlogisch het misschien ook klinkt.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:23
MazeWing schreef op zaterdag 24 januari 2026 @ 08:23:
[...]

Ik heb het toch echt over DLSS quality, dus resolutie op 66% van native. Dat is tegenwoordig in bijna alle gevallen beter dan native met TAA.

DLAA is inderdaad het allerbeste alhoewel ook daar het verschil tegenwoordig erg klein is vergeleken met DLSS op quality.

Uiteraard alles op 4K. Ik heb geen idee of dit nog allemaal zo is op 1440p en 1080p….
En daar heb ik het niet over, dus wat is je punt. Ik zegt A, jij reageert met B en vervolgens dat je het toch echt over B hebt. Lees nog eens goed wat ik allemaal geschreven heb.

Ik zal nog één poging doen om duidelijk te maken waar ik het wél over had, met jouw reactie als voorbeeld.
Ik heb het toch echt over DLSS quality, dus resolutie op 66% van native. Dat is tegenwoordig in bijna alle gevallen beter dan native met TAA.
DLSS is een AA met een lagere resolutie als input. DLAA de volle versie daarvan.
66% van native is nooit beter dan 100% van native. Anders hadden we ook geen 4k films...maar alleen 1080p upscaled naar 4k.

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 19:57
CMT schreef op zaterdag 24 januari 2026 @ 12:34:

[...]
DLSS is een AA met een lagere resolutie als input. DLAA de volle versie daarvan.
66% van native is nooit beter dan 100% van native. Anders hadden we ook geen 4k films...maar alleen 1080p upscaled naar 4k.
De mensen die zeggen dat DLSS er beter uitziet dan native zonder upscaling zeggen dat vooral omdat DLSS een ingebouwde sharpening heeft, en voor de meeste mensen zien scherpere textures er beter uit dan niet-scherpere textures.

Ik heb zelf ook een aantal beelden gezien waaruit blijkt dat DLSS er in sommige gevallen in slaagt om bepaalde aspecten van rendering er beter te laten uitzien dan op native.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20:48

MazeWing

The plot thickens...

CMT schreef op zaterdag 24 januari 2026 @ 12:34:
[...]

En daar heb ik het niet over, dus wat is je punt. Ik zegt A, jij reageert met B en vervolgens dat je het toch echt over B hebt. Lees nog eens goed wat ik allemaal geschreven heb.

Ik zal nog één poging doen om duidelijk te maken waar ik het wél over had, met jouw reactie als voorbeeld.

[...]
DLSS is een AA met een lagere resolutie als input. DLAA de volle versie daarvan.
66% van native is nooit beter dan 100% van native. Anders hadden we ook geen 4k films...maar alleen 1080p upscaled naar 4k.
Wat een onvriendelijkheid, maar dat terzijde….

Je schreef:
CMT schreef op maandag 19 januari 2026 @ 18:02:
[...]

Je bedoeld DLAA ris beter dan TAA ;). DLSS/upscaling van een lagere resolutie is nooit beter dan native.
Nvidia gooit er wel een scherpte filter overheen, dus misschien dat het daardoor beter lijkt?
En daar reageerde ik op dat tegenwoordig DLSS op quality, dus 66% van native in veel gevallen beter is dan native + TAA.

Dus in zou zelf nog eens goed je eigen posts doorlezen voordat je zo onvriendelijk begint te reageren!

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20:48

MazeWing

The plot thickens...

CMT schreef op zaterdag 24 januari 2026 @ 12:34: Anders hadden we ook geen 4k films...maar alleen 1080p upscaled naar 4k.
Dan heb ik slecht nieuws voor je. Heel veel nieuwe films worden digitaal in 2K (2048x1080) gefilmd en remastered. Dit vanwege de kosten en computer capaciteit. Zelfs de nieuwe Avatar films zijn in 2K gemaakt. CGI op 4K is gewoon een zeer kostbaar proces met hardware die zelfs in 2026 in beel gevallen ontoereikend is. Rendertijden, die nu al hele lang zijn, zouden met een factor 4 omhoog gaan

Dus helaas: stap eens af ga de gedachte dat native altijd beter is dan een lagere resolutie + upscaling.

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20:48

MazeWing

The plot thickens...

nzall schreef op zaterdag 24 januari 2026 @ 13:04:
[...]


De mensen die zeggen dat DLSS er beter uitziet dan native zonder upscaling zeggen dat vooral omdat DLSS een ingebouwde sharpening heeft, en voor de meeste mensen zien scherpere textures er beter uit dan niet-scherpere textures.

Ik heb zelf ook een aantal beelden gezien waaruit blijkt dat DLSS er in sommige gevallen in slaagt om bepaalde aspecten van rendering er beter te laten uitzien dan op native.
Pak een willekeurig spel met TAA en kijk naar bomen, gras, etc. en zie hoe wazig dit is. Bekijk vervolgens hetzelfde met DLSS en het is stukken beter. Is DLSS beter dan native? Nee, niet wanneer er gebruik wordt gemaakt van SMAA (komt zelden meer voor). Wel als, zoals 95% van de spellen, TAA gebruiken.

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • griffz
  • Registratie: Oktober 2011
  • Laatst online: 17:11
Gigabyte 5090 Gaming OC kunnen kopen voor een mooie prijs. Is er ergens een draadje waar overclocking/undervolting wordt besproken of gebeurd dat ook hier? :)

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:23
MazeWing schreef op zaterdag 24 januari 2026 @ 13:06:
[...]

Wat een onvriendelijkheid, maar dat terzijde….

Je schreef:

[...]

En daar reageerde ik op dat tegenwoordig DLSS op quality, dus 66% van native in veel gevallen beter is dan native + TAA.

Dus in zou zelf nog eens goed je eigen posts doorlezen voordat je zo onvriendelijk begint te reageren!
Ik probeer wel vriendelijk te zijn of in ieder geval beleefd in een discussie. Maar op gegeven moment word ik wel nors als er na het maken van een uitgebreide toelichting een botte reactie komt. Zo heb ik dat wel ervaren tenminste. Dan kaats ik de bal gewoon terug.

De vergelijking die je maakt, heb ik specifiek niet gedaan. Namelijk: DLSS(preset maakt verder niet uit) versus native + TAA. De laatste term maakt het een andere vergelijking.
Het zijn in mijn ogen 2 aspecten die dan vergeleken worden, waarvan de kwaliteitsverbetering vanuit 1 aspect komt: Nvidia's AA.
MazeWing schreef op zaterdag 24 januari 2026 @ 13:12:
[...]

Dan heb ik slecht nieuws voor je. Heel veel nieuwe films worden digitaal in 2K (2048x1080) gefilmd en remastered. Dit vanwege de kosten en computer capaciteit. Zelfs de nieuwe Avatar films zijn in 2K gemaakt. CGI op 4K is gewoon een zeer kostbaar proces met hardware die zelfs in 2026 in beel gevallen ontoereikend is. Rendertijden, die nu al hele lang zijn, zouden met een factor 4 omhoog gaan

Dus helaas: stap eens af ga de gedachte dat native altijd beter is dan een lagere resolutie + upscaling.
Daar ben ik mij van bewust. Het is ook zo dat 4k films van oude 65/70mm filmrollen worden gemastered en die zijn echt beter dan de 1080p masters van dezelfde rollen.
Anyhoo, laten we er maar over ophouden. Ik wil je niet verder in het harnas jagen. Dat was niet mijn bedoeling. Mijn excuses daarvoor en voor de onvriendelijkheid later.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

griffz schreef op zaterdag 24 januari 2026 @ 14:13:
Gigabyte 5090 Gaming OC kunnen kopen voor een mooie prijs. Is er ergens een draadje waar overclocking/undervolting wordt besproken of gebeurd dat ook hier? :)
MazeWing in "[NVIDIA GeForce RTX 50XX] Ervaringen & Discussie"

Daar staat een tutorial in. En verder kan het bespreken gewoon hier. :)

[ Voor 9% gewijzigd door Format-C op 24-01-2026 14:31 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Vishari Beduk
  • Registratie: Februari 2009
  • Laatst online: 20:27

Vishari Beduk

loves f/1.8 primes

Ik heb 'goedkope' 5090 van MSI met daarop aangesloten een 4K monitor via de DP en een oude fullHD via HDMI. Het vreemde is dat die HDMI soms uit blijft als ik de PC aan zet. Dan moet ik de HDMI kabel even uit de video kaar halen en weer terug stoppen. En dan doet deze het weer.
Is dit een bekend probleem? Of is de monitor misschien brak?
Als de monitor aan gaat doet het verder probleemloos.

Waarschuwing; gebruik geen Copilot. Het genereert onzin antwoorden die je veel tijd kosten.


  • griffz
  • Registratie: Oktober 2011
  • Laatst online: 17:11
Format-C schreef op zaterdag 24 januari 2026 @ 14:30:
[...]

MazeWing in "[NVIDIA GeForce RTX 50XX] Ervaringen & Discussie"

Daar staat een tutorial in. En verder kan het bespreken gewoon hier. :)
Thanks! Was zelf op een soortgelijke curve terechtgekomen via een YT flimpje. Scheelt behoorlijk in wattage en temps!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

Vishari Beduk schreef op zondag 25 januari 2026 @ 14:30:
Ik heb 'goedkope' 5090 van MSI met daarop aangesloten een 4K monitor via de DP en een oude fullHD via HDMI. Het vreemde is dat die HDMI soms uit blijft als ik de PC aan zet. Dan moet ik de HDMI kabel even uit de video kaar halen en weer terug stoppen. En dan doet deze het weer.
Is dit een bekend probleem? Of is de monitor misschien brak?
Als de monitor aan gaat doet het verder probleemloos.
Zit er geen hdmi aansluiting op de monitor die je met DP hebt aangesloten? Of misschien anders de PC even op een tv aansluiten via hdmi om te kijken of die t dan wel doet?
griffz schreef op zondag 25 januari 2026 @ 15:55:
[...]


Thanks! Was zelf op een soortgelijke curve terechtgekomen via een YT flimpje. Scheelt behoorlijk in wattage en temps!
Idd. Ik ben nu eerst wat aan het tweaken met de games zelf om die allemaal perfect draaiend te krijgen op mn 49 inch monitor (heb wat meer games geïnstalleerd) , daarna ga ik nog even een goeie curve opzoeken... ik zag dat ~0.890v de sweetspot zo'n beetje was. Scheelt zo 80-100w.

[ Voor 28% gewijzigd door Format-C op 25-01-2026 17:52 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Broodro0ster
  • Registratie: September 2014
  • Laatst online: 20:38
Heeft iemand dit al meegemaakt?

Ik heb een RTX 5080 Aorus Master en ik gebruik mijn PC voor sim racen. Er zitten 4 monitoren in de PC.
Triple screen via DP (180hz 1440p monitors) en eentje via HDMI voor telemetry enzo. Deze setup heeft een jaar lang prima gewerkt.

Sinds kort geeft het scherm dat in de DP1 poort zit, geen beeld meer zodra Windows ingeladen wordt. Bios is geen probleem, maar een DDU geeft het beeld, maar als de driver inlaad, is het zwart.
Tenzij ik het scherm even opnieuw inplug. Dan werkt het weer prima tot de volgende reboot.

Ik heb nog een 250GB NVME liggen, dus even mijn NVME met Windows uit de PC gehaald en een clean install gedaan. Zodra ik de driver installeer, terug hetzelfde probleem.

Het volgende heb ik al geprobeerd:
- Firmware GPU geupdate naar de laatste versie
- BIOS update
- Oudere driver van maart vorig jaar en de laatste nieuwe van begin deze maand

Ik had wat zitten spelen met CRU en Apollo. Apollo maakt een virtual display als ik met mijn TV wil game streamen, maar nvidia surround breekt dan als ik de volgende keer wil racen. Zelfs met een dual boot. Met CRU zou je dat kunnen oplossen.

Ik heb de laatste maand niet zoveel meer geraced, dus ik weet niet goed als het daardoor komt of als het toeval is. Maar ik zou verwachten dat na een reïnstall van Windows en een firmware update van de GPU alles gereset is?

Als met 1 scherm boot en ik stop het in die ene poort, dan gaat alles goed in de bios, maar zodra het login scherm er moet komen, blijft alles zwart.

Denken jullie dat het RMA wordt of kan ik nog iets proberen?

30x Jinko JKM380M-6RL3 (11.4kWp) 12x oost 90° - 18x west 270°, 45° incl. | Marstek Venus 5.12kWh | Vaillant Arotherm 75/5 | Zehnder ComfoAir Q450 | Tesla Model 3 Performance 2025


  • griffz
  • Registratie: Oktober 2011
  • Laatst online: 17:11
Format-C schreef op zondag 25 januari 2026 @ 17:16:
Idd. Ik ben nu eerst wat aan het tweaken met de games zelf om die allemaal perfect draaiend te krijgen op mn 49 inch monitor (heb wat meer games geïnstalleerd) , daarna ga ik nog even een goeie curve opzoeken... ik zag dat ~0.890v de sweetspot zo'n beetje was. Scheelt zo 80-100w.
Ja ik zit nu op 885mv, 2700/2750 boostclock en ingame zo'n 450-475 watt waardoor de kaart zijn werk doet op 55-62c. Prima resultaat volgens mij :)

  • Jumpman
  • Registratie: Januari 2002
  • Laatst online: 20:55
Broodro0ster schreef op maandag 26 januari 2026 @ 10:06:
Heeft iemand dit al meegemaakt?

Ik heb een RTX 5080 Aorus Master en ik gebruik mijn PC voor sim racen. Er zitten 4 monitoren in de PC.
Triple screen via DP (180hz 1440p monitors) en eentje via HDMI voor telemetry enzo. Deze setup heeft een jaar lang prima gewerkt.

Sinds kort geeft het scherm dat in de DP1 poort zit, geen beeld meer zodra Windows ingeladen wordt. Bios is geen probleem, maar een DDU geeft het beeld, maar als de driver inlaad, is het zwart.
Tenzij ik het scherm even opnieuw inplug. Dan werkt het weer prima tot de volgende reboot.

Ik heb nog een 250GB NVME liggen, dus even mijn NVME met Windows uit de PC gehaald en een clean install gedaan. Zodra ik de driver installeer, terug hetzelfde probleem.

Het volgende heb ik al geprobeerd:
- Firmware GPU geupdate naar de laatste versie
- BIOS update
- Oudere driver van maart vorig jaar en de laatste nieuwe van begin deze maand

Ik had wat zitten spelen met CRU en Apollo. Apollo maakt een virtual display als ik met mijn TV wil game streamen, maar nvidia surround breekt dan als ik de volgende keer wil racen. Zelfs met een dual boot. Met CRU zou je dat kunnen oplossen.

Ik heb de laatste maand niet zoveel meer geraced, dus ik weet niet goed als het daardoor komt of als het toeval is. Maar ik zou verwachten dat na een reïnstall van Windows en een firmware update van de GPU alles gereset is?

Als met 1 scherm boot en ik stop het in die ene poort, dan gaat alles goed in de bios, maar zodra het login scherm er moet komen, blijft alles zwart.

Denken jullie dat het RMA wordt of kan ik nog iets proberen?
Geeft een andere monitor op poort 1 hetzelfde resultaat?

Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.


  • Broodro0ster
  • Registratie: September 2014
  • Laatst online: 20:38
Jumpman schreef op maandag 26 januari 2026 @ 11:15:
[...]


Geeft een andere monitor op poort 1 hetzelfde resultaat?
Ik heb 4x dezelfde monitors (LG 27GP850). Ik heb eens links en rechts gewisseld en het probleem blijft op poort 1. Dus i.p.v. dat het linkerscherm dan zwart blijft, is het nu het rechtste na de wissel.

Ik heb wel nog geen andere monitor geprobeerd. Beneden staat nog er nog een Acer 1440p monitor en een Gigabyte 4K OLED. Ik zal de computer eens naar beneden halen en testen.

Al vrees ik er een beetje voor. Ik ben gisteren 3h bezig met verschillende scenario's (monitors wisselen, 60hz i.p.v. 180hz, bios updates, clean install, ...) maar ik krijg het dus niet in orde.

Ik heb met de Gigabyte tool een firmware update gedaan, maar geen idee als daarmee ook de BIOS van de GPU opnieuw geflashed is eigenlijk. Ik zou denk van wel.
Maar met de silent BIOS had ik hetzelfde probleem terwijl ik die nog nooit gebruikt heb. Dus ik begin langzaamaan te denken dat het een hardware dingetje is.

30x Jinko JKM380M-6RL3 (11.4kWp) 12x oost 90° - 18x west 270°, 45° incl. | Marstek Venus 5.12kWh | Vaillant Arotherm 75/5 | Zehnder ComfoAir Q450 | Tesla Model 3 Performance 2025


  • Jumpman
  • Registratie: Januari 2002
  • Laatst online: 20:55
Broodro0ster schreef op maandag 26 januari 2026 @ 12:04:
[...]

Ik heb 4x dezelfde monitors (LG 27GP850). Ik heb eens links en rechts gewisseld en het probleem blijft op poort 1. Dus i.p.v. dat het linkerscherm dan zwart blijft, is het nu het rechtste na de wissel.

Ik heb wel nog geen andere monitor geprobeerd. Beneden staat nog er nog een Acer 1440p monitor en een Gigabyte 4K OLED. Ik zal de computer eens naar beneden halen en testen.

Al vrees ik er een beetje voor. Ik ben gisteren 3h bezig met verschillende scenario's (monitors wisselen, 60hz i.p.v. 180hz, bios updates, clean install, ...) maar ik krijg het dus niet in orde.

Ik heb met de Gigabyte tool een firmware update gedaan, maar geen idee als daarmee ook de BIOS van de GPU opnieuw geflashed is eigenlijk. Ik zou denk van wel.
Maar met de silent BIOS had ik hetzelfde probleem terwijl ik die nog nooit gebruikt heb. Dus ik begin langzaamaan te denken dat het een hardware dingetje is.
Bekend probleem blijkbaar bij deze GPU: https://www.reddit.com/r/....gigabyte_aorus_rtx_5080/.

Dit zijn vaak de oorzaken:
  • Verouderde of corrupte NVIDIA-drivers na installatie of update.
  • BIOS-versie-incompatibiliteit op Gigabyte-moederborden.
  • Defecte of incompatibele DisplayPort-kabels (probeer DP 1.4-gecertificeerde alternatieven).
  • Instabiliteit van PCIe Gen5; forceer Gen4 in de BIOS.​

Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.


  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
@Broodro0ster ik heb een soort gelijk probleem gehad (ander systeem, wel een NV GPU); kabel eruit en erin en het scherm werkte prima. Ging het scherm daarna op standby, dan kwam die daarna niet meer uit zonder de kabel er weer uit te trekken en er weer in te doen.
Rare was dat het issue ook ineens naar voren kwam, dus kan best zijn geweest dat er ergens in Windows of in de GPU drivers een update is geweest die dat issue veroorzaakte.
Volgens mij heb ik destijds in de monitor de DP versie handmatig geselecteerd en toen was het probleem opgelost maar kan ook zijn dat ik ook de kabel heb vervangen, maar is alweer even geleden :X

[ Voor 31% gewijzigd door ArcticWolf op 26-01-2026 13:34 ]

AMD 5800X3D, ASUS ROG Strix B550-F, 32GB Corsair DDR4, MSI RTX 5070 Ti 16G SHADOW 3X OC


  • Broodro0ster
  • Registratie: September 2014
  • Laatst online: 20:38
Jumpman schreef op maandag 26 januari 2026 @ 12:12:
[...]


Bekend probleem blijkbaar bij deze GPU: https://www.reddit.com/r/....gigabyte_aorus_rtx_5080/.

Dit zijn vaak de oorzaken:
  • Verouderde of corrupte NVIDIA-drivers na installatie of update.
  • BIOS-versie-incompatibiliteit op Gigabyte-moederborden.
  • Defecte of incompatibele DisplayPort-kabels (probeer DP 1.4-gecertificeerde alternatieven).
  • Instabiliteit van PCIe Gen5; forceer Gen4 in de BIOS.​
Ik heb eens de DP kabel geprobeerd van mijn 4K monitor die nog nieuw was, maar gaf ook geen verschil.
De monitors zijn volgens mij DP 1.4, dus niet zo exotisch. Mijn 4K is DP 2.1, maar die hangt aan een andere PC.

Het bizarre is dat met een clean install van Windows, nvidia driver en BIOS update van de GPU/Mobo er niks verbetert.

Ik heb de kaart al sinds februari 2025 en heeft altijd perfect gewerkt tot begin deze maand.
ArcticWolf schreef op maandag 26 januari 2026 @ 13:28:
@Broodro0ster ik heb een soort gelijk probleem gehad (ander systeem, wel een NV GPU); kabel eruit en erin en het scherm werkte prima. Ging het scherm daarna op standby, dan kwam die daarna niet meer uit zonder de kabel er weer uit te trekken en er weer in te doen.
Rare was dat het issue ook ineens naar voren kwam, dus kan best zijn geweest dat er ergens in Windows of in de GPU drivers een update is geweest die dat issue veroorzaakte.
Volgens mij heb ik destijds in de monitor de DP versie handmatig geselecteerd en toen was het probleem opgelost maar kan ook zijn dat ik ook de kabel heb vervangen, maar is alweer even geleden :X
Ik had ook zo'n vermoeden, maar na het flashen, nieuwe windows, nieuwe bios, ... blijft het probleem. Ik ga eens Gen 4 enforcen in de BIOS. Dat heb ik nooit aangepast want had er geen problemen in. Ik weet dat daar in het begin wel veel problemen mee waren.

Blijft raar dat het een jaar perfect werkt en nu plots miserie.

30x Jinko JKM380M-6RL3 (11.4kWp) 12x oost 90° - 18x west 270°, 45° incl. | Marstek Venus 5.12kWh | Vaillant Arotherm 75/5 | Zehnder ComfoAir Q450 | Tesla Model 3 Performance 2025


  • Vishari Beduk
  • Registratie: Februari 2009
  • Laatst online: 20:27

Vishari Beduk

loves f/1.8 primes

Format-C schreef op zondag 25 januari 2026 @ 17:16:
[...]
Zit er geen hdmi aansluiting op de monitor die je met DP hebt aangesloten? Of misschien anders de PC even op een tv aansluiten via hdmi om te kijken of die t dan wel doet?
Bedankt voor je reactie. Met TV's geen sjouwen is iets teveel gedoe.
Zal er dan maar vanuit gaan dat de monitor gewoon oud is.

Waarschuwing; gebruik geen Copilot. Het genereert onzin antwoorden die je veel tijd kosten.


  • Broodro0ster
  • Registratie: September 2014
  • Laatst online: 20:38
@ArcticWolf @Jumpman Zonet PCIe Gen 4 geforceerd, maar dat hielp niet.
Ik zag ook dat mijn BIOS versie hetzelfde was als vroeger, dus mogelijks is er niks geupdate met die firmware update. Die was misschien enkel voor LCD schermpje dat op de GPU zit.

Voor de zekerheid eens een reflash gedaan met de BIOS die ik gebackupped had toen de kaart nieuw was, maar dat gaf ook geen beterschap.

Ik snap het niet meer. Als ik het scherm uitschakel en terug inschakel terwijl de PC aanstaat, werkt het gewoon prima en kan ik 2h racen.

Als er nog iemand tips heeft, shoot. Ik wil alles proberen in de hoop een oplossing te vinden.
Anders ga ik even klungelen tot de zomer denk ik en dan een RMA aanvragen.

EDIT: ander scherm moet ik wel nog proberen.

[ Voor 3% gewijzigd door Broodro0ster op 26-01-2026 20:41 ]

30x Jinko JKM380M-6RL3 (11.4kWp) 12x oost 90° - 18x west 270°, 45° incl. | Marstek Venus 5.12kWh | Vaillant Arotherm 75/5 | Zehnder ComfoAir Q450 | Tesla Model 3 Performance 2025


  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Broodro0ster schreef op maandag 26 januari 2026 @ 20:41:
@ArcticWolf @Jumpman Zonet PCIe Gen 4 geforceerd, maar dat hielp niet.
Ik zag ook dat mijn BIOS versie hetzelfde was als vroeger, dus mogelijks is er niks geupdate met die firmware update. Die was misschien enkel voor LCD schermpje dat op de GPU zit.

Voor de zekerheid eens een reflash gedaan met de BIOS die ik gebackupped had toen de kaart nieuw was, maar dat gaf ook geen beterschap.

Ik snap het niet meer. Als ik het scherm uitschakel en terug inschakel terwijl de PC aanstaat, werkt het gewoon prima en kan ik 2h racen.

Als er nog iemand tips heeft, shoot. Ik wil alles proberen in de hoop een oplossing te vinden.
Anders ga ik even klungelen tot de zomer denk ik en dan een RMA aanvragen.

EDIT: ander scherm moet ik wel nog proberen.
Kan je in je schermen een andere versie van de DP port compatibility forceren? Ik kon destijds in m'n IIyama scherm DP 1.4 of 1.3 handmatig selecteren en dat was volgens mij (uit m'n slechte geheugen) de oplossing.

AMD 5800X3D, ASUS ROG Strix B550-F, 32GB Corsair DDR4, MSI RTX 5070 Ti 16G SHADOW 3X OC


  • Broodro0ster
  • Registratie: September 2014
  • Laatst online: 20:38
Nee, helaas. Ik heb het menu volledig doorlopen en dat kan ik niet vinden. Overclock heb ik eens uitgezet, maar dat hielp niet.

30x Jinko JKM380M-6RL3 (11.4kWp) 12x oost 90° - 18x west 270°, 45° incl. | Marstek Venus 5.12kWh | Vaillant Arotherm 75/5 | Zehnder ComfoAir Q450 | Tesla Model 3 Performance 2025


  • Piggen
  • Registratie: December 2002
  • Nu online

Piggen

Lekker bakkie

Ik heb al een aantal vragen over voedingen langs zien komen, maar toch even mijn kwestie.

Ik heb nu een 5070 (licht overgeklokt) en er is een 5070 Ti onderweg. Mijn voeding is een Corsair TX550M (2017) en de CPU een 5700X3D (undervolted). Als ik tegelijk Prime95 en Kombustor draai trekt het systeem ongeveer 425W volgens een wattagemeter. Met de extra 50W van de Ti blijf ik dan in theorie op zich wel een stukje binnen het maximale vermogen - het is ook een goede voeding, zij het een paar jaartjes oud. De voeding is uiteraard niet ATX 3.1, dus ik gebruik het verloopje.

Wat denken jullie? Kan ik het in ieder geval aankijken, of is het toch een beetje krap en/of niet ideaal omdat het geen ATX 3.1 is?

  • PlatteJoost
  • Registratie: Oktober 2025
  • Laatst online: 27-01 21:10
Piggen schreef op maandag 26 januari 2026 @ 23:01:
Ik heb al een aantal vragen over voedingen langs zien komen, maar toch even mijn kwestie.

Ik heb nu een 5070 (licht overgeklokt) en er is een 5070 Ti onderweg. Mijn voeding is een Corsair TX550M (2017) en de CPU een 5700X3D (undervolted). Als ik tegelijk Prime95 en Kombustor draai trekt het systeem ongeveer 425W volgens een wattagemeter. Met de extra 50W van de Ti blijf ik dan in theorie op zich wel een stukje binnen het maximale vermogen - het is ook een goede voeding, zij het een paar jaartjes oud. De voeding is uiteraard niet ATX 3.1, dus ik gebruik het verloopje.

Wat denken jullie? Kan ik het in ieder geval aankijken, of is het toch een beetje krap en/of niet ideaal omdat het geen ATX 3.1 is?
Ik heb de zelfde setup als jij, 5700x3d met 5070Ti en een 550W-Gold voeding (Corsair RM550x). Ik zie dat jouw voeding ook een 550W gold voeding is, dus hetzelfde? weet niet wat je bedoelt met atx 3.1

Ik heb zelf geen ervaring met wat er gebeurd met je computer als je een zwakke voeding hebt. Stel wij zouden een 450W voeding runnen met deze rig? Krijg je dan crashes ofso? Of wat gebeurd er dan?

Ik heb iig nergens last van en heb geen behoefte om deze voeding te upgraden. Alles werkt goed.
Ook werken power-supplies 'het meest efficient' als ze rond de 80% benut worden, zover dat ik weet. Dus zelfs in dat opzicht is 425W gebruiken met een 550W power-supply vrij ideaal, het meest efficient. Een zwaardere voeding gebruiken zou 'minder efficient zijn'.
Dan zou je meer verliezen krijgen, meer warmte, etc. in je voeding.

[ Voor 16% gewijzigd door PlatteJoost op 27-01-2026 01:31 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
^
Voeding advies en informatie topic - Deel 34

[ Voor 4% gewijzigd door Help!!!! op 27-01-2026 02:06 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
.

[ Voor 139% gewijzigd door Help!!!! op 27-01-2026 10:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Fwiw: Effect van kabels bij 12v HPWR.
[br]

[ Voor 30% gewijzigd door Help!!!! op 27-01-2026 10:39 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 18:10
TheProst schreef op vrijdag 16 januari 2026 @ 12:54:
[...]

Voor mijn gevoel geld was je 10 a 15 jaar geleden veel goedkoper uit als je je pc zelf bouwde. Volgens mij is dat verschil tegenwoordig heel klein tot soms niet. 2 vrienden van mij hadden een prebuild gekocht met een 5060 Ti. Ik had via price watch pc precies na gebouwd en was de pre build 150 euro duurder. Maar je krijgt natuurlijk voor die 150 euro wel garantie.
Maar was dit met 16GB RAM voor 100 euro of 400 euro? Want dat scheelt nogal 300 euro. En meestal met die kant-en-klare bakken krijg je een gare voeding en kast en een low-end mobo. Vaak ook rare combi's om de prijs te drukken. Een i9 met een RTX 3050 ofzo. 8)7

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 19:44

Format-C

Tracing Rays

Vishari Beduk schreef op maandag 26 januari 2026 @ 20:11:
[...]

Bedankt voor je reactie. Met TV's geen sjouwen is iets teveel gedoe.
Zal er dan maar vanuit gaan dat de monitor gewoon oud is.
Je kan de pc zelf niet verplaatsen naar daar waar de tv staat om te testen?

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Vishari Beduk
  • Registratie: Februari 2009
  • Laatst online: 20:27

Vishari Beduk

loves f/1.8 primes

Format-C schreef op woensdag 28 januari 2026 @ 18:48:
[...]
Je kan de pc zelf niet verplaatsen naar daar waar de tv staat om te testen?
Het is 2026, het jaar waarin je extreem zuinig op je RTX 50X0 moet zijn.
Als ik bijvoorbeeld dit lees https://www.techspot.com/...istential-threat-gpu.html dan gaat het nog veel erger worden.
Dus ik verplaatst mijn pc niet meer en verwissel ook zo min mogelijk stekker enzo.
Dan maar geen tweede monitor ;)

Waarschuwing; gebruik geen Copilot. Het genereert onzin antwoorden die je veel tijd kosten.

Pagina: 1 ... 40 41 Laatste

Let op:
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.