Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Draait al sinds de lancering van 2022 zo, kleine undervolt maar verder geen centje pijn. Draait inmiddels al ruim 20K draaiuren. Nooit geen problemen met voltages e.d. dat kwam pas in de bios updates wat later als probleem naar voren, dat heb ik allemaal wel kunnen ontwijken. Geen degradatie te zien.nzall schreef op donderdag 21 augustus 2025 @ 18:27:
je bent best wel dapper om een 13900K te gebruiken zonder microcode updates. Dapper... of dom.
Dit was trouwens de eerste benchmark poging, nog geen andere snelheden geprobeerd, maar ik vermoed dat er niet heel veel meer in zit want bij +452 crashte de boel de eerste keer al op 0.990mv.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Nog niets met undervolten gedaan, alleen de power limit in Afterburner naar 125% gezet en +345MHz op de core (15MHz hoger en de boel is instabiel) en +2000MHz op het geheugen. Dat resulteert in een stabiele boostclock van 3210 in Cyberpunk (anderhalf uur gespeeld, geen issues tegengekomen) en zelfs 3225 in Last of Us 2.
3DMark Steel Nomad is van 9191 naar 9675 gestegen en Solar Bay Extreme van 34394 naar 35644.
Wel even met geknepen billen gezeten tijdens flashen en vooral de reboot, maar gelukkig heeft de Gainward een dual bios, dus de Silent bios is nu de Super bios geworden
Steel Nomad
Solar Bay Extreme
Edit: nummer 1 in de hall of fame Solar Bay Extreme met een 5800X cpu:
[ Voor 26% gewijzigd door KneoK op 25-08-2025 21:47 ]
welke resolutie speel je op CP 2077 4K ultra met pathracing is maar 30 FPS average op mijn 5090 (native DLSS quality haalt wel 60)emeralda schreef op maandag 25 augustus 2025 @ 21:51:
Ben benieuwd of we binnenkort nog een game zien die mijn 5080 doet zweten want sinds CP2077 is het maar niks. De nieuwe Resident Evil met path tracing wellicht?
[ Voor 0% gewijzigd door atthias op 25-08-2025 22:02 . Reden: naam van game toegevoegd ]
Los van dat je vermogen een stuk meer omhoog is gegaan dan je performanceKneoK schreef op maandag 25 augustus 2025 @ 16:05:
Wel even met geknepen billen gezeten tijdens flashen en vooral de reboot, maar gelukkig heeft de Gainward een dual bios, dus de Silent bios is nu de Super bios geworden
En eigenlijk meer bij AMD nog dan Nvidia, want daar zijn AIBs een stuk vrijer in hoeveel power ze erin gooien. Maar maak dan een 9070XT die 350W op standaard bios pakt, en op de silent versie 300W power limiet heeft.
Het was ook meer een "omdat het kan" projectjeSissors schreef op maandag 25 augustus 2025 @ 23:06:
[...]
Los van dat je vermogen een stuk meer omhoog is gegaan dan je performance, maar ik zou willen dat fabrikanten dit uit zichzelf al deden. Dat je dual bios daadwerkelijk iets doet, en dus niet dat je de stille bios hebt, en de luidruchtigere bios die exact even snel is, alleen de ventilatoren draaien harder. En ja je kan stellen dat het de levensduur ten goede komt, maar dat is echt gerommel in de marge.
En eigenlijk meer bij AMD nog dan Nvidia, want daar zijn AIBs een stuk vrijer in hoeveel power ze erin gooien. Maar maak dan een 9070XT die 350W op standaard bios pakt, en op de silent versie 300W power limiet heeft.
Ben het zeker met je eens dat er veel meer te halen valt uit dual bios setups. Volgens mij is mijn standaard silent bios niets meer dan de performance bios met iets aggressievere fancurves. Een silent/efficient bios met minder power limit, lagere (boost) clocks etc. zou echt iets toevoegen.
Ik speel op 3440x1440 ultra pathtracing met flink wat mods (vooral extra pathtracing rays and bounces hakt er redelijk in) en ga gemiddeld iets over de 60fps met DLSS op balanced zonder framegen.atthias schreef op maandag 25 augustus 2025 @ 22:02:
[...]
welke resolutie speel je op CP 2077 4K ultra met pathracing is maar 30 FPS average op mijn 5090 (native DLSS quality haalt wel 60)
[ Voor 15% gewijzigd door KneoK op 25-08-2025 23:32 ]
Dat zijn inderdaad pittige scores, heb hem zelf nu helemaal stock up & running en eens gekeken hoe ver ik kwam.CriticalHit_NL schreef op donderdag 21 augustus 2025 @ 18:26:
Even de nieuwste 3DMark Solar Bay Extreme op zowel DX12 als Vulkan aan de tand gevoeld.
Dit is met een stock i9 13900K zonder microcode of bios updates, 128GB DDR5-5400 XMP CL40 en Astral RTX 5090 OC met een overklok naar 3225Mhz +420 @ 0.995mv via SHIFT methode over de gehele curve met +3000Mhz op het VRAM.
Plek #19 voor DX12 en plek #5 voor Vulkan.![]()
[Afbeelding]
[Afbeelding]
[Afbeelding][Afbeelding]
[Afbeelding]
[Afbeelding]
Links:
DX12: 51011
Vulkan: 52018
In DX12 dus zo'n 4% trager dan gemiddeld, in Vulkan 10%. Die laatste valt me wel wat tegen, binnenkort nog eens kijken of ik er wat mee kan tweaken. Ik gebruik hem op een R9 5950X systeem dus opzich zijn deze scores logisch, met de DX12 zit ik keurig in de middenmoot van de 5950X bezitters. Maar ik overtroef je wel want in Vulkan scoort mijn 5090 / 5950 combo de 1e plaats ter wereld
ik ben namelijk de enige 5950X / 5090 bezitter met een geldige Vulkan score in de database
youtube.com/@hisrep
Denk dat we daar helaas Nvidia voor moeten aankijken en mede de reden dat partijen zoals EVGA eruit zijn gestapt omdat de innovatie op die gebieden gewoon geremd wordt, net als dat ze niet willen dat AIBs zomaar 2x 12VHPWR erop zetten voor de non-XOC wereld.Sissors schreef op maandag 25 augustus 2025 @ 23:06:
[...]
Los van dat je vermogen een stuk meer omhoog is gegaan dan je performance, maar ik zou willen dat fabrikanten dit uit zichzelf al deden. Dat je dual bios daadwerkelijk iets doet, en dus niet dat je de stille bios hebt, en de luidruchtigere bios die exact even snel is, alleen de ventilatoren draaien harder. En ja je kan stellen dat het de levensduur ten goede komt, maar dat is echt gerommel in de marge.
En eigenlijk meer bij AMD nog dan Nvidia, want daar zijn AIBs een stuk vrijer in hoeveel power ze erin gooien. Maar maak dan een 9070XT die 350W op standaard bios pakt, en op de silent versie 300W power limiet heeft.
EVGA had in het verre verleden met de GTX 680 nog de EV-Bot connectoren, dat soort hardwarematige aanpassingen mochten later niet meer, met de 1080Ti FTW3 kwamen ze erachter dat de performance bios wel een117 -> 127% slider had, maar effectief niet functioneerde omdat deze alsnog bij 117% downclockte tenzij je een door kingpin 'gelekte' vbioses ging flashen om het op te lossen, dit terwijl het toen wel geadverteerd werd natuurlijk als product eigenschap dat het meer performance diende op te leveren.
Kingpin is er nu maar weinig mee bezig, die creativiteit die deze mensen hebben blijven gewoon onbenut en dan verliezen ze ook het plezier erin, en die schemerde zelf ook al door dat de AIBs van nu er ook maar weinig echt mee bezig zijn/interesse tonen in die extremere hoek.
Netjes, weet niet in hoeverre de CPU van invloed is bij deze tests maar het zou zomaar kunnen.DeNachtwacht schreef op dinsdag 26 augustus 2025 @ 00:15:
[...]
Dat zijn inderdaad pittige scores, heb hem zelf nu helemaal stock up & running en eens gekeken hoe ver ik kwam.
DX12: 51011
Vulkan: 52018
In DX12 dus zo'n 4% trager dan gemiddeld, in Vulkan 10%. Die laatste valt me wel wat tegen, binnenkort nog eens kijken of ik er wat mee kan tweaken. Ik gebruik hem op een R9 5950X systeem dus opzich zijn deze scores logisch, met de DX12 zit ik keurig in de middenmoot van de 5950X bezitters. Maar ik overtroef je wel want in Vulkan scoort mijn 5090 / 5950 combo de 1e plaats ter wereld!
ik ben namelijk de enige 5950X / 5090 bezitter met een geldige Vulkan score in de database![]()
Had de eerste plekken in het begin ook voor de CPU en/of GPU combo, maar toen waren anderen nog niet in grote getalen aanwezig, de Vulkan tests zijn steevast veel minder gebruikt merk ik op.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Het is niet alleen CPU maar ook DDR4-3200 geheugen. Ik had er wel rekening mee gehouden ook dat ik iets aan performance zou verliezen, maar dat weegt voor mij op tegen de aanschafkosten van een volledig nieuwe AM5 set. Dus vandaar dat ik hiervoor gegaan benCriticalHit_NL schreef op dinsdag 26 augustus 2025 @ 00:39:
Netjes, weet niet in hoeverre de CPU van invloed is bij deze tests maar het zou zomaar kunnen.
Had de eerste plekken in het begin ook voor de CPU en/of GPU combo, maar toen waren anderen nog niet in grote getalen aanwezig, de Vulkan tests zijn steevast veel minder gebruikt merk ik op.
youtube.com/@hisrep
In de toekomst misschien wellicht een 10950X3D op AM5? Maar dan betekent dat wel een DDR5 set denk ik, maar dat zou ik op dat moment dan wel doen.DeNachtwacht schreef op dinsdag 26 augustus 2025 @ 01:03:
[...]
Het is niet alleen CPU maar ook DDR4-3200 geheugen. Ik had er wel rekening mee gehouden ook dat ik iets aan performance zou verliezen, maar dat weegt voor mij op tegen de aanschafkosten van een volledig nieuwe AM5 set. Dus vandaar dat ik hiervoor gegaan ben
Vriend uit Duitsland overigens recent een Gainward Phantom GS RTX 5090 gekocht, Alternate had dat ding afgeprijsd van ruwweg 2599,- naar 2259,- o.i.d. ding klokt met boost vrij vergelijkbaar met de Astral volgens mij want hij zag snelheden van rondweg 2887Mhz.
Qua undervolt een uitprobeersel van mij uitgeprobeerd van rondweg 0.900mv rond de default boost-clocks en dat lijkt hij net zo stabiel te trekken als de Astral, wel weer mooi pakweg 100W minder verbruik en toch ruimschoots betere prestaties (en power draw natuurlijk) dan de oude 4-slots Palit Gamerock RTX 4090.
Volgens mij haalde de Gainward stock zo'n 80°C op de VRAM maar met een wat aangepaste curve netjes midden-70s. GPU temperatuur haalt vaak de 60°C niet eens. Uiterlijk moet wel je ding zijn.
De Palit 4090 heeft de afgelopen 2-2.5 jaar netjes zijn werk gedaan maar recentelijk bleek wel dat de hotspot vaak rond de 90°C zat, dus dat zal waarschijnlijk een repaste worden voor de nieuwe eigenaar. Zie soms verschillende reparatie video's voorbij komen van GPUs die uitvallen/zwart beeld omdat bij de 30/40-series gewoon de hotspot absurd hoog (100°C of zelfs meer) en uit de pas is gelopen i.v.m. de GPU temperatuur zelf.
Het is jammer dat de 50-series de hotspot niet laat uitlezen maar als er na een lange periode plotseling dergelijke uitvallers zijn kan ik me best indenken dat de pasta niet al te best meer is.
Maar al met al weer een tevreden 5090-gebruiker erbij, die 4090 liet zich niet zover undervolten.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
dat hakt er dan flink op in ja snap ik helemaalKneoK schreef op maandag 25 augustus 2025 @ 23:24:
[...]
Het was ook meer een "omdat het kan" projectjeWaarschijnlijk gaat 'ie van de week weer naar de standaard performance bios en gaat de undervolt weer terug, misschien flash ik zelfs de backup van de silent bios wel weer terug.
Ben het zeker met je eens dat er veel meer te halen valt uit dual bios setups. Volgens mij is mijn standaard silent bios niets meer dan de performance bios met iets aggressievere fancurves. Een silent/efficient bios met minder power limit, lagere (boost) clocks etc. zou echt iets toevoegen.
[...]
Ik speel op 3440x1440 ultra pathtracing met flink wat mods (vooral extra pathtracing rays and bounces hakt er redelijk in) en ga gemiddeld iets over de 60fps met DLSS op balanced zonder framegen.
merk je ook het verschil met de extra rays en zo ja hoe?
(begint wat of topic te gaan dus dit mag ook via DM als je dat liever hebt )
Mijn idee was meer om het met deze setup nog tot AM6 uit te kunnen zingen. Met nog wat undervolt en andere tweakers hoop ik dat dat het mogelijk moet zijn naar gemiddelde stock RXT 5090 perfomance te komen en dan vind ik het wel weer best. Ik gebruik hem toch niet zoveel voor gaming maar productiviteit (vandaar ook de 5950X en geen 5800X3D).CriticalHit_NL schreef op dinsdag 26 augustus 2025 @ 07:41:
In de toekomst misschien wellicht een 10950X3D op AM5? Maar dan betekent dat wel een DDR5 set denk ik, maar dat zou ik op dat moment dan wel doen.
youtube.com/@hisrep
IGOR: Blackscreens and data loss on graphics cards: When the PCI SIG is caught in the tolerance trap and PCIe Gen5 is already failing at the edge of the card | Investigative
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
[ Voor 14% gewijzigd door DeNachtwacht op 28-08-2025 21:54 ]
youtube.com/@hisrep
Dit is normaal. Volgens mij is dit gewoon een verschil in de definitie van een GB van Nvidia en die van Windows, vergelijkbaar met waarop een SSD met 1 TB aan opslag in Windows wordt weergegeven als 931 GB. Voor Nvidia is 1 GB 1000 MB, terwijl voor Windows 1 GB 1024 MB is. Als je het allebei omrekent naar bytes, dus die 31.5 3X *1024 doen, en dan die 32,786 2x *1000 doet komt dat ongeveer op dezelfde hoeveelheid uit.DeNachtwacht schreef op donderdag 28 augustus 2025 @ 21:53:
Even een vraagje, mij valt ineens op dat onder Taakbeheer mijn RTX 5090 "slechts" 31.5 GB aan VRAM heeft volgens windows in plaats van 32GB. Hebben andere 5090 bezitters dit ook, en heeft iemand een verklaring waarom dit zo is? GPU-Z ziet een normaler aantal van 32786 MB. Ik heb een Founders Edition.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Dank voor snelle reactie!
youtube.com/@hisrep
in aanvulling op hierboven dit is normaal heb dit zelf ookDeNachtwacht schreef op donderdag 28 augustus 2025 @ 22:54:
En ik maar hopen dat er stiekem toch nog wat kleine performance te halen zou zijn
Dank voor snelle reactie!
Werkt prima op de RTX 5090 1440P met DLAA en alles max en vrijwel altijd 165fps, maar omdat het 165 fps/hz capped was bleek de overclock toch niet geheel stabiel in dat spel omdat de GPU load sterk kan variëren i.v.m. de fps-cap kon de driver soms wel crashen omdat de frequency onder load waarschijnlijk gewoon te hoog werd t.a.v. het voltage, ding stond op +287 op 1.060mv bij 3255mhz (vreemd want ik had 3232mhz gekozen) met +3000 vram.
Bij +200 crashte hij niet, bij +250 wel weer, inmiddels lijkt het volledig probleemloos op +230 bij 3172Mhz dus ingame is het dan vaak pakweg ~3060-3100Mhz, ook prima en zal amper schelen in performance op de momenten dat hij wel naar 99% piekt.
Dat het normaliter wel op 3232Mhz stabiel is omdat de spellen die ik speel vaak wel de GPU volledig belasten, dus is de frequentie in het algemeen lager en dus in een stabielere range op die frequenties, dus enkel testen met zware applicaties of hoge resoluties geeft dus geen volledig beeld. Nu gebruik ik wel een curve en geen handmatige voltage/frequentie punten want dat is mij veel te veel trial-and-error uitzoekwerk.
DeNachtwacht schreef op donderdag 28 augustus 2025 @ 21:53:
Even een vraagje, mij valt ineens op dat onder Taakbeheer mijn RTX 5090 "slechts" 31.5 GB aan VRAM heeft volgens windows in plaats van 32GB. Hebben andere 5090 bezitters dit ook, en heeft iemand een verklaring waarom dit zo is? GPU-Z ziet een normaler aantal van 32786 MB. Ik heb een Founders Edition.
Ja dat zal het wel zijn, GPU-Z geeft ook gewoon 32768MB aan, als ik een vulkan vram tester erop loslaat zie je hier wel dat er wel degelijk 32GB+ gebruikt wordt en dus fysiek aanwezig is, bij de 11GB 1080Ti was het volgens mij ook vrij dicht op de échte 11GB waardes bij volledige belasting.nzall schreef op donderdag 28 augustus 2025 @ 22:51:
[...]
Dit is normaal. Volgens mij is dit gewoon een verschil in de definitie van een GB van Nvidia en die van Windows, vergelijkbaar met waarop een SSD met 1 TB aan opslag in Windows wordt weergegeven als 931 GB. Voor Nvidia is 1 GB 1000 MB, terwijl voor Windows 1 GB 1024 MB is. Als je het allebei omrekent naar bytes, dus die 31.5 3X *1024 doen, en dan die 32,786 2x *1000 doet komt dat ongeveer op dezelfde hoeveelheid uit.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
[ Voor 10% gewijzigd door DeNachtwacht op 06-09-2025 23:12 ]
youtube.com/@hisrep
[ Voor 6% gewijzigd door nzall op 06-09-2025 23:29 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.
Ik heb een 5070 ti gehangen in mijn 5700x3d systeem, heb hem undervolt gegeven op 2800mhz@900mv en geheugen +1000 (zal later wel een keer meer fine-tunen, dit was beetje op basis van gemiddelden die ik tegenkwam wat prima werkt), Steel Nomad is bij mij ook bovengemiddeldDeNachtwacht schreef op zaterdag 6 september 2025 @ 23:06:
Voor degenen die geinteresseerd zijn om een 50XX kaart als upgrade in oudere hardware te stoppen: zojuist mijn RTX 5090 FE met curve editor volgens de bekende manier een undervolt gegeven. Hij komt dan bij Steel Nomad net bovengemiddeld uit met 14569 punten. Vind ik totaal niet verkeerd i.c.m. DDR4 geheugen en een 5950X. Het laat dus maar weer zien dat the latest en greatest in je systeem echt niet nodig is, met een 5800X3D is hij zéker nog prima te combineren, maar voor mij is dit al prima genoeg.
maar een 5090 zal wel wat anders vergen van cpu dan een 5070ti
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik had zelf ook even kort gekeken met Black Myth: Wukong, hoewel de frames momenteel met 581.08 net iets lager zijn dan de oudere drivers kan ik dat waarschijnlijk ook toeleggen aan het feit dat ik geen achtergrond taken had afgesloten en het ook minimaal 5 graden warmer hier op de kamer is waardoor hij wellicht net wat minder goed boost.Help!!!! schreef op maandag 8 september 2025 @ 10:34:
fwiw: Vergelijking 5090 launchdrivers met 581.15. Performance gaat achteruit.
[YouTube: NVIDIA Drivers are aging like fine MILK!]
De oude 572.24 Hotfix drivers:


De 581.08 WHQL drivers:


Heb elders eigenlijk geen vertragingen gemerkt, de 3DMark scores liepen volgens mij ook niet erg uit de pas, maar wel iets om even in de gaten te houden.
Aida64 is overigens net met versie 8.00 op de proppen gekomen, die ondersteund nu eindelijk de OpenCL GPGPU benchmarks voor de RTX-50 series.
Hieronder een vergelijk.
EVGA 1080Ti FTW3 2062Mhz 12Gbps:

Astral RTX 5090 OC (stock):

Astral RTX 5090 OC @ ~3172-3195Mhz +230 @ 1.060mv met +3000 VRAM:
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Mogelijk loop je tegen een powerlimit aan van 575W. Steel Nomad belast de videokaart zo zwaar dat zelfs een 5090 meestal zijn totale powerbudget gebruikt, dan is er simpelweg geen ruimte meer over om verder te boosten. Dus een overklok haalt dan niet zoveel uit.Termy schreef op zondag 7 september 2025 @ 15:20:
Hm, ik vind dit toch wel apart. Zelfs als ik m'n 5090 aardig overklok kom ik niet boven de 14000 in steel nomad. Enig idee waar dit aan kan liggen? De temperatuur lijkt het probleem niet te zijn want het houdt die overklok qua frequentie best vast. Ergens ben ik hier wel teleurgesteld ondanks dat het geen probleem in gaming is. Zie sig voor volle specs.
youtube.com/@hisrep
Dat weet ik, maar die hoge scores worden bereikt met minimaal 600W.DeNachtwacht schreef op maandag 15 september 2025 @ 21:40:
@Degrader die theorie gaat niet helemaal op, de hoogste Steel Nomad score met een 5090 is 18579 momenteel. Bovendien is gemiddeld 14500, dus inderdaad goed eens naar je settings te kijken @Termy . Al eens gewoon geprobeerd op stock zonder enige overclock te draaien? Zou toch echt gewoon ergens gemiddeld moeten kunnen scoren.
Het kan zijn dat de 5090 van @Termy niet zo hoog boost omdat de V/F-curve van zijn specifieke chip wat conservatief is ingesteld. Ik heb meerdere 5090's getest en ik had met de MSI 5090 Gaming Trio een slechte chip, of in ieder geval een lage curve waardoor deze zo'n 100 MHz lager boostte dan mijn FE. De Steel Nomad-score kwam met deze 5090 ook niet boven de 14k uit.
Je kunt evga precision x1 installeren en dan rechts onderin boost lock inschakelen, daarmee zie je de maximale boost lock (deze wordt wel beïnvloed door de temperatuur). Ik ben benieuwd tot welke frequentie jouw 5090 boost (en bij welke temperatuur).
[ Voor 12% gewijzigd door Degrader op 16-09-2025 09:56 ]
[ Voor 45% gewijzigd door DeNachtwacht op 15-09-2025 22:19 ]
youtube.com/@hisrep
-=[Terminator]=- R3doxNL Anahka#2910 Specs. 16x LONGi LR4-72HPH-455M (7280 Wp) Oost/West (-85°/95°,13°) op 8x APS DS3-L. ID.3 First Plus. Zappi v2.1. Daikin 3MXM40A met CTXM15R, FTXM20R en FTXM35R.
Het is wellicht zo vreemd nog niet op de standaard instellingen, de Astral 5090 OC haalde hier op standaard fabrieksoverklok ook halverwege de 14K maar de base-clock van de INNO3D is wel wat lager, maar mijn inziens zou hij bij boosten toch wel relatief vergelijkbaar moeten kunnen scoren als de temperaturen dat toelaten.Termy schreef op maandag 15 september 2025 @ 23:16:
@Degrader @DeNachtwacht Op stock haal ik net aan 13k, echt ruim aan de onderkant van de normaalverdeling. Ik zie hem idd gewoon 575W pakken en zeker de 1e run wordt hij ook niet speciaal warm dus ik snap niet waar dit aan ligt.
De 16K+ haalde ik enkel en alleen door allerlei trucjes uit te halen en natuurlijk high performance mode voor de texture filtering in het Nvidia control panel in te stellen met absurde overkloks welke niet echt stabiel te noemen zijn, en natuurlijk alles af te sluiten wat er maar te sluiten valt.
Verder pakt je videokaart 575W maar je gebruikt dus geen verhoogd power-target om 600W te halen dan vermoed ik? Dan verklaard het dat nog wel iets meer dat de scores lager zijn want hij zal sneller terug klokken om binnen het budget te blijven, de 3DMark scores zijn erg gevoelig voor wat lijkt kleine wijzigingen.
En uiteraard zorgen dat je G-sync en dergelijke als je die hebt van te voren uitschakelt dat kan soms ook wel eens tegenwerken volgens mij ondanks als een applicatie dat limiet negeert.
Mensen die 18k+ halen die hebben extreme koeling, XOC biosen en andere trucjes om de stroomvoorziening om de tuin te lijden zoals shunt-mods, dat is lastig te vergelijken met een standaard videokaart op lucht zonder modificaties.
Natuurlijk kan je de boost-lock van EVGA Precision gebruiken, je kan ook op L drukken op een punt in de V/F curve in Afterburner voor hetzelfde effect, dat is ook wat de 'prefer maximum performance' mode doet in het nvidia control panel als een game daarmee is ingesteld en opgestart wordt.
Keerzijde is echter voor benchmarks dat hij dan niet laag klokt om beter af te koelen tussen de runs door. Als een applicatie consistent vrijwel max gebruikt van de GPU zal je dezelfde kloks ongeacht boost-lock gaan zien want hij moet binnen zijn operationele limieten blijven voor stroom budget, temperatuur e.d. en hogere resoluties als 4K zorgen er al sneller voor dat de boost-clocks lager zijn dan bij 1440P het geval is ook al draaien beiden op 99%. Geen idee wat daar precies de reden van is.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Ik haal bij Steel Nomad met de bekende MSI undervolt (youtube) 14500 punten icm een Ryzen 9 5950 & 64GB DDR4-3200. Kortom zelfs met verouderde hardware is dat prima mogelijk. Maar om een oplossing te zoeken dus juist belangrijk te weten wat je verder aan hardware/software hebt. Welke driver, windows versie etc. En wellicht draait er heel veel zooi op de achtergrond mee die systeemresources trekt?
youtube.com/@hisrep
Ik heb het met verschillende 5090's getest, dus ik verwacht dat het ook met de FE werkt.DeNachtwacht schreef op maandag 15 september 2025 @ 22:13:
Werkt dat ook met een FE? En dat tooltje lijkt al heel oud te zijn?
Hebben jullie er rekening mee gehouden dat de powermetingen d.m.v. een kleine serieweerstand (shunt resistor) vaak niet accuraat zijn? En dat daarmee dus ook de kwaliteit van een chip/kaart niet betrouwbaar met elkaar te vergelijken is. Ditto voor benchmarks op een bepaald vermogenslimiet.
Het is best mogelijk dat de lage score in dit geval een gevolg is van een chip dat gewoon veel stroom nodig heeft + power rapportage dat aan de bovenkant zit van de nauwkeurigheid (+ zijde van de +/- afwijking).
Dan krijg je een situatie dat de score laag uitpakt, terwijl het niet perse iets hoeft te zeggen over de overklokbaarheid van de chip. Helaas zit je dan simpelweg tegen een softwarematige muur.
Het zou mij niet verbazen als de onnauwkeurigheid van een shunt meting + en - 5% bedraagt (dus 10% verschil in het slechtste geval). Mij lijkt het namelijk onwaarschijnlijk dat elke kaart een individuele kalibratie krijgt. Met 400-500W kan dat in absolute zin voor een groot verschil zorgen, terwijl beide kaarten volgens de Nvidia software op hetzelfde PL zitten.
Halverwege dit jaar was ik bezig met een vergelijking te maken van de koelerprestaties tussen een 5090FE en MSI 5090ventus en het effect op de CPU koeling. Het viel mij tijdens het stresstesten op dat de klok van de ventus ca. 100MHz lager uitpakte. Maar ook dat de kaart ca. 39W minder vermogen trok, volgens de Corsair HX1200i voeding.
Dit terwijl beiden kaarten op een PL van 400W waren ingesteld en in hetzelfde systeem zijn getest met identieke omstandigheden. Ik hield hier overigens al rekening mee, maar niet dat het verschil zo groot zou uitpakken. Dat heeft mij toch wel verbaast.
Hieronder zijn de gemaakte metingen in een Meshify S2.
Belasting: OCCT + CB23 dat toertjes blijft maken
5090FE
/f/image/AMOzeoD76WOLpz1nuCayppJT.png?f=fotoalbum_large)
5090ventus
/f/image/6juu6VjOlPDIKX7QUd9SuHme.png?f=fotoalbum_large)
5090ventus gecompenseerd
/f/image/nNF7VSKUMJUGOSC3MnKMhqQH.png?f=fotoalbum_large)
De ventus was wel langzamer, maar uiteindelijk scheelt het niet zo heel veel. Wat koeling efficiëntie betreft heeft de 5090FE ook een streepje voor (de engineers hebben ook wel alles uit de kast getrokken om dit mogelijk te maken = cost no object).
Dit zou kunnen liggen aan silicon lottery, dat je dus een chip hebt te pakken die standaard lager boost dan gemiddeld, wat ik ook had met de MSI 5090.Termy schreef op maandag 15 september 2025 @ 23:16:
@Degrader @DeNachtwacht Op stock haal ik net aan 13k, echt ruim aan de onderkant van de normaalverdeling. Ik zie hem idd gewoon 575W pakken en zeker de 1e run wordt hij ook niet speciaal warm dus ik snap niet waar dit aan ligt.
Zou je eens EVGA Precision X1 kunnen installeren en de boostlock inschakelen (de knop daarvoor zit een beetje rechtonderin): https://www.evga.com/precisionx1/
Directe downloadlink is: https://www.evga.com/EVGA...3.7.0.zip&survey=11.3.7.0
Ik hoor graag wat je maximale boostclock is, dan kunnen we bepalen of het daar aan ligt of mogelijk toch aan iets anders.
Dit is wel interessante info. Ik heb overigens twee exemplaren van Aorus 5090 Master gehad en het verschil in opgenomen vermogen en boostclock verschilde behoorlijk. Het ene exemplaar boostte tot 3030 MHz bij 1090 mV, terwijl de andere niet verder kwam dan 2955 bij 1030 mV, een verschil van 60 mV is best veel. Dit laatste exemplaar verbruikte dan ook zo'n 50 W minder vermogen, al waren de prestaties ook wat lager.CMT schreef op dinsdag 16 september 2025 @ 12:04:
Ik heb alleen vluchtig de berichten bekeken, dus excuses als het al genoemd is.
Hebben jullie er rekening mee gehouden dat de powermetingen d.m.v. een kleine serieweerstand (shunt resistor) vaak niet accuraat zijn? En dat daarmee dus ook de kwaliteit van een chip/kaart niet betrouwbaar met elkaar te vergelijken is. Ditto voor benchmarks op een bepaald vermogenslimiet.
Het is best mogelijk dat de lage score in dit geval een gevolg is van een chip dat gewoon veel stroom nodig heeft + power rapportage dat aan de bovenkant zit van de nauwkeurigheid (+ zijde van de +/- afwijking).
Dan krijg je een situatie dat de score laag uitpakt, terwijl het niet perse iets hoeft te zeggen over de overklokbaarheid van de chip. Helaas zit je dan simpelweg tegen een softwarematige muur.
Het zou mij niet verbazen als de onnauwkeurigheid van een shunt meting + en - 5% bedraagt (dus 10% verschil in het slechtste geval). Mij lijkt het namelijk onwaarschijnlijk dat elke kaart een individuele kalibratie krijgt. Met 400-500W kan dat in absolute zin voor een groot verschil zorgen, terwijl beide kaarten volgens de Nvidia software op hetzelfde PL zitten.
Halverwege dit jaar was ik bezig met een vergelijking te maken van de koelerprestaties tussen een 5090FE en MSI 5090ventus en het effect op de CPU koeling. Het viel mij tijdens het stresstesten op dat de klok van de ventus ca. 100MHz lager uitpakte. Maar ook dat de kaart ca. 39W minder vermogen trok, volgens de Corsair HX1200i voeding.
Dit terwijl beiden kaarten op een PL van 400W waren ingesteld en in hetzelfde systeem zijn getest met identieke omstandigheden. Ik hield hier overigens al rekening mee, maar niet dat het verschil zo groot zou uitpakken. Dat heeft mij toch wel verbaast.
Hieronder zijn de gemaakte metingen in een Meshify S2.
Belasting: OCCT + CB23 dat toertjes blijft maken
5090FE
[Afbeelding]
5090ventus
[Afbeelding]
5090ventus gecompenseerd
[Afbeelding]
De ventus was wel langzamer, maar uiteindelijk scheelt het niet zo heel veel. Wat koeling efficiëntie betreft heeft de 5090FE ook een streepje voor (de engineers hebben ook wel alles uit de kast getrokken om dit mogelijk te maken = cost no object).
Ik had de 4090 FE voor $1665 omgerekend hier gekocht in China en nu voor €2140 weer verkocht. Nadat de sweatshop er ongeveer €60 aan extra ram chips en een nieuwe PCB met koeler heeft ingestoken gaan die 4090 48GB kaarten voor €2600-2700 over de toonbank.
Ik heb hem aan mijn vrouw aangeboden maar die heeft nog een 4070Ti Super 16GB voor haar 3440x1440 144Hz monitor en vindt dat nog meer dan prima. Tegen de tijd dat zij meer grunt nodig heeft koop ik wel een 5080 Super 24GB ofzo voor veel minder.
De nieuwe 5090 FE heb ik wel wat duurder aangekocht (€2580) hier omdat toen ik in NL was hij net niet op voorraad was en de prijzen hier hoger zijn omdat deze kaarten grijze import zijn.
Morgen ochtend komt hij binnen en dan zal ik in de club hier delen. Ik hoefde niet echt meer GPU dan de 4090 mij boodt voor de 3440x1440p resolutie waar ik op speel maar de enkele video out engine van de 4090 heeft er moeite mee twee 3440x1440 panelen aan te sturen op 144Hz + 10-bit. Dan krijg ik allemaal zwarte schermen op willekeurige momenten. Ik heb mijn tweede scherm dan vast staan op 100Hz.
Ik zat ook te kijken om mijn Alienware AW3423DWF en Dell S3422DWG samen te vervangen voor een enkele 45" Ultrawide OLED van LG die 5K2K is en dus meer pixels aangestuurd moeten krijgen dan regulier 4K. Dan is een 5090 ook wel noodzaak. Helaas heeft dit scherm matte coating en nog wat andere vreemde minpunten. Het is wel een hele goede verbetering over het 45" OLED model van afgelopen jaar dus er is hoop dat ze het volgend jaar misschien goed doen.
Anyway, Lang verhaal kort te maken. 5090 FE incoming! See you soon!
[ Voor 8% gewijzigd door Cidious op 16-09-2025 14:13 ]
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Blij jouw hier ook actief te zien. Ik zie dat je al weer een hele hoop gave vergelijkingen hebt gepost en data hebt verzameld. Daar ga ik zeker dankbaar gebruik van maken!CMT schreef op dinsdag 16 september 2025 @ 12:04:
Ik heb alleen vluchtig de berichten bekeken, dus excuses als het al genoemd is.
Hebben jullie er rekening mee gehouden dat de powermetingen d.m.v. een kleine serieweerstand (shunt resistor) vaak niet accuraat zijn? En dat daarmee dus ook de kwaliteit van een chip/kaart niet betrouwbaar met elkaar te vergelijken is. Ditto voor benchmarks op een bepaald vermogenslimiet.
Het is best mogelijk dat de lage score in dit geval een gevolg is van een chip dat gewoon veel stroom nodig heeft + power rapportage dat aan de bovenkant zit van de nauwkeurigheid (+ zijde van de +/- afwijking).
Dan krijg je een situatie dat de score laag uitpakt, terwijl het niet perse iets hoeft te zeggen over de overklokbaarheid van de chip. Helaas zit je dan simpelweg tegen een softwarematige muur.
Het zou mij niet verbazen als de onnauwkeurigheid van een shunt meting + en - 5% bedraagt (dus 10% verschil in het slechtste geval). Mij lijkt het namelijk onwaarschijnlijk dat elke kaart een individuele kalibratie krijgt. Met 400-500W kan dat in absolute zin voor een groot verschil zorgen, terwijl beide kaarten volgens de Nvidia software op hetzelfde PL zitten.
Halverwege dit jaar was ik bezig met een vergelijking te maken van de koelerprestaties tussen een 5090FE en MSI 5090ventus en het effect op de CPU koeling. Het viel mij tijdens het stresstesten op dat de klok van de ventus ca. 100MHz lager uitpakte. Maar ook dat de kaart ca. 39W minder vermogen trok, volgens de Corsair HX1200i voeding.
Dit terwijl beiden kaarten op een PL van 400W waren ingesteld en in hetzelfde systeem zijn getest met identieke omstandigheden. Ik hield hier overigens al rekening mee, maar niet dat het verschil zo groot zou uitpakken. Dat heeft mij toch wel verbaast.
Hieronder zijn de gemaakte metingen in een Meshify S2.
Belasting: OCCT + CB23 dat toertjes blijft maken
5090FE
[Afbeelding]
5090ventus
[Afbeelding]
5090ventus gecompenseerd
[Afbeelding]
De ventus was wel langzamer, maar uiteindelijk scheelt het niet zo heel veel. Wat koeling efficiëntie betreft heeft de 5090FE ook een streepje voor (de engineers hebben ook wel alles uit de kast getrokken om dit mogelijk te maken = cost no object).
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Zeer interessant, dat zou wellicht ook mee kunnen spelen.CMT schreef op dinsdag 16 september 2025 @ 12:04:
Ik heb alleen vluchtig de berichten bekeken, dus excuses als het al genoemd is.
Hebben jullie er rekening mee gehouden dat de powermetingen d.m.v. een kleine serieweerstand (shunt resistor) vaak niet accuraat zijn? En dat daarmee dus ook de kwaliteit van een chip/kaart niet betrouwbaar met elkaar te vergelijken is. Ditto voor benchmarks op een bepaald vermogenslimiet.
Het is best mogelijk dat de lage score in dit geval een gevolg is van een chip dat gewoon veel stroom nodig heeft + power rapportage dat aan de bovenkant zit van de nauwkeurigheid (+ zijde van de +/- afwijking).
Dan krijg je een situatie dat de score laag uitpakt, terwijl het niet perse iets hoeft te zeggen over de overklokbaarheid van de chip. Helaas zit je dan simpelweg tegen een softwarematige muur.
Het zou mij niet verbazen als de onnauwkeurigheid van een shunt meting + en - 5% bedraagt (dus 10% verschil in het slechtste geval). Mij lijkt het namelijk onwaarschijnlijk dat elke kaart een individuele kalibratie krijgt. Met 400-500W kan dat in absolute zin voor een groot verschil zorgen, terwijl beide kaarten volgens de Nvidia software op hetzelfde PL zitten.
Halverwege dit jaar was ik bezig met een vergelijking te maken van de koelerprestaties tussen een 5090FE en MSI 5090ventus en het effect op de CPU koeling. Het viel mij tijdens het stresstesten op dat de klok van de ventus ca. 100MHz lager uitpakte. Maar ook dat de kaart ca. 39W minder vermogen trok, volgens de Corsair HX1200i voeding.
Dit terwijl beiden kaarten op een PL van 400W waren ingesteld en in hetzelfde systeem zijn getest met identieke omstandigheden. Ik hield hier overigens al rekening mee, maar niet dat het verschil zo groot zou uitpakken. Dat heeft mij toch wel verbaast.
Hieronder zijn de gemaakte metingen in een Meshify S2.
Belasting: OCCT + CB23 dat toertjes blijft maken
5090FE
[Afbeelding]
5090ventus
[Afbeelding]
5090ventus gecompenseerd
[Afbeelding]
De ventus was wel langzamer, maar uiteindelijk scheelt het niet zo heel veel. Wat koeling efficiëntie betreft heeft de 5090FE ook een streepje voor (de engineers hebben ook wel alles uit de kast getrokken om dit mogelijk te maken = cost no object).
En natuurlijk verifiëren of de kaart alle 176 ROPs wel heeft want dat was ik even vergeten, weet niet in hoeverre die kaarten nog in de omloop zijn.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Insgelijks ook goed om je weer te zien. Ik heb inderdaad wat dingetjes nagemeten en hopelijk komt het je van pas ^^. Maar dat is lang geleden hoor. Sinds een klein half jaar ben ik eigenlijk niet meer actief op het forum. Er zijn teveel dingen die de aandacht vragen + de Zen5 overstap is een en al frustratie gebleken.Cidious schreef op dinsdag 16 september 2025 @ 14:14:
[...]
Blij jouw hier ook actief te zien. Ik zie dat je al weer een hele hoop gave vergelijkingen hebt gepost en data hebt verzameld. Daar ga ik zeker dankbaar gebruik van maken!
Over een paar weken post ik wel wat meer daarover in het Zen5 draadje (was ik sowieso al van plan).
Als ik een tip mag meegeven voor je aanstaande 5090FE: meet voor de zekerheid alsjeblieft alles na met een stroomtang, als je daartoe in de gelegenheid bent. Het is deze generatie echt kantje boord met de brakke connector. Van een aantal gebruikers in dit draadje is ook het alarm van de Asus Astral kaart afgegaan tijdens gebruik.
Benieuwd naar je zen 5 ervaringen. Heb zelf geen serieuze problemen ondervonden nog.CMT schreef op dinsdag 16 september 2025 @ 20:26:
[...]
Insgelijks ook goed om je weer te zien. Ik heb inderdaad wat dingetjes nagemeten en hopelijk komt het je van pas ^^. Maar dat is lang geleden hoor. Sinds een klein half jaar ben ik eigenlijk niet meer actief op het forum. Er zijn teveel dingen die de aandacht vragen + de Zen5 overstap is een en al frustratie gebleken.
Over een paar weken post ik wel wat meer daarover in het Zen5 draadje (was ik sowieso al van plan).
Als ik een tip mag meegeven voor je aanstaande 5090FE: meet voor de zekerheid alsjeblieft alles na met een stroomtang, als je daartoe in de gelegenheid bent. Het is deze generatie echt kantje boord met de brakke connector. Van een aantal gebruikers in dit draadje is ook het alarm van de Asus Astral kaart afgegaan tijdens gebruik.
En ja ik zal de connector in de gaten houden. Ik ben eigenlijk ook alleen maar van plan m 't deftige undervolt te draaien. Zoals ik hierboven aangaf had ik eigenlijk niet meer Gpu nodig op mijn resolutie en ik draaide de 4090 rond de 350-365W met behoorlijke undervolt ook.
Heb vernomen dat de 5090 zo tussen de 400-450W trekt met undervolt. Gaan we meemaken. Het blijft een bijzonder slecht ontworpen connector..
Mijn 4090 heeft ook tijden perongeluk stock gedraaid tussen 400-550W en regelmatig de stekker gecheckt. Seasonic 2x8p -> 16p op TX-1000. Deze lijkt tenminste van goede kwaliteit.
Update: net even een officiële 12v-2x6 - 2x8p kabel besteld voor de TX-1000. Ik hoef nog geen psu upgrade aan te schaffen.
[ Voor 4% gewijzigd door Cidious op 17-09-2025 02:57 ]
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
De 5090 lijkt beter te undervolten te zijn dan de 4090s, maar de powerdraw is een beetje afhankelijk van de workload, bij een 600W OC versie kan 0.895mv (ik heb 0.895mv bij 2865Mhz +900) rond de reguliere boostclock (in plaats van 1.060mv als hoogste waarde) vaak zomaar 100W (soms meer) schelen, zal denk ik met de FE niet veel anders zijn, soms kan het bij zware path-tracing games wellicht maar 40-60W schelen i.p.v. dat hij 600W trekt zonder echt performance te verliezen maar dat is dan nog altijd beter m.b..t het verbruik, de warmte en het actieve voltage op de core.Cidious schreef op woensdag 17 september 2025 @ 02:42:
[...]
Heb vernomen dat de 5090 zo tussen de 400-450W trekt met undervolt. Gaan we meemaken. Het blijft een bijzonder slecht ontworpen connector..
Er zijn natuurlijk ook spellen bij die zelfs met een overklok maar 400-450W trekken met de GPU op volle belasting, zoals bij Unreal Engine 5 titels het geval kan zijn zoals Mafia The Old Country maar dan loopt de GPU ook al bijna 3100Mhz met 1.040mv mét +3000 VRAM overklok.
VRAM overklok tenzij je een agressieve curve gaat toepassen zou ik bij de FE denk ik liever laten gezien het VRAM op die dingen volgens mij al snel richting de 90°C kunnen gaan (bij mijn Astral 70-78°C volgens de warmste sensor dan), kan zomaar 6-8°C warmer worden op +3000 gezien het ook 10-20W meer vreet, het is anderzijds wel complementair voor de performance.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
CMT schreef op dinsdag 16 september 2025 @ 20:26:
[...]
Insgelijks ook goed om je weer te zien. Ik heb inderdaad wat dingetjes nagemeten en hopelijk komt het je van pas ^^. Maar dat is lang geleden hoor. Sinds een klein half jaar ben ik eigenlijk niet meer actief op het forum. Er zijn teveel dingen die de aandacht vragen + de Zen5 overstap is een en al frustratie gebleken.
Over een paar weken post ik wel wat meer daarover in het Zen5 draadje (was ik sowieso al van plan).
Als ik een tip mag meegeven voor je aanstaande 5090FE: meet voor de zekerheid alsjeblieft alles na met een stroomtang, als je daartoe in de gelegenheid bent. Het is deze generatie echt kantje boord met de brakke connector. Van een aantal gebruikers in dit draadje is ook het alarm van de Asus Astral kaart afgegaan tijdens gebruik.
Sta op het punt een 9800X3D aan te schaffen dus ben eigenlijk ook wel benieuwd naar je ervaringen met zen 5...
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Misschien is jouw Astral wel volledig unlocked? Ik ben net tegen de muur aangelopen dat NVIDIA doodleuk allemaal veiligheids curves in tabellen heeft gestoken voor de 5090 FE. de frequentie die ik kan zetten met voltage is gelimiteerd. En nieuwe batches 5090 hebben die limiet een bin lager liggen dan oudere batches.. net met een maat vergeleken en een draadje op reddit gevonden hierover.. Bedankt NVIDIA..CriticalHit_NL schreef op woensdag 17 september 2025 @ 15:33:
[...]
De 5090 lijkt beter te undervolten te zijn dan de 4090s, maar de powerdraw is een beetje afhankelijk van de workload, bij een 600W OC versie kan 0.895mv (ik heb 0.895mv bij 2865Mhz +900) rond de reguliere boostclock (in plaats van 1.060mv als hoogste waarde) vaak zomaar 100W (soms meer) schelen, zal denk ik met de FE niet veel anders zijn, soms kan het bij zware path-tracing games wellicht maar 40-60W schelen i.p.v. dat hij 600W trekt zonder echt performance te verliezen maar dat is dan nog altijd beter m.b..t het verbruik, de warmte en het actieve voltage op de core.
Er zijn natuurlijk ook spellen bij die zelfs met een overklok maar 400-450W trekken met de GPU op volle belasting, zoals bij Unreal Engine 5 titels het geval kan zijn zoals Mafia The Old Country maar dan loopt de GPU ook al bijna 3100Mhz met 1.040mv mét +3000 VRAM overklok.
VRAM overklok tenzij je een agressieve curve gaat toepassen zou ik bij de FE denk ik liever laten gezien het VRAM op die dingen volgens mij al snel richting de 90°C kunnen gaan (bij mijn Astral 70-78°C volgens de warmste sensor dan), kan zomaar 6-8°C warmer worden op +3000 gezien het ook 10-20W meer vreet, het is anderzijds wel complementair voor de performance.
Mijn beste resultaat behaal ik met 875mv en max frequentie die mogelijk is. 14K punten in Steel Nomad (stock perf ongeveer) en 480W max vs 575W. Helaas kan ik met de restricties die NVIDIA in de bios heeft gestoken geen strakkere UV zetten dan dat. Absurd! De performance is nog steeds heel deftig. Mijn 4090 FE strock met UV op 1v nog steeds 450W (maar 30W minder) en haalde maar 10K punten.
De wattages etc zijn allemaal getest met Steel Nomad als start punt. Ik ga nog wel even aan de gang met wat zwaardere RT spellen. Met Steel Nomad is -500Mhz op het geheugen goed voor 2-3c lagere geheugen temp en geen verlies in perf. Ik speel 3440x1440p dus ga er vanuit dat dit in de meeste games geen probleem zal zijn. Maar, 'meten is weten'.
[ Voor 9% gewijzigd door Cidious op 17-09-2025 17:09 ]
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Zou kunnen, is een vroeg model uit Februari, er bestaan wel meerdere revisies van waarbij de componenten op het PCB net wat anders zijn met de resistors en dergelijke volgens mij.Cidious schreef op woensdag 17 september 2025 @ 17:05:
[...]
Misschien is jouw Astral wel volledig unlocked? Ik ben net tegen de muur aangelopen dat NVIDIA doodleuk allemaal veiligheids curves in tabellen heeft gestoken voor de 5090 FE. de frequentie die ik kan zetten met voltage is gelimiteerd. En nieuwe batches 5090 hebben die limiet een bin lager liggen dan oudere batches.. net met een maat vergeleken en een draadje op reddit gevonden hierover.. Bedankt NVIDIA..
Mijn beste resultaat behaal ik met 875mv en max frequentie die mogelijk is. 14K punten in Steel Nomad (stock perf ongeveer) en 480W max vs 575W. Helaas kan ik met de restricties die NVIDIA in de bios heeft gestoken geen strakkere UV zetten dan dat. Absurd! De performance is nog steeds heel deftig. Mijn 4090 FE strock met UV op 1v nog steeds 450W (maar 30W minder) en haalde maar 10K punten.
De wattages etc zijn allemaal getest met Steel Nomad als start punt. Ik ga nog wel even aan de gang met wat zwaardere RT spellen. Met Steel Nomad is -500Mhz op het geheugen goed voor 2-3c lagere geheugen temp en geen verlies in perf. Ik speel 3440x1440p dus ga er vanuit dat dit in de meeste games geen probleem zal zijn. Maar, 'meten is weten'.
M.b.t. de FE weet ik niet of dat standaard is, ik meende dat de Nvidia modellen wel vaker wat meer restrictief zijn (of waren). Overigens als je een undervolt instelt laat dan de 0.800-0.810mv met rust en begin vanaf 0.815mv gezien 0.800-0.810 de range is voor de idle clocks.
Mijn curves zien er momenteel zo uit.
Undervolt 0.895mv 2865Mhz +900

Normale downclock curve 0.845mv 2190Mhz +920

Extreme downclock, 0.845mv 1965mhz +690

En de overklok 1.060mv 3187mhz +230

Met de extreme downclock topt hij uit op 300W gezien de powerlimit maximaal maar tot 400W kan reduceren, zelfs daarmee zijn veel spellen prima te spelen maar wel veel zuiniger en je levert wel wat performance in.
VRAM overkloks zorgen overigens ervoor dat de kloks van de core iets naar beneden bijstellen bij het boosten.
Core i9 13900K @5.8Ghz: https://valid.x86.fr/16dnkm | Core i7 3930K @ 4.4Ghz: https://valid.x86.fr/div8y2 | Core i7 3930K @ 4.8Ghz: https://valid.x86.fr/68cp00 | Core 2 Quad Q9550 @2.91Ghz: https://valid.x86.fr/27vbj8
Help!!!! schreef op woensdag 17 september 2025 @ 16:08:
[...]offtopic:
Sta op het punt een 9800X3D aan te schaffen dus ben eigenlijk ook wel benieuwd naar je ervaringen met zen 5...
Komt eraan, maar niet zo uitgebreid als bij Zen 4 hoor
[ Voor 5% gewijzigd door Degrader op 27-09-2025 19:20 ]
Dus blijkbaar geen set-check-and-forget, maar ook een preflight checklist
Ik zag bij Igorslab wel een review van iets voorbijkomen dat mogelijk een mooie oplossing is voor het probleem. Of liever gezegd mooi lapmiddel: Aquacomputer AMPINEL review
Het Aquatuning apparaatje gaat een stap verder dan alleen een waarschuwing en kan daadwerkelijk de belasting herverdelen en ook het programmma (dat voor de overbelasting zorgt) desnoods afsluiten.
Oh en het is gelijk raak in de review:
New card, new hardware and the first alarm
A new power supply unit, a brand new graphics card, the original 12V 2×6 cable snapped in until it clicks – and yet the AMPINEL immediately sounds the alarm. Four lines above the 9.5 ampere mark, a peak value of 10.68 amperes, 54.03 amperes total current and 4.69 amperes differential current clearly document how skewed the load distribution was. And all this at a hotspot temperature of just 42.75 °C, well before any real thermal problems should have set in. Without AMPINEL, a brand-new system would have been operating directly beyond specification – a prime example of how little trust this connector deserves.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
De conclusie is dan toch dat de effectieve marges van die connector veeeeeel hoger zijn dan de officiele limieten? Immers ja het apparaatje gaat piepen, en ja het is mooier wanneer de verdeling beter is, maar er was tegelijk nog helemaal niks aan de hand. Gezien het thermische de complete reden is waarom het een gevaar is, en thermisch was het nog prima.CMT schreef op dinsdag 7 oktober 2025 @ 00:24:
Bedankt voor de mededeling, het heeft mij weer op scherp gezet omdat ik dezelfde kabel gebruik.
Dus blijkbaar geen set-check-and-forget, maar ook een preflight checklist*waar-de-loos*
Ik zag bij Igorslab wel een review van iets voorbijkomen dat mogelijk een mooie oplossing is voor het probleem. Of liever gezegd mooi lapmiddel: Aquacomputer AMPINEL review
Het Aquatuning apparaatje gaat een stap verder dan alleen een waarschuwing en kan daadwerkelijk de belasting herverdelen en ook het programmma (dat voor de overbelasting zorgt) desnoods afsluiten.
Oh en het is gelijk raak in de review:
[...]
Die krijgt er 2nzall schreef op dinsdag 7 oktober 2025 @ 07:42:
Is er een kans dat Nvidia voor de RTX 60 release iets aan die connector zal doen? Of is dat een ijdele hoop...
5800X3D, MSI X370, MSI 5070Ti
Zoals in het artikel te lezen is kwam de waarschuwing meteen/direct.Sissors schreef op dinsdag 7 oktober 2025 @ 08:08:
[...]
De conclusie is dan toch dat de effectieve marges van die connector veeeeeel hoger zijn dan de officiele limieten? Immers ja het apparaatje gaat piepen, en ja het is mooier wanneer de verdeling beter is, maar er was tegelijk nog helemaal niks aan de hand. Gezien het thermische de complete reden is waarom het een gevaar is, en thermisch was het nog prima.
De mate van opwarming is tijdsafhankelijk. Het sleutelwoord is dan ook 'nog'.
42,75°C kan bovendien net zo goed de connector rust temperatuur zijn van de GPU.
Een 5090 verstookt namelijk ca. 25-30W in rust en dat warmt de hele PCB op.
Ter vergelijking: mijn moederbord zit op 40°C terwijl de PC niets doet.
Wat is het volgende als dit soort apparaatjes als een soort standaard beschouwt worden en het probleem verhelpen. Dat de 12VHPWR connector toch niet het probleem was
Dat de connector beter had kunnen zijn is denk ik echter iedereen het wel over eens.
Recalculated: Smart load balancing against ageing or monitoring with a hard cut – Which is the better solution for the 12VHPWR and 12V-2X6 Connectors?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Daaruit:Help!!!! schreef op woensdag 8 oktober 2025 @ 08:51:
Igor had nog een aardig follow up artikel met de voors en tegens van active load balancing vs monitoring:
Recalculated: Smart load balancing against ageing or monitoring with a hard cut – Which is the better solution for the 12VHPWR and 12V-2X6 Connectors?
Dat was exact ook mijn probleem met load balancing. Maar de alinea erna:Now let us take the “bad” pin from this example, the one that initially carried only 2 A because its contact resistance is higher than the others. This scenario is particularly tricky thermally because the interaction between temperature, contact resistance, and current distribution is not linear, it reinforces itself. A contact with slightly increased contact resistance, say 3 milliohms instead of 1.5 milliohms, initially causes only a negligible power dissipation at 2 A of P = I² × R = 2² × 0.003 = 0.012 W. That is barely measurable.
As soon as the balancer starts redirecting currents and this contact is loaded evenly again, around 9 A flows there as on the other paths. Now the power dissipation rises to P = 9² × 0.003 = 0.243 W. That is twenty times the previous heat generation, and it occurs locally on a tiny area in the metal contact. This heat concentrates at the interface between plug and socket, where the contact resistance is particularly sensitive. At 0.2 to 0.3 W on a contact area of only a few square millimeters, temperature rises of about 30 to 50 °C above ambient occur, depending on cooling and material pairing. This heating in turn increases the resistance of the contact because metals have a positive temperature coefficient (copper about +0.4%/K, gold-plated spring contacts depending on the alloy 0.2–0.6%/K). The contact thus gets even hotter, its resistance rises further, and a thermal build-up effect occurs, the positive feedback I have mentioned several times. That was probably the core of the criticism.
Die snap ik niet, want dat is precies het omgekeerde wat er gebeurd. Hij verhoogd inderdaad de weerstand in de andere lijnne, maar dat zorgt ervoor dat de totale stroom op de zwakke pin omhoog gaat, wat als effect heeft dat de temperatuur verder omhoog gaat!But now comes the counterreaction: the balancer acts here as a stabilizer by detecting such effects early and damping them in a targeted way. It slightly increases the resistance of the other five lines again so that the total current on the weak pin drops again before its temperature rises further.
De artikelen die op Igorslab zijn geschreven belichten het probleem wel mooi.
Ik kan iedereen aanraden het recente artikel dat @Help!!!! gelinkt heeft te lezen (en ook oudere artikelen op Igorslab), dat geeft een goed beeld van de complexiteit van het probleem en hoe dicht de specificatie tegen de kritische grens van falen zit.
Ja ik weet het, het klinkt dramatisch
Maar om die reden alleen had het uberhaupt niet toegelaten mogen worden.
Een massa onderzoek zal wel nooit van de grond komen vanwege tijd en kosten, maar zou mooi zijn als nu een redelijk grote userbase deze meetapparaatjes gaat gebruiken met de 5090's op 600W en (eerlijke) feedback geeft. Het zal mij benieuwen hoe vaak er een waarschuwing verschijnt (direct of na verloop van tijd). Hopelijk is het ook voor de 5090FE geschikt.
Ik kan er ook geen kaas van maken.Sissors schreef op woensdag 8 oktober 2025 @ 21:27:
Die snap ik niet, want dat is precies het omgekeerde wat er gebeurd. Hij verhoogd inderdaad de weerstand in de andere lijnne, maar dat zorgt ervoor dat de totale stroom op de zwakke pin omhoog gaat, wat als effect heeft dat de temperatuur verder omhoog gaat!
Wat ik er zo ver van begrijp is het voorbeeld in het laatste stuk een situatie waarbij thermal runaway optreedt. Dus een faal in actie, waarbij de overgangsweerstand en temperatuur in de betreffende pin steeds maar toenemen (stroom blijft constant, spanningsval neemt toe) en dat de balancer het effect daarvan dempt (maar niet voorkomt). Alleen zou dat juist moeten gebeuren door de balancer weerstanden voor de andere pinnen weer te verlagen en toestaan dat de stroom daar evt. buiten spec gaat.
Voor de zekerheid heb ik dat stuk ook in het Duits gelezen om te kijken of het een slechte (machine)vertaling naar het Engels is, maar daar staat hetzelfde.
Ik ben bezig met een build rondom de Lian Li O11 Dynamic EVO XL en de ASUS ROG Astral RTX 5090 (luchtgekoeld).
Ik overweeg de standaard anti-sag bracket die bij de kast zit, maar ik lees dat sommigen problemen hebben gehad met de pasvorm.
Ik vroeg me af:
Heeft iemand hier exact dezelfde of vergelijkbare configuratie en hier een oplossing voor?
:strip_exif()/f/image/2bxTko6zpW5gGs1yG5JQGR9b.jpg?f=fotoalbum_large)
Dit is mijn Asus ROG Strix Scar 18 (2025) met een RTX 5080 Mobile, en ik loop regelmatig tegen het bovenstaande probleem aan. Het kan optreden tijdens de installatie van Nvidia-drivers, na een herstart of bij het opstarten van de laptop - een 'cold boot'.
Ik heb het probleem kunnen herleiden tot Advanced Optimus (MUX-switch). Ik gebruik regelmatig de ‘Ultimate-modus', waarbij het systeem uitsluitend de dGPU aanspreekt. Het probleem doet zich niet voor wanneer ik de laptop in de standaardmodus (‘MSHybrid’) gebruik. In dat geval draait het systeem primair op de iGPU en schakelt het pas bij GPU-intensieve taken over naar de dGPU. Er lijkt dus iets mis te gaan in de aansturing van 'Advanced Optimus'.
Ter vergelijking: ik heb hier ook een Asus ROG NUC (2025) met dezelfde RTX 5080 Mobile, en daar werkt alles probleemloos. Niet zo vreemd, want die mist ‘Advanced Optimus’ volledig.
Het probleem belemmert het gebruik van de laptop niet, maar vervelend is het wel.
Zou misschien hiermee iets te maken kunnen hebben. Er zijn blijkbaar problemen met de BIOS in veel ASUS laptops, en normaal zouden ze de komende maand daarvoor fixes uitbrengen:
https://x.com/ASUS_ROGNA/status/1971662996339646645
[ Voor 7% gewijzigd door nzall op 13-10-2025 10:32 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
https://imgur.com/a/CdLfjJf
Ik heb een uitdaging. Ik ben in het proces om mijn verouderde I7 3930K op een Asus P9x79 (Intel X79 chipset)waar ik een 1080 GTX op draai, up te graden. Al hoewel dit systeem nog heel stabiel is, begint wel zijn leeftijd te tellen. Nu ben ik er nog niet uit of ik bij Intel blijf of over ga naar AMD qua CPU, maar ik wil al wel mijn nieuwste spel gaan spelen(Doom the dark ages). Maar die draait, helaas, niet op mijn 1080. Ik zag bij proshop.nl de Gigabyte 5080 RTX voor 15% korting, die gelijk besteld. Na 2 dagen kwam die netjes binnen. In m'n computer gezet. De kaart zit in een PCI-e 16x gen 3.0 slot. Maar de kaart doet helemaal niks. fans slaan niet aan, geen beeld, helemaal niks. De PC loopt niet vast, want de numlock van mn keyboard blijft t wel doen en als ik de power knop indruk gaat het systeem direct weer uit. Ik heb geen PC-speaker in m'n systeem, dus ik weet niet of de mobo een error code geeft.
De I7 3930k heeft een tdp van 130W en de 5080 360W. Ik heb een 550W voeding in m'n systeem en de 12VHPWR connector heb ik meerdere malen gecontrolleerd of ie goed zit. De vording is wat krap, dat weet ik, maar de videokaart zou toch wel iets van beeld moeten laten zien. M'n moederboard heeft ook de laatste bios, heb ik ook gecontroleerd, ik heb alle poorten geprobeerd(HDMI,DP-poorten) maar helemaal niks. Zelfs een ander beeldscherm, ook die geeft geen sjoege. De videokaart een een keuze switch tussen 'performance bios' en 'silent bios', maar dat maakt ook geen verschil. Ik heb de kaart ook al een keer uit het systeem gehaald en in de 2de 16x PCI-e slot gestoken, zelfde resultaat.
Ik wil in mn vriendenkring kijken of ik bij iemand anders de kaart kan testen. Maar vooral dat de fans helemaal niks doen heb ik het idee dat OF de kaart incompatible is met mijn moederbord(5x kaart kan toch gewoon in een 3x slot?) OF het is een doa...
Weet iemand hier nog iets wat ik zou kunnen proberen?
[ Voor 3% gewijzigd door Vuikie op 14-10-2025 15:13 ]
PCIe is backwards compatible, dus daar ligt het probleem niet aan. Ik denk echt dat 550W te weinig is. De minimale vereiste is 850W, dat is een verschil van 300W. Lijkt mij dus ook de oorzaak van het probleem. Vergeet ook niet dat je ssd's, fans, moederbord allemaal ook stroom verbruiken. Ook voor stabiliteit zou ik persoonlijk wat meer margin willen. Ik denk dat je de kaart echt in een ander systeem moet proberen of je PSU upgraden.Vuikie schreef op dinsdag 14 oktober 2025 @ 15:09:
Hallo allemaal,
Ik heb een uitdaging. Ik ben in het proces om mijn verouderde I7 3930K op een Asus P9x79 (Intel X79 chipset)waar ik een 1080 GTX op draai, up te graden. Al hoewel dit systeem nog heel stabiel is, begint wel zijn leeftijd te tellen. Nu ben ik er nog niet uit of ik bij Intel blijf of over ga naar AMD qua CPU, maar ik wil al wel mijn nieuwste spel gaan spelen(Doom the dark ages). Maar die draait, helaas, niet op mijn 1080. Ik zag bij proshop.nl de Gigabyte 5080 RTX voor 15% korting, die gelijk besteld. Na 2 dagen kwam die netjes binnen. In m'n computer gezet. De kaart zit in een PCI-e 16x gen 3.0 slot. Maar de kaart doet helemaal niks. fans slaan niet aan, geen beeld, helemaal niks. De PC loopt niet vast, want de numlock van mn keyboard blijft t wel doen. Ik heb geen PC-speaker in m'n systeem, dus ik weet niet of de mobo een error code geeft.
De I7 3930k heeft een tdp van 130W en de 5080 360W. Ik heb een 550W voeding in m'n systeem en de 12VHPWR connector heb ik meerdere malen gecontrolleerd of ie goed zit. De vording is wat krap, dat weet ik, maar de videokaart zou toch wel iets van beeld moeten laten zien. M'n moederboard heeft ook de laatste bios, heb ik ook gecontroleerd, ik heb alle poorten geprobeerd(HDMI,DP-poorten) maar helemaal niks. Zelfs een ander beeldscherm, ook die geeft geen sjoege. De videokaart een een keuze switch tussen 'performance bios' en 'silent bios', maar dat maakt ook geen verschil. Ik heb de kaart ook al een keer uit het systeem gehaald en in de 2de 16x PCI-e slot gestoken, zelfde resultaat.
Ik wil in mn vriendenkring kijken of ik bij iemand anders de kaart kan testen. Maar vooral dat de fans helemaal niks doen heb ik het idee dat OF de kaart incompatible is met mijn moederbord(5x kaart kan toch gewoon in een 3x slot?) OF het is een doa...
Weet iemand hier nog iets wat ik zou kunnen proberen?
Daarnaast neem ik dat de 12vhpwr kabel goed is aangedrukt in de gpu en de psu kabels goed in de psu en in de adapter?
[ Voor 5% gewijzigd door TheProst op 14-10-2025 15:20 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Heb je al wel een keer een nieuwe voeding erin gedaan met een native 12VHPWR connector, dan zou het kunnen dat die 300W rapporteert aan de GPU, en dan doet hij niks.
Met regelmaat vind ik dat er gevraagd wordt om de exacte specs terwijl dat niet nodig is, in dit geval zou dat wel relevant kunnen zijn
Dat mijn voeding under spec is, dat geloof ik. Maar de kaart zou toch wel IETS moeten doen? Als mijn voeding niet toereikend is, verwacht ik dat mijn systeem instabiel zou worden, maar niet dat de kaart helemaal niks doet.
@Vuikie Supervervelend als je net een mooie dure GPU hebt aangeschaft en dit probleem hebt.Vuikie schreef op dinsdag 14 oktober 2025 @ 15:09:
Hallo allemaal,
Ik heb een uitdaging. Ik ben in het proces om mijn verouderde I7 3930K op een Asus P9x79 (Intel X79 chipset)waar ik een 1080 GTX op draai, up te graden. Al hoewel dit systeem nog heel stabiel is, begint wel zijn leeftijd te tellen. Nu ben ik er nog niet uit of ik bij Intel blijf of over ga naar AMD qua CPU, maar ik wil al wel mijn nieuwste spel gaan spelen(Doom the dark ages). Maar die draait, helaas, niet op mijn 1080. Ik zag bij proshop.nl de Gigabyte 5080 RTX voor 15% korting, die gelijk besteld. Na 2 dagen kwam die netjes binnen. In m'n computer gezet. De kaart zit in een PCI-e 16x gen 3.0 slot. Maar de kaart doet helemaal niks. fans slaan niet aan, geen beeld, helemaal niks. De PC loopt niet vast, want de numlock van mn keyboard blijft t wel doen en als ik de power knop indruk gaat het systeem direct weer uit. Ik heb geen PC-speaker in m'n systeem, dus ik weet niet of de mobo een error code geeft.
De I7 3930k heeft een tdp van 130W en de 5080 360W. Ik heb een 550W voeding in m'n systeem en de 12VHPWR connector heb ik meerdere malen gecontrolleerd of ie goed zit. De vording is wat krap, dat weet ik, maar de videokaart zou toch wel iets van beeld moeten laten zien. M'n moederboard heeft ook de laatste bios, heb ik ook gecontroleerd, ik heb alle poorten geprobeerd(HDMI,DP-poorten) maar helemaal niks. Zelfs een ander beeldscherm, ook die geeft geen sjoege. De videokaart een een keuze switch tussen 'performance bios' en 'silent bios', maar dat maakt ook geen verschil. Ik heb de kaart ook al een keer uit het systeem gehaald en in de 2de 16x PCI-e slot gestoken, zelfde resultaat.
Ik wil in mn vriendenkring kijken of ik bij iemand anders de kaart kan testen. Maar vooral dat de fans helemaal niks doen heb ik het idee dat OF de kaart incompatible is met mijn moederbord(5x kaart kan toch gewoon in een 3x slot?) OF het is een doa...
Weet iemand hier nog iets wat ik zou kunnen proberen?
Een 550W voeding zegt namelijk niet zoveel anders dan dat nogal aan de krappe kant is. Als de voeding net zo oud is als de rest van het systeem is de kans bijv ook levensgroot dat deze slecht of mogelijk helemaal niet om kan gaan met de transient spikes die moderne GPU's en CPU's genereren.
Kans op een DOA is sowieso niet zo groot en in dit geval is er veel meer aanleiding om het in de rest van je systeem te zoeken. Beste advies: probeer de kaart in een ander systeem.
Daarnaast is die cpu eind 2011 !
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
| # | Categorie | Product | Prijs | Subtotaal |
|---|---|---|---|---|
| 1 | Processors | Intel Core i7 3930K Boxed | € 0,- | € 0,- |
| 1 | Moederborden | Asus P9-X79 | € 0,- | € 0,- |
| 1 | Videokaarten | Asus ROG STRIX-GTX1080-A8G-GAMING | € 0,- | € 0,- |
| 1 | Behuizingen | Asus Vento 3600 (ATX, Geen PSU, Rood) | € 0,- | € 0,- |
| 1 | Processorkoeling | Zalman CNPS9900DF | € 0,- | € 0,- |
| 1 | Geheugen intern | G.Skill F3-19200CL11Q-16GBZH | € 0,- | € 0,- |
| 1 | Voedingen | Cooler Master GM G550M | € 0,- | € 0,- |
Gigabyte 5080 GTX
Ik realiseer me heel goed dat de CPU gigantisch de bottleneck gaat zijn, maar deze kaart is voor nu en het idee is dat ik volgend jaar januari-februari de rest ga upgraden... Maar, misschien ga ik nu al investeren in de betere PSU...
Dat wat @Sissors zegt heb ik ook. Ik bouw al heel lang mijn eigen systemen, maar deze GFX geeft 0 teken van leven, geen LED, geen output, helemaal niks...
*Edit*
Wat mij wel opvalt is dat de pcie connector van de 5080(links) anders is dan die van de 1080(rechts) voor wat dat mag betekenen...
[ Voor 12% gewijzigd door Vuikie op 14-10-2025 16:13 ]
Ja, op zich goede gedachte. Alleen bij mijn weten worden er eigenlijk (bijna) of misschien zelfs geenSissors schreef op dinsdag 14 oktober 2025 @ 16:00:
Maar als zijn voeding niet de stroom spikes kan leveren zou ik verwachten dat hij wel iets teken van leven geeft bij het opstarten. Tenzij de kaart zelf al detecteert dat hij geen (goede) voeding krijgt, wat ook kan doordat de 12VHPWR een 300W model is. Maar dat is uiteraard niet het geval bij verloopstekkertje die bij de GPU zelf zat. En als dat wel zo was, dan zou het lampje moeten gaan branden.
Een 5080 heeft een max 380W power draw. de 3930 heeft TDP van 130W PCIe slot levert ook nog ~75W. Tja, kan misschien maar lijkt me erg krap met zo'n oude voeding.
@Vuikie. Gebruik je de 12VHPWR connector die bij de 5080 zat ? En hoeveel verloopstukjes naar PCI-e zitten daar aan vast
[ Voor 4% gewijzigd door Help!!!! op 14-10-2025 16:22 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ja, ik gebruik de 12VHPWR connector die bij de kaart zit.Help!!!! schreef op dinsdag 14 oktober 2025 @ 16:13:
[...]
@Vuikie. Gebruik je de 12VHPWR connector die bij de 5080 zat ? En hoeveel verloopstukjes naar PCI-e zitten daar aan vast
Ik gebruik alle 3 de aansluitingen. 2 direct de PSU in en 1 via de 'modulaire' aansluiting van de PSU...
[ Voor 12% gewijzigd door Vuikie op 14-10-2025 16:16 ]
Dat laatste begrijp ik niet. De verloopconnector bij de kaart heeft aan 1 kant alleen de 12vhpwr connector en aan de andere kant een aantal 'ouderwetse" PCIe connectoren. Hoeveel van die "ouderwetse" connectoren zitten er aan de verloopkabel?
Volgensmij zitten er 3 ouderwetse connectoren aan dat verloopje. En jouw voeding heeft maar twee PCIe kabels. Denk vrij aardige kans dat het daar fout gaat.
Kun je anders wellicht een foto posten hoe je dat verloopje hebt aangesloten?
[ Voor 34% gewijzigd door Help!!!! op 14-10-2025 16:30 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
En daarnaast natuurlijk
- de boel nog eens goed eruit halen en checken of hij echt goed zit
- bios firmware update naar meest actuele versie
- check of de PCI-e settings in het bios niet op bijv 3.0 modus moeten worden gezet of dat er een andere setting is die iets blokkeert.
youtube.com/@hisrep
Ik heb ze wel gezien, zelfs 650W voedingen die dan een 300W kabel meeleverde. Maar heel veel doen idd ook gewoon overal een 600W kabel in. Het zou leuk zijn geweest als het niet de kabel was maar de voeding was die communiceerde hoeveel hij kon leveren, maar goed, dat is offtopicHelp!!!! schreef op dinsdag 14 oktober 2025 @ 16:13:
[...]
Ja, op zich goede gedachte. Alleen bij mijn weten worden er eigenlijk (bijna) of misschien zelfs geen12vhpwr kabels geleverd die daadwerkelijk volgens die specificatie werken.
ik heb deze maar besteld om er zeker van te zijn dat de voeding niet het probleem is. En met het idee dat ik de rest van het systeem ook wil gaan upgraden, gelijk maar 1000w...DeNachtwacht schreef op dinsdag 14 oktober 2025 @ 16:33:
Ik zou echt beginnen met een goede voeding kopen @Vuikie om dit simpelweg uit te sluiten. We weten allemaal 1 ding zeker 550W is veel te laag voor die gpu, het is ook een Bronze model dat max 12 jaar oud zou kunnen zijn. Een goede 850W voeding is niet het eind van de wereld qua prijs en voor je upgrade volgend jaar is die prima mee te nemen. Bijvoorbeeld: uitvoering: NZXT C850 Gold Core
En daarnaast natuurlijk
- de boel nog eens goed eruit halen en checken of hij echt goed zit
- bios firmware update naar meest actuele versie
- check of de PCI-e settings in het bios niet op bijv 3.0 modus moeten worden gezet of dat er een andere setting is die iets blokkeert.
Eerlijk gezegd zou ik een goedkoop AM4 setje zoeken in de V&A, als je er één vindt met 5800XT processor en 32GB ram kun je daar nog best lang plezier van hebben i.c.m. je huidige kaart tegen niet al te hoge kosten.
youtube.com/@hisrep
1000 watt is overkill voor een RTX 5080. Zie mijn bericht hierboven, je zult met een nieuw of 2e hands mobo/cpu/ram setje aan de slag moeten. Daar zit het probleem.Vuikie schreef op dinsdag 14 oktober 2025 @ 16:40:
[...]
ik heb deze maar besteld om er zeker van te zijn dat de voeding niet het probleem is. En met het idee dat ik de rest van het systeem ook wil gaan upgraden, gelijk maar 1000w...
youtube.com/@hisrep
youtube.com/@hisrep
Ik snap nog niet precies welke kabels je hebt gebruikt. Want volgens daar heb je inderdaad 2x 8 pins PCIe in je kabelboom, maar modulair heb je geen extra 8 pins connectoren volgens die.
Rtx 5080 draait hier probleemloos op een Rm750 Corsair voeding, 1000w gebruik ik voor een 4090 maar ik denk dat de Rm750 dat ook nog wel zou trekken (icm een zuinige x3d cpu).Vuikie schreef op dinsdag 14 oktober 2025 @ 16:40:
[...]
ik heb deze maar besteld om er zeker van te zijn dat de voeding niet het probleem is. En met het idee dat ik de rest van het systeem ook wil gaan upgraden, gelijk maar 1000w...
Bedankt iedereen voor het meedenken. Ik ga kijken wat een andere voeding doet en anders bestel ik de rest er ook bij... Ik zat te denken aan een 7700 tray...
Dat is 66% load op een 80 Gold Plus PSU, ik weet niet wat de 5080 max kan trekken maar stel dat het gecombineerde systeem 550W verbruikt dan is een 750W voeding ruim voldoende... (wat @meljor ook dus ook zegt).
[ Voor 6% gewijzigd door ArcticWolf op 14-10-2025 20:24 ]
5800X3D, MSI X370, MSI 5070Ti
Dat is m.i. een heel slecht idee. Die modulaire aansluitingen op die voeding zijn daar eigenlijk helemaal niet voor bedoeld. Formeel kan het wel maar denk geen wonder dat de PC niks doet.Vuikie schreef op dinsdag 14 oktober 2025 @ 20:09:
@Sissors bij mn 1080 zat een verloop van 2x molex naar 8pin PCIe, die aangesloten op een aparte kabel naar 1 van mn vrije 'modulaire' aansluitingen op de voeding.
Bedankt iedereen voor het meedenken. Ik ga kijken wat een andere voeding doet en anders bestel ik de rest er ook bij... Ik zat te denken aan een 7700 tray...
Wat gebeurt er als je alleen de 2 PCIe kabels op het verloop aansluit ? Start ie dan wel op?
Voor dat je veel geld uitgeeft zou ik toch even proberen de kaart bij een bekende in een modernere PC te zetten om uit te sluiten dat de GPU niet toch DOA is.
PS: Heb nog een 7700X in goede staat omdat ik nu net een 9800X3D heb, die doe ik weg voor E190 incl. verzenden via postnl. Laat maar weten via DM of je interesse hebt.
[ Voor 28% gewijzigd door Help!!!! op 14-10-2025 22:21 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Het was idd toch de voeding. Had ik niet verwacht, blijkbaar is 1 keer in de 10 jaar je systeem bouwen/upgraden niet dat je dan een expert ben
ieg. nogmaals bedankt voor t meedenken...
Denk dat de GPU defect is of dat hij net niet lekker in mijn itx kast past / en contact niet goed is met pci slot. Aan de andere kant wel vreemd dat undervolt het probleem oplost. Een nieuwe 1000watt voeding al getest en geeft geen verschil.
[ Voor 142% gewijzigd door Workaholic op 17-10-2025 23:31 ]
Ik heb ook nog een ATX2.3 voeding, werkt prima. Maar wel 2x PCI-E 8 pin vanaf de voeding (op dezelfde rail) naar de 12 pin. Had eerst m'n 7800XT wel met 1x PCI-E 8 pin kabel aangesloten, die op het einde dan 2x 8 pin heeft... die kaart trok ook ruim 270WGame_overrr schreef op vrijdag 17 oktober 2025 @ 15:00:
Het was 100% je voeding, een oude voeding heeft waarschijnlijk geen support voor ATX3.0, een voeding die jij beschrijft heeft waarschijnlijk ATX2.3 of iets dergelijks. Is niet compatibel met elkaar. Daarnaast ook niet handig om te gebruiken, de RTX4 en 5 series geven een hele andere piekbelasting op de voeding.
5800X3D, MSI X370, MSI 5070Ti
Blijkt dat deze idle 100 watt trekt en met volle belasting 'slechts' 650 watt.
Voelt dan toch een beetje als een teleurstelling dat ik een 1000 watt voeding dacht nodig te hebben.
Disclaimer; wel met afterburner actief die de zaak een beetje temt
weet het niet meer
Je zal ongetwijfeld pieken hebben die veel hoger liggen dan 650w, en dan is een beetje headroom / buffer natuurlijk wel wenselijk.Vishari Beduk schreef op maandag 20 oktober 2025 @ 19:05:
Ik heb toch eens mijn 'energie meter' tussen mijn PC met RTX 5090 en mijn stopcontact gezet.
Blijkt dat deze idle 100 watt trekt en met volle belasting 'slechts' 650 watt.
Voelt dan toch een beetje als een teleurstelling dat ik een 1000 watt voeding dacht nodig te hebben.
Disclaimer; wel met afterburner actief die de zaak een beetje temt
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Het volgende heb ik al geprobeerd:
- Alle poorten op de GPU getest ook met een andere kabel (HDMI)
- De kaart opnieuw in zijn slot gezet, kabels gecheckt en zie geen burn marks o.i.d.
- Driver opnieuw proberen te installeren maar dat lijkt niet te werken want de Nvidia App zegt steeds dat er geen stuurprogramma is. In GPU-Z is er overigens wel een stuurprogramma te zien.
- Mijn BIOS naar de nieuwste versie gezet
- Mijn PCIe lanes van AUTO naar 4.0 en 3.0 gezet, helaas zonder succes
- Via apparaatbeheer wordt mijn RTX 5090 nog wel herkend en ik zie overigens ook de ventilatoren van de kaart draaien
Weet iemand wat ik nog kan doen voordat ik moet overgaan tot een RMA?
ASUS ROG Strix B650E-F GAMING | 7800X3D | MSI RTX 5090 VENTUS 3X OC | 32GB DDR5 | 2,5 TB storage | Be quiet! Pure Base 500DX | Windows 10 Pro
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ik heb helaas niet de beschikking over een andere PC met krachtige voeding die dit monster even zou kunnen testen.nzall schreef op dinsdag 21 oktober 2025 @ 21:01:
Heb je al eens de GPU in een andere PC geprobeerd? Als ie daar niet werkt grote kans dat hij kapot is en je ermee terug naar de winkel kan.
Overigens misschien nog een belangrijk detail maar als ik alleen de RTX 5090 aangesloten laat dan blijft het groene lampje (BOOT) op mijn moederbord branden.
ASUS ROG Strix B650E-F GAMING | 7800X3D | MSI RTX 5090 VENTUS 3X OC | 32GB DDR5 | 2,5 TB storage | Be quiet! Pure Base 500DX | Windows 10 Pro
Ook een cmos reset geprobeerd?
Wat voor voeding heb je?
Misschien kan je nog in veilige modus alle nv drivers e.d. eraf gooien, DDU draaien en alle monitoring software eraf gooien of uitzetten en daarna na rebooten de nvidia drivers zonder de nvidia app proberen te installeren?
Als dat niet lukt heb ik er een hard hoofd in.
En denk ik dat ie dood is. 😭
Hopelijk krijg je m nog aan de praat.
[ Voor 92% gewijzigd door Format-C op 21-10-2025 22:31 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een 1000W voeding bij 650W is waarschijnlijk nog redelijk efficient, terwijl de efficiëntie bij een 850W PSU een stuk slechter is.Vishari Beduk schreef op maandag 20 oktober 2025 @ 19:05:
Ik heb toch eens mijn 'energie meter' tussen mijn PC met RTX 5090 en mijn stopcontact gezet.
Blijkt dat deze idle 100 watt trekt en met volle belasting 'slechts' 650 watt.
Voelt dan toch een beetje als een teleurstelling dat ik een 1000 watt voeding dacht nodig te hebben.
Disclaimer; wel met afterburner actief die de zaak een beetje temt
Maar idd, ook bij mijn 5070Ti werd 850W minimaal aangeraden en werkt helemaal prima met mijn 650W voeding van Corsair.
5800X3D, MSI X370, MSI 5070Ti
De kaart past niet in mijn 2e PCI-E slot. En de CMOS resetten heb ik nog nooit eerder gedaan en ik wil daar niet mijn moederbord mee bricken o.i.d. Mijn voeding is een Corsair RM1000x (2024) die ik sinds afgelopen november nieuw erin heb gezet. Verder heb ik via DDU de driver verwijderd en opnieuw geïnstalleerd maar zonder succes. Ook heb ik Secure Boot uitgezet en geprobeerd om mijn pc vanuit CSM-mode op te starten maar ook dat helpt helaas niet. Het laatste wat ik nog kan proberen is om een andere GPU in mijn PCI-E slot te doen om te kijken of die dan wel werkt. Als die kaart werkt dan ben ik bang dat mijn RTX 5090 echt stuk is en ik hem maar beter terug naar Alternate kan sturen voor RMA.Format-C schreef op dinsdag 21 oktober 2025 @ 22:21:
Misschien kan je de kaart nog in het andere pcie slot van je mobo proberen? Of had je dat al gedaan? (Er zitten 2 pcie x16 slots op toch?)
Ook een cmos reset geprobeerd?
Wat voor voeding heb je?
Misschien kan je nog in veilige modus alle nv drivers e.d. eraf gooien, DDU draaien en alle monitoring software eraf gooien of uitzetten en daarna na rebooten de nvidia drivers zonder de nvidia app proberen te installeren?
Als dat niet lukt heb ik er een hard hoofd in.
En denk ik dat ie dood is. 😭
Hopelijk krijg je m nog aan de praat.
Als iemand hier ook problemen mee heeft/gehad en nog een andere gouden tip heeft dan hoor ik het graag!
Edit: Ik zie overigens ook dat de VBIOS om een of andere reden verdwenen lijkt te zijn (zie screenshot GPU-Z) waardoor de kaart mogelijk nog wel herkend wordt maar onbruikbaar is. Zou het flashen van de VBIOS kunnen helpen?
https://www.reddit.com/r/...or_code_43_on_blade_gpus/
Ik kan alleen nog geen officiële VBIOS-versie vinden:
https://www.techpowerup.com/vgabios/274459/274459
[ Voor 12% gewijzigd door LarsV op 22-10-2025 10:23 ]
ASUS ROG Strix B650E-F GAMING | 7800X3D | MSI RTX 5090 VENTUS 3X OC | 32GB DDR5 | 2,5 TB storage | Be quiet! Pure Base 500DX | Windows 10 Pro
Moederbord brickt niet door een Cmos reset, alleen door een bad flash maar dat is iets heel anders. Dus toch even resetten.LarsV schreef op woensdag 22 oktober 2025 @ 10:07:
[...]
De kaart past niet in mijn 2e PCI-E slot. En de CMOS resetten heb ik nog nooit eerder gedaan en ik wil daar niet mijn moederbord mee bricken o.i.d. Mijn voeding is een Corsair RM1000x (2024) die ik sinds afgelopen november nieuw erin heb gezet. Verder heb ik via DDU de driver verwijderd en opnieuw geïnstalleerd maar zonder succes. Ook heb ik Secure Boot uitgezet en geprobeerd om mijn pc vanuit CSM-mode op te starten maar ook dat helpt helaas niet. Het laatste wat ik nog kan proberen is om een andere GPU in mijn PCI-E slot te doen om te kijken of die dan wel werkt. Als die kaart werkt dan ben ik bang dat mijn RTX 5090 echt stuk is en ik hem maar beter terug naar Alternate kan sturen voor RMA.
Als iemand hier ook problemen mee heeft/gehad en nog een andere gouden tip heeft dan hoor ik het graag!
Edit: Ik zie overigens ook dat de VBIOS om een of andere reden verdwenen lijkt te zijn (zie screenshot GPU-Z) waardoor de kaart mogelijk nog wel herkend wordt maar onbruikbaar is. Zou het flashen van de VBIOS kunnen helpen?
https://www.reddit.com/r/...or_code_43_on_blade_gpus/
Ik kan alleen nog geen officiële VBIOS-versie vinden:
https://www.techpowerup.com/vgabios/274459/274459
Je kunt in GPU-Z proberen je vbios te extracten. Als dat lukt dan is het probleem misschien niet je bios.
Als dat niet lukt is het denk ik sowieso geen goed nieuws.
Maar misschien is hier dan een andere tweaker met exact dezelfde kaart die zijn bios kan extracten en naar je wil sturen via DM. Dan zou je dat, als je het vertrouwt kunnen proberen te flashen.
Maar eerlijk gezegd, en nofi, als je al zenuwachtig wordt van een cmos reset is de beste optie de kaart in een andere pc te testen en als dat niet gaat gewoon gelijk RMA bij Alternate te doen.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Sowieso is dat een risico op de kaart bricken als de kaart een defect heeft.
En het tweede is dat je bij de meeste (alle?) Fabrikanten volgens mij geen garantie meer hebt als je het vbios van de kaart gaat flashen...
Met bijvoorbeeld een Gigabyte videokaart en een bios update en tooltje van hun website zit dat wellicht anders.
Dank voor het advies allen maar ik heb gisteren toch besloten om de kaart naar Alternate terug te sturen. Het leek me inderdaad te risicovol om te proberen de VBIOS van mijn GPU te flashen — als dat misgaat, weet ik namelijk niet of Alternate of MSI daar nog coulant mee zouden omgaan. Andere pogingen, behalve het resetten van mijn BIOS, hebben er niet toe geleid dat de GPU weer werkte en daarom lijkt het me verstandig dat Alternate ernaar gaat kijken.
Het is op dit moment erg druk bij de RMA-afdeling van Alternate, dus het zal waarschijnlijk even duren voordat ik bericht krijg, maar ik wacht liever wat langer dan dat ik het risico loop de kaart per ongeluk zelf te ‘bricken’ of iets dergelijks.
ASUS ROG Strix B650E-F GAMING | 7800X3D | MSI RTX 5090 VENTUS 3X OC | 32GB DDR5 | 2,5 TB storage | Be quiet! Pure Base 500DX | Windows 10 Pro
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.






:strip_exif()/f/image/MHOA1X95mtJdu5gkqvz7Q4Ww.jpg?f=fotoalbum_tile)
:strip_exif()/f/image/ZG4TQI5VotZBfIHhWBR8uKEO.jpg?f=fotoalbum_tile)