Wie goed doet, die goed ontmoet.
Nee dat kan gewoon hoor! Mijn fans slaan pas aan bij 60 graden is meer 🙂 alleen de input van gpu op de systen fans dat is nastyAtlAntA schreef op dinsdag 29 december 2020 @ 09:50:
[...]
Ja BIOS is wel het sjjiekste dat ben ik met je eens. Maar afaik kan je je fans in het GB BIOS niet op 0rpm zetten. Dat kan bij Argus wel.
Sinds vandaag een Gigabyte 3070 Gaming OC ontvangen en in mijn PC gebouwd. Echter bij het inbouwen schijnt mijn kaart dus 'connector' problemen te hebben (zie reddit topic hieronder).
Sommige pinnetjes op de videokaart waar de PSU kabel in moet zitten niet helemaal recht waardoor de PSU kabel er niet goed in klikt. Nu heb ik met een platte schroevendraaier deze pinnen recht gezet waardoor de psu kabels nu wel klikken en passen. Het werkt echter prima tot nu toe, echter zit het mij toch niet helemaal lekker. Wat zouden jullie doen, terug sturen of zo houden?
Als ik het terug stuur dan moet ik waarschijnlijk weer heel lang wachten.
https://www.reddit.com/r/...ng_oc_power_pins_problem/
Als het werkt zou ik 'm gewoon houden. Duurt anders weer lang voordat je een nieuwe krijgt ben ik bang.Metalbuster schreef op dinsdag 29 december 2020 @ 20:11:
Ik weet niet goed of dit hier hoort, maar het is volgens mij wel een 'ervaring' post betreft een 3070.
Sinds vandaag een Gigabyte 3070 Gaming OC ontvangen en in mijn PC gebouwd. Echter bij het inbouwen schijnt mijn kaart dus 'connector' problemen te hebben (zie reddit topic hieronder).
Sommige pinnetjes op de videokaart waar de PSU kabel in moet zitten niet helemaal recht waardoor de PSU kabel er niet goed in klikt. Nu heb ik met een platte schroevendraaier deze pinnen recht gezet waardoor de psu kabels nu wel klikken en passen. Het werkt echter prima tot nu toe, echter zit het mij toch niet helemaal lekker. Wat zouden jullie doen, terug sturen of zo houden?
Als ik het terug stuur dan moet ik waarschijnlijk weer heel lang wachten.
https://www.reddit.com/r/...ng_oc_power_pins_problem/
Press any button... "Where is the 'any button'?!"
@Thrawni Same here. -150 in MSI Afterburner, dan de curve aanpassen. Ik pak 0.850v en knal die naar 1935. +500 op de mem, hoger degradeert de scores, en powerslider + temp slider naar max.LeStef schreef op dinsdag 29 december 2020 @ 20:38:
Ik. Undervolted naar 0.860v @1925MHz op core + 500 op geheugen, nog geen tijd gehad om verder te zoeken.
Die van mij zit op water en kan bij 0.943v veel hogere clocks halen maar de score stijgt maar amper terwijl het stroomverbruik dan toch al op de 340W zit. Op 0.850v zit het stroom zo bij 270W wel op z'n max
Bonus punten, bij 0.850v heb ik ook véél minder last van de coilwhine brom die hij produceert (Asus 3080 EK).
Hieronder een overzichtje van mijn notepad kladje met resultaten:
Gedurende alle test blijft de GPU temp onder de <50c, hele PC zit op EKWB loop met 420 + 280 rad.
PL = Powerlimit % increase
CTR = ClockTuner profile voor Ryzen 3800x toegepast
Target = Frequency target in curve op voltage punt
Score = 3dmark Port Royal score
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
| Port Royal 3080 EK Score Clock Voltage Power Comment STOCK 11309 1935mhz 1.081v 319W 1935 PL14 11437 1920mhz 0.893v 279W 1890 PL14 11353 1890mhz 0.850v 261W 1935 MEM OC 11617 1920mhz 0.850v 271W ^ + CTR 11660 1920mhz 0.850v 270W ???? PL0 11740 1980mhz 0.925v 308W 2040 PL14 11920 2025mhz 0.925v 315W 2040 PL14 crash 2040mhz 0.900v 307W 2030 PL14 11889 2040mhz 0.900v 304W 2025 PL14 11844 2010mhz 0.893v 300W 2070 PL14 12071 2070mhz 0.950v 331W 2070 PL14 12005 2055mhz 0.944v 323W unstable 2055 PL14 11911 2025mhz 0.944v 321W stable 30min 2040 PL14 11959 2025mhz 0.944 324W 2025 PL14 11885 2010mhz 0.944 323W stable 35min 2010 PL14 11825 1995mhz 0.875v 290W unstable 1995 PL14 11825 1995mhz 0.875v 290w unstable 1980 PL14 11697 1980mhz 0.875v 288W MemOC 3080 EK Score Clock Voltage Power Mem clock 2025 PL14 11885 2010mhz 0.944 323W mem +100 11845 2010mhz 0,944 322W 9602mhz mem +200 11905 2010mhz 0,944 322W 9702mhz mem +300 11931 2010mhz 0,944 324W 9802mhz mem +400 11976 2025mhz 0,944 324W 9902mhz mem +475 11961 2025mhz 0,944 331W 9976mhz mem +498 11984 2025mhz 0,944 331W 10000mhz mem +500 12027 2025mhz 0,944 327W 10002mhz mem +550 11972 2010mhz 0,944 327W 10052mhz mem +600 11994 2025mhz 0,944 327W 10102mhz mem +700 12067 2025mhz 0,944 330W 10202mhz mem +800 12022 2025mhz 0,944 328W 10302mhz |
Hier een overzichtje van het vergelijk wat ik maakte toen ik de kaart kreeg tussen de affabriek waterblock kaarten van fabrikanten, ik heb zelf de Asus, waarbij ik dus de boost clocks inklop die bijv op de Gigabyte Waterforce WB standaard zit:
1
2
3
4
5
6
7
8
9
| Timespy Total GPU CPU Power GIGABYTE 16561 18426 10527 348W INNO3D 16256 18051 10399 348W ASUS OC PL 16181 17897 10485 348W ASUS OC 16179 17889 10495 340W ASUS 15881 17494 10433 320W STOCK 15920 17534 10464 ??? 1890 PL14 15999 17672 10414 276W CTR + UV 16554 18354 10641 290W |
[ Voor 9% gewijzigd door Mobzy op 29-12-2020 22:16 ]
Lekker houden, elke gaming oc heeft dat in zekere mate.Metalbuster schreef op dinsdag 29 december 2020 @ 20:11:
Ik weet niet goed of dit hier hoort, maar het is volgens mij wel een 'ervaring' post betreft een 3070.
Sinds vandaag een Gigabyte 3070 Gaming OC ontvangen en in mijn PC gebouwd. Echter bij het inbouwen schijnt mijn kaart dus 'connector' problemen te hebben (zie reddit topic hieronder).
Sommige pinnetjes op de videokaart waar de PSU kabel in moet zitten niet helemaal recht waardoor de PSU kabel er niet goed in klikt. Nu heb ik met een platte schroevendraaier deze pinnen recht gezet waardoor de psu kabels nu wel klikken en passen. Het werkt echter prima tot nu toe, echter zit het mij toch niet helemaal lekker. Wat zouden jullie doen, terug sturen of zo houden?
Als ik het terug stuur dan moet ik waarschijnlijk weer heel lang wachten.
https://www.reddit.com/r/...ng_oc_power_pins_problem/
De fix vanuit fabriek is een rubber bandje net achter de aansluiting, zodat de pinnen wat beter zitten.
En dat zal vast ook wel eens niet goed zitten, gewoon een wat slordig ontwerp maar het werkt wel als het eenmaal zit.
Van sommige modellen heb je een normale versie en oc of x versie.
Kan je de gewone versie Flashen met de OC versie hiervan?
Dit kan zeker!Aggressor schreef op woensdag 30 december 2020 @ 00:15:
Weet iemand het volgende?
Van sommige modellen heb je een normale versie en oc of x versie.
Kan je de gewone versie Flashen met de OC versie hiervan?
Als je minder bekend bent in het flashen van een BIOS en in het geval dat het niet goed gaat wat je moet doen, wat je ook kan doen is met MSI Afterburner zelf de kleine OC toepassen. Dan kan je in ieder geval altijd terug naar de standaard settings zonder gekloot en heb je niet het gevaar dat de overclock niet stable is en je kaart dan problemen krijgt.
Ik gebruik altijd MSI afterburner voor overclocks, licht programma die de OC standaard toepast bij starten van Windows
Edit: Draai nu mijn 3070 suprim x al 2 weken op 2100mhz en 8000 memspeed en tot nu toe nog geen 1x dat afterburner niet automatisch de overclock er op zet. IMO veel makkelijker dan het flashen van een bios voor alleen een lichte overclock op je kaart.
[ Voor 14% gewijzigd door MJPost97 op 30-12-2020 01:56 ]
Ik zit stiekem te denken om te downgraden naar 6900XT maar wat zou het schelen in stroomverbruik en temps?
Man, ik mis mijn 2080Ti Kingpin wel! 2100MHz 24/7 en met dit weer 44*C load met twee Noctua 12x25's.
zou je die kunnen sturen?
Je hebt serieus een 3090 gekocht en bent nu teleurgesteld in het stroomverbruik?Zuur.Pruim schreef op woensdag 30 december 2020 @ 02:31:
Ik blijf het stroomverbruik van Ampere zo verdomd jammer vinden...een 3090 vreet zelfs op 0.875V nog steeds zo'n 430W op in TimeSpy Extreme stress test. In Quake II RTX is het stroomverbruik nagenoeg net zo hoog als het PL...450W all the way.
Ik zit stiekem te denken om te downgraden naar 6900XT maar wat zou het schelen in stroomverbruik en temps?
Man, ik mis mijn 2080Ti Kingpin wel! 2100MHz 24/7 en met dit weer 44*C load met twee Noctua 12x25's.
Zit hem in zijn naam418O2 schreef op woensdag 30 december 2020 @ 09:19:
[...]
Je hebt serieus een 3090 gekocht en bent nu teleurgesteld in het stroomverbruik?
Je doet de aanname dat het gaat om het geld. Het kan ook om warmte + principe gaan. Zelf vind ik het stroomverbruik ook belachelijk. Uit principe wil ik eigenlijk mn 650w voeding niet hoeven upgraden. Dat wattage zou in mijn ogen meer dan genoeg moeten zijnunfor schreef op woensdag 30 december 2020 @ 10:52:
Ik snap het ook niet helemaal, waarschijnlijk zo'n 1700-2000 aftikken voor een 3090 en je dan zorgen maken over je stroomrekening die een paar euro hoger is.
Edit: je zou een 3090 ook redelijk kunnen undervolten (power limit op 80% ofzo?). Dan heb je nog goede performance en een hopelijk acceptabel verbruik
[ Voor 51% gewijzigd door Pindamann op 30-12-2020 12:06 ]
9800X3D | 3070
Sorry, maar als je een videokaart van ~2000 euro koopt dan heb je sowieso al weinig principes meer.Pindamann schreef op woensdag 30 december 2020 @ 11:51:
[...]
Je doet de aanname dat het gaat om het geld. Het kan ook om warmte + principe gaan. Zelf vind ik het stroomverbruik ook belachelijk. Uit principe wil ik eigenlijk mn 650w voeding niet upgraden
Het maakt niet uit welke je probeert. Wat ik heb gedaan is een undervolt zoeken. En die dan stress testen via 3dmark. En voor elke game een nieuwe voltage/clock snelheden isntellen is erg veel werk. Kies gewoon 1/2 profielen waarmee je tevreden bent en stel die dan in.Thrawni schreef op woensdag 30 december 2020 @ 12:55:
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.
Daarnaast pwr limits met undervolts zul je blijven houden. Ze willen heel graag veel wattage slurpen
Nu is het een forse grote kaart en je hebt natuurlijk altijd wat doorzakken bij grote kaarten, maar meer mensen met een 3080/3090 Gaming OC waarbij dit ineens zichtbaar opvalt?
i7-10700k | 32GB @3200Mhz | RTX 3090
Die kaart heeft een backplate dus heel ver kan het nooit door zakken.Rubenvdk schreef op woensdag 30 december 2020 @ 13:24:
Nog steeds dik tevreden over mijn Gigabyte 3090 Gaming OC. Wel valt me op dat de kaart voor mijn gevoel ineens begint door te zakken.
Nu is het een forse grote kaart en je hebt natuurlijk altijd wat doorzakken bij grote kaarten, maar meer mensen met een 3080/3090 Gaming OC waarbij dit ineens zichtbaar opvalt?
Of het is zijn PCIE slot wat begint te buigen?unfor schreef op woensdag 30 december 2020 @ 13:31:
[...]
Die kaart heeft een backplate dus heel ver kan het nooit door zakken.
Wie goed doet, die goed ontmoet.
Nee, aan die kant zit alles behoorlijk stabiel want daar schroef je hem vast. Kan me geen voorstelling maken dat een pci-e slot doorbuigt terwijl de videokaart zit vastgeschroefd.AtlAntA schreef op woensdag 30 december 2020 @ 14:37:
[...]
Of het is zijn PCIE slot wat begint te buigen?
Als je in HWInfo nog steeds tegen een power limit aan loopt zit je nog te hoog in het voltage, bij mij ligt die grens ongeveer op de 944mV met powerslider op 114%. Maar de powerlimit in de VBIOS is voor elke 3080 anders ingesteld door de fabrikanten. Dus zakken met dat voltage, en dan totdatie bij full load (Port Royal) geen powerlimit meer aangeeft. Hiervoor zul je ook je koeling op max moeten zetten om zeker te zijn dat je niet eerder tegen een temp limit aan loopt.Thrawni schreef op woensdag 30 december 2020 @ 12:55:
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.
Time Spy (extreme) zet geen load op de 'hele' kaart. Dat doet alleen Port Royal omdat deze ook de RT cores pakt, Time Spy doet dit niet. Daarom dus undervolten/overclocken met Port Royal (zeker voor Cyber Punk als je met RT speelt). Zodra je dan een undervolt/overclock hebt die je benchmark doorstaat moet je minimaal 1 stability test van Port Royal kunnen doorstaan. In mijn eerder geposte lijstje had ik dus voltages met clocks die goed benchde, maar na 20-25 minuten de stability test van Port Royal failde. Dan moet dus OF het voltage omhoog (maar die moet wel onder de powerlimit blijven) of de core clock omlaag.ZelianGuy schreef op woensdag 30 december 2020 @ 13:00:
[...]
Het maakt niet uit welke je probeert. Wat ik heb gedaan is een undervolt zoeken. En die dan stress testen via 3dmark. En voor elke game een nieuwe voltage/clock snelheden isntellen is erg veel werk. Kies gewoon 1/2 profielen waarmee je tevreden bent en stel die dan in.
Dit is dus pertinent onwaar. Op 850mV zitie maximaal op 290W en dat is ver van de ~340W powerlimit. Dat geeft ook HWInfo aan, en Afterburner kan dit volgens mij ook monitoren. Als je nog steeds een powerlimit constateert dan moet je dus verder zakken in voltage.Daarnaast pwr limits met undervolts zul je blijven houden. Ze willen heel graag veel wattage slurpen
Bij Port Royale toont die geen Pwr limits, op 0,875v @1920 (boost naar 1935), 100% load, maar bij timespy extreme wel. Nu had ik de pwr slider wel altijd gewoon op 100% staan dus ik zal eens kijken of die bij timespy extreme nog steeds pwr limits toont (gebruik GPU-z trouwens, geen HWinfo) als de pwr slider naar zijn max is. Inmiddels de voltage 1 stap omhooggedaan gezien die zojuist crashde tijdens CoD BO CW (0,881v @ 1920/1935)Mobzy schreef op woensdag 30 december 2020 @ 15:04:
[...]
Als je in HWInfo nog steeds tegen een power limit aan loopt zit je nog te hoog in het voltage, bij mij ligt die grens ongeveer op de 944mV met powerslider op 114%. Maar de powerlimit in de VBIOS is voor elke 3080 anders ingesteld door de fabrikanten. Dus zakken met dat voltage, en dan totdatie bij full load (Port Royal) geen powerlimit meer aangeeft. Hiervoor zul je ook je koeling op max moeten zetten om zeker te zijn dat je niet eerder tegen een temp limit aan loopt.
[...]
Time Spy (extreme) zet geen load op de 'hele' kaart. Dat doet alleen Port Royal omdat deze ook de RT cores pakt, Time Spy doet dit niet. Daarom dus undervolten/overclocken met Port Royal (zeker voor Cyber Punk als je met RT speelt). Zodra je dan een undervolt/overclock hebt die je benchmark doorstaat moet je minimaal 1 stability test van Port Royal kunnen doorstaan. In mijn eerder geposte lijstje had ik dus voltages met clocks die goed benchde, maar na 20-25 minuten de stability test van Port Royal failde. Dan moet dus OF het voltage omhoog (maar die moet wel onder de powerlimit blijven) of de core clock omlaag.
[...]
Dit is dus pertinent onwaar. Op 850mV zitie maximaal op 290W en dat is ver van de ~340W powerlimit. Dat geeft ook HWInfo aan, en Afterburner kan dit volgens mij ook monitoren. Als je nog steeds een powerlimit constateert dan moet je dus verder zakken in voltage.
Ik bedoelde eerder dat je ook met een undervolt de power limit kan halen. Ik heb dusdanige lage undervolts gehaald dat ik ver weg blijf van de power limit bij mijn kaart iig.Mobzy schreef op woensdag 30 december 2020 @ 15:04:
Time Spy (extreme) zet geen load op de 'hele' kaart. Dat doet alleen Port Royal omdat deze ook de RT cores pakt, Time Spy doet dit niet. Daarom dus undervolten/overclocken met Port Royal (zeker voor Cyber Punk als je met RT speelt). Zodra je dan een undervolt/overclock hebt die je benchmark doorstaat moet je minimaal 1 stability test van Port Royal kunnen doorstaan. In mijn eerder geposte lijstje had ik dus voltages met clocks die goed benchde, maar na 20-25 minuten de stability test van Port Royal failde. Dan moet dus OF het voltage omhoog (maar die moet wel onder de powerlimit blijven) of de core clock omlaag.
[...]
Dit is dus pertinent onwaar. Op 850mV zitie maximaal op 290W en dat is ver van de ~340W powerlimit. Dat geeft ook HWInfo aan, en Afterburner kan dit volgens mij ook monitoren. Als je nog steeds een powerlimit constateert dan moet je dus verder zakken in voltage.
En die stress test met port royal is een goede. Zal dat ff testen met mijn kaartje iig.
Ja, die stress test met Port Royal was een goede tip vanuit 'de scene'. Volgens mij heeft o.a. Buildzoid, Derbauer, en Steve van GamersNexus dit geadviseerd in een van de vele overclocking videos bij RTX kaarten.ZelianGuy schreef op woensdag 30 december 2020 @ 15:12:
[...]
En die stress test met port royal is een goede. Zal dat ff testen met mijn kaartje iig.
Maar ik zal nu mijn eigen woorden moeten inslikken
Voor de zekerheid net mijn 'stable' undervolt (0.850 @ 1935) door Port Royal, Time Spy, en Time Spy Extreme gehaald. De eerste twee rock solid. Maar bij Time Spy Extreme wordt ook bij mij de Power limit getriggered en crasht m'n UV halverwege de 2e GPU test. Verbruikt ook dik 35W meer in Extreme dan in normal Time Spy.
Dus ondanks dat het logisch klinkt/klonk om een test te gebruiken die óók de RT cores pakt (maar volgens mij gebeurt DLSS met de tensor cores toch?) verbruiktie bij Time Spy Extreme dus meer dan bij Port Royal
De vraag is natuurlijk of je in games ook gaat crashen. Die benchmarks/stress test zijn synthetisch natuurlijk en niet echt representatief voor real world stability. Persoonlijk zou ik er gewoon mee gaan gamen en pas als de game gaat crashen het ietwat aanpassen.Mobzy schreef op woensdag 30 december 2020 @ 15:24:
[...]
Ja, die stress test met Port Royal was een goede tip vanuit 'de scene'. Volgens mij heeft o.a. Buildzoid, Derbauer, en Steve van GamersNexus dit geadviseerd in een van de vele overclocking videos bij RTX kaarten.
Maar ik zal nu mijn eigen woorden moeten inslikken![]()
Voor de zekerheid net mijn 'stable' undervolt (0.850 @ 1935) door Port Royal, Time Spy, en Time Spy Extreme gehaald. De eerste twee rock solid. Maar bij Time Spy Extreme wordt ook bij mij de Power limit getriggered en crasht m'n UV halverwege de 2e GPU test. Verbruikt ook dik 35W meer in Extreme dan in normal Time Spy.
Dus ondanks dat het logisch klinkt/klonk om een test te gebruiken die óók de RT cores pakt (maar volgens mij gebeurt DLSS met de tensor cores toch?) verbruiktie bij Time Spy Extreme dus meer dan bij Port Royal
Wie goed doet, die goed ontmoet.
Dit is uiteraard waar. Maar omdat ik persoonlijk liever een dag/weekend zoek naar een setting die 'just works' dan dat ik tijdens een game een crash krijg pak ik meestal de zwaarste test om te kijken waar de grens ligt. Ik dacht dus vanwege verhalen op het internet, die mij wel logisch klonken, dat dit Port Royal was. Maar Time Spy Extreme pakt gewoon bij zelde settings 320W waarbij Time Spy en Port Royal op ~280W zitten. En verzorgt dus een crash.AtlAntA schreef op woensdag 30 december 2020 @ 15:28:
[...]
De vraag is natuurlijk of je in games ook gaat crashen. Die benchmarks/stress test zijn synthetisch natuurlijk en niet echt representatief voor real world stability. Persoonlijk zou ik er gewoon mee gaan gamen en pas als de game gaat crashen het ietwat aanpassen.
FYI, heb ik met de huidige undervolt al een week zitten gamen zonder crashes. Waar onder de volgende titels:
Doom (2016)
GTA 5
Black Mesa
WoW: Shadowlands
Beat Saber (VR op Reverb G2)
Elite Dangerous (VR op Reverb G2)
Walking Dead S&S (VR op Reverb G2)
etc.
Hoewel ik al deze games speel met G-sync (compatible) en een framecap, of in VR met de normale 90Hz cap, verwacht ik dus toch wel dat bijv Elite Dangerous in VR behoorlijk zwaar is. Maar hier zitten niet echt zware Ray Tracing titels tussen ofzo, en Doom is natuurlijk zover geoptimaliseerd datie zelfs op ultra/nightmare de 200FPS cap aantikt zonder framecap.
Ik ga zelf dan ook weer even lekker verder knutselen met Extreme om te kijken hoeveel volts ik nodig heb om 2000mhz stabiel te krijgen
Edit:
Schiet mij maar lek
[ Voor 35% gewijzigd door Mobzy op 30-12-2020 16:02 ]
Top bedankt. Het viel me ineens op, en omdat er ook veel grote kaarten zijn zonder bracket eronder, was ik even benieuwd wat jullie ervaring hiermee was.unfor schreef op woensdag 30 december 2020 @ 14:42:
[...]
Nee, aan die kant zit alles behoorlijk stabiel want daar schroef je hem vast. Kan me geen voorstelling maken dat een pci-e slot doorbuigt terwijl de videokaart zit vastgeschroefd.
PCI-E slot lijkt me ook niet, heb een verstevigde (zo ziet het er ook wel uit)
i7-10700k | 32GB @3200Mhz | RTX 3090
Port royal gaat gemiddeld de meeste power zuipen uit mijn ervaring 430W constant op 1.025V.Thrawni schreef op woensdag 30 december 2020 @ 12:55:
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.
Timespy piekt ook wel ongeveer op 430W maar zit gemiddeld rondom de 400W op 1.025V.
Ook zijn er spellen zoals Cyberpunk die met DLSS Quality (op 3440x1440) maar 380W trekken op 1.1V.
Iniedergeval zijn er 3 profielen die ik heb:
* 240-280W UV (0.825V & 1875Mhz).
* 400W UV (1.025V & 2040Mhz) Voor RT games die al 400W halen op 1.025V ook port Royal haalt hier 430W.
* 400W OC (1.093V & 2130Mhz) Voor games die niet echt power trekken en vooral op frequency scalen.
Op elk profiel staat mijn memory op +1300Mhz, dit levert zo'n 5-6% performance op wat ik niet verwacht had.
Waarom zou je dat willen. Die hele OC modellen slaan namelijk nergens op. Behalve een getalletje in de spec sheet betekend het namelijk helemaal niets.Aggressor schreef op woensdag 30 december 2020 @ 00:15:
Weet iemand het volgende?
Van sommige modellen heb je een normale versie en oc of x versie.
Kan je de gewone versie Flashen met de OC versie hiervan?
Alle videokaarten clocken zich zelf vorbij deze oc clock ingesteld door de fabrikant of het nou oc is of niet.
Koop een gpu gebaseerd op koel prestaties daar heb je veel meer aan want een koelere kaart clockt vanzelf hoger.
Je kaart riskeren voor een irrelevant nummertje waar de auto overclock voorbij gaat snap ik echt niet.
Precies dat. Het oude flashen voor OC biossen (behalve misschien als er een power limit verschil is) en ouderwetse overclocken is helemaal over. Ook bij de CPUs. Rare tijden met al die auto curves enzo. Vroeger was het simpelercomputerjunky schreef op woensdag 30 december 2020 @ 22:05:
[...]
Waarom zou je dat willen. Die hele OC modellen slaan namelijk nergens op. Behalve een getalletje in de spec sheet betekend het namelijk helemaal niets.
Alle videokaarten clocken zich zelf vorbij deze oc clock ingesteld door de fabrikant of het nou oc is of niet.
Koop een gpu gebaseerd op koel prestaties daar heb je veel meer aan want een koelere kaart clockt vanzelf hoger.
Je kaart riskeren voor een irrelevant nummertje waar de auto overclock voorbij gaat snap ik echt niet.
Sinterklaas wil bier !
De boostclock is hoger v/d OC versies, dus als er nog headroom is dan is de uiteindelijke kloksnelheid nog hoger. Mits temp en powerlimit het toelaten.computerjunky schreef op woensdag 30 december 2020 @ 22:05:
[...]
Waarom zou je dat willen. Die hele OC modellen slaan namelijk nergens op. Behalve een getalletje in de spec sheet betekend het namelijk helemaal niets.
Alle videokaarten clocken zich zelf vorbij deze oc clock ingesteld door de fabrikant of het nou oc is of niet.
Koop een gpu gebaseerd op koel prestaties daar heb je veel meer aan want een koelere kaart clockt vanzelf hoger.
Je kaart riskeren voor een irrelevant nummertje waar de auto overclock voorbij gaat snap ik echt niet.
Als ik zo alle reviews bekijk valt of staat het allemaal met de koel designs. Er zijn laag geclockte base versies met betere koeling die het betrr doen als oc versies die op paper 100 mhz hoger geclockt zijn.bierschuit schreef op woensdag 30 december 2020 @ 22:16:
[...]
De boostclock is hoger v/d OC versies, dus als er nog headroom is dan is de uiteindelijke kloksnelheid nog hoger. Mits temp en powerlimit het toelaten.
Overige is 50 mhz meer of minder toch al vrij irrelevant tenzij je een benchmark nummertje leuk vind.
[ Voor 9% gewijzigd door computerjunky op 30-12-2020 22:37 ]
Het begon allemaal met de speculaties over de nog uit te komen grafische kaarten van rond de 800 Euro of zo.
Meer dan 600 voor een high-end had jij niet over.. later werd dat 650 of zoiets.
Ik kan er een honderd of twee naast zitten maar dat terzijde.
Daarna was het Founders Design aan de beurt met hoe die dan zijn luchtstroom heeft mbt tot de koeling van de kaart. Helemaal bezorgd, oh-oh-oh nu gaat alle warme lucht door mijn CPU koeler. Wat slecht en heh moet mijn CPU_fan 5% sneller draaien.
En nu is het weer de OC versie dat weer negatief niet goed is, want blah blah blah.
Houd toch eens op met negatief te zijn. Koop een Acer desktop of een Lenovo misschien zelfs een Medion.. Stop met klagen en verander je username van Computerjunky naar Stock_boy of iets dergelijks.
NeeNoahTerpoorten schreef op woensdag 30 december 2020 @ 23:11:
Is het normaal dat mijn 3080 niet boven de 50c word?
Sinterklaas wil bier !
Onder welke omstandigheden hebben we het over? Welke 3080, game, resolutie, instellingen fan instellingen en dergelijke zijn best wel belangrijk voordat je hier een nuttig antwoord over kan gevenNoahTerpoorten schreef op woensdag 30 december 2020 @ 23:11:
Is het normaal dat mijn 3080 niet boven de 50c word?
A pessimist is never dissapointed.bierschuit schreef op woensdag 30 december 2020 @ 22:50:
@computerjunky Het valt me wel op dat jij overal negatief over bent..
Het begon allemaal met de speculaties over de nog uit te komen grafische kaarten van rond de 800 Euro of zo.
Meer dan 600 voor een high-end had jij niet over.. later werd dat 650 of zoiets.
Ik kan er een honderd of twee naast zitten maar dat terzijde.
Daarna was het Founders Design aan de beurt met hoe die dan zijn luchtstroom heeft mbt tot de koeling van de kaart. Helemaal bezorgd, oh-oh-oh nu gaat alle warme lucht door mijn CPU koeler. Wat slecht en heh moet mijn CPU_fan 5% sneller draaien.
En nu is het weer de OC versie dat weer negatief niet goed is, want blah blah blah.
Houd toch eens op met negatief te zijn. Koop een Acer desktop of een Lenovo misschien zelfs een Medion.. Stop met klagen en verander je username van Computerjunky naar Stock_boy of iets dergelijks.
En er is niets mis met sceptisch en veeleisend zijn ipv maar alles kopen wat los en vast zit voor elke prijs zonder een sceptische blik.
En een OC model is gewoon niet nuttig meer sinds boost/auto overclock in de kaarten zit.
Na 25 jaar word je vanzelf altijd sceptisch over wat als deze bedrijven uit pompen want ergens word wel wat over het hoofd gezien of opgeofferd om geld te besparen. Zo werkt het nou eenmaal en daarom kijk ik overal extra sceptisch naar. Niets mis mee. In tegenstelling tot velen kan ik namelijk mijn geld maar 1x uit geven en krijg ik al de kriebels van het woord 2dehands dus ben je standaard duurder uit en dus verwacht ik meer.
Niet altijd handig want achteraf had ik beter meteen een asus tuf kunnen kopen maarja ik wou eerst alle ins en outs weten.
Het staat je verder vrij mijn posts niet te lezen. Ik ga niet anders denken en schijven omdat jij (en anderen) mijn posts negatief vind.
Blijkbaar zijn er meer mensen die mij of mijn ongezouten mening niet mogen/aanstaat gezien de constante minnetjesregen op de FP. Niet mijn Probleem dat mensen zo gevoelig zijn voor een sceptische blik op alles.
Ik geef mijn mening en geef aan wat ik denk dat pijnpunten en problemen kunnen zijn/worden en wat wel of niet nuttig is in mijn mening en een ieder is vrij daar mee te doen wat ze willen.
Als iemand een andere mening heeft zal ik daar altijd naar kijken en heb vaak zat mijn mening aangepast na meer informatie maar dan wel gebaseerd op volledige en controleerbare feiten en niet op speculaties en onrealistische testresultaten
Ik begrijp je wel. When a pessimist is in charge, nothing will come forward.computerjunky schreef op woensdag 30 december 2020 @ 23:21:
[...]
A pessimist is never dissapointed.
En er is niets mis met sceptisch en veeleisend zijn ipv maar alles kopen wat los en vast zit voor elke prijs zonder een sceptische blik.
En een OC model is gewoon niet nuttig meer sinds boost/auto overclock in de kaarten zit.
Na 25 jaar word je vanzelf altijd sceptisch over wat als deze bedrijven uit pompen want ergens word wel wat over het hoofd gezien of opgeofferd om geld te besparen. Zo werkt het nou eenmaal en daarom kijk ik overal extra sceptisch naar. Niets mis mee. In tegenstelling tot velen kan ik namelijk mijn geld maar 1x uit geven en krijg ik al de kriebels van het woord 2dehands dus ben je standaard duurder uit en dus verwacht ik meer.
Niet altijd handig want achteraf had ik beter meteen een asus tuf kunnen kopen maarja ik wou eerst alle ins en outs weten.
Het staat je verder vrij mijn posts niet te lezen. Ik ga niet anders denken en schijven omdat jij (en anderen) mijn posts negatief vind.
Blijkbaar zijn er meer mensen die mij of mijn ongezouten mening niet mogen/aanstaat gezien de constante minnetjesregen op de FP. Niet mijn Probleem dat mensen zo gevoelig zijn voor een sceptische blik op alles.
Ik geef mijn mening en geef aan wat ik denk dat pijnpunten en problemen kunnen zijn/worden en wat wel of niet nuttig is in mijn mening en een ieder is vrij daar mee te doen wat ze willen.
Als iemand een andere mening heeft zal ik daar altijd naar kijken en heb vaak zat mijn mening aangepast na meer informatie maar dan wel gebaseerd op volledige en controleerbare feiten en niet op speculaties en onrealistische testresultaten.
Ik speel gewoon ac valhalla max settings 2k. Mijn kaart: Gigabyte Aorus master. en default settings. Heb wel een airflow case van corsair.ZelianGuy schreef op woensdag 30 december 2020 @ 23:18:
[...]
Onder welke omstandigheden hebben we het over? Welke 3080, game, resolutie, instellingen fan instellingen en dergelijke zijn best wel belangrijk voordat je hier een nuttig antwoord over kan geven
Met V-sync of framecap? Hoeveel Hz monitor en hoeveel FPS haal je dan?NoahTerpoorten schreef op donderdag 31 december 2020 @ 00:45:
[...]
Ik speel gewoon ac valhalla max settings 2k. Mijn kaart: Gigabyte Aorus master. en default settings. Heb wel een airflow case van corsair.
Als je gewoon aan je (monitor) cap zit op 50c is er niks aan de hand. Speelt het als poep op 50c dan klopt er iets niet.
Monitoren met HWinfo, GPU-Z, of RTSS/afterburner/CapframeX en je weet of het goed zit. Misschien gewoon een exemplaar met goede koeling en juiste hoeveelheid koelpasta. Alhoewel ik op water al richting de 40-45 ga op full load.
Nee, grote kans dat je kaart niet voorbij base clock boost of dat je geheugen op halve snelheid draait. Mocht je het nog niet gedaan hebben dan zou ik DDU draaien en daarna een nieuwe install van je drivers doen.NoahTerpoorten schreef op woensdag 30 december 2020 @ 23:11:
Is het normaal dat mijn 3080 niet boven de 50c word?
Wie goed doet, die goed ontmoet.
Het is nu juist simpeler, alle kaarten zijn qua chip kansen hetzelfde, enige waar je op moet letten is de power limit en koelprestaties. De rest doet er niet meer toe.ParaWM schreef op woensdag 30 december 2020 @ 22:16:
[...]
Precies dat. Het oude flashen voor OC biossen (behalve misschien als er een power limit verschil is) en ouderwetse overclocken is helemaal over. Ook bij de CPUs. Rare tijden met al die auto curves enzo. Vroeger was het simpeler
Auto curves maken het juist makkelijk, je krijgt wat het maximaal haalbare is, je hoeft er zelf niet meer naar te zoeken.
Enige echte tweaken zit hem nog in undervolten, maar wellicht dat dit in de toekomst ook geautomatiseerd wordt. Logisch ook, want de Nvidia wil gewoon maximaal scoren en dat doen ze op deze manier.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Ik speel heel soms, meestal wanneer WoW op zijn einde expansion of patch loopt, Warhammer 2. Hier zag ik een verbetering van dik 30 fps.
Ergens ben ik tevreden, elders licht teleurgesteld. Ik vraag me af of ik deze upgrade had moeten maken en niet beter nog even gewacht op een 3080 ti...
Als je zelf al aangeeft dat WoW erg CPU afhankelijk is zal een 3080TI met wss een paar% meer performance en meer VRAM echt geen grote verbetering zijn. Ook niet in andere games.JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:08:
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.
Ik speel heel soms, meestal wanneer WoW op zijn einde expansion of patch loopt, Warhammer 2. Hier zag ik een verbetering van dik 30 fps.
Ergens ben ik tevreden, elders licht teleurgesteld. Ik vraag me af of ik deze upgrade had moeten maken en niet beter nog even gewacht op een 3080 ti...
Klopt zeker, en gezien deze GPU maar 2 jaar mee zal gaan i.v.m. structurele vervangingscyclus, had ik het misschien beter niet kunnen doenZelianGuy schreef op donderdag 31 december 2020 @ 11:09:
[...]
Als je zelf al aangeeft dat WoW erg CPU afhankelijk is zal een 3080TI met wss een paar% meer performance en meer VRAM echt geen grote verbetering zijn. Ook niet in andere games.
Maar goed, mijn GTX1080 is al weg dus tis niet dat ik er nog van af kan zien.
Dat zul je altijd blijven houden, en dan moet je ook even niet vergeten dat deze kaarten sws een meerprijs hebben en ook echt zeer goed (KUCH) beschikbaar zullen zijn bij launchJeroenNietDoen schreef op donderdag 31 december 2020 @ 11:15:
[...]
Klopt zeker, en gezien deze GPU maar 2 jaar mee zal gaan i.v.m. structurele vervangingscyclus, had ik het misschien beter niet kunnen doen
Maar goed, mijn GTX1080 is al weg dus tis niet dat ik er nog van af kan zien.
Wow draait op mijn 1070 op 30% load voor een 75 fps cap en mijn cpu op 25% met een 9900k... Bjj drukke gevechten is de game zo cpu crippled dat ik terug zak naar in de 40 of soms zelfs lager. Ik denk dat voor wow alles boven een 1060 al weggegooid geld is tot er een cpu is met 100% prestaties per core. Die game stamt immers uit 2004 een dual core tijdperk. En de ontwikkeling is dus nog ouder.JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:08:
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.
Ik speel heel soms, meestal wanneer WoW op zijn einde expansion of patch loopt, Warhammer 2. Hier zag ik een verbetering van dik 30 fps.
Ergens ben ik tevreden, elders licht teleurgesteld. Ik vraag me af of ik deze upgrade had moeten maken en niet beter nog even gewacht op een 3080 ti...
Ik ben benieuwd of dit ooit opgelost gaat worden en tevens of dit de reden is dat ze nog altijd geen high res textures ondersteunen.
Ik ben vanaf 1995 MHz gaan testen welke snelheid op welke voltage kan totdat ik het onderste limiet van 725mV haalde.
Mijn test methodiek voor het undervolten was als volgt:
- Alles is getest in de Gaming OS. Ik had geen zin om de verschillen met de Silent OS te gaan onderzoek want dat gaat me nog een paar dagen extra kosten

- Kloksnelheden zijn door mij arbitrair gekozen om toch een mooi setje data te krijgen maar ook niet om letterlijk elk stapje te testen. Ik wil graag ook andere dingen doen met mijn videokaart
- Het undervolten heb ik uitgevoerd door de clock speed vast te zetten op een bepaald voltage in MSI afterburner. Voorbeeld kun je hier zien: YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance?
- Testen werd gedaan door een Time Spy benchmark en bij een succesvolle benchmark zijn de temps, RPM, en Power Draw opgeschreven
- Daarna de voltage verlaagt met een tik en werd bovenstaande herhaalt totdat de benchmark faalt
- Daarna gezocht naar de laagst mogelijke stabiele voltage door het uitvoeren van een Time Spy stress test
- Vervolgens de clock snelheid verlaagd en werd het bovenstaande herhaald
- Uiteindelijk zijn er game benchmarks uitgevoerd met de volgende games: Shadow of the Tomb Raider, Borderlands 3, Deus Ex: Mankind Divided en Assassins Creed: Valhalla en een nieuwe time spy benchmark voor de score
- Alle benchmarks zijn uitgevoerd op dezelfde dag (125!) en met een constante fan RPM (daarover later meer)
/f/image/M3AjnIPSXt7cD2QQDqnh0zOF.png?f=fotoalbum_large)
/f/image/5HDiyvUaAwvJLNaF709lcfNa.png?f=fotoalbum_large)
/f/image/sZgh0dN3L2IglEvvzLBo0jw9.png?f=fotoalbum_large)
Uiteindelijk vind ik undervolten het wel waard. Met minimale impact op performance heb je wel grote verschillen in power draw, temps en fan RPM. Er zat merkbaar verschil tussen de verschillende opties die mij opvielen tijdens het benchmarken. 40% lagere power draw voor maar 10% performance met drastische verschil in temps en geluid vind ik het wel waard.
Voor het overclocken heb ik eerst in stapjes de core clock verhoogt totdat een benchmark faalt, en daarna hetzelfde voor de memory clock. Krijg hem in games stabiel op +125 Core Clock/ 750 Memory Clock. In benchmarks kan ik er nog ietsje erbij persen
Ik heb een poging gedaan om een undervolt te combineren met een overclock, alhoewel dat met veel moeite lukte, waren de resultaten niet beter dan gewoon de overclock die ik al gevonden had.
Dan nog een paar observaties om deze tekst muur af te sluiten:
- Bij de overclock en de 925/1995 is de power limit slider op 116. Daarnaast een keer op stock settings om te bekijken wat de verschillen waren. Die verschullen zijn vrijwel niets maar wel met een hogere Power Draw. Bij alle andere voltages stond die slider op 100
- De power draw in Time Spy is slechts indicatief voor het in games zal zijn. In sommige games was de power draw een stuk lager dan in Time Spy, maar desondanks observeerde ik wel verschillen met stock t.o.v. een undervolt, alleen zijn die verschillen minder groot.
- Deze GPU's hebben graag de neiging om ondanks dat je een core clock instelt, zichzelf eventjes iets hoger/lager klokken afhankelijk van je temps en fan RPM's (vandaar dat ik tijdens de benchmarks een vast RPM hield). Normaal is dat geen probleem maar met een undervolt kun je soms dan net iets te hoog clocken t.o.v. je voltage zodat de boel crasht. Ik kon dit omzeilen door een stress test uit te voeren, en zodra er een balans qua temperatuur is bereikt dan de core clock in te stellen
- Ik heb tijdens het benchmarken van games ook gekeken naar een memory overclock van +500 bij alle undervolts. De verschillen zijn miniem met 1.5fps winst op zijn best met ietsje hogere power draw. Ik zal het dan ook gewoon wat dat betreft op stock houden
- Mocht je deze resultaten zelf willen uitproberen houd er dan rekening mee dat your mileage may vary! Er zitten (kleine) verschillen in de chips dus kan ik niet garanderen dat deze settings ook zullen werken op jouw kaart. Wel kun je het goed gebruiken als referentiepunt!
Ik heb een moinitor met 240Hz en haal op ac avg 78 max settings 2k. Ik merk geen stotertring maar heb geen idee of mijn GPU full load draait. zal eens proberen de monitoring uit te voeren.Mobzy schreef op donderdag 31 december 2020 @ 09:11:
[...]
Met V-sync of framecap? Hoeveel Hz monitor en hoeveel FPS haal je dan?
Als je gewoon aan je (monitor) cap zit op 50c is er niks aan de hand. Speelt het als poep op 50c dan klopt er iets niet.
Monitoren met HWinfo, GPU-Z, of RTSS/afterburner/CapframeX en je weet of het goed zit. Misschien gewoon een exemplaar met goede koeling en juiste hoeveelheid koelpasta. Alhoewel ik op water al richting de 40-45 ga op full load.
Heb dit al meerder keren gedaan. Denk zelf dat deze gewoon goed koelt atmAtlAntA schreef op donderdag 31 december 2020 @ 09:20:
[...]
Nee, grote kans dat je kaart niet voorbij base clock boost of dat je geheugen op halve snelheid draait. Mocht je het nog niet gedaan hebben dan zou ik DDU draaien en daarna een nieuwe install van je drivers doen.
Lijkt normaal zo toch?Mobzy schreef op donderdag 31 december 2020 @ 09:11:
[...]
Met V-sync of framecap? Hoeveel Hz monitor en hoeveel FPS haal je dan?
Als je gewoon aan je (monitor) cap zit op 50c is er niks aan de hand. Speelt het als poep op 50c dan klopt er iets niet.
Monitoren met HWinfo, GPU-Z, of RTSS/afterburner/CapframeX en je weet of het goed zit. Misschien gewoon een exemplaar met goede koeling en juiste hoeveelheid koelpasta. Alhoewel ik op water al richting de 40-45 ga op full load.
Volgens Valley 4.0 benchmark ongeveer zo'n 34% sneller als de MSI 2080Ti gaming Trio X
Nu komt het vreemde : Tijdens de benchmarks kreeg ik de kaart nooit hoger dan 1850-1900Mhz, dus ik dacht dat er niet meer rek in zit. En de 34% is daar ook op gebaseerd.
Nu ik mijn display heb geupdate en nu tijdens het spelen weer de frequenties weer op mijn display kan zien, zie ik dat de kaart gewoon lekker op 2010Mhz blijft hangen tijdens normale gameplay met een temperatuur van 61 graden .

Soms moeilijk te begrijpen die boost clocks van Nvidia
Mijn rig : https://gathering.tweakers.net/forum/list_messages/1864567
Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.unfor schreef op woensdag 30 december 2020 @ 10:52:
Ik snap het ook niet helemaal, waarschijnlijk zo'n 1700-2000 aftikken voor een 3090 en je dan zorgen maken over je stroomrekening die een paar euro hoger is.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over?
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[ Voor 50% gewijzigd door Zuur.Pruim op 31-12-2020 15:23 ]
Als de stroomrekening niet het issue is, wat is dan exact het probleem? Ik kan het uit je verhaal niet halen.Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]
Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over?Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
Een Ferrari word niet gekocht omdat hij zo zuinig is, net zoals de 3090.
Je weet voor je zo'n kaart aanschaft dat ze het uiterste er uit persen ten koste van het verbruik, hoe dit nieuws is voor iemand begrijp ik niet helemaal.
[ Voor 6% gewijzigd door unfor op 31-12-2020 15:58 ]
Jouw pci-e slot krijgt ook meer dan 75W aan power. Je zit er 13W boven. Is dat een kleine piek of voor langere tijd?Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]
Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over?Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
Ik moet zien of dat bij mij ook zo is. Bij 1440p Kombustor benchmark topped mijn pci-e uit op 62,7W.
Ik kom zelf van een vega 64 (ongeveer gelijk aan een 1080?) en toen ik 3 dagen de 3070 erin had zitten was de winst in WoW toch wel behoorlijk. Ik speelde altijd op settings 1 tikje van max af, en haalde dan in BFA/SL outdoors zo 90-130fps. De 3070 trok dat alles op max (dus hogere settings) op hogere FPS. Dus ik vermoed dat je eerder al tegen een andere bottleneck aan liep zoals bijv CPU. Ik heb zelf een 3800X en dat was een enorme winst in WoW ten opzichte van de 4970. Ik kwam natuurlijk ook van AMD, wiens drivers volgens mij iets intensiever voor de CPU is alhoewel dat met DX12 in WoW al veel minder was.JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:08:
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.
Dat ligt aan je settings/addons. Test het eens zonder addons zou ik zeggen. Ik houd hem in raids (30man) en world bossess altijd boven de 90FPS. Maar ik speel ook met weinig addons naast ElvUI (welke ik heb aangepast aan CPU spikes). Enige waar ik nog enigsinds inkak is in een 40vs40 BG als alles opelkaar knalt in het begin. Maar ook dan nog altijd 50+computerjunky schreef op donderdag 31 december 2020 @ 12:56:
[...]
Wow draait op mijn 1070 op 30% load voor een 75 fps cap en mijn cpu op 25% met een 9900k... Bjj drukke gevechten is de game zo cpu crippled dat ik terug zak naar in de 40 of soms zelfs lager. Ik denk dat voor wow alles boven een 1060 al weggegooid geld is tot er een cpu is met 100% prestaties per core. Die game stamt immers uit 2004 een dual core tijdperk. En de ontwikkeling is dus nog ouder.
Ik ben benieuwd of dit ooit opgelost gaat worden en tevens of dit de reden is dat ze nog altijd geen high res textures ondersteunen.
Ik denk dat die 3080 niet op full load zit, want de 3070 van mijn vrouw haalt meer FPS in AC Oddysey op 2560*1080 (streamt nu 4k naar een Shield TV wat zo 50-65 haalt). Kanttekening dat dit is met 2 settings van ultra naar low/off, volumetric clouds en nog een setting die ik nu niet weet (zie Hardware unboxed video over AC Oddysey settings).NoahTerpoorten schreef op donderdag 31 december 2020 @ 14:05:
[...]
Ik heb een moinitor met 240Hz en haal op ac avg 78 max settings 2k. Ik merk geen stotertring maar heb geen idee of mijn GPU full load draait. zal eens proberen de monitoring uit te voeren.
Dat venster hebben we nu niet zo veel aan, je moet het sensors tabje openen, en dan de values op "MAX" zetten. Als je dan een potje gamed en een screenshot maakt aan het einde weten we wat de max clocks/load zijn die hij haalt.NoahTerpoorten schreef op donderdag 31 december 2020 @ 14:11:
[...]
Lijkt normaal zo toch?
[Afbeelding]
Op echte 4k zou het niet lekker spelen nu word 1440p uitgerekend en opgeschaald naar 4k.
Even een kleine update:ZelianGuy schreef op donderdag 31 december 2020 @ 13:12:
Ik heb enkele vrije dagen van mijn kerstvakantie besteed aan het onderzoeken van de undervolt en overclock mogelijkheden van mijn 3080 MSI Suprim X en heb toch wel opvallende resultaten behaald.
Ik ben vanaf 1995 MHz gaan testen welke snelheid op welke voltage kan totdat ik het onderste limiet van 725mV haalde.
Mijn test methodiek voor het undervolten was als volgt:Daar zijn uiteindelijk de volgende 3 grafiekjes uit gekomen:
- Alles is getest in de Gaming OS. Ik had geen zin om de verschillen met de Silent OS te gaan onderzoek want dat gaat me nog een paar dagen extra kosten
- Kloksnelheden zijn door mij arbitrair gekozen om toch een mooi setje data te krijgen maar ook niet om letterlijk elk stapje te testen. Ik wil graag ook andere dingen doen met mijn videokaart
- Het undervolten heb ik uitgevoerd door de clock speed vast te zetten op een bepaald voltage in MSI afterburner. Voorbeeld kun je hier zien: YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance?
- Testen werd gedaan door een Time Spy benchmark en bij een succesvolle benchmark zijn de temps, RPM, en Power Draw opgeschreven
- Daarna de voltage verlaagt met een tik en werd bovenstaande herhaalt totdat de benchmark faalt
- Daarna gezocht naar de laagst mogelijke stabiele voltage door het uitvoeren van een Time Spy stress test
- Vervolgens de clock snelheid verlaagd en werd het bovenstaande herhaald
- Uiteindelijk zijn er game benchmarks uitgevoerd met de volgende games: Shadow of the Tomb Raider, Borderlands 3, Deus Ex: Mankind Divided en Assassins Creed: Valhalla en een nieuwe time spy benchmark voor de score
- Alle benchmarks zijn uitgevoerd op dezelfde dag (125!) en met een constante fan RPM (daarover later meer)
[Afbeelding]
[Afbeelding]
[Afbeelding]
Uiteindelijk vind ik undervolten het wel waard. Met minimale impact op performance heb je wel grote verschillen in power draw, temps en fan RPM. Er zat merkbaar verschil tussen de verschillende opties die mij opvielen tijdens het benchmarken. 40% lagere power draw voor maar 10% performance met drastische verschil in temps en geluid vind ik het wel waard.
Voor het overclocken heb ik eerst in stapjes de core clock verhoogt totdat een benchmark faalt, en daarna hetzelfde voor de memory clock. Krijg hem in games stabiel op +125 Core Clock/ 750 Memory Clock. In benchmarks kan ik er nog ietsje erbij persen. Ben uiteindelijk op een score van 19571 gekomen.
Ik heb een poging gedaan om een undervolt te combineren met een overclock, alhoewel dat met veel moeite lukte, waren de resultaten niet beter dan gewoon de overclock die ik al gevonden had.
Dan nog een paar observaties om deze tekst muur af te sluiten:
- Bij de overclock en de 925/1995 is de power limit slider op 116. Daarnaast een keer op stock settings om te bekijken wat de verschillen waren. Die verschullen zijn vrijwel niets maar wel met een hogere Power Draw. Bij alle andere voltages stond die slider op 100
- De power draw in Time Spy is slechts indicatief voor het in games zal zijn. In sommige games was de power draw een stuk lager dan in Time Spy, maar desondanks observeerde ik wel verschillen met stock t.o.v. een undervolt, alleen zijn die verschillen minder groot.
- Deze GPU's hebben graag de neiging om ondanks dat je een core clock instelt, zichzelf eventjes iets hoger/lager klokken afhankelijk van je temps en fan RPM's (vandaar dat ik tijdens de benchmarks een vast RPM hield). Normaal is dat geen probleem maar met een undervolt kun je soms dan net iets te hoog clocken t.o.v. je voltage zodat de boel crasht. Ik kon dit omzeilen door een stress test uit te voeren, en zodra er een balans qua temperatuur is bereikt dan de core clock in te stellen
- Ik heb tijdens het benchmarken van games ook gekeken naar een memory overclock van +500 bij alle undervolts. De verschillen zijn miniem met 1.5fps winst op zijn best met ietsje hogere power draw. Ik zal het dan ook gewoon wat dat betreft op stock houden
- Mocht je deze resultaten zelf willen uitproberen houd er dan rekening mee dat your mileage may vary! Er zitten (kleine) verschillen in de chips dus kan ik niet garanderen dat deze settings ook zullen werken op jouw kaart. Wel kun je het goed gebruiken als referentiepunt!
Ik heb alles getest met een time spy stress test en heb uiteindelijk bij het selecteren van de undervolts nog voor de zekerheid een Port Royal stress test erbij gedaan maar dat was niet altijd stabiel. Kleine aanpassingen waren nodig om het stabiel te krijgen.
Ik heb voor de volgende undervolts gekozen:
725/1620: Laagste undervolt mogelijk en snel genoeg voor games die niet veel nodig hebben. Deze was stabiel met Port Royal
800/1785: Deze had ik stabiel in Time Spy op 1800 Core clock maar niet stabiel met Port Royal. Tikje lager en het was stabiel. Performance in games is wel 1% lager.
925/1995: Stock performance met lagere temps en dergelijke. Kreeg deze alleen niet stabiel in Port Royal maar wel in Time Spy. Beetje vreemd maar kwam vlekkeloos door games heen.
En mijn overklok als laatste. Zo heb ik een mooi verschillende opties die van 84% performance gaan tot 105% die ik nu met een knopje aanpassen
Je weet dat je het hebt over een chip met 28.000.000.000+ transistoren? En je verwacht een 'laag' verbruik? Die is al relatief lager wanneer je de gemiddelde FPS per Watt vergelijkt op hoge resolutie.Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]
Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over?Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
En GA102 chip is wel efficient zolang je maar ruim onder de 1000mV blijft (verbruik kwadratisch omlaag ipv omhoog) en dus niet gaat OC'en zoals een Kingpin 3090, waar die zoals aangegeven puur voor bedoeld is en dan op kijken van het verbruik..
Als we het even over een buitenproportioneel OC verbruik hebben stelt een 3090 nog niet zoveel voor. Met behulp van 2x 1250W voedingen trekt een 3990X 64 core CPU met OC onder extreme koeling even ruim 1800W.
Veel transistoren, veel rekenkernen en die lusten nou eenmaal wat prik. Ook op een relatief lage (undervolt) spanning. Zo is het nu eenmaal met de huidige stand van zaken. Misschien kan een volgende schaalverkleining naar 5nm er nog enkele tientallen procenten energieverbruik afhalen maar wanneer er nog meer rekenkernen en extra snelheid nodig is om de concurrentie voor te blijven zal dat geen hoge prioriteit krijgen om weer ruim onder een 300W te blijven.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Een kpe kaart koop je niet om normaal te gamen dat is een kaart die je eigenlijk alleen koopt als je wil gaan overcloken liefs met ln2. En wat heb je daar voor nodig? Juist een zo hoog mogelijk powerlimit. Er is zelf bios dat die 1000w kan trekken op de kpe kaart als je ln2 gaat dan wil je dat toch hebben en hoef je niet eens te shunten daar zijn deze kaarten ook voor bedoeldZuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]
Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over?Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
En wat doet een hogere powrlimit? Juist meer stroom verbruikenZuur.Pruim schreef op zaterdag 2 januari 2021 @ 00:34:
Ik heb de 3090 verkocht, daarmee opgelost
Een KP koop je ook voor de koeling en nagenoeg geen pwr throttling, niet per se om extreem te OC'en, natuurlijk. Anders kun je net zo goed +300 in Afterburner zetten maar als de kaart pwr limited is, heb je daar toch niks aan. Daar komt zo'n KP juist goed van pas - constante scores door klokstabiliteit. Ongeacht wat je ermee doet, hield mijn KP keurig 2100MHz aan.
Maar goed je hebt je keuze gemaakt prima ieder zijn ding.
[ Voor 21% gewijzigd door William/Ax3 op 02-01-2021 12:26 ]
|WOW Daggerspine | Troll Hunter Axejess |
Een KP koop je ook voor de koeling en nagenoeg geen pwr throttling, niet per se om extreem te OC'en, natuurlijk. Anders kun je net zo goed +300 in Afterburner zetten maar als de kaart pwr limited is, heb je daar toch niks aan. Daar komt zo'n KP juist goed van pas - constante scores door klokstabiliteit. Ongeacht wat je ermee doet, hield mijn KP keurig 2100MHz aan.
Voor mij blijft de 30 serie een gefaalde generatie, eens kijken wat Lovelace brengt.
Hoog stroomverbruik mag prima als de performance daarmee ook stijgt, bij de 3090 vind ik het niet het geval vergeleken met een 2080Ti op ~2100MHz, tenminste - niet in 1440p.
[ Voor 72% gewijzigd door Zuur.Pruim op 02-01-2021 00:39 ]
Heb van af het begin al zo een standaardje onder de 3090Rubenvdk schreef op woensdag 30 december 2020 @ 13:24:
Nog steeds dik tevreden over mijn Gigabyte 3090 Gaming OC. Wel valt me op dat de kaart voor mijn gevoel ineens begint door te zakken.
Nu is het een forse grote kaart en je hebt natuurlijk altijd wat doorzakken bij grote kaarten, maar meer mensen met een 3080/3090 Gaming OC waarbij dit ineens zichtbaar opvalt?
https://www.amazon.nl/Mav...id=pla-854511732675&psc=1
Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram
Heel vet, kwam zelf ook niet veel verder dan 2160Mhz, en dat op 1.093V. Op 1.025V, waar hij nu op staat gelocked met een UV, kom ik op 2130 dat zodra de GPU rond de 65C blijf hanged daalt tot 2100Mhz (GPU Boost 3.0ZelianGuy schreef op donderdag 31 december 2020 @ 13:12:
Ik heb enkele vrije dagen van mijn kerstvakantie besteed aan het onderzoeken van de undervolt en overclock mogelijkheden van mijn 3080 MSI Suprim X en heb toch wel opvallende resultaten behaald.
Ik ben vanaf 1995 MHz gaan testen welke snelheid op welke voltage kan totdat ik het onderste limiet van 725mV haalde.
Heb je al geprobeerd de memory chips verder te pushen? Bij mij gaan ze tot +1250Mhz stabiel met performance gain. +1350 heb ik een hogere score in 3dmark maar het is niet compleet stabiel, haal er net een benchmark mee zegmaar.
[ Voor 14% gewijzigd door themash360 op 02-01-2021 17:24 ]
Ik bedoel Kingpin plaatst zichzelf wel echt in de markt voor extreme overclockers, met koelers die makkelijk te verwijderen zijn, VRM's die tussen de video outputs en de GPU Die zitten (bij ln2 kunnen die anders nog wel bevriezen als er geen vrm tussenzit en digitale chips met uitleespunten recht op de PCB.Zuur.Pruim schreef op zaterdag 2 januari 2021 @ 00:34:
Ik heb de 3090 verkocht, daarmee opgelost
Een KP koop je ook voor de koeling en nagenoeg geen pwr throttling, niet per se om extreem te OC'en, natuurlijk. Anders kun je net zo goed +300 in Afterburner zetten maar als de kaart pwr limited is, heb je daar toch niks aan. Daar komt zo'n KP juist goed van pas - constante scores door klokstabiliteit. Ongeacht wat je ermee doet, hield mijn KP keurig 2100MHz aan.
Voor mij blijft de 30 serie een gefaalde generatie, eens kijken wat Lovelace brengt.
Hoog stroomverbruik mag prima als de performance daarmee ook stijgt, bij de 3090 vind ik het niet het geval vergeleken met een 2080Ti op ~2100MHz, tenminste - niet in 1440p.
De koeling zal zeker goed zijn op zo'n kaart.
[ Voor 6% gewijzigd door themash360 op 02-01-2021 18:03 ]
Wellicht is het niet zo gek dat een gpu van 1.5 jaar terug die 1.5K kostte nog prima mee gaat en maar 40-50% achterloopt op zijn 800,- vervanger. Ampere is gefaald voor mensen die in de ultra-high-end zitten, de 0.1% van users.Zuur.Pruim schreef op zaterdag 2 januari 2021 @ 00:34:
Voor mij blijft de 30 serie een gefaalde generatie, eens kijken wat Lovelace brengt.
Hoog stroomverbruik mag prima als de performance daarmee ook stijgt, bij de 3090 vind ik het niet het geval vergeleken met een 2080Ti op ~2100MHz, tenminste - niet in 1440p.
De 3090 is een Halo product, iets wat je met een beetje research had kunnen vinden. Het biedt 15% meer CUDA cores en aangezien zelfs de 3080 op 1440p al last heeft van idle fp32 units omdat er niet genoeg werk per frame is, had je zelfs zonder benchmarks wel kunnen verwachten dat dit bijna niets extra ging opleveren voor u.
Voordat men een generatie gefaalt noemt zou ik vragen of ze ook eens willen kijken wat het bied aan anderen, de 3070 is voor 500-600,- een 2080 Ti qua compute performance en nog beter in RT en Tensor performance, de 3080 bied 90% van de 3090's performance en is rond de 800,-.
Ik heb geprobeerd om het maximale eruit te halen en tot zover kwam ik. Zag meerdere mensen +1000 memory clock posten maar helaas niet bij mijn kaart. Daarnaast kwam ik niet hoger dan 2130themash360 schreef op zaterdag 2 januari 2021 @ 17:23:
[...]
Heel vet, kwam zelf ook niet veel verder dan 2160Mhz, en dat op 1.093V. Op 1.025V, waar hij nu op staat gelocked met een UV, kom ik op 2130 dat zodra de GPU rond de 65C blijf hanged daalt tot 2100Mhz (GPU Boost 3.0).
Heb je al geprobeerd de memory chips verder te pushen? Bij mij gaan ze tot +1250Mhz stabiel met performance gain. +1350 heb ik een hogere score in 3dmark maar het is niet compleet stabiel, haal er net een benchmark mee zegmaar.
Zie bijvoorbeeld de gigabyte line-up van de 3080. Puur naar de specs kijkend is het enige verschil een iets hogere core clock voor de duurdere modellen.
Zijn er goede reviews/benchmarks over verschillen tussen dit soort kaarten te vinden? Ik kom het eigenlijk nergens tegen...
youtube.com/@hisrep
Nee het verschil tussen de snelste en traagste 3080 ga je ingame niet merken, het zal echt maar enkele procenten schelen.DeNachtwacht schreef op zaterdag 2 januari 2021 @ 22:38:
Vraagje, los van de prijsverhoging door de schaarste, zijn er natuurlijk ook verschillen in prijs tussen de verschillende modellen die bepaalde fabrikanten uitbrengen. Als we even alleen naar performance kijken (dus extra features als LED verlichting, een extra display et cetera even daar gelaten), zijn die verschillen ook duidelijk merkbaar ingame?
Zie bijvoorbeeld de gigabyte line-up van de 3080. Puur naar de specs kijkend is het enige verschil een iets hogere core clock voor de duurdere modellen.
Zijn er goede reviews/benchmarks over verschillen tussen dit soort kaarten te vinden? Ik kom het eigenlijk nergens tegen...
Wel hebben duurdere modellen een betere koeler en maken vaak dus minder lawaai.
De echte top modellen verbruiken echt heel veel stroom voor een paar fps extra, de msi suprim of de aorus extreme.
Heb zelf de aorus master, die heeft ook maar 2x8pin voeding nodig.
Ik heb deze kaart gekozen omdat ik meerdere hdmi poorten wilde, en omdat ie zo groot was leek me dat hij wel stiller zou zijn dan andere modellen.
Die 45mhz die ie hoger klokt dan lagere modellen verbruikt waarschijnlijk zoveel meer stroom, dat ie gewoon weer even luid is met zn betere koeler denk ik nu achteraf.
[ Voor 5% gewijzigd door Goofy1978 op 02-01-2021 23:49 ]
Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...
TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.
----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.
Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.
Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:
3060Ti met +165MHz op de core en +1200MHz op memory.
En toen.....
Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.
Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.
Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...
Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.
Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
Sorry dat ik het zeg maar als ik dit zo lees was je oc gewoon te hoog aangezien je nu met iets lagere settings geen crashes enzo hebt. De ene load is de andere niet en is ook resolutie afhankelijk. Ik heb mijn Max Stable oc daarom ook opgezocht in meerdere zware workloads op 4K. Als ik bv wow alleen test dan kan ik er ook meer uitpersen als bv cyberpunk. 3D Mark heb ik Port royal en de andere testen op Custom 4K en dan alleen graphics in loops gedaan.HexerPsy schreef op zondag 3 januari 2021 @ 02:05:
Hoi hoi!
Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...
TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.
----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.
Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.
Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:
3060Ti met +165MHz op de core en +1200MHz op memory.
En toen.....
Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.
Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.
Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...
Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.
Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
|WOW Daggerspine | Troll Hunter Axejess |
Reageer vriendelijk en inhoudelijk, of reageer niet.
[ Voor 97% gewijzigd door Blaat op 04-01-2021 12:08 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Ik lees niks over hoe je bent omgegaan met de voltage en/of power limit. Voor overclocking is het echter wel belangrijk om hieraan te tunen. Vooral omdat je best een behoorlijke OC hebt, vergeleken met andere 3060 Ti.HexerPsy schreef op zondag 3 januari 2021 @ 02:05:
Hoi hoi!
Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...
TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.
----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.
Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.
Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:
3060Ti met +165MHz op de core en +1200MHz op memory.
En toen.....
Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.
Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.
Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...
Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.
Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
Daarnaast heb je inderdaad gelijk dat je met bepaalde programma's niet alle onstabiliteit vind. Ik dacht dat de geheugen van mijn MSI 3060 ti op +1000 kon zetten. In 3d mark en unigine waren geen problemen te zien, en kreeg ik een hogere score in de benchmarks. In Cyberpunk krijg ik na tientallen minuten een vreemde artefact te zien die te maken had met mijn geheugen overlock. Toen ik het van +1000 naar +750 veranderde, verdween die artefact.
Mijn advies is dus je OC settings met meerdere benchmarks en games te testen.
Wazaa?
Klinkt alsof je memory wel binned is, meeste chips komen niet voorbij 500, zelfs in unigene heaven.Cloudy schreef op zondag 3 januari 2021 @ 11:30:
[...]
Ik lees niks over hoe je bent omgegaan met de voltage en/of power limit. Voor overclocking is het echter wel belangrijk om hieraan te tunen. Vooral omdat je best een behoorlijke OC hebt, vergeleken met andere 3060 Ti.
Daarnaast heb je inderdaad gelijk dat je met bepaalde programma's niet alle onstabiliteit vind. Ik dacht dat de geheugen van mijn MSI 3060 ti op +1000 kon zetten. In 3d mark en unigine waren geen problemen te zien, en kreeg ik een hogere score in de benchmarks. In Cyberpunk krijg ik na tientallen minuten een vreemde artefact te zien die te maken had met mijn geheugen overlock. Toen ik het van +1000 naar +750 veranderde, verdween die artefact.
Mijn advies is dus je OC settings met meerdere benchmarks en games te testen.
Dit is gebaseerd op mijn ervaring met extreme memory overclocking (DDR3/DDR4), maar memory chips (siliconen chips in general) worden steeds foutgevoeliger als ze warmer worden.HexerPsy schreef op zondag 3 januari 2021 @ 02:05:
Hoi hoi!
Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...
TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.
----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.
Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.
Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:
3060Ti met +165MHz op de core en +1200MHz op memory.
En toen.....
Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.
Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.
Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...
Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.
Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
Weet het natuurlijk niet exact van de strix koeler maar die memory chips stijgen meestal in temperatuur van 25C tot 85C afhankelijk vooral van case airflow. (De memory chips op de achterkant zijn vaak alleen in contact met de backplate)
Dus ik zou verwachten dat de gpu memory gelijksoortige eigenschappen heeft. Ook belangrijk dat er error correction in zit, dit voorkomt geen visuele artifacts maar wel application crashes, vandaar dat folding@home het wellicht wel goed bleef doen, niet alsof je daar inzicht had op de artifacts.
Wat ik over het algemeen tegen kom is dat vrijwel alle 3060ti en 3070 wel +1000 op het geheugen aan kunnen. Ik heb hem zelf op +1250 lopen. (Samsung chips)themash360 schreef op zondag 3 januari 2021 @ 11:42:
[...]
Klinkt alsof je memory wel binned is, meeste chips komen niet voorbij 500, zelfs in unigene heaven.
Ik heb een Gigabyte kaart die uit hun fabriekje al overclocked komt, mijn 1080Ti had dit ook.
Een heel deel van mijn game library is hier precies gevoelig aan, de drivers crashen gewoon. Het spel sluit ofwel af of loopt vast en in de event viewer staat dan gewoon droog: Nvidia driver has stopped responding and successfully recovered.
Als ik de kaart manueel ga downclocken, -100 het geheugen en -50 op de core. Geen problemen meer. Ik snap wel dat dat qua FPS niet zo heel veel gaat uitmaken, maar het is wel vervelend elke keer afterburner open te doen en te downclocken.
FS2020 is er heel gevoelig aan, die crasht gewoon in het menu al.
| 1 | Processors | AMD Ryzen 7 3700X (BOX) Boxed |
| 1 | Moederborden | MSI X470 Gaming Plus |
| 1 | Geheugen intern | Corsair Vengeance LPX CMK32GX4M2D3000C16 |
| 1 | Voedingen | Corsair RM750x (2018) (EU-model) Zwart |
| 1 | Solid state drives | Intel 660p 512GB |
Ik begin mij eerlijk gezegd toch wat zorgen te maken, zeker aangezien ik binnenkort exact dezelfde Gigabyte kaart verwacht met zeer gelijkaardige specs
| 1 | Processors | AMD Ryzen 7 3800X Boxed |
| 1 | Moederborden | ASUS ROG Strix B450-F Gaming |
| 1 | Geheugen intern | Corsair Vengeance RGB Pro CMW32GX4M2Z3200C16 |
| 1 | Voedingen | MSI MPG A750GF |
| 1 | Solid state drives | Samsung 970 EVO 1TB |
| 1 | Solid state drives | Samsung 970 Evo Plus 250GB |
First things first, de RTX 3080 (& 3070 tot zeker mate) is een compute heavy architecture, dat vooral goed is in veel shader effecten en hoge resolutie (dus veel werk per frame) en bottlenecked op andere componenten (Texture units, databus, etc) als het gaat om lage workload per frame maar hoge framerate.SanderH_ schreef op zondag 3 januari 2021 @ 13:18:
Een kennis heeft sinds kort een Gigabyte GeForce RTX 3080 Vision OC 10G, maar de prestaties in games vallen op zijn zachtst gezegd toch wat tegen. In vergelijking met een 2070 Super is er soms zelfs weinig verschil qua FPS (zowel op 1080p als 1440p). In andere games is er dan weer een duidelijk betere performantie. Reeds meerdere zaken gecheckt (drivers, PCIe modus, temps, ...) maar alles lijkt op het eerste gezicht normaal. Lijkt mij dat onderstaande specs niet direct een bottleneck kunnen vormen?
1 Processors AMD Ryzen 7 3700X (BOX) Boxed 1 Moederborden MSI X470 Gaming Plus 1 Geheugen intern Corsair Vengeance LPX CMK32GX4M2D3000C16 1 Voedingen Corsair RM750x (2018) (EU-model) Zwart 1 Solid state drives Intel 660p 512GB
Ik begin mij eerlijk gezegd toch wat zorgen te maken, zeker aangezien ik binnenkort exact dezelfde Gigabyte kaart verwacht met zeer gelijkaardige specs![]()
1 Processors AMD Ryzen 7 3800X Boxed 1 Moederborden ASUS ROG Strix B450-F Gaming 1 Geheugen intern Corsair Vengeance RGB Pro CMW32GX4M2Z3200C16 1 Voedingen MSI MPG A750GF 1 Solid state drives Samsung 970 EVO 1TB 1 Solid state drives Samsung 970 Evo Plus 250GB
Dus ik zou compleet verwachten dat je op 1080p teleurgestelt word met Ampere. Tegelijkertijd zou ik ook verwachten dat er geen enkel spel is dat op 1080p de 3080 maxed (zonder Raytracing dan), dus dat brengt me naar punt 2.
Ten tweede zou ik toch wilen opbrengen dat de 3700X qua ST performance niet bovenaan staat, dus er zullen games zijn waar bij je 2070 de bottleneck al de CPU was (zeker op 1080p), dan heeft een 3080 geen toegevoegde waarde. Wel belangrijk te onthouden dat de 3700X maar een paar % in games achterloopt op zelfs de 5950X ofzo, dus echt veel winst valt hier niet te halen.
Dus noem eens wat getallen, dan kan ik ook zien of er wat mis is, alle spellen hier kan je op 1080p makkelijk een CPU bottleneck hebben, dus kijk vooral of er een grote discrepancy is tussen de gemeten FPS daar en bij jouw vriend.
Lijkt mij dan dat ik dezelfde "issues" kan verwachten met mijn setup?
Om je een idee te geven, in 3DMark Time Spy met alles stock haalt hij onderstaande (wat mij normaal lijkt):
- Algemene score: 15.692
- GPU score: 17.525
- CPU score: 9.853
[ Voor 3% gewijzigd door SanderH_ op 03-01-2021 14:04 ]
Daar lijkt me niets mis mee, dit is een day 1 review van een FE 3080:SanderH_ schreef op zondag 3 januari 2021 @ 13:56:
@themash360 Kudos voor de uitgebreide uitleg![]()
Lijkt mij dan dat ik dezelfde "issues" kan verwachten met mijn setup?
Om je een idee te geven, in 3DMark Time Spy met alles stock haalt hij onderstaande (wat mij normaal lijkt):
- Algemene score: 15.692
- GPU score: 17.525
- CPU score: 9.853
/f/image/mCFnyu4ukC0ljXujbHs120yQ.png?f=fotoalbum_large)
Dus ik ben bang dat de spellen waar meer verbetering in verwacht werd het probleem niet de GPU was, want ook de combined score ziet er goed uit (Inclusief de CPU physics test dus):
Te hoge OC zal dan wel het probleem zijn. Vreemd genoeg komt de driver crash nu alleen nog voor in desktop situaties; niet onder zware loads...Cloudy schreef op zondag 3 januari 2021 @ 11:30:
[...]
Ik lees niks over hoe je bent omgegaan met de voltage en/of power limit. Voor overclocking is het echter wel belangrijk om hieraan te tunen. Vooral omdat je best een behoorlijke OC hebt, vergeleken met andere 3060 Ti.
Daarnaast heb je inderdaad gelijk dat je met bepaalde programma's niet alle onstabiliteit vind. Ik dacht dat de geheugen van mijn MSI 3060 ti op +1000 kon zetten. In 3d mark en unigine waren geen problemen te zien, en kreeg ik een hogere score in de benchmarks. In Cyberpunk krijg ik na tientallen minuten een vreemde artefact te zien die te maken had met mijn geheugen overlock. Toen ik het van +1000 naar +750 veranderde, verdween die artefact.
Mijn advies is dus je OC settings met meerdere benchmarks en games te testen.
Dit gedrag blijf ik best wel raar vinden... Afgelopen jaren met een 1080Ti gewerkt, ook met OC, en nooit dit soort desktop driver crashes gehad.
In MSI Afterburner heb ik de voltage, powerlimit en temp gewoon op max gezet voor wat de slider mogelijk maakt: Vcore op 100 - Pwr limit op 135 en temp 90C. Voor een kaart die niet boven de 65C uit komt, lijkt me dat geen issue.
Klik het Windows icoontje in Msi afterburner en het applied de downclock op boot (zonder dat het programma zelf in windows start up hoeft te staan)Lyca schreef op zondag 3 januari 2021 @ 12:25:
Zijn hier eigenlijk nog mensen met van die vage issues?
Ik heb een Gigabyte kaart die uit hun fabriekje al overclocked komt, mijn 1080Ti had dit ook.
Een heel deel van mijn game library is hier precies gevoelig aan, de drivers crashen gewoon. Het spel sluit ofwel af of loopt vast en in de event viewer staat dan gewoon droog: Nvidia driver has stopped responding and successfully recovered.
Als ik de kaart manueel ga downclocken, -100 het geheugen en -50 op de core. Geen problemen meer. Ik snap wel dat dat qua FPS niet zo heel veel gaat uitmaken, maar het is wel vervelend elke keer afterburner open te doen en te downclocken.
FS2020 is er heel gevoelig aan, die crasht gewoon in het menu al.
Eindelijk de cijfers van Tweakers. Suprim komt hier niet lekker uit de bus. Zijn er hier mensen met een Gaming X trio die ook een overclock hebben gedaan? Ben benieuwd wie dan met de hoogste prestaties komt.
Dit heeft natuurlijk ook te maken met silicon lottery. Als er goede chips inzitten dan klokken deze hoger en komt het beter uit de bus met benchmarks. Wat daar nog wel een verschil kan maken is maximaal in te zetten TDP en koeling. Dit kan de boost klok en prestaties beperken natuurlijk.ZelianGuy schreef op donderdag 7 januari 2021 @ 08:32:
reviews: Vier nieuwe RTX 3080's - Twee topmodellen en twee budgetkaarten
Eindelijk de cijfers van Tweakers. Suprim komt hier niet lekker uit de bus. Zijn er hier mensen met een Gaming X trio die ook een overclock hebben gedaan? Ben benieuwd wie dan met de hoogste prestaties komt.
Wat mij ook opvalt is dat synthetische benchmarks een groot verschil in punten op geven terwijl in echte games het in verreweg de meeste gevallen om maximaal 4% extra prestatie winst gaat.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Uit de doos een 3dMark timespy score van GPU score 11600 / System score: 10800 / cpu: 7300
Na tweaken UV-curve (core + 175MHz en mem +1000MHz) : 12450 / 11200
Temperatuur 68°C bij 40% GPU-fans in een BeQuiet pure base 500 met 2 extra P14 fans op laag toerental.
Na flashen bios naar een MSI Gaming X TRIO (zie deze info: https://www.reddit.com/r/...x_bios_flashed_to_an_msi/) meer ruimte in de power settings (200W -> 240W)
Let op flashen kan de kaart brick'n.
Na tweaken UV-curve (core+175MHz en mem +1000MHz) en TDP_max op 240W (i.p.v. standaard max 200W) Score: 12800 / 11600 (met 7550 bij port royal)
Temp GPU 74°C bij 55% GPU fans.
De settings die ik nu gebruik voor gamen (star citizen): UV-curve +160 GPU en +1000 mem power limit 100% (240W) max GPU-clock 2020MHz/950mV (UV curve vlak vanaf deze waarde). Dit om het systeem lekker stil te houden. De kaart draait dan vaak op 85% power met pieken richting 95%.
3dMark timespy score van GPU score 12519 / System score: 11335
Port royal: 7450.
Door de extra power ruimte door de bios flash zie je de kaart soms meer opnemen dan 200W, meer richting 95% (230W). Dit helpt de FPS stabiliteit. Temps GPU 68°C , 45% GPU fans.
Games die ik speel en performance:
Star citizen: 4k ultra settings, 60FPS in space, 50FPS gemiddeld in port olisar, 30FPS in treinen in de stad.
World of tanks: 4k alles op max: 60FPS (v-sync aan) met 50% GPU power opname.
Eve-online: 4k alles max: 60FPS (v-sync aan) met 40% GPU power opname.
Kerbal space: 4k alles max: 60FPS (v-sync aan) met 55% GPU power opname.
Al met al erg tevreden met de kaart (die ik voor 450Euro in de winkel heb gekocht).
Systeem verder:
| # | Category | Product | Prijs | Subtotaal |
| 1 | Processors | Intel Core i5-10400F Boxed | € 150,35 | € 150,35 |
| 1 | Moederborden | ASRock Z490 Phantom Gaming 4 | € 125,05 | € 125,05 |
| 1 | Videokaarten | MSI GeForce RTX 3060 Ti Ventus 2X | € 450,- | € 450,- |
| 1 | Behuizingen | be quiet! Pure Base 500 Zwart | € 62,90 | € 62,90 |
| 1 | Monitoren | LG Ergo 32UN880 Zwart | € 786,49 | € 786,49 |
| 1 | Processorkoeling | be quiet! Pure Rock 2 Zilver | € 29,99 | € 29,99 |
| 2 | Ventilatoren | Arctic P14 PWM PST, 140mm | € 12,30 | € 24,60 |
| 1 | Toetsenborden | Corsair Strafe RGB MK.2 (Cherry MX Silent) US | € 112,- | € 112,- |
| 1 | Muizen | Logitech G403 Hero Gaming Mouse | € 49,90 | € 49,90 |
| 1 | Geheugen intern | G.Skill Ripjaws V F4-3200C16D-16GVKB | € 77,90 | € 77,90 |
| 1 | Voedingen | Fractal Design ION+ 560W Platinum | € 102,81 | € 102,81 |
| Bekijk collectie Importeer producten | Totaal | € 1.971,99 | ||
Interessant die bios flash, daar ga ik ook eens naar kijken. Ik heb dezelfde kaart en heb een profiel voor stil gamen en maximale FPS.Kloekie schreef op donderdag 7 januari 2021 @ 11:30:
Mijn ervaringen met de MSI GeForce RTX 3060 Ti VENTUS 2X OC Videokaart:
Uit de doos een 3dMark timespy score van GPU score 11600 / System score: 10800 / cpu: 7300
Na tweaken UV-curve (core + 175MHz en mem +1000MHz) : 12450 / 11200
Temperatuur 68°C bij 40% GPU-fans in een BeQuiet pure base 500 met 2 extra P14 fans op laag toerental.
Na flashen bios naar een MSI Gaming X TRIO (zie deze info: https://www.reddit.com/r/...x_bios_flashed_to_an_msi/) meer ruimte in de power settings (200W -> 240W)
Let op flashen kan de kaart brick'n.
Na tweaken UV-curve (core+175MHz en mem +1000MHz) en TDP_max op 240W (i.p.v. standaard max 200W) Score: 12800 / 11600 (met 7550 bij port royal)
Temp GPU 74°C bij 55% GPU fans.
De settings die ik nu gebruik voor gamen (star citizen): UV-curve +160 GPU en +1000 mem power limit 85% (200W) max GPU-clock 2020MHz (UV curve vlak vanaf deze waarde). Dit om het systeem lekker stil te houden.
3dMark timespy score van GPU score 12519 / System score: 11335
Port royal: 7450.
Door de extra power ruimte door de bios flash zie je de kaart soms meer opnemen dan 200W, meer richting 90% (220W). Dit helpt de FPS stabiliteit. Temps GPU 68°C , 45% GPU fans.
Games die ik speel en performance:
Star citizen: 4k ultra settings, 60FPS in space, 50FPS gemiddeld in port olisar, 30FPS in treinen in de stad.
World of tanks: 4k alles op max: 60FPS (v-sync aan) met 50% GPU power opname.
Eve-online: 4k alles max: 60FPS (v-sync aan) met 40% GPU power opname.
Kerbal space: 4k alles max: 60FPS (v-sync aan) met 55% GPU power opname.
Al met al erg tevreden met de kaart (die ik voor 450Euro in de winkel heb gekocht).
Stil:
800mV/1850 Mhz Core
Maximale FPS:
OC Scanner curve (1100mV/1935Mhz) en +800Mhz memory.
Beide draaien stabiel, maar ben benieuwd of er nog wat meer uit te halen is met de power limit verhogen. Temps zijn nu namelijk laag (60 graden bij 40% fans), wat lekker stil is maar ik heb het idee dat er meer uit te halen is.
Enige waar ik nog van baal is dat ik wilde upgraden naar ultra wide 3440x1440 en daar doet de 3080 het toch echt wel een stuk beter op de benchmarks en de 3070 hier en daar toch net wat minder. De 3070 heeft het nog best zwaar met cyberpunk op 1440p met raytracing en dlss aan. (40-50 fps met alle toeters en bellen en dlss op balanced).
Heb daarnaast sinds vanmorgen ook Asus Multicore Enhancement uit gezet omdat ik er toch mixed verhalen over hoor en lees.
i7-10700k | 32GB @3200Mhz | RTX 3090
Het grafiekje onder die scoreboog laat precies zien wat je wilt weten. Je zit precies op de modus van alle scores met jouw CPU/GPU combo, net onder het gemiddelde.Rubenvdk schreef op donderdag 7 januari 2021 @ 16:27:
Zojuist voor de lol ook eens een 3DMark gedraaid met mijn 3090. Just for fun, ik heb geen verstand van overklokken en ben het ook niet van plan voorlopig. Ik weet dat 3DMark puur statistisch is, maar is dit resultaat positief?![]()
Heb daarnaast sinds vanmorgen ook Asus Multicore Enhancement uit gezet omdat ik er toch mixed verhalen over hoor en lees.
[Afbeelding]
https://nl.wikipedia.org/...rekenkundig%20gemiddelde.
Sinterklaas wil bier !
Heb mijn 3070 aorus master nu op 900mv@1935 stabiel. Reden dat ik undervolt is dat gigabyte een beetje te fanatiek is omgegaan met hun voltages. Ik haalde wel goeie clocks maar het verschil is marginaal. Memory heb ik maar 900mhz gedaan. Power limit nog steeds op 100%. In time Spy een max temperatuur van 64 graden. Graphics score van 13 829 icm met mijn ryzen 5 3600. Time Spy score self is 12153.bronce schreef op donderdag 7 januari 2021 @ 15:13:
Gister de inno3d 3070 x4 binnen gekregen. Best tevreden met het model, nog nooit een kaart van inno3d gehad. Ik haal nu op timespy 14755 en graphic score 14998. Ryzen 5900x met 3600 mhz ddr. Draai nu op +150mhz core clock en + 1000 memory clock. Power limit op 102%. GPU temp max 63 graden tijdens de benchmark (custom fan curve). Idle temp 25 graden. Dus zeer tevreden met de koeling/performance van dit model.
Ik merk dat er nog veel ruimte is dus ik ga verder tweaken. Wel enorm verslavend dit.
Top thanks voor de toelichting! Dat ik daar overheen heb gelezen!ParaWM schreef op donderdag 7 januari 2021 @ 16:58:
[...]
Het grafiekje onder die scoreboog laat precies zien wat je wilt weten. Je zit precies op de modus van alle scores met jouw CPU/GPU combo, net onder het gemiddelde.
https://nl.wikipedia.org/...rekenkundig%20gemiddelde.
i7-10700k | 32GB @3200Mhz | RTX 3090
Ik heb na heel wat spelen mooie strakke UV's gevonden die redelijk standaard zijn denk ik, zie hieronder. Die vier zijn echt 100% strak (want geen power limit denk ik?). Elke game of benchmark strak altijd op die clockspeed. Bij 975mV al is hij niet meer 100% strak, maar springt alleen 15mhz op en neer. Allemaal vrij logisch met de auto boost enzo. De hoogste UV op 962mhz geeft al 3% hoger scores dan out-of-de-box trouwens. Een standaard overclock van +125mhz doet daar nog een kleine 2% bij, maar hij springt dan op en neer tussen de 1950 en 2130mhz als een gek. Voltage ook all over the place. Wat volgens mij ook nog voor slechtere 1% en 0.1% lows zorgt (niet getest nog).
Ik kan dus niet zeggen wat mijn clock is bij 1.050mV en zeker niet bij 1.093mV (die laatste haalt hij bijna nooit). Voor de UV waardes kan ik dat wel duidelijk zeggen.
750mV: 1710 mhz
825mV: 1845 mhz
900mV: 1935 mhz
962mV: 2010 mhz
[ Voor 3% gewijzigd door ParaWM op 07-01-2021 20:04 ]
Sinterklaas wil bier !
Ik haal over de 16K met mijn 2080 ti.....SanderH_ schreef op zondag 3 januari 2021 @ 13:56:
@themash360 Kudos voor de uitgebreide uitleg![]()
Lijkt mij dan dat ik dezelfde "issues" kan verwachten met mijn setup?
Om je een idee te geven, in 3DMark Time Spy met alles stock haalt hij onderstaande (wat mij normaal lijkt):
- Algemene score: 15.692
- GPU score: 17.525
- CPU score: 9.853
Stay hungry, stay foolish!
Dit topic is ervaringen over de nieuwe nVidia RTX 3xxx kaarten uit te wisselen en om de kaarten zelf te bediscussieren. Dit topic is niet bedoeld voor aankoopadvies zoals:
• Is mijn voeding krachtig genoeg voor de nieuwe kaarten?
• Is mijn processor snel genoeg voor de nieuwe kaarten?
• en ook niet voor levertijden en prijzen!
Als je er niet uit komt, maak dan een topic aan in Componenten Aankoopadvies.
:strip_exif()/f/image/rMiQBkyfTdwE4SsCPmk934ms.jpg?f=fotoalbum_medium)
:strip_exif()/f/image/Bjy65T1ES5XQVX2chMPWtR8M.jpg?f=fotoalbum_small)