[NVIDIA GeForce RTX 30XX] Ervaringen & Discussie Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 37 ... 54 Laatste
Acties:

Onderwerpen

Alle 25 producten


Acties:
  • +1 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 20:54
Okasha schreef op dinsdag 29 december 2020 @ 09:40:
[...]


Ok ga ik sowieso even proberen. Maar Bios is natuurlijk het sjiekste, gratis en geen extra troep in je systemtray.. Heb bios geupdate maar de PCI-E is er niet als input optie bijgekomen helaas.
Ja BIOS is wel het sjjiekste dat ben ik met je eens. Maar afaik kan je je fans in het GB BIOS niet op 0rpm zetten. Dat kan bij Argus wel.

Wie goed doet, die goed ontmoet.


Acties:
  • +1 Henk 'm!

  • Okasha
  • Registratie: November 2000
  • Niet online
AtlAntA schreef op dinsdag 29 december 2020 @ 09:50:
[...]


Ja BIOS is wel het sjjiekste dat ben ik met je eens. Maar afaik kan je je fans in het GB BIOS niet op 0rpm zetten. Dat kan bij Argus wel.
Nee dat kan gewoon hoor! Mijn fans slaan pas aan bij 60 graden is meer 🙂 alleen de input van gpu op de systen fans dat is nasty

Acties:
  • 0 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 30-06 22:21
Hoe bepalen jullie bij het ondervolten hoeveel core clock de curve in zijn geheel omlaag moet als eerste stap?

Acties:
  • +1 Henk 'm!

  • Metalbuster
  • Registratie: April 2004
  • Laatst online: 10-06 23:22
Ik weet niet goed of dit hier hoort, maar het is volgens mij wel een 'ervaring' post betreft een 3070.

Sinds vandaag een Gigabyte 3070 Gaming OC ontvangen en in mijn PC gebouwd. Echter bij het inbouwen schijnt mijn kaart dus 'connector' problemen te hebben (zie reddit topic hieronder).

Sommige pinnetjes op de videokaart waar de PSU kabel in moet zitten niet helemaal recht waardoor de PSU kabel er niet goed in klikt. Nu heb ik met een platte schroevendraaier deze pinnen recht gezet waardoor de psu kabels nu wel klikken en passen. Het werkt echter prima tot nu toe, echter zit het mij toch niet helemaal lekker. Wat zouden jullie doen, terug sturen of zo houden?

Als ik het terug stuur dan moet ik waarschijnlijk weer heel lang wachten.

https://www.reddit.com/r/...ng_oc_power_pins_problem/

Acties:
  • 0 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 30-06 22:21
Zijn hier 3080 gebruikers die met het gebruik van een ondervolt profiel standaard ook de het geheugen hebben overgeklokt?

Acties:
  • +2 Henk 'm!

  • LeStef
  • Registratie: Februari 2015
  • Laatst online: 01-07 19:36
Ik. Undervolted naar 0.860v @1925MHz op core + 500 op geheugen, nog geen tijd gehad om verder te zoeken.

Acties:
  • +1 Henk 'm!

  • xtreme_lunatic
  • Registratie: Januari 2003
  • Laatst online: 00:02
Metalbuster schreef op dinsdag 29 december 2020 @ 20:11:
Ik weet niet goed of dit hier hoort, maar het is volgens mij wel een 'ervaring' post betreft een 3070.

Sinds vandaag een Gigabyte 3070 Gaming OC ontvangen en in mijn PC gebouwd. Echter bij het inbouwen schijnt mijn kaart dus 'connector' problemen te hebben (zie reddit topic hieronder).

Sommige pinnetjes op de videokaart waar de PSU kabel in moet zitten niet helemaal recht waardoor de PSU kabel er niet goed in klikt. Nu heb ik met een platte schroevendraaier deze pinnen recht gezet waardoor de psu kabels nu wel klikken en passen. Het werkt echter prima tot nu toe, echter zit het mij toch niet helemaal lekker. Wat zouden jullie doen, terug sturen of zo houden?

Als ik het terug stuur dan moet ik waarschijnlijk weer heel lang wachten.

https://www.reddit.com/r/...ng_oc_power_pins_problem/
Als het werkt zou ik 'm gewoon houden. Duurt anders weer lang voordat je een nieuwe krijgt ben ik bang.

Press any button... "Where is the 'any button'?!"


Acties:
  • +4 Henk 'm!

  • Mobzy
  • Registratie: April 2012
  • Laatst online: 02-07 11:20
LeStef schreef op dinsdag 29 december 2020 @ 20:38:
Ik. Undervolted naar 0.860v @1925MHz op core + 500 op geheugen, nog geen tijd gehad om verder te zoeken.
@Thrawni Same here. -150 in MSI Afterburner, dan de curve aanpassen. Ik pak 0.850v en knal die naar 1935. +500 op de mem, hoger degradeert de scores, en powerslider + temp slider naar max.

Die van mij zit op water en kan bij 0.943v veel hogere clocks halen maar de score stijgt maar amper terwijl het stroomverbruik dan toch al op de 340W zit. Op 0.850v zit het stroom zo bij 270W wel op z'n max :)

Bonus punten, bij 0.850v heb ik ook véél minder last van de coilwhine brom die hij produceert (Asus 3080 EK).

Hieronder een overzichtje van mijn notepad kladje met resultaten:
Gedurende alle test blijft de GPU temp onder de <50c, hele PC zit op EKWB loop met 420 + 280 rad.
PL = Powerlimit % increase
CTR = ClockTuner profile voor Ryzen 3800x toegepast
Target = Frequency target in curve op voltage punt
Score = 3dmark Port Royal score
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
Port Royal
3080 EK     Score   Clock   Voltage Power   Comment
STOCK       11309   1935mhz 1.081v  319W
1935 PL14   11437   1920mhz 0.893v  279W
1890 PL14   11353   1890mhz 0.850v  261W
1935 MEM OC 11617   1920mhz 0.850v  271W
^ + CTR     11660   1920mhz 0.850v  270W

???? PL0    11740   1980mhz 0.925v  308W
2040 PL14   11920   2025mhz 0.925v  315W

2040 PL14   crash   2040mhz 0.900v  307W
2030 PL14   11889   2040mhz 0.900v  304W
2025 PL14   11844   2010mhz 0.893v  300W

2070 PL14   12071   2070mhz 0.950v  331W
2070 PL14   12005   2055mhz 0.944v  323W    unstable
2055 PL14   11911   2025mhz 0.944v  321W    stable 30min
2040 PL14   11959   2025mhz 0.944   324W
2025 PL14   11885   2010mhz 0.944   323W    stable 35min

2010 PL14   11825   1995mhz 0.875v  290W    unstable
1995 PL14   11825   1995mhz 0.875v  290w    unstable
1980 PL14   11697   1980mhz 0.875v  288W

MemOC
3080 EK     Score   Clock   Voltage Power   Mem clock
2025 PL14   11885   2010mhz 0.944   323W 
mem +100    11845   2010mhz 0,944   322W    9602mhz
mem +200    11905   2010mhz 0,944   322W    9702mhz
mem +300    11931   2010mhz 0,944   324W    9802mhz
mem +400    11976   2025mhz 0,944   324W    9902mhz

mem +475    11961   2025mhz 0,944   331W    9976mhz
mem +498    11984   2025mhz 0,944   331W    10000mhz
mem +500    12027   2025mhz 0,944   327W    10002mhz
mem +550    11972   2010mhz 0,944   327W    10052mhz

mem +600    11994   2025mhz 0,944   327W    10102mhz
mem +700    12067   2025mhz 0,944   330W    10202mhz
mem +800    12022   2025mhz 0,944   328W    10302mhz


Hier een overzichtje van het vergelijk wat ik maakte toen ik de kaart kreeg tussen de affabriek waterblock kaarten van fabrikanten, ik heb zelf de Asus, waarbij ik dus de boost clocks inklop die bijv op de Gigabyte Waterforce WB standaard zit:
code:
1
2
3
4
5
6
7
8
9
Timespy     Total   GPU     CPU     Power
GIGABYTE    16561   18426   10527   348W
INNO3D      16256   18051   10399   348W
ASUS OC PL  16181   17897   10485   348W
ASUS OC     16179   17889   10495   340W
ASUS        15881   17494   10433   320W    
STOCK       15920   17534   10464   ???
1890 PL14   15999   17672   10414   276W
CTR + UV    16554   18354   10641   290W

[ Voor 9% gewijzigd door Mobzy op 29-12-2020 22:16 ]


Acties:
  • +1 Henk 'm!

  • Goofy1978
  • Registratie: December 2008
  • Laatst online: 01-07 15:26
Metalbuster schreef op dinsdag 29 december 2020 @ 20:11:
Ik weet niet goed of dit hier hoort, maar het is volgens mij wel een 'ervaring' post betreft een 3070.

Sinds vandaag een Gigabyte 3070 Gaming OC ontvangen en in mijn PC gebouwd. Echter bij het inbouwen schijnt mijn kaart dus 'connector' problemen te hebben (zie reddit topic hieronder).

Sommige pinnetjes op de videokaart waar de PSU kabel in moet zitten niet helemaal recht waardoor de PSU kabel er niet goed in klikt. Nu heb ik met een platte schroevendraaier deze pinnen recht gezet waardoor de psu kabels nu wel klikken en passen. Het werkt echter prima tot nu toe, echter zit het mij toch niet helemaal lekker. Wat zouden jullie doen, terug sturen of zo houden?

Als ik het terug stuur dan moet ik waarschijnlijk weer heel lang wachten.

https://www.reddit.com/r/...ng_oc_power_pins_problem/
Lekker houden, elke gaming oc heeft dat in zekere mate. :)
De fix vanuit fabriek is een rubber bandje net achter de aansluiting, zodat de pinnen wat beter zitten.
En dat zal vast ook wel eens niet goed zitten, gewoon een wat slordig ontwerp maar het werkt wel als het eenmaal zit.

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 01:00
Weet iemand het volgende?

Van sommige modellen heb je een normale versie en oc of x versie.

Kan je de gewone versie Flashen met de OC versie hiervan?

Acties:
  • 0 Henk 'm!

  • MJPost97
  • Registratie: September 2018
  • Laatst online: 04-06 10:11
Aggressor schreef op woensdag 30 december 2020 @ 00:15:
Weet iemand het volgende?

Van sommige modellen heb je een normale versie en oc of x versie.

Kan je de gewone versie Flashen met de OC versie hiervan?
Dit kan zeker!

Als je minder bekend bent in het flashen van een BIOS en in het geval dat het niet goed gaat wat je moet doen, wat je ook kan doen is met MSI Afterburner zelf de kleine OC toepassen. Dan kan je in ieder geval altijd terug naar de standaard settings zonder gekloot en heb je niet het gevaar dat de overclock niet stable is en je kaart dan problemen krijgt.

Ik gebruik altijd MSI afterburner voor overclocks, licht programma die de OC standaard toepast bij starten van Windows :)

Edit: Draai nu mijn 3070 suprim x al 2 weken op 2100mhz en 8000 memspeed en tot nu toe nog geen 1x dat afterburner niet automatisch de overclock er op zet. IMO veel makkelijker dan het flashen van een bios voor alleen een lichte overclock op je kaart.

[ Voor 14% gewijzigd door MJPost97 op 30-12-2020 01:56 ]


Acties:
  • 0 Henk 'm!

  • Zuur.Pruim
  • Registratie: Oktober 2020
  • Niet online
Ik blijf het stroomverbruik van Ampere zo verdomd jammer vinden...een 3090 vreet zelfs op 0.875V nog steeds zo'n 430W op in TimeSpy Extreme stress test. In Quake II RTX is het stroomverbruik nagenoeg net zo hoog als het PL...450W all the way.

Ik zit stiekem te denken om te downgraden naar 6900XT maar wat zou het schelen in stroomverbruik en temps?
Man, ik mis mijn 2080Ti Kingpin wel! 2100MHz 24/7 en met dit weer 44*C load met twee Noctua 12x25's.

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 01:00
@MJPost97 heb jij toevallig de originele 3070 SUPRIM X bios ook?
zou je die kunnen sturen?

Acties:
  • +3 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 23:20
Zuur.Pruim schreef op woensdag 30 december 2020 @ 02:31:
Ik blijf het stroomverbruik van Ampere zo verdomd jammer vinden...een 3090 vreet zelfs op 0.875V nog steeds zo'n 430W op in TimeSpy Extreme stress test. In Quake II RTX is het stroomverbruik nagenoeg net zo hoog als het PL...450W all the way.

Ik zit stiekem te denken om te downgraden naar 6900XT maar wat zou het schelen in stroomverbruik en temps?
Man, ik mis mijn 2080Ti Kingpin wel! 2100MHz 24/7 en met dit weer 44*C load met twee Noctua 12x25's.
Je hebt serieus een 3090 gekocht en bent nu teleurgesteld in het stroomverbruik?

Acties:
  • 0 Henk 'm!

  • Soppyscroll
  • Registratie: Juli 2011
  • Laatst online: 23:59
418O2 schreef op woensdag 30 december 2020 @ 09:19:
[...]

Je hebt serieus een 3090 gekocht en bent nu teleurgesteld in het stroomverbruik?
Zit hem in zijn naam :P

Acties:
  • +2 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
Ik snap het ook niet helemaal, waarschijnlijk zo'n 1700-2000 aftikken voor een 3090 en je dan zorgen maken over je stroomrekening die een paar euro hoger is. 8)7

Acties:
  • 0 Henk 'm!

  • Pindamann
  • Registratie: December 2007
  • Laatst online: 02-07 21:11

Pindamann

Human

unfor schreef op woensdag 30 december 2020 @ 10:52:
Ik snap het ook niet helemaal, waarschijnlijk zo'n 1700-2000 aftikken voor een 3090 en je dan zorgen maken over je stroomrekening die een paar euro hoger is. 8)7
Je doet de aanname dat het gaat om het geld. Het kan ook om warmte + principe gaan. Zelf vind ik het stroomverbruik ook belachelijk. Uit principe wil ik eigenlijk mn 650w voeding niet hoeven upgraden. Dat wattage zou in mijn ogen meer dan genoeg moeten zijn :)

Edit: je zou een 3090 ook redelijk kunnen undervolten (power limit op 80% ofzo?). Dan heb je nog goede performance en een hopelijk acceptabel verbruik

[ Voor 51% gewijzigd door Pindamann op 30-12-2020 12:06 ]

9800X3D | 3070


Acties:
  • +4 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
Pindamann schreef op woensdag 30 december 2020 @ 11:51:
[...]


Je doet de aanname dat het gaat om het geld. Het kan ook om warmte + principe gaan. Zelf vind ik het stroomverbruik ook belachelijk. Uit principe wil ik eigenlijk mn 650w voeding niet upgraden :)
Sorry, maar als je een videokaart van ~2000 euro koopt dan heb je sowieso al weinig principes meer. ;)

Acties:
  • 0 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 30-06 22:21
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.

Acties:
  • 0 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
Thrawni schreef op woensdag 30 december 2020 @ 12:55:
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.
Het maakt niet uit welke je probeert. Wat ik heb gedaan is een undervolt zoeken. En die dan stress testen via 3dmark. En voor elke game een nieuwe voltage/clock snelheden isntellen is erg veel werk. Kies gewoon 1/2 profielen waarmee je tevreden bent en stel die dan in.

Daarnaast pwr limits met undervolts zul je blijven houden. Ze willen heel graag veel wattage slurpen

Acties:
  • 0 Henk 'm!

  • Rubenvdk
  • Registratie: Juli 2012
  • Laatst online: 12-05 20:13
Nog steeds dik tevreden over mijn Gigabyte 3090 Gaming OC. Wel valt me op dat de kaart voor mijn gevoel ineens begint door te zakken.

Nu is het een forse grote kaart en je hebt natuurlijk altijd wat doorzakken bij grote kaarten, maar meer mensen met een 3080/3090 Gaming OC waarbij dit ineens zichtbaar opvalt?

i7-10700k | 32GB @3200Mhz | RTX 3090


Acties:
  • +1 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
Rubenvdk schreef op woensdag 30 december 2020 @ 13:24:
Nog steeds dik tevreden over mijn Gigabyte 3090 Gaming OC. Wel valt me op dat de kaart voor mijn gevoel ineens begint door te zakken.

Nu is het een forse grote kaart en je hebt natuurlijk altijd wat doorzakken bij grote kaarten, maar meer mensen met een 3080/3090 Gaming OC waarbij dit ineens zichtbaar opvalt?
Die kaart heeft een backplate dus heel ver kan het nooit door zakken.

Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 20:54
unfor schreef op woensdag 30 december 2020 @ 13:31:
[...]

Die kaart heeft een backplate dus heel ver kan het nooit door zakken.
Of het is zijn PCIE slot wat begint te buigen?

Wie goed doet, die goed ontmoet.


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
AtlAntA schreef op woensdag 30 december 2020 @ 14:37:
[...]


Of het is zijn PCIE slot wat begint te buigen?
Nee, aan die kant zit alles behoorlijk stabiel want daar schroef je hem vast. Kan me geen voorstelling maken dat een pci-e slot doorbuigt terwijl de videokaart zit vastgeschroefd.

Acties:
  • 0 Henk 'm!

  • Mobzy
  • Registratie: April 2012
  • Laatst online: 02-07 11:20
Thrawni schreef op woensdag 30 december 2020 @ 12:55:
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.
Als je in HWInfo nog steeds tegen een power limit aan loopt zit je nog te hoog in het voltage, bij mij ligt die grens ongeveer op de 944mV met powerslider op 114%. Maar de powerlimit in de VBIOS is voor elke 3080 anders ingesteld door de fabrikanten. Dus zakken met dat voltage, en dan totdatie bij full load (Port Royal) geen powerlimit meer aangeeft. Hiervoor zul je ook je koeling op max moeten zetten om zeker te zijn dat je niet eerder tegen een temp limit aan loopt.
ZelianGuy schreef op woensdag 30 december 2020 @ 13:00:
[...]


Het maakt niet uit welke je probeert. Wat ik heb gedaan is een undervolt zoeken. En die dan stress testen via 3dmark. En voor elke game een nieuwe voltage/clock snelheden isntellen is erg veel werk. Kies gewoon 1/2 profielen waarmee je tevreden bent en stel die dan in.
Time Spy (extreme) zet geen load op de 'hele' kaart. Dat doet alleen Port Royal omdat deze ook de RT cores pakt, Time Spy doet dit niet. Daarom dus undervolten/overclocken met Port Royal (zeker voor Cyber Punk als je met RT speelt). Zodra je dan een undervolt/overclock hebt die je benchmark doorstaat moet je minimaal 1 stability test van Port Royal kunnen doorstaan. In mijn eerder geposte lijstje had ik dus voltages met clocks die goed benchde, maar na 20-25 minuten de stability test van Port Royal failde. Dan moet dus OF het voltage omhoog (maar die moet wel onder de powerlimit blijven) of de core clock omlaag.
Daarnaast pwr limits met undervolts zul je blijven houden. Ze willen heel graag veel wattage slurpen
Dit is dus pertinent onwaar. Op 850mV zitie maximaal op 290W en dat is ver van de ~340W powerlimit. Dat geeft ook HWInfo aan, en Afterburner kan dit volgens mij ook monitoren. Als je nog steeds een powerlimit constateert dan moet je dus verder zakken in voltage.

Acties:
  • 0 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 30-06 22:21
Mobzy schreef op woensdag 30 december 2020 @ 15:04:
[...]


Als je in HWInfo nog steeds tegen een power limit aan loopt zit je nog te hoog in het voltage, bij mij ligt die grens ongeveer op de 944mV met powerslider op 114%. Maar de powerlimit in de VBIOS is voor elke 3080 anders ingesteld door de fabrikanten. Dus zakken met dat voltage, en dan totdatie bij full load (Port Royal) geen powerlimit meer aangeeft. Hiervoor zul je ook je koeling op max moeten zetten om zeker te zijn dat je niet eerder tegen een temp limit aan loopt.


[...]


Time Spy (extreme) zet geen load op de 'hele' kaart. Dat doet alleen Port Royal omdat deze ook de RT cores pakt, Time Spy doet dit niet. Daarom dus undervolten/overclocken met Port Royal (zeker voor Cyber Punk als je met RT speelt). Zodra je dan een undervolt/overclock hebt die je benchmark doorstaat moet je minimaal 1 stability test van Port Royal kunnen doorstaan. In mijn eerder geposte lijstje had ik dus voltages met clocks die goed benchde, maar na 20-25 minuten de stability test van Port Royal failde. Dan moet dus OF het voltage omhoog (maar die moet wel onder de powerlimit blijven) of de core clock omlaag.


[...]

Dit is dus pertinent onwaar. Op 850mV zitie maximaal op 290W en dat is ver van de ~340W powerlimit. Dat geeft ook HWInfo aan, en Afterburner kan dit volgens mij ook monitoren. Als je nog steeds een powerlimit constateert dan moet je dus verder zakken in voltage.
toon volledige bericht
Bij Port Royale toont die geen Pwr limits, op 0,875v @1920 (boost naar 1935), 100% load, maar bij timespy extreme wel. Nu had ik de pwr slider wel altijd gewoon op 100% staan dus ik zal eens kijken of die bij timespy extreme nog steeds pwr limits toont (gebruik GPU-z trouwens, geen HWinfo) als de pwr slider naar zijn max is. Inmiddels de voltage 1 stap omhooggedaan gezien die zojuist crashde tijdens CoD BO CW (0,881v @ 1920/1935)

Acties:
  • 0 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
Mobzy schreef op woensdag 30 december 2020 @ 15:04:

Time Spy (extreme) zet geen load op de 'hele' kaart. Dat doet alleen Port Royal omdat deze ook de RT cores pakt, Time Spy doet dit niet. Daarom dus undervolten/overclocken met Port Royal (zeker voor Cyber Punk als je met RT speelt). Zodra je dan een undervolt/overclock hebt die je benchmark doorstaat moet je minimaal 1 stability test van Port Royal kunnen doorstaan. In mijn eerder geposte lijstje had ik dus voltages met clocks die goed benchde, maar na 20-25 minuten de stability test van Port Royal failde. Dan moet dus OF het voltage omhoog (maar die moet wel onder de powerlimit blijven) of de core clock omlaag.


[...]

Dit is dus pertinent onwaar. Op 850mV zitie maximaal op 290W en dat is ver van de ~340W powerlimit. Dat geeft ook HWInfo aan, en Afterburner kan dit volgens mij ook monitoren. Als je nog steeds een powerlimit constateert dan moet je dus verder zakken in voltage.
Ik bedoelde eerder dat je ook met een undervolt de power limit kan halen. Ik heb dusdanige lage undervolts gehaald dat ik ver weg blijf van de power limit bij mijn kaart iig.

En die stress test met port royal is een goede. Zal dat ff testen met mijn kaartje iig.

Acties:
  • 0 Henk 'm!

  • Mobzy
  • Registratie: April 2012
  • Laatst online: 02-07 11:20
ZelianGuy schreef op woensdag 30 december 2020 @ 15:12:
[...]
En die stress test met port royal is een goede. Zal dat ff testen met mijn kaartje iig.
Ja, die stress test met Port Royal was een goede tip vanuit 'de scene'. Volgens mij heeft o.a. Buildzoid, Derbauer, en Steve van GamersNexus dit geadviseerd in een van de vele overclocking videos bij RTX kaarten.

Maar ik zal nu mijn eigen woorden moeten inslikken 8)7

Voor de zekerheid net mijn 'stable' undervolt (0.850 @ 1935) door Port Royal, Time Spy, en Time Spy Extreme gehaald. De eerste twee rock solid. Maar bij Time Spy Extreme wordt ook bij mij de Power limit getriggered en crasht m'n UV halverwege de 2e GPU test. Verbruikt ook dik 35W meer in Extreme dan in normal Time Spy.

Dus ondanks dat het logisch klinkt/klonk om een test te gebruiken die óók de RT cores pakt (maar volgens mij gebeurt DLSS met de tensor cores toch?) verbruiktie bij Time Spy Extreme dus meer dan bij Port Royal |:(

Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 20:54
Mobzy schreef op woensdag 30 december 2020 @ 15:24:
[...]


Ja, die stress test met Port Royal was een goede tip vanuit 'de scene'. Volgens mij heeft o.a. Buildzoid, Derbauer, en Steve van GamersNexus dit geadviseerd in een van de vele overclocking videos bij RTX kaarten.

Maar ik zal nu mijn eigen woorden moeten inslikken 8)7

Voor de zekerheid net mijn 'stable' undervolt (0.850 @ 1935) door Port Royal, Time Spy, en Time Spy Extreme gehaald. De eerste twee rock solid. Maar bij Time Spy Extreme wordt ook bij mij de Power limit getriggered en crasht m'n UV halverwege de 2e GPU test. Verbruikt ook dik 35W meer in Extreme dan in normal Time Spy.

Dus ondanks dat het logisch klinkt/klonk om een test te gebruiken die óók de RT cores pakt (maar volgens mij gebeurt DLSS met de tensor cores toch?) verbruiktie bij Time Spy Extreme dus meer dan bij Port Royal |:(
De vraag is natuurlijk of je in games ook gaat crashen. Die benchmarks/stress test zijn synthetisch natuurlijk en niet echt representatief voor real world stability. Persoonlijk zou ik er gewoon mee gaan gamen en pas als de game gaat crashen het ietwat aanpassen.

Wie goed doet, die goed ontmoet.


Acties:
  • +2 Henk 'm!

  • Mobzy
  • Registratie: April 2012
  • Laatst online: 02-07 11:20
AtlAntA schreef op woensdag 30 december 2020 @ 15:28:
[...]


De vraag is natuurlijk of je in games ook gaat crashen. Die benchmarks/stress test zijn synthetisch natuurlijk en niet echt representatief voor real world stability. Persoonlijk zou ik er gewoon mee gaan gamen en pas als de game gaat crashen het ietwat aanpassen.
Dit is uiteraard waar. Maar omdat ik persoonlijk liever een dag/weekend zoek naar een setting die 'just works' dan dat ik tijdens een game een crash krijg pak ik meestal de zwaarste test om te kijken waar de grens ligt. Ik dacht dus vanwege verhalen op het internet, die mij wel logisch klonken, dat dit Port Royal was. Maar Time Spy Extreme pakt gewoon bij zelde settings 320W waarbij Time Spy en Port Royal op ~280W zitten. En verzorgt dus een crash.

FYI, heb ik met de huidige undervolt al een week zitten gamen zonder crashes. Waar onder de volgende titels:
Doom (2016)
GTA 5
Black Mesa
WoW: Shadowlands
Beat Saber (VR op Reverb G2)
Elite Dangerous (VR op Reverb G2)
Walking Dead S&S (VR op Reverb G2)
etc.

Hoewel ik al deze games speel met G-sync (compatible) en een framecap, of in VR met de normale 90Hz cap, verwacht ik dus toch wel dat bijv Elite Dangerous in VR behoorlijk zwaar is. Maar hier zitten niet echt zware Ray Tracing titels tussen ofzo, en Doom is natuurlijk zover geoptimaliseerd datie zelfs op ultra/nightmare de 200FPS cap aantikt zonder framecap.

Ik ga zelf dan ook weer even lekker verder knutselen met Extreme om te kijken hoeveel volts ik nodig heb om 2000mhz stabiel te krijgen >:) Niet omdat het moet, maar omdat het kan :+

Edit:
Schiet mij maar lek 8)7 Nu doetie het wel.
Afbeeldingslocatie: https://tweakers.net/i/xja_qaXIPijjI7GN4jqcPStNzaA=/800x/filters:strip_exif()/f/image/lVrapnM0xwqqqugftXfH4MQr.png?f=fotoalbum_large

[ Voor 35% gewijzigd door Mobzy op 30-12-2020 16:02 ]


Acties:
  • 0 Henk 'm!

  • Rubenvdk
  • Registratie: Juli 2012
  • Laatst online: 12-05 20:13
unfor schreef op woensdag 30 december 2020 @ 14:42:
[...]

Nee, aan die kant zit alles behoorlijk stabiel want daar schroef je hem vast. Kan me geen voorstelling maken dat een pci-e slot doorbuigt terwijl de videokaart zit vastgeschroefd.
Top bedankt. Het viel me ineens op, en omdat er ook veel grote kaarten zijn zonder bracket eronder, was ik even benieuwd wat jullie ervaring hiermee was.

PCI-E slot lijkt me ook niet, heb een verstevigde (zo ziet het er ook wel uit)

i7-10700k | 32GB @3200Mhz | RTX 3090


Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
Thrawni schreef op woensdag 30 december 2020 @ 12:55:
Ik dacht nu eindelijk mijn juiste, stabiele undervolt gevonden te hebben. Zojuist draaide ik Time Spy Extreme erop en kom er dan wel achter dat die best vaak tegen de pwr limits loopt. Ik heb deze setting gevonden m.b.v. Port Royale. Dus mijn vraag is, kan ik beter mijn undervolt settings proberen te zoeken met Time Spy Extreme of Port Royale? Het wil nu vaak ook voorkomen dat ik dan denk iets gevonden te hebben en dat Cyberpunk 2077 dan crasht dus ik ben nog zoekende naar de juiste voltage/mhz combinatie voor elke game die ik speel.
Port royal gaat gemiddeld de meeste power zuipen uit mijn ervaring 430W constant op 1.025V.
Timespy piekt ook wel ongeveer op 430W maar zit gemiddeld rondom de 400W op 1.025V.

Ook zijn er spellen zoals Cyberpunk die met DLSS Quality (op 3440x1440) maar 380W trekken op 1.1V.

Iniedergeval zijn er 3 profielen die ik heb:
* 240-280W UV (0.825V & 1875Mhz).
* 400W UV (1.025V & 2040Mhz) Voor RT games die al 400W halen op 1.025V ook port Royal haalt hier 430W.
* 400W OC (1.093V & 2130Mhz) Voor games die niet echt power trekken en vooral op frequency scalen.

Op elk profiel staat mijn memory op +1300Mhz, dit levert zo'n 5-6% performance op wat ik niet verwacht had.

Acties:
  • 0 Henk 'm!

  • Afwezig
  • Registratie: Maart 2002
  • Laatst online: 06-05 20:36
Dummy vraag misschien maar ik kon het antwoord niet snel vinden; ik wil een tweede scherm gaan aansluiten op mijn 3060, qhd 144hz via DisplayPort. Nu vroeg ik me alleen af; heb ik de bandbreedte per DisplayPort aansluiting of de totale bandbreedte per kaart? HBR 3 geeft 25.92 Gbit/s en qhd 144hz kost 14.08 Gbit/s dus vroeg me af of dat problemen op ging leveren. (Wil bij voorkeur geen compressie gebruiken)

Acties:
  • +3 Henk 'm!

  • bierschuit
  • Registratie: Juni 2004
  • Niet online
Timespy :

Met een 10850K en een reference design (100% powerlimit) RTX 3090 Ventus 3X 24 OC:

Best in class op Nederlandse bodem.

best in class timespy 10850k 3090RTX Nederland

:)

Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:20
Aggressor schreef op woensdag 30 december 2020 @ 00:15:
Weet iemand het volgende?

Van sommige modellen heb je een normale versie en oc of x versie.

Kan je de gewone versie Flashen met de OC versie hiervan?
Waarom zou je dat willen. Die hele OC modellen slaan namelijk nergens op. Behalve een getalletje in de spec sheet betekend het namelijk helemaal niets.

Alle videokaarten clocken zich zelf vorbij deze oc clock ingesteld door de fabrikant of het nou oc is of niet.
Koop een gpu gebaseerd op koel prestaties daar heb je veel meer aan want een koelere kaart clockt vanzelf hoger.

Je kaart riskeren voor een irrelevant nummertje waar de auto overclock voorbij gaat snap ik echt niet.

Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 03-07 05:10

ParaWM

Pro Prutser

computerjunky schreef op woensdag 30 december 2020 @ 22:05:
[...]


Waarom zou je dat willen. Die hele OC modellen slaan namelijk nergens op. Behalve een getalletje in de spec sheet betekend het namelijk helemaal niets.

Alle videokaarten clocken zich zelf vorbij deze oc clock ingesteld door de fabrikant of het nou oc is of niet.
Koop een gpu gebaseerd op koel prestaties daar heb je veel meer aan want een koelere kaart clockt vanzelf hoger.

Je kaart riskeren voor een irrelevant nummertje waar de auto overclock voorbij gaat snap ik echt niet.
Precies dat. Het oude flashen voor OC biossen (behalve misschien als er een power limit verschil is) en ouderwetse overclocken is helemaal over. Ook bij de CPUs. Rare tijden met al die auto curves enzo. Vroeger was het simpeler :)

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • bierschuit
  • Registratie: Juni 2004
  • Niet online
computerjunky schreef op woensdag 30 december 2020 @ 22:05:
[...]


Waarom zou je dat willen. Die hele OC modellen slaan namelijk nergens op. Behalve een getalletje in de spec sheet betekend het namelijk helemaal niets.

Alle videokaarten clocken zich zelf vorbij deze oc clock ingesteld door de fabrikant of het nou oc is of niet.
Koop een gpu gebaseerd op koel prestaties daar heb je veel meer aan want een koelere kaart clockt vanzelf hoger.

Je kaart riskeren voor een irrelevant nummertje waar de auto overclock voorbij gaat snap ik echt niet.
De boostclock is hoger v/d OC versies, dus als er nog headroom is dan is de uiteindelijke kloksnelheid nog hoger. Mits temp en powerlimit het toelaten.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:20
bierschuit schreef op woensdag 30 december 2020 @ 22:16:
[...]

De boostclock is hoger v/d OC versies, dus als er nog headroom is dan is de uiteindelijke kloksnelheid nog hoger. Mits temp en powerlimit het toelaten.
Als ik zo alle reviews bekijk valt of staat het allemaal met de koel designs. Er zijn laag geclockte base versies met betere koeling die het betrr doen als oc versies die op paper 100 mhz hoger geclockt zijn.

Overige is 50 mhz meer of minder toch al vrij irrelevant tenzij je een benchmark nummertje leuk vind.

[ Voor 9% gewijzigd door computerjunky op 30-12-2020 22:37 ]


Acties:
  • +1 Henk 'm!

  • bierschuit
  • Registratie: Juni 2004
  • Niet online
@computerjunky Het valt me wel op dat jij overal negatief over bent..

Het begon allemaal met de speculaties over de nog uit te komen grafische kaarten van rond de 800 Euro of zo.
Meer dan 600 voor een high-end had jij niet over.. later werd dat 650 of zoiets.
Ik kan er een honderd of twee naast zitten maar dat terzijde.

Daarna was het Founders Design aan de beurt met hoe die dan zijn luchtstroom heeft mbt tot de koeling van de kaart. Helemaal bezorgd, oh-oh-oh nu gaat alle warme lucht door mijn CPU koeler. Wat slecht en heh moet mijn CPU_fan 5% sneller draaien.

En nu is het weer de OC versie dat weer negatief niet goed is, want blah blah blah.

Houd toch eens op met negatief te zijn. Koop een Acer desktop of een Lenovo misschien zelfs een Medion.. Stop met klagen en verander je username van Computerjunky naar Stock_boy of iets dergelijks.

Acties:
  • 0 Henk 'm!

  • NoahTerpoorten
  • Registratie: Oktober 2017
  • Laatst online: 05-04-2023
Is het normaal dat mijn 3080 niet boven de 50c word?

Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 03-07 05:10

ParaWM

Pro Prutser

NoahTerpoorten schreef op woensdag 30 december 2020 @ 23:11:
Is het normaal dat mijn 3080 niet boven de 50c word?
Nee :)

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
NoahTerpoorten schreef op woensdag 30 december 2020 @ 23:11:
Is het normaal dat mijn 3080 niet boven de 50c word?
Onder welke omstandigheden hebben we het over? Welke 3080, game, resolutie, instellingen fan instellingen en dergelijke zijn best wel belangrijk voordat je hier een nuttig antwoord over kan geven

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:20
bierschuit schreef op woensdag 30 december 2020 @ 22:50:
@computerjunky Het valt me wel op dat jij overal negatief over bent..

Het begon allemaal met de speculaties over de nog uit te komen grafische kaarten van rond de 800 Euro of zo.
Meer dan 600 voor een high-end had jij niet over.. later werd dat 650 of zoiets.
Ik kan er een honderd of twee naast zitten maar dat terzijde.

Daarna was het Founders Design aan de beurt met hoe die dan zijn luchtstroom heeft mbt tot de koeling van de kaart. Helemaal bezorgd, oh-oh-oh nu gaat alle warme lucht door mijn CPU koeler. Wat slecht en heh moet mijn CPU_fan 5% sneller draaien.

En nu is het weer de OC versie dat weer negatief niet goed is, want blah blah blah.

Houd toch eens op met negatief te zijn. Koop een Acer desktop of een Lenovo misschien zelfs een Medion.. Stop met klagen en verander je username van Computerjunky naar Stock_boy of iets dergelijks.
A pessimist is never dissapointed.

En er is niets mis met sceptisch en veeleisend zijn ipv maar alles kopen wat los en vast zit voor elke prijs zonder een sceptische blik.
En een OC model is gewoon niet nuttig meer sinds boost/auto overclock in de kaarten zit.

Na 25 jaar word je vanzelf altijd sceptisch over wat als deze bedrijven uit pompen want ergens word wel wat over het hoofd gezien of opgeofferd om geld te besparen. Zo werkt het nou eenmaal en daarom kijk ik overal extra sceptisch naar. Niets mis mee. In tegenstelling tot velen kan ik namelijk mijn geld maar 1x uit geven en krijg ik al de kriebels van het woord 2dehands dus ben je standaard duurder uit en dus verwacht ik meer.

Niet altijd handig want achteraf had ik beter meteen een asus tuf kunnen kopen maarja ik wou eerst alle ins en outs weten.

Het staat je verder vrij mijn posts niet te lezen. Ik ga niet anders denken en schijven omdat jij (en anderen) mijn posts negatief vind.
Blijkbaar zijn er meer mensen die mij of mijn ongezouten mening niet mogen/aanstaat gezien de constante minnetjesregen op de FP. Niet mijn Probleem dat mensen zo gevoelig zijn voor een sceptische blik op alles.

Ik geef mijn mening en geef aan wat ik denk dat pijnpunten en problemen kunnen zijn/worden en wat wel of niet nuttig is in mijn mening en een ieder is vrij daar mee te doen wat ze willen.

Als iemand een andere mening heeft zal ik daar altijd naar kijken en heb vaak zat mijn mening aangepast na meer informatie maar dan wel gebaseerd op volledige en controleerbare feiten en niet op speculaties en onrealistische testresultaten :) .

  • bierschuit
  • Registratie: Juni 2004
  • Niet online
computerjunky schreef op woensdag 30 december 2020 @ 23:21:
[...]


A pessimist is never dissapointed.

En er is niets mis met sceptisch en veeleisend zijn ipv maar alles kopen wat los en vast zit voor elke prijs zonder een sceptische blik.
En een OC model is gewoon niet nuttig meer sinds boost/auto overclock in de kaarten zit.

Na 25 jaar word je vanzelf altijd sceptisch over wat als deze bedrijven uit pompen want ergens word wel wat over het hoofd gezien of opgeofferd om geld te besparen. Zo werkt het nou eenmaal en daarom kijk ik overal extra sceptisch naar. Niets mis mee. In tegenstelling tot velen kan ik namelijk mijn geld maar 1x uit geven en krijg ik al de kriebels van het woord 2dehands dus ben je standaard duurder uit en dus verwacht ik meer.

Niet altijd handig want achteraf had ik beter meteen een asus tuf kunnen kopen maarja ik wou eerst alle ins en outs weten.

Het staat je verder vrij mijn posts niet te lezen. Ik ga niet anders denken en schijven omdat jij (en anderen) mijn posts negatief vind.
Blijkbaar zijn er meer mensen die mij of mijn ongezouten mening niet mogen/aanstaat gezien de constante minnetjesregen op de FP. Niet mijn Probleem dat mensen zo gevoelig zijn voor een sceptische blik op alles.

Ik geef mijn mening en geef aan wat ik denk dat pijnpunten en problemen kunnen zijn/worden en wat wel of niet nuttig is in mijn mening en een ieder is vrij daar mee te doen wat ze willen.

Als iemand een andere mening heeft zal ik daar altijd naar kijken en heb vaak zat mijn mening aangepast na meer informatie maar dan wel gebaseerd op volledige en controleerbare feiten en niet op speculaties en onrealistische testresultaten :) .
toon volledige bericht
Ik begrijp je wel. When a pessimist is in charge, nothing will come forward.

  • NoahTerpoorten
  • Registratie: Oktober 2017
  • Laatst online: 05-04-2023
ZelianGuy schreef op woensdag 30 december 2020 @ 23:18:
[...]


Onder welke omstandigheden hebben we het over? Welke 3080, game, resolutie, instellingen fan instellingen en dergelijke zijn best wel belangrijk voordat je hier een nuttig antwoord over kan geven
Ik speel gewoon ac valhalla max settings 2k. Mijn kaart: Gigabyte Aorus master. en default settings. Heb wel een airflow case van corsair.

  • Mobzy
  • Registratie: April 2012
  • Laatst online: 02-07 11:20
NoahTerpoorten schreef op donderdag 31 december 2020 @ 00:45:
[...]


Ik speel gewoon ac valhalla max settings 2k. Mijn kaart: Gigabyte Aorus master. en default settings. Heb wel een airflow case van corsair.
Met V-sync of framecap? Hoeveel Hz monitor en hoeveel FPS haal je dan?
Als je gewoon aan je (monitor) cap zit op 50c is er niks aan de hand. Speelt het als poep op 50c dan klopt er iets niet.

Monitoren met HWinfo, GPU-Z, of RTSS/afterburner/CapframeX en je weet of het goed zit. Misschien gewoon een exemplaar met goede koeling en juiste hoeveelheid koelpasta. Alhoewel ik op water al richting de 40-45 ga op full load.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 20:54
NoahTerpoorten schreef op woensdag 30 december 2020 @ 23:11:
Is het normaal dat mijn 3080 niet boven de 50c word?
Nee, grote kans dat je kaart niet voorbij base clock boost of dat je geheugen op halve snelheid draait. Mocht je het nog niet gedaan hebben dan zou ik DDU draaien en daarna een nieuwe install van je drivers doen.

Wie goed doet, die goed ontmoet.


  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 03-07 12:01
ParaWM schreef op woensdag 30 december 2020 @ 22:16:
[...]

Precies dat. Het oude flashen voor OC biossen (behalve misschien als er een power limit verschil is) en ouderwetse overclocken is helemaal over. Ook bij de CPUs. Rare tijden met al die auto curves enzo. Vroeger was het simpeler :)
Het is nu juist simpeler, alle kaarten zijn qua chip kansen hetzelfde, enige waar je op moet letten is de power limit en koelprestaties. De rest doet er niet meer toe.
Auto curves maken het juist makkelijk, je krijgt wat het maximaal haalbare is, je hoeft er zelf niet meer naar te zoeken.

Enige echte tweaken zit hem nog in undervolten, maar wellicht dat dit in de toekomst ook geautomatiseerd wordt. Logisch ook, want de Nvidia wil gewoon maximaal scoren en dat doen ze op deze manier.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 18:36
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.

Ik speel heel soms, meestal wanneer WoW op zijn einde expansion of patch loopt, Warhammer 2. Hier zag ik een verbetering van dik 30 fps.

Ergens ben ik tevreden, elders licht teleurgesteld. Ik vraag me af of ik deze upgrade had moeten maken en niet beter nog even gewacht op een 3080 ti...

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:08:
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.

Ik speel heel soms, meestal wanneer WoW op zijn einde expansion of patch loopt, Warhammer 2. Hier zag ik een verbetering van dik 30 fps.

Ergens ben ik tevreden, elders licht teleurgesteld. Ik vraag me af of ik deze upgrade had moeten maken en niet beter nog even gewacht op een 3080 ti...
Als je zelf al aangeeft dat WoW erg CPU afhankelijk is zal een 3080TI met wss een paar% meer performance en meer VRAM echt geen grote verbetering zijn. Ook niet in andere games.

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 18:36
ZelianGuy schreef op donderdag 31 december 2020 @ 11:09:
[...]


Als je zelf al aangeeft dat WoW erg CPU afhankelijk is zal een 3080TI met wss een paar% meer performance en meer VRAM echt geen grote verbetering zijn. Ook niet in andere games.
Klopt zeker, en gezien deze GPU maar 2 jaar mee zal gaan i.v.m. structurele vervangingscyclus, had ik het misschien beter niet kunnen doen :Y

Maar goed, mijn GTX1080 is al weg dus tis niet dat ik er nog van af kan zien.

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:15:
[...]

Klopt zeker, en gezien deze GPU maar 2 jaar mee zal gaan i.v.m. structurele vervangingscyclus, had ik het misschien beter niet kunnen doen :Y

Maar goed, mijn GTX1080 is al weg dus tis niet dat ik er nog van af kan zien.
Dat zul je altijd blijven houden, en dan moet je ook even niet vergeten dat deze kaarten sws een meerprijs hebben en ook echt zeer goed (KUCH) beschikbaar zullen zijn bij launch

  • bierschuit
  • Registratie: Juni 2004
  • Niet online
Ik heb gister een PCI-E bandbreedte test gedraaid van Futuremark en kreeg 13,3GB/s aan bandwidth op een Gen3 moederbord/CPU en 13,92 FPS. (10850k@5Ghz en een 3090@stock)

Afbeeldingslocatie: https://tweakers.net/i/GBkwxmJGyAbmjUSV-qIyYqlj1wA=/100x75/filters:strip_icc():strip_exif()/f/image/Bjy65T1ES5XQVX2chMPWtR8M.jpg?f=fotoalbum_small

Ben benieuwd of iemand met Gen4 en een 3090 hier deze test ook kan draaien en wat de uitkomst daarvan is. Alvast dank!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20:20
JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:08:
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.

Ik speel heel soms, meestal wanneer WoW op zijn einde expansion of patch loopt, Warhammer 2. Hier zag ik een verbetering van dik 30 fps.

Ergens ben ik tevreden, elders licht teleurgesteld. Ik vraag me af of ik deze upgrade had moeten maken en niet beter nog even gewacht op een 3080 ti...
Wow draait op mijn 1070 op 30% load voor een 75 fps cap en mijn cpu op 25% met een 9900k... Bjj drukke gevechten is de game zo cpu crippled dat ik terug zak naar in de 40 of soms zelfs lager. Ik denk dat voor wow alles boven een 1060 al weggegooid geld is tot er een cpu is met 100% prestaties per core. Die game stamt immers uit 2004 een dual core tijdperk. En de ontwikkeling is dus nog ouder.

Ik ben benieuwd of dit ooit opgelost gaat worden en tevens of dit de reden is dat ze nog altijd geen high res textures ondersteunen.

Acties:
  • +15 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
Ik heb enkele vrije dagen van mijn kerstvakantie besteed aan het onderzoeken van de undervolt en overclock mogelijkheden van mijn 3080 MSI Suprim X en heb toch wel opvallende resultaten behaald.

Ik ben vanaf 1995 MHz gaan testen welke snelheid op welke voltage kan totdat ik het onderste limiet van 725mV haalde.

Mijn test methodiek voor het undervolten was als volgt:
  • Alles is getest in de Gaming OS. Ik had geen zin om de verschillen met de Silent OS te gaan onderzoek want dat gaat me nog een paar dagen extra kosten 8)7
  • Kloksnelheden zijn door mij arbitrair gekozen om toch een mooi setje data te krijgen maar ook niet om letterlijk elk stapje te testen. Ik wil graag ook andere dingen doen met mijn videokaart ;)
  • Het undervolten heb ik uitgevoerd door de clock speed vast te zetten op een bepaald voltage in MSI afterburner. Voorbeeld kun je hier zien: YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance?
  • Testen werd gedaan door een Time Spy benchmark en bij een succesvolle benchmark zijn de temps, RPM, en Power Draw opgeschreven
  • Daarna de voltage verlaagt met een tik en werd bovenstaande herhaalt totdat de benchmark faalt
  • Daarna gezocht naar de laagst mogelijke stabiele voltage door het uitvoeren van een Time Spy stress test
  • Vervolgens de clock snelheid verlaagd en werd het bovenstaande herhaald
  • Uiteindelijk zijn er game benchmarks uitgevoerd met de volgende games: Shadow of the Tomb Raider, Borderlands 3, Deus Ex: Mankind Divided en Assassins Creed: Valhalla en een nieuwe time spy benchmark voor de score
  • Alle benchmarks zijn uitgevoerd op dezelfde dag (125!) en met een constante fan RPM (daarover later meer)
Daar zijn uiteindelijk de volgende 3 grafiekjes uit gekomen:

Afbeeldingslocatie: https://tweakers.net/i/LHU0pD6mztoWAtkfQjLY3tW1cwk=/800x/filters:strip_exif()/f/image/M3AjnIPSXt7cD2QQDqnh0zOF.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/NML5mtg3meFIGI3TVGEXICpR9Dw=/800x/filters:strip_exif()/f/image/5HDiyvUaAwvJLNaF709lcfNa.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/W2LrfRlH0mo3GDTz4yOwzclx6qo=/800x/filters:strip_exif()/f/image/sZgh0dN3L2IglEvvzLBo0jw9.png?f=fotoalbum_large

Uiteindelijk vind ik undervolten het wel waard. Met minimale impact op performance heb je wel grote verschillen in power draw, temps en fan RPM. Er zat merkbaar verschil tussen de verschillende opties die mij opvielen tijdens het benchmarken. 40% lagere power draw voor maar 10% performance met drastische verschil in temps en geluid vind ik het wel waard.

Voor het overclocken heb ik eerst in stapjes de core clock verhoogt totdat een benchmark faalt, en daarna hetzelfde voor de memory clock. Krijg hem in games stabiel op +125 Core Clock/ 750 Memory Clock. In benchmarks kan ik er nog ietsje erbij persen >:). Ben uiteindelijk op een score van 19571 gekomen.

Ik heb een poging gedaan om een undervolt te combineren met een overclock, alhoewel dat met veel moeite lukte, waren de resultaten niet beter dan gewoon de overclock die ik al gevonden had.

Dan nog een paar observaties om deze tekst muur af te sluiten:
  • Bij de overclock en de 925/1995 is de power limit slider op 116. Daarnaast een keer op stock settings om te bekijken wat de verschillen waren. Die verschullen zijn vrijwel niets maar wel met een hogere Power Draw. Bij alle andere voltages stond die slider op 100
  • De power draw in Time Spy is slechts indicatief voor het in games zal zijn. In sommige games was de power draw een stuk lager dan in Time Spy, maar desondanks observeerde ik wel verschillen met stock t.o.v. een undervolt, alleen zijn die verschillen minder groot.
  • Deze GPU's hebben graag de neiging om ondanks dat je een core clock instelt, zichzelf eventjes iets hoger/lager klokken afhankelijk van je temps en fan RPM's (vandaar dat ik tijdens de benchmarks een vast RPM hield). Normaal is dat geen probleem maar met een undervolt kun je soms dan net iets te hoog clocken t.o.v. je voltage zodat de boel crasht. Ik kon dit omzeilen door een stress test uit te voeren, en zodra er een balans qua temperatuur is bereikt dan de core clock in te stellen
  • Ik heb tijdens het benchmarken van games ook gekeken naar een memory overclock van +500 bij alle undervolts. De verschillen zijn miniem met 1.5fps winst op zijn best met ietsje hogere power draw. Ik zal het dan ook gewoon wat dat betreft op stock houden
  • Mocht je deze resultaten zelf willen uitproberen houd er dan rekening mee dat your mileage may vary! Er zitten (kleine) verschillen in de chips dus kan ik niet garanderen dat deze settings ook zullen werken op jouw kaart. Wel kun je het goed gebruiken als referentiepunt!

  • NoahTerpoorten
  • Registratie: Oktober 2017
  • Laatst online: 05-04-2023
Mobzy schreef op donderdag 31 december 2020 @ 09:11:
[...]


Met V-sync of framecap? Hoeveel Hz monitor en hoeveel FPS haal je dan?
Als je gewoon aan je (monitor) cap zit op 50c is er niks aan de hand. Speelt het als poep op 50c dan klopt er iets niet.

Monitoren met HWinfo, GPU-Z, of RTSS/afterburner/CapframeX en je weet of het goed zit. Misschien gewoon een exemplaar met goede koeling en juiste hoeveelheid koelpasta. Alhoewel ik op water al richting de 40-45 ga op full load.
Ik heb een moinitor met 240Hz en haal op ac avg 78 max settings 2k. Ik merk geen stotertring maar heb geen idee of mijn GPU full load draait. zal eens proberen de monitoring uit te voeren.

  • NoahTerpoorten
  • Registratie: Oktober 2017
  • Laatst online: 05-04-2023
AtlAntA schreef op donderdag 31 december 2020 @ 09:20:
[...]


Nee, grote kans dat je kaart niet voorbij base clock boost of dat je geheugen op halve snelheid draait. Mocht je het nog niet gedaan hebben dan zou ik DDU draaien en daarna een nieuwe install van je drivers doen.
Heb dit al meerder keren gedaan. Denk zelf dat deze gewoon goed koelt atm

  • NoahTerpoorten
  • Registratie: Oktober 2017
  • Laatst online: 05-04-2023
Mobzy schreef op donderdag 31 december 2020 @ 09:11:
[...]


Met V-sync of framecap? Hoeveel Hz monitor en hoeveel FPS haal je dan?
Als je gewoon aan je (monitor) cap zit op 50c is er niks aan de hand. Speelt het als poep op 50c dan klopt er iets niet.

Monitoren met HWinfo, GPU-Z, of RTSS/afterburner/CapframeX en je weet of het goed zit. Misschien gewoon een exemplaar met goede koeling en juiste hoeveelheid koelpasta. Alhoewel ik op water al richting de 40-45 ga op full load.
Lijkt normaal zo toch?
Afbeeldingslocatie: https://tweakers.net/i/N39xqgdqN-ebYgWTyRt97r_45bE=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/BhzX7iwMSks1SjJxsTSS4ske.jpg?f=user_large

  • Henkus
  • Registratie: November 2001
  • Laatst online: 21:32
Sinds 2 dagen ben ik de trotse bezitter van een Zotac RTX 3090 8)

Volgens Valley 4.0 benchmark ongeveer zo'n 34% sneller als de MSI 2080Ti gaming Trio X

Nu komt het vreemde : Tijdens de benchmarks kreeg ik de kaart nooit hoger dan 1850-1900Mhz, dus ik dacht dat er niet meer rek in zit. En de 34% is daar ook op gebaseerd.

Nu ik mijn display heb geupdate en nu tijdens het spelen weer de frequenties weer op mijn display kan zien, zie ik dat de kaart gewoon lekker op 2010Mhz blijft hangen tijdens normale gameplay met een temperatuur van 61 graden . _/-\o_

Afbeeldingslocatie: https://i.postimg.cc/Jz4Bzh6z/Naamloos.jpg

Soms moeilijk te begrijpen die boost clocks van Nvidia 8)7

Mijn rig : https://gathering.tweakers.net/forum/list_messages/1864567


  • Zuur.Pruim
  • Registratie: Oktober 2020
  • Niet online
unfor schreef op woensdag 30 december 2020 @ 10:52:
Ik snap het ook niet helemaal, waarschijnlijk zo'n 1700-2000 aftikken voor een 3090 en je dan zorgen maken over je stroomrekening die een paar euro hoger is. 8)7
Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over? 8)7 Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
Afbeeldingslocatie: https://tweakers.net/i/cmE-8_ogaHSj2e_FzD5S2d7xiaI=/x800/filters:strip_exif()/f/image/sDbCZuFZQBtTHFgBA0LI8LSu.png?f=fotoalbum_large

[ Voor 50% gewijzigd door Zuur.Pruim op 31-12-2020 15:23 ]


Acties:
  • +2 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]

Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over? 8)7 Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
Als de stroomrekening niet het issue is, wat is dan exact het probleem? Ik kan het uit je verhaal niet halen.
Een Ferrari word niet gekocht omdat hij zo zuinig is, net zoals de 3090.
Je weet voor je zo'n kaart aanschaft dat ze het uiterste er uit persen ten koste van het verbruik, hoe dit nieuws is voor iemand begrijp ik niet helemaal.

[ Voor 6% gewijzigd door unfor op 31-12-2020 15:58 ]


  • bierschuit
  • Registratie: Juni 2004
  • Niet online
Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]

Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over? 8)7 Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
Jouw pci-e slot krijgt ook meer dan 75W aan power. Je zit er 13W boven. Is dat een kleine piek of voor langere tijd?

Ik moet zien of dat bij mij ook zo is. Bij 1440p Kombustor benchmark topped mijn pci-e uit op 62,7W.

  • Mobzy
  • Registratie: April 2012
  • Laatst online: 02-07 11:20
JeroenNietDoen schreef op donderdag 31 december 2020 @ 11:08:
Ik heb sinds gisteren mijn Gigabyte Aorus RTX3070 Master. Ik kom van een GTX1080. Nu is het zo dat ik over het algemeen World of Warcraft speel en eigenlijk zie ik zo goed als geen verbetering. Dat komt omdat WoW ook sterk CPU afhankelijk is. Tuurlijk, in outdoor areas schiet de FPS naar 200 maar in steden, dungeons en raids trekt mijn 1080 het ook prima. Ik speel op ultrawide met high settings. Voor de 3070 maakt het niet uit of ik die settings op ultra zet, performance wordt niet echt lager maar de visuele winst is ook minimaal.
Ik kom zelf van een vega 64 (ongeveer gelijk aan een 1080?) en toen ik 3 dagen de 3070 erin had zitten was de winst in WoW toch wel behoorlijk. Ik speelde altijd op settings 1 tikje van max af, en haalde dan in BFA/SL outdoors zo 90-130fps. De 3070 trok dat alles op max (dus hogere settings) op hogere FPS. Dus ik vermoed dat je eerder al tegen een andere bottleneck aan liep zoals bijv CPU. Ik heb zelf een 3800X en dat was een enorme winst in WoW ten opzichte van de 4970. Ik kwam natuurlijk ook van AMD, wiens drivers volgens mij iets intensiever voor de CPU is alhoewel dat met DX12 in WoW al veel minder was.
computerjunky schreef op donderdag 31 december 2020 @ 12:56:
[...]
Wow draait op mijn 1070 op 30% load voor een 75 fps cap en mijn cpu op 25% met een 9900k... Bjj drukke gevechten is de game zo cpu crippled dat ik terug zak naar in de 40 of soms zelfs lager. Ik denk dat voor wow alles boven een 1060 al weggegooid geld is tot er een cpu is met 100% prestaties per core. Die game stamt immers uit 2004 een dual core tijdperk. En de ontwikkeling is dus nog ouder.

Ik ben benieuwd of dit ooit opgelost gaat worden en tevens of dit de reden is dat ze nog altijd geen high res textures ondersteunen.
Dat ligt aan je settings/addons. Test het eens zonder addons zou ik zeggen. Ik houd hem in raids (30man) en world bossess altijd boven de 90FPS. Maar ik speel ook met weinig addons naast ElvUI (welke ik heb aangepast aan CPU spikes). Enige waar ik nog enigsinds inkak is in een 40vs40 BG als alles opelkaar knalt in het begin. Maar ook dan nog altijd 50+
NoahTerpoorten schreef op donderdag 31 december 2020 @ 14:05:
[...]


Ik heb een moinitor met 240Hz en haal op ac avg 78 max settings 2k. Ik merk geen stotertring maar heb geen idee of mijn GPU full load draait. zal eens proberen de monitoring uit te voeren.
Ik denk dat die 3080 niet op full load zit, want de 3070 van mijn vrouw haalt meer FPS in AC Oddysey op 2560*1080 (streamt nu 4k naar een Shield TV wat zo 50-65 haalt). Kanttekening dat dit is met 2 settings van ultra naar low/off, volumetric clouds en nog een setting die ik nu niet weet (zie Hardware unboxed video over AC Oddysey settings).
Dat venster hebben we nu niet zo veel aan, je moet het sensors tabje openen, en dan de values op "MAX" zetten. Als je dan een potje gamed en een screenshot maakt aan het einde weten we wat de max clocks/load zijn die hij haalt.

Acties:
  • 0 Henk 'm!

  • Goofy1978
  • Registratie: December 2008
  • Laatst online: 01-07 15:26
Heb sinds 2 dagen een 3080 aorus master mooie gpu, bij metro exodus kan alles max met hdr op 4k met dlss en dan heb ik rond de 60 fps, temp gpu schommelt dan rond 60-65 graden.
Op echte 4k zou het niet lekker spelen nu word 1440p uitgerekend en opgeschaald naar 4k.

Acties:
  • +1 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
ZelianGuy schreef op donderdag 31 december 2020 @ 13:12:
Ik heb enkele vrije dagen van mijn kerstvakantie besteed aan het onderzoeken van de undervolt en overclock mogelijkheden van mijn 3080 MSI Suprim X en heb toch wel opvallende resultaten behaald.

Ik ben vanaf 1995 MHz gaan testen welke snelheid op welke voltage kan totdat ik het onderste limiet van 725mV haalde.

Mijn test methodiek voor het undervolten was als volgt:
  • Alles is getest in de Gaming OS. Ik had geen zin om de verschillen met de Silent OS te gaan onderzoek want dat gaat me nog een paar dagen extra kosten 8)7
  • Kloksnelheden zijn door mij arbitrair gekozen om toch een mooi setje data te krijgen maar ook niet om letterlijk elk stapje te testen. Ik wil graag ook andere dingen doen met mijn videokaart ;)
  • Het undervolten heb ik uitgevoerd door de clock speed vast te zetten op een bepaald voltage in MSI afterburner. Voorbeeld kun je hier zien: YouTube: RTX 3080 / 3090 Undervolting | 100W Less = Same Performance?
  • Testen werd gedaan door een Time Spy benchmark en bij een succesvolle benchmark zijn de temps, RPM, en Power Draw opgeschreven
  • Daarna de voltage verlaagt met een tik en werd bovenstaande herhaalt totdat de benchmark faalt
  • Daarna gezocht naar de laagst mogelijke stabiele voltage door het uitvoeren van een Time Spy stress test
  • Vervolgens de clock snelheid verlaagd en werd het bovenstaande herhaald
  • Uiteindelijk zijn er game benchmarks uitgevoerd met de volgende games: Shadow of the Tomb Raider, Borderlands 3, Deus Ex: Mankind Divided en Assassins Creed: Valhalla en een nieuwe time spy benchmark voor de score
  • Alle benchmarks zijn uitgevoerd op dezelfde dag (125!) en met een constante fan RPM (daarover later meer)
Daar zijn uiteindelijk de volgende 3 grafiekjes uit gekomen:

[Afbeelding]

[Afbeelding]

[Afbeelding]

Uiteindelijk vind ik undervolten het wel waard. Met minimale impact op performance heb je wel grote verschillen in power draw, temps en fan RPM. Er zat merkbaar verschil tussen de verschillende opties die mij opvielen tijdens het benchmarken. 40% lagere power draw voor maar 10% performance met drastische verschil in temps en geluid vind ik het wel waard.

Voor het overclocken heb ik eerst in stapjes de core clock verhoogt totdat een benchmark faalt, en daarna hetzelfde voor de memory clock. Krijg hem in games stabiel op +125 Core Clock/ 750 Memory Clock. In benchmarks kan ik er nog ietsje erbij persen >:). Ben uiteindelijk op een score van 19571 gekomen.

Ik heb een poging gedaan om een undervolt te combineren met een overclock, alhoewel dat met veel moeite lukte, waren de resultaten niet beter dan gewoon de overclock die ik al gevonden had.

Dan nog een paar observaties om deze tekst muur af te sluiten:
  • Bij de overclock en de 925/1995 is de power limit slider op 116. Daarnaast een keer op stock settings om te bekijken wat de verschillen waren. Die verschullen zijn vrijwel niets maar wel met een hogere Power Draw. Bij alle andere voltages stond die slider op 100
  • De power draw in Time Spy is slechts indicatief voor het in games zal zijn. In sommige games was de power draw een stuk lager dan in Time Spy, maar desondanks observeerde ik wel verschillen met stock t.o.v. een undervolt, alleen zijn die verschillen minder groot.
  • Deze GPU's hebben graag de neiging om ondanks dat je een core clock instelt, zichzelf eventjes iets hoger/lager klokken afhankelijk van je temps en fan RPM's (vandaar dat ik tijdens de benchmarks een vast RPM hield). Normaal is dat geen probleem maar met een undervolt kun je soms dan net iets te hoog clocken t.o.v. je voltage zodat de boel crasht. Ik kon dit omzeilen door een stress test uit te voeren, en zodra er een balans qua temperatuur is bereikt dan de core clock in te stellen
  • Ik heb tijdens het benchmarken van games ook gekeken naar een memory overclock van +500 bij alle undervolts. De verschillen zijn miniem met 1.5fps winst op zijn best met ietsje hogere power draw. Ik zal het dan ook gewoon wat dat betreft op stock houden
  • Mocht je deze resultaten zelf willen uitproberen houd er dan rekening mee dat your mileage may vary! Er zitten (kleine) verschillen in de chips dus kan ik niet garanderen dat deze settings ook zullen werken op jouw kaart. Wel kun je het goed gebruiken als referentiepunt!
toon volledige bericht
Even een kleine update:

Ik heb alles getest met een time spy stress test en heb uiteindelijk bij het selecteren van de undervolts nog voor de zekerheid een Port Royal stress test erbij gedaan maar dat was niet altijd stabiel. Kleine aanpassingen waren nodig om het stabiel te krijgen.

Ik heb voor de volgende undervolts gekozen:

725/1620: Laagste undervolt mogelijk en snel genoeg voor games die niet veel nodig hebben. Deze was stabiel met Port Royal
800/1785: Deze had ik stabiel in Time Spy op 1800 Core clock maar niet stabiel met Port Royal. Tikje lager en het was stabiel. Performance in games is wel 1% lager.
925/1995: Stock performance met lagere temps en dergelijke. Kreeg deze alleen niet stabiel in Port Royal maar wel in Time Spy. Beetje vreemd maar kwam vlekkeloos door games heen.

En mijn overklok als laatste. Zo heb ik een mooi verschillende opties die van 84% performance gaan tot 105% die ik nu met een knopje aanpassen :P

Acties:
  • +1 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]

Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over? 8)7 Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
Je weet dat je het hebt over een chip met 28.000.000.000+ transistoren? En je verwacht een 'laag' verbruik? Die is al relatief lager wanneer je de gemiddelde FPS per Watt vergelijkt op hoge resolutie.

En GA102 chip is wel efficient zolang je maar ruim onder de 1000mV blijft (verbruik kwadratisch omlaag ipv omhoog) en dus niet gaat OC'en zoals een Kingpin 3090, waar die zoals aangegeven puur voor bedoeld is en dan op kijken van het verbruik..

Als we het even over een buitenproportioneel OC verbruik hebben stelt een 3090 nog niet zoveel voor. Met behulp van 2x 1250W voedingen trekt een 3990X 64 core CPU met OC onder extreme koeling even ruim 1800W.

Veel transistoren, veel rekenkernen en die lusten nou eenmaal wat prik. Ook op een relatief lage (undervolt) spanning. Zo is het nu eenmaal met de huidige stand van zaken. Misschien kan een volgende schaalverkleining naar 5nm er nog enkele tientallen procenten energieverbruik afhalen maar wanneer er nog meer rekenkernen en extra snelheid nodig is om de concurrentie voor te blijven zal dat geen hoge prioriteit krijgen om weer ruim onder een 300W te blijven.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • +1 Henk 'm!

  • William/Ax3
  • Registratie: Augustus 2000
  • Laatst online: 23-06 12:40

William/Ax3

We are Starstuff

Zuur.Pruim schreef op donderdag 31 december 2020 @ 15:07:
[...]

Nee, daar gat het totaal niet om, het zal mij worst wezen hoeveel zo'n 3090 extra kost per jaar aan stroomrekening. Waar het om gaat is dat het stroomverbruik buitenproportioneel is en dat de perf/watt volgens mij al onder het niveau van Fermi is gezakt.
Een RTX 3090 Kingpin vreet gewoon 550W+ bij ~2100MHz! Waar hebben we het nog over? 8)7 Aan de ene kant hebben we dit jaar ontzettend efficiente, nieuwe Ryzens gekregen en dan 'countert' Nvidia het met Ampere, persoonlijk vind ik zo'n stroomvreter anno 2020 (inmiddels bijna 2021) not done.
Met een 'power virus' zoals Kombustor/Furmark/PX1 Scanner krijg je zelfs 650W te zien:
[Afbeelding]
Een kpe kaart koop je niet om normaal te gamen dat is een kaart die je eigenlijk alleen koopt als je wil gaan overcloken liefs met ln2. En wat heb je daar voor nodig? Juist een zo hoog mogelijk powerlimit. Er is zelf bios dat die 1000w kan trekken op de kpe kaart als je ln2 gaat dan wil je dat toch hebben en hoef je niet eens te shunten daar zijn deze kaarten ook voor bedoeld :> dit is niet een huisentuin keuken model. De 2080ti kingpin kan je ook veel meer watt laten trekken als de normaale modellen... Is altijd zo geweest met de kingpin kaarten en zal gewoon zo blijven. Als je deze gewoon teveel vind verbruiken dan pak je toch een kaart met een max powerlimit van 370watt ofzo die stukken en stukken goedkoper ook zijn. Of als je het echt zo'n issue vind ga dan amd als je die zoveel beter vind toch niemand die je tegen houd :)
Zuur.Pruim schreef op zaterdag 2 januari 2021 @ 00:34:
Ik heb de 3090 verkocht, daarmee opgelost :)
Een KP koop je ook voor de koeling en nagenoeg geen pwr throttling, niet per se om extreem te OC'en, natuurlijk. Anders kun je net zo goed +300 in Afterburner zetten maar als de kaart pwr limited is, heb je daar toch niks aan. Daar komt zo'n KP juist goed van pas - constante scores door klokstabiliteit. Ongeacht wat je ermee doet, hield mijn KP keurig 2100MHz aan.
En wat doet een hogere powrlimit? Juist meer stroom verbruiken :> en dat is jouw punt steeds toch? En betere koeling? er zijn ook andere kaarten met hybride koeling die net zo goed koelen minder powerlimiet hebben en ook wel rond die kloks komen en goedkoper zijn. Het echte punt wat de kpe special maak is de custom pcb die ontworrpen is voor extreme oc. Dat is gewoon altijd al zo geweest.

Maar goed je hebt je keuze gemaakt prima ieder zijn ding.

[ Voor 21% gewijzigd door William/Ax3 op 02-01-2021 12:26 ]

|WOW Daggerspine | Troll Hunter Axejess |


Acties:
  • 0 Henk 'm!

  • Zuur.Pruim
  • Registratie: Oktober 2020
  • Niet online
Ik heb de 3090 verkocht, daarmee opgelost :)
Een KP koop je ook voor de koeling en nagenoeg geen pwr throttling, niet per se om extreem te OC'en, natuurlijk. Anders kun je net zo goed +300 in Afterburner zetten maar als de kaart pwr limited is, heb je daar toch niks aan. Daar komt zo'n KP juist goed van pas - constante scores door klokstabiliteit. Ongeacht wat je ermee doet, hield mijn KP keurig 2100MHz aan.

Voor mij blijft de 30 serie een gefaalde generatie, eens kijken wat Lovelace brengt.
Hoog stroomverbruik mag prima als de performance daarmee ook stijgt, bij de 3090 vind ik het niet het geval vergeleken met een 2080Ti op ~2100MHz, tenminste - niet in 1440p.

[ Voor 72% gewijzigd door Zuur.Pruim op 02-01-2021 00:39 ]


Acties:
  • +1 Henk 'm!

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 01-07 14:55
Rubenvdk schreef op woensdag 30 december 2020 @ 13:24:
Nog steeds dik tevreden over mijn Gigabyte 3090 Gaming OC. Wel valt me op dat de kaart voor mijn gevoel ineens begint door te zakken.

Nu is het een forse grote kaart en je hebt natuurlijk altijd wat doorzakken bij grote kaarten, maar meer mensen met een 3080/3090 Gaming OC waarbij dit ineens zichtbaar opvalt?
Heb van af het begin al zo een standaardje onder de 3090

https://www.amazon.nl/Mav...id=pla-854511732675&psc=1

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
ZelianGuy schreef op donderdag 31 december 2020 @ 13:12:
Ik heb enkele vrije dagen van mijn kerstvakantie besteed aan het onderzoeken van de undervolt en overclock mogelijkheden van mijn 3080 MSI Suprim X en heb toch wel opvallende resultaten behaald.

Ik ben vanaf 1995 MHz gaan testen welke snelheid op welke voltage kan totdat ik het onderste limiet van 725mV haalde.
Heel vet, kwam zelf ook niet veel verder dan 2160Mhz, en dat op 1.093V. Op 1.025V, waar hij nu op staat gelocked met een UV, kom ik op 2130 dat zodra de GPU rond de 65C blijf hanged daalt tot 2100Mhz (GPU Boost 3.0 :( ).

Heb je al geprobeerd de memory chips verder te pushen? Bij mij gaan ze tot +1250Mhz stabiel met performance gain. +1350 heb ik een hogere score in 3dmark maar het is niet compleet stabiel, haal er net een benchmark mee zegmaar.

[ Voor 14% gewijzigd door themash360 op 02-01-2021 17:24 ]


Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
Zuur.Pruim schreef op zaterdag 2 januari 2021 @ 00:34:
Ik heb de 3090 verkocht, daarmee opgelost :)
Een KP koop je ook voor de koeling en nagenoeg geen pwr throttling, niet per se om extreem te OC'en, natuurlijk. Anders kun je net zo goed +300 in Afterburner zetten maar als de kaart pwr limited is, heb je daar toch niks aan. Daar komt zo'n KP juist goed van pas - constante scores door klokstabiliteit. Ongeacht wat je ermee doet, hield mijn KP keurig 2100MHz aan.

Voor mij blijft de 30 serie een gefaalde generatie, eens kijken wat Lovelace brengt.
Hoog stroomverbruik mag prima als de performance daarmee ook stijgt, bij de 3090 vind ik het niet het geval vergeleken met een 2080Ti op ~2100MHz, tenminste - niet in 1440p.
Ik bedoel Kingpin plaatst zichzelf wel echt in de markt voor extreme overclockers, met koelers die makkelijk te verwijderen zijn, VRM's die tussen de video outputs en de GPU Die zitten (bij ln2 kunnen die anders nog wel bevriezen als er geen vrm tussenzit en digitale chips met uitleespunten recht op de PCB.

De koeling zal zeker goed zijn op zo'n kaart.

[ Voor 6% gewijzigd door themash360 op 02-01-2021 18:03 ]


Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
Zuur.Pruim schreef op zaterdag 2 januari 2021 @ 00:34:
Voor mij blijft de 30 serie een gefaalde generatie, eens kijken wat Lovelace brengt.
Hoog stroomverbruik mag prima als de performance daarmee ook stijgt, bij de 3090 vind ik het niet het geval vergeleken met een 2080Ti op ~2100MHz, tenminste - niet in 1440p.
Wellicht is het niet zo gek dat een gpu van 1.5 jaar terug die 1.5K kostte nog prima mee gaat en maar 40-50% achterloopt op zijn 800,- vervanger. Ampere is gefaald voor mensen die in de ultra-high-end zitten, de 0.1% van users.

De 3090 is een Halo product, iets wat je met een beetje research had kunnen vinden. Het biedt 15% meer CUDA cores en aangezien zelfs de 3080 op 1440p al last heeft van idle fp32 units omdat er niet genoeg werk per frame is, had je zelfs zonder benchmarks wel kunnen verwachten dat dit bijna niets extra ging opleveren voor u.

Voordat men een generatie gefaalt noemt zou ik vragen of ze ook eens willen kijken wat het bied aan anderen, de 3070 is voor 500-600,- een 2080 Ti qua compute performance en nog beter in RT en Tensor performance, de 3080 bied 90% van de 3090's performance en is rond de 800,-.

Acties:
  • +1 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
themash360 schreef op zaterdag 2 januari 2021 @ 17:23:
[...]


Heel vet, kwam zelf ook niet veel verder dan 2160Mhz, en dat op 1.093V. Op 1.025V, waar hij nu op staat gelocked met een UV, kom ik op 2130 dat zodra de GPU rond de 65C blijf hanged daalt tot 2100Mhz (GPU Boost 3.0 :( ).

Heb je al geprobeerd de memory chips verder te pushen? Bij mij gaan ze tot +1250Mhz stabiel met performance gain. +1350 heb ik een hogere score in 3dmark maar het is niet compleet stabiel, haal er net een benchmark mee zegmaar.
Ik heb geprobeerd om het maximale eruit te halen en tot zover kwam ik. Zag meerdere mensen +1000 memory clock posten maar helaas niet bij mijn kaart. Daarnaast kwam ik niet hoger dan 2130

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 23:21

DeNachtwacht

youtube.com/@hisrep

Vraagje, los van de prijsverhoging door de schaarste, zijn er natuurlijk ook verschillen in prijs tussen de verschillende modellen die bepaalde fabrikanten uitbrengen. Als we even alleen naar performance kijken (dus extra features als LED verlichting, een extra display et cetera even daar gelaten), zijn die verschillen ook duidelijk merkbaar ingame?

Zie bijvoorbeeld de gigabyte line-up van de 3080. Puur naar de specs kijkend is het enige verschil een iets hogere core clock voor de duurdere modellen.

Zijn er goede reviews/benchmarks over verschillen tussen dit soort kaarten te vinden? Ik kom het eigenlijk nergens tegen...

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • Goofy1978
  • Registratie: December 2008
  • Laatst online: 01-07 15:26
DeNachtwacht schreef op zaterdag 2 januari 2021 @ 22:38:
Vraagje, los van de prijsverhoging door de schaarste, zijn er natuurlijk ook verschillen in prijs tussen de verschillende modellen die bepaalde fabrikanten uitbrengen. Als we even alleen naar performance kijken (dus extra features als LED verlichting, een extra display et cetera even daar gelaten), zijn die verschillen ook duidelijk merkbaar ingame?

Zie bijvoorbeeld de gigabyte line-up van de 3080. Puur naar de specs kijkend is het enige verschil een iets hogere core clock voor de duurdere modellen.

Zijn er goede reviews/benchmarks over verschillen tussen dit soort kaarten te vinden? Ik kom het eigenlijk nergens tegen...
Nee het verschil tussen de snelste en traagste 3080 ga je ingame niet merken, het zal echt maar enkele procenten schelen.
Wel hebben duurdere modellen een betere koeler en maken vaak dus minder lawaai. :)
De echte top modellen verbruiken echt heel veel stroom voor een paar fps extra, de msi suprim of de aorus extreme.
Heb zelf de aorus master, die heeft ook maar 2x8pin voeding nodig.
Ik heb deze kaart gekozen omdat ik meerdere hdmi poorten wilde, en omdat ie zo groot was leek me dat hij wel stiller zou zijn dan andere modellen.
Die 45mhz die ie hoger klokt dan lagere modellen verbruikt waarschijnlijk zoveel meer stroom, dat ie gewoon weer even luid is met zn betere koeler denk ik nu achteraf. :P

[ Voor 5% gewijzigd door Goofy1978 op 02-01-2021 23:49 ]


Acties:
  • 0 Henk 'm!

  • HexerPsy
  • Registratie: Juli 2019
  • Laatst online: 01-07 23:08
Hoi hoi!

Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...

TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.

----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.

Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.

Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:

3060Ti met +165MHz op de core en +1200MHz op memory.

En toen.....

Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.

Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.

Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...

Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.

Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...

Acties:
  • +3 Henk 'm!

  • William/Ax3
  • Registratie: Augustus 2000
  • Laatst online: 23-06 12:40

William/Ax3

We are Starstuff

HexerPsy schreef op zondag 3 januari 2021 @ 02:05:
Hoi hoi!

Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...

TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.

----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.

Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.

Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:

3060Ti met +165MHz op de core en +1200MHz op memory.

En toen.....

Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.

Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.

Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...

Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.

Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
toon volledige bericht
Sorry dat ik het zeg maar als ik dit zo lees was je oc gewoon te hoog aangezien je nu met iets lagere settings geen crashes enzo hebt. De ene load is de andere niet en is ook resolutie afhankelijk. Ik heb mijn Max Stable oc daarom ook opgezocht in meerdere zware workloads op 4K. Als ik bv wow alleen test dan kan ik er ook meer uitpersen als bv cyberpunk. 3D Mark heb ik Port royal en de andere testen op Custom 4K en dan alleen graphics in loops gedaan.

|WOW Daggerspine | Troll Hunter Axejess |


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 21:18

OMD

*knip*
Reageer vriendelijk en inhoudelijk, of reageer niet.

[ Voor 97% gewijzigd door Blaat op 04-01-2021 12:08 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Cloudy
  • Registratie: November 2005
  • Laatst online: 29-06 15:25
HexerPsy schreef op zondag 3 januari 2021 @ 02:05:
Hoi hoi!

Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...

TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.

----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.

Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.

Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:

3060Ti met +165MHz op de core en +1200MHz op memory.

En toen.....

Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.

Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.

Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...

Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.

Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
toon volledige bericht
Ik lees niks over hoe je bent omgegaan met de voltage en/of power limit. Voor overclocking is het echter wel belangrijk om hieraan te tunen. Vooral omdat je best een behoorlijke OC hebt, vergeleken met andere 3060 Ti.

Daarnaast heb je inderdaad gelijk dat je met bepaalde programma's niet alle onstabiliteit vind. Ik dacht dat de geheugen van mijn MSI 3060 ti op +1000 kon zetten. In 3d mark en unigine waren geen problemen te zien, en kreeg ik een hogere score in de benchmarks. In Cyberpunk krijg ik na tientallen minuten een vreemde artefact te zien die te maken had met mijn geheugen overlock. Toen ik het van +1000 naar +750 veranderde, verdween die artefact.

Mijn advies is dus je OC settings met meerdere benchmarks en games te testen.

Wazaa?


Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
Cloudy schreef op zondag 3 januari 2021 @ 11:30:
[...]


Ik lees niks over hoe je bent omgegaan met de voltage en/of power limit. Voor overclocking is het echter wel belangrijk om hieraan te tunen. Vooral omdat je best een behoorlijke OC hebt, vergeleken met andere 3060 Ti.

Daarnaast heb je inderdaad gelijk dat je met bepaalde programma's niet alle onstabiliteit vind. Ik dacht dat de geheugen van mijn MSI 3060 ti op +1000 kon zetten. In 3d mark en unigine waren geen problemen te zien, en kreeg ik een hogere score in de benchmarks. In Cyberpunk krijg ik na tientallen minuten een vreemde artefact te zien die te maken had met mijn geheugen overlock. Toen ik het van +1000 naar +750 veranderde, verdween die artefact.

Mijn advies is dus je OC settings met meerdere benchmarks en games te testen.
Klinkt alsof je memory wel binned is, meeste chips komen niet voorbij 500, zelfs in unigene heaven.

Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
HexerPsy schreef op zondag 3 januari 2021 @ 02:05:
Hoi hoi!

Ik dacht, wilde even wat info delen over mijn RTX 3060Ti - OC Strix. Sinds ik de kaart had ingebouwd en overgeclockt, kreeg ik wat rare driver crashes. Schermen gaan zwart, programma/spel crasht...

TLDR Het boost probleem van RTX 3000 dat met de driver zou zijn opgelost, is nog steeds relevant. Overclock was te hoog, wat leidde tot zeldzame driver crashes.

----------
i7 8700K @4.6GHz
Noctus NH-U14S
48GB RAM 3200MHz
Asus Z370-E Gaming
Asus Strix 3060Ti 8GB (x16) in bovenste PCIe slot
MSI 2060 6GB (x4) in 3e PCIe slot (blender addon render card)
Corsair HX1200W PSU
ROG PG278Q (144Hz 1440p Gsync monitor) + niet noemenswaardige standaard monitors ernaast.

Sinds op de RTX3080 de boostclock te aggressief gedroeg en dit gefixt was in de drivers, ging ik er vanuit dat dit ook gefixt zou zijn voor de 3060Ti.
Overclocking met MSI Afterburner was epic: +225 op de core was unstable, +200MHz was stable.
Memory slider ging maximaal tot +1500MHz, ook dat werkte prima zonder error correcting performance dip.
Waarschijnlijk te danken aan de gigantische koeler die alles onder de 65C houdt, ongeacht de load die je erop zet.

Normaal gesproken haal ik daar 25 a 50 MHz vanaf, omdat ik test met Heaven, blender en 3DMark - en daarmee vindt ik niet alle onstabiliteit. Normaal gesproken doet Folding@Home dat wel; die is zeer gevoelig voor slechte overclocks... Ook F@H vond de overclock stabiel en gaf geen crashes of errors:

3060Ti met +165MHz op de core en +1200MHz op memory.

En toen.....

Regelmatig kreeg ik geflikker... Scherm gaat voor een paar frames zwart - zelfs wanneer je in excel bezig bent... Iets dat mij wees op problemen met een kaart die van idle naar max power ging... Dat bleek een driver probleem met Gsync te zijn: 144Hz geeft geflikker, maar 120Hz niet. En door Gsync alleen voor fullscreen games in te stellen ipv ook de rest van de desktop, wordt dat probleem grotendeels verhopen.
Nvidia schiet zich zo'n eenmaal per jaar in de voet door zijn eigen gsync ondersteuning te mollen.

Maarrr.... Nvidia driver bleef crashen na het Gsync probleem te hebben ontweken. Spel/applicatie blijft draaien op een laag frame rate, en dan hangen - schermen zwart voor een paar seconden, beeld komt terug en het spel is gecrasht. Soms starten bepaalde games niet tot een reboot.
Het deed me zelfs twijfelen aan de RAM, omdat ik driver corruptie door slechte RAM begon te verdenken; zo random leken de crashes te zijn.
Het veroorzaakt zelfs crashes van iCUE (RGB software van corsair, die alles voor mij aanstuurt). Het programma crasht namelijk wanneer de PC is gelockt bijvoorbeeld.

Ik kan het probleem op geen enkele manier goed reproduceren. Ik kan ook aan de monitor apps niet zien bij welke core clock de driver crasht... Maar als ik dan nog wat meer OC er vanaf snoep, komen de crashes niet meer terug. Nvidia's boost algoritme blijft een mysterie voor mij...

Uiteindelijk draait de 3060 Ti nu met +150Mhz op de core en +1000MHz op memory.

Hoop dat iemand hier wat aan heeft. Hoewel de OC dus veel belovend was, bleek echte stabiliteit een heel erg stuk lager te zitten...
toon volledige bericht
Dit is gebaseerd op mijn ervaring met extreme memory overclocking (DDR3/DDR4), maar memory chips (siliconen chips in general) worden steeds foutgevoeliger als ze warmer worden.

Weet het natuurlijk niet exact van de strix koeler maar die memory chips stijgen meestal in temperatuur van 25C tot 85C afhankelijk vooral van case airflow. (De memory chips op de achterkant zijn vaak alleen in contact met de backplate)

Dus ik zou verwachten dat de gpu memory gelijksoortige eigenschappen heeft. Ook belangrijk dat er error correction in zit, dit voorkomt geen visuele artifacts maar wel application crashes, vandaar dat folding@home het wellicht wel goed bleef doen, niet alsof je daar inzicht had op de artifacts.

Acties:
  • +1 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 15-06 14:58
themash360 schreef op zondag 3 januari 2021 @ 11:42:
[...]


Klinkt alsof je memory wel binned is, meeste chips komen niet voorbij 500, zelfs in unigene heaven.
Wat ik over het algemeen tegen kom is dat vrijwel alle 3060ti en 3070 wel +1000 op het geheugen aan kunnen. Ik heb hem zelf op +1250 lopen. (Samsung chips)

Acties:
  • 0 Henk 'm!

  • Lyca
  • Registratie: Oktober 2010
  • Laatst online: 03-07 15:03
Zijn hier eigenlijk nog mensen met van die vage issues?
Ik heb een Gigabyte kaart die uit hun fabriekje al overclocked komt, mijn 1080Ti had dit ook.

Een heel deel van mijn game library is hier precies gevoelig aan, de drivers crashen gewoon. Het spel sluit ofwel af of loopt vast en in de event viewer staat dan gewoon droog: Nvidia driver has stopped responding and successfully recovered.

Als ik de kaart manueel ga downclocken, -100 het geheugen en -50 op de core. Geen problemen meer. Ik snap wel dat dat qua FPS niet zo heel veel gaat uitmaken, maar het is wel vervelend elke keer afterburner open te doen en te downclocken.
FS2020 is er heel gevoelig aan, die crasht gewoon in het menu al.

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 23:58
Een kennis heeft sinds kort een Gigabyte GeForce RTX 3080 Vision OC 10G, maar de prestaties in games vallen op zijn zachtst gezegd toch wat tegen. In vergelijking met een 2070 Super is er soms zelfs weinig verschil qua FPS (zowel op 1080p als 1440p). In andere games is er dan weer een duidelijk betere performantie. Reeds meerdere zaken gecheckt (drivers, PCIe modus, temps, ...) maar alles lijkt op het eerste gezicht normaal. Lijkt mij dat onderstaande specs niet direct een bottleneck kunnen vormen?

1ProcessorsAMD Ryzen 7 3700X (BOX) Boxed
1MoederbordenMSI X470 Gaming Plus
1Geheugen internCorsair Vengeance LPX CMK32GX4M2D3000C16
1VoedingenCorsair RM750x (2018) (EU-model) Zwart
1Solid state drivesIntel 660p 512GB


Ik begin mij eerlijk gezegd toch wat zorgen te maken, zeker aangezien ik binnenkort exact dezelfde Gigabyte kaart verwacht met zeer gelijkaardige specs :+

1ProcessorsAMD Ryzen 7 3800X Boxed
1MoederbordenASUS ROG Strix B450-F Gaming
1Geheugen internCorsair Vengeance RGB Pro CMW32GX4M2Z3200C16
1VoedingenMSI MPG A750GF
1Solid state drivesSamsung 970 EVO 1TB
1Solid state drivesSamsung 970 Evo Plus 250GB

Acties:
  • +1 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
SanderH_ schreef op zondag 3 januari 2021 @ 13:18:
Een kennis heeft sinds kort een Gigabyte GeForce RTX 3080 Vision OC 10G, maar de prestaties in games vallen op zijn zachtst gezegd toch wat tegen. In vergelijking met een 2070 Super is er soms zelfs weinig verschil qua FPS (zowel op 1080p als 1440p). In andere games is er dan weer een duidelijk betere performantie. Reeds meerdere zaken gecheckt (drivers, PCIe modus, temps, ...) maar alles lijkt op het eerste gezicht normaal. Lijkt mij dat onderstaande specs niet direct een bottleneck kunnen vormen?

1ProcessorsAMD Ryzen 7 3700X (BOX) Boxed
1MoederbordenMSI X470 Gaming Plus
1Geheugen internCorsair Vengeance LPX CMK32GX4M2D3000C16
1VoedingenCorsair RM750x (2018) (EU-model) Zwart
1Solid state drivesIntel 660p 512GB


Ik begin mij eerlijk gezegd toch wat zorgen te maken, zeker aangezien ik binnenkort exact dezelfde Gigabyte kaart verwacht met zeer gelijkaardige specs :+

1ProcessorsAMD Ryzen 7 3800X Boxed
1MoederbordenASUS ROG Strix B450-F Gaming
1Geheugen internCorsair Vengeance RGB Pro CMW32GX4M2Z3200C16
1VoedingenMSI MPG A750GF
1Solid state drivesSamsung 970 EVO 1TB
1Solid state drivesSamsung 970 Evo Plus 250GB
toon volledige bericht
First things first, de RTX 3080 (& 3070 tot zeker mate) is een compute heavy architecture, dat vooral goed is in veel shader effecten en hoge resolutie (dus veel werk per frame) en bottlenecked op andere componenten (Texture units, databus, etc) als het gaat om lage workload per frame maar hoge framerate.

Dus ik zou compleet verwachten dat je op 1080p teleurgestelt word met Ampere. Tegelijkertijd zou ik ook verwachten dat er geen enkel spel is dat op 1080p de 3080 maxed (zonder Raytracing dan), dus dat brengt me naar punt 2.

Ten tweede zou ik toch wilen opbrengen dat de 3700X qua ST performance niet bovenaan staat, dus er zullen games zijn waar bij je 2070 de bottleneck al de CPU was (zeker op 1080p), dan heeft een 3080 geen toegevoegde waarde. Wel belangrijk te onthouden dat de 3700X maar een paar % in games achterloopt op zelfs de 5950X ofzo, dus echt veel winst valt hier niet te halen.

Dus noem eens wat getallen, dan kan ik ook zien of er wat mis is, alle spellen hier kan je op 1080p makkelijk een CPU bottleneck hebben, dus kijk vooral of er een grote discrepancy is tussen de gemeten FPS daar en bij jouw vriend.

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 23:58
@themash360 Kudos voor de uitgebreide uitleg _/-\o_

Lijkt mij dan dat ik dezelfde "issues" kan verwachten met mijn setup?

Om je een idee te geven, in 3DMark Time Spy met alles stock haalt hij onderstaande (wat mij normaal lijkt):
  • Algemene score: 15.692
  • GPU score: 17.525
  • CPU score: 9.853

[ Voor 3% gewijzigd door SanderH_ op 03-01-2021 14:04 ]


Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
SanderH_ schreef op zondag 3 januari 2021 @ 13:56:
@themash360 Kudos voor de uitgebreide uitleg _/-\o_

Lijkt mij dan dat ik dezelfde "issues" kan verwachten met mijn setup?

Om je een idee te geven, in 3DMark Time Spy met alles stock haalt hij onderstaande (wat mij normaal lijkt):
  • Algemene score: 15.692
  • GPU score: 17.525
  • CPU score: 9.853
Daar lijkt me niets mis mee, dit is een day 1 review van een FE 3080:Afbeeldingslocatie: https://tweakers.net/i/Qe2W13jzIhUyJbmV5TloGrtu72Q=/x800/filters:strip_exif()/f/image/mCFnyu4ukC0ljXujbHs120yQ.png?f=fotoalbum_large

Dus ik ben bang dat de spellen waar meer verbetering in verwacht werd het probleem niet de GPU was, want ook de combined score ziet er goed uit (Inclusief de CPU physics test dus):
Afbeeldingslocatie: https://tweakers.net/i/URyuqDOQqm_UUIIBcqIPfQRK7bo=/800x/filters:strip_exif()/f/image/lBYqPytn0IrRCbFO33MgV2vt.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • HexerPsy
  • Registratie: Juli 2019
  • Laatst online: 01-07 23:08
Cloudy schreef op zondag 3 januari 2021 @ 11:30:
[...]


Ik lees niks over hoe je bent omgegaan met de voltage en/of power limit. Voor overclocking is het echter wel belangrijk om hieraan te tunen. Vooral omdat je best een behoorlijke OC hebt, vergeleken met andere 3060 Ti.

Daarnaast heb je inderdaad gelijk dat je met bepaalde programma's niet alle onstabiliteit vind. Ik dacht dat de geheugen van mijn MSI 3060 ti op +1000 kon zetten. In 3d mark en unigine waren geen problemen te zien, en kreeg ik een hogere score in de benchmarks. In Cyberpunk krijg ik na tientallen minuten een vreemde artefact te zien die te maken had met mijn geheugen overlock. Toen ik het van +1000 naar +750 veranderde, verdween die artefact.

Mijn advies is dus je OC settings met meerdere benchmarks en games te testen.
Te hoge OC zal dan wel het probleem zijn. Vreemd genoeg komt de driver crash nu alleen nog voor in desktop situaties; niet onder zware loads...
Dit gedrag blijf ik best wel raar vinden... Afgelopen jaren met een 1080Ti gewerkt, ook met OC, en nooit dit soort desktop driver crashes gehad.

In MSI Afterburner heb ik de voltage, powerlimit en temp gewoon op max gezet voor wat de slider mogelijk maakt: Vcore op 100 - Pwr limit op 135 en temp 90C. Voor een kaart die niet boven de 65C uit komt, lijkt me dat geen issue.

Acties:
  • 0 Henk 'm!

  • themash360
  • Registratie: Juni 2015
  • Laatst online: 19-06 16:59
Lyca schreef op zondag 3 januari 2021 @ 12:25:
Zijn hier eigenlijk nog mensen met van die vage issues?
Ik heb een Gigabyte kaart die uit hun fabriekje al overclocked komt, mijn 1080Ti had dit ook.

Een heel deel van mijn game library is hier precies gevoelig aan, de drivers crashen gewoon. Het spel sluit ofwel af of loopt vast en in de event viewer staat dan gewoon droog: Nvidia driver has stopped responding and successfully recovered.

Als ik de kaart manueel ga downclocken, -100 het geheugen en -50 op de core. Geen problemen meer. Ik snap wel dat dat qua FPS niet zo heel veel gaat uitmaken, maar het is wel vervelend elke keer afterburner open te doen en te downclocken.
FS2020 is er heel gevoelig aan, die crasht gewoon in het menu al.
Klik het Windows icoontje in Msi afterburner en het applied de downclock op boot (zonder dat het programma zelf in windows start up hoeft te staan)

Acties:
  • 0 Henk 'm!

  • ZelianGuy
  • Registratie: December 2013
  • Laatst online: 01-07 19:59
reviews: Vier nieuwe RTX 3080's - Twee topmodellen en twee budgetkaarten

Eindelijk de cijfers van Tweakers. Suprim komt hier niet lekker uit de bus. Zijn er hier mensen met een Gaming X trio die ook een overclock hebben gedaan? Ben benieuwd wie dan met de hoogste prestaties komt.

Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 03-07 12:01
ZelianGuy schreef op donderdag 7 januari 2021 @ 08:32:
reviews: Vier nieuwe RTX 3080's - Twee topmodellen en twee budgetkaarten

Eindelijk de cijfers van Tweakers. Suprim komt hier niet lekker uit de bus. Zijn er hier mensen met een Gaming X trio die ook een overclock hebben gedaan? Ben benieuwd wie dan met de hoogste prestaties komt.
Dit heeft natuurlijk ook te maken met silicon lottery. Als er goede chips inzitten dan klokken deze hoger en komt het beter uit de bus met benchmarks. Wat daar nog wel een verschil kan maken is maximaal in te zetten TDP en koeling. Dit kan de boost klok en prestaties beperken natuurlijk.

Wat mij ook opvalt is dat synthetische benchmarks een groot verschil in punten op geven terwijl in echte games het in verreweg de meeste gevallen om maximaal 4% extra prestatie winst gaat.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +2 Henk 'm!

  • Kloekie
  • Registratie: Januari 2001
  • Laatst online: 02-07 08:18
Mijn ervaringen met de MSI GeForce RTX 3060 Ti VENTUS 2X OC Videokaart:

Uit de doos een 3dMark timespy score van GPU score 11600 / System score: 10800 / cpu: 7300
Na tweaken UV-curve (core + 175MHz en mem +1000MHz) : 12450 / 11200
Temperatuur 68°C bij 40% GPU-fans in een BeQuiet pure base 500 met 2 extra P14 fans op laag toerental.

Na flashen bios naar een MSI Gaming X TRIO (zie deze info: https://www.reddit.com/r/...x_bios_flashed_to_an_msi/) meer ruimte in de power settings (200W -> 240W)

Let op flashen kan de kaart brick'n.

Na tweaken UV-curve (core+175MHz en mem +1000MHz) en TDP_max op 240W (i.p.v. standaard max 200W) Score: 12800 / 11600 (met 7550 bij port royal)
Temp GPU 74°C bij 55% GPU fans.

De settings die ik nu gebruik voor gamen (star citizen): UV-curve +160 GPU en +1000 mem power limit 100% (240W) max GPU-clock 2020MHz/950mV (UV curve vlak vanaf deze waarde). Dit om het systeem lekker stil te houden. De kaart draait dan vaak op 85% power met pieken richting 95%.
3dMark timespy score van GPU score 12519 / System score: 11335
Port royal: 7450.
Door de extra power ruimte door de bios flash zie je de kaart soms meer opnemen dan 200W, meer richting 95% (230W). Dit helpt de FPS stabiliteit. Temps GPU 68°C , 45% GPU fans.

Games die ik speel en performance:
Star citizen: 4k ultra settings, 60FPS in space, 50FPS gemiddeld in port olisar, 30FPS in treinen in de stad.
World of tanks: 4k alles op max: 60FPS (v-sync aan) met 50% GPU power opname.
Eve-online: 4k alles max: 60FPS (v-sync aan) met 40% GPU power opname.
Kerbal space: 4k alles max: 60FPS (v-sync aan) met 55% GPU power opname.

Al met al erg tevreden met de kaart (die ik voor 450Euro in de winkel heb gekocht).

Systeem verder:
#CategoryProductPrijsSubtotaal
1ProcessorsIntel Core i5-10400F Boxed€ 150,35€ 150,35
1MoederbordenASRock Z490 Phantom Gaming 4€ 125,05€ 125,05
1VideokaartenMSI GeForce RTX 3060 Ti Ventus 2X€ 450,-€ 450,-
1Behuizingenbe quiet! Pure Base 500 Zwart€ 62,90€ 62,90
1MonitorenLG Ergo 32UN880 Zwart€ 786,49€ 786,49
1Processorkoelingbe quiet! Pure Rock 2 Zilver€ 29,99€ 29,99
2VentilatorenArctic P14 PWM PST, 140mm€ 12,30€ 24,60
1ToetsenbordenCorsair Strafe RGB MK.2 (Cherry MX Silent) US€ 112,-€ 112,-
1MuizenLogitech G403 Hero Gaming Mouse€ 49,90€ 49,90
1Geheugen internG.Skill Ripjaws V F4-3200C16D-16GVKB€ 77,90€ 77,90
1VoedingenFractal Design ION+ 560W Platinum€ 102,81€ 102,81
Bekijk collectie
Importeer producten
Totaal€ 1.971,99

Acties:
  • 0 Henk 'm!

  • Cyleo
  • Registratie: December 2005
  • Laatst online: 03-07 13:55
Kloekie schreef op donderdag 7 januari 2021 @ 11:30:
Mijn ervaringen met de MSI GeForce RTX 3060 Ti VENTUS 2X OC Videokaart:

Uit de doos een 3dMark timespy score van GPU score 11600 / System score: 10800 / cpu: 7300
Na tweaken UV-curve (core + 175MHz en mem +1000MHz) : 12450 / 11200
Temperatuur 68°C bij 40% GPU-fans in een BeQuiet pure base 500 met 2 extra P14 fans op laag toerental.

Na flashen bios naar een MSI Gaming X TRIO (zie deze info: https://www.reddit.com/r/...x_bios_flashed_to_an_msi/) meer ruimte in de power settings (200W -> 240W)

Let op flashen kan de kaart brick'n.

Na tweaken UV-curve (core+175MHz en mem +1000MHz) en TDP_max op 240W (i.p.v. standaard max 200W) Score: 12800 / 11600 (met 7550 bij port royal)
Temp GPU 74°C bij 55% GPU fans.

De settings die ik nu gebruik voor gamen (star citizen): UV-curve +160 GPU en +1000 mem power limit 85% (200W) max GPU-clock 2020MHz (UV curve vlak vanaf deze waarde). Dit om het systeem lekker stil te houden.
3dMark timespy score van GPU score 12519 / System score: 11335
Port royal: 7450.
Door de extra power ruimte door de bios flash zie je de kaart soms meer opnemen dan 200W, meer richting 90% (220W). Dit helpt de FPS stabiliteit. Temps GPU 68°C , 45% GPU fans.

Games die ik speel en performance:
Star citizen: 4k ultra settings, 60FPS in space, 50FPS gemiddeld in port olisar, 30FPS in treinen in de stad.
World of tanks: 4k alles op max: 60FPS (v-sync aan) met 50% GPU power opname.
Eve-online: 4k alles max: 60FPS (v-sync aan) met 40% GPU power opname.
Kerbal space: 4k alles max: 60FPS (v-sync aan) met 55% GPU power opname.

Al met al erg tevreden met de kaart (die ik voor 450Euro in de winkel heb gekocht).
toon volledige bericht
Interessant die bios flash, daar ga ik ook eens naar kijken. Ik heb dezelfde kaart en heb een profiel voor stil gamen en maximale FPS.

Stil:
800mV/1850 Mhz Core

Maximale FPS:
OC Scanner curve (1100mV/1935Mhz) en +800Mhz memory.

Beide draaien stabiel, maar ben benieuwd of er nog wat meer uit te halen is met de power limit verhogen. Temps zijn nu namelijk laag (60 graden bij 40% fans), wat lekker stil is maar ik heb het idee dat er meer uit te halen is.

Acties:
  • 0 Henk 'm!

  • bronce
  • Registratie: Januari 2011
  • Laatst online: 16:16
Gister de inno3d 3070 x4 binnen gekregen. Best tevreden met het model, nog nooit een kaart van inno3d gehad. Ik haal nu op timespy 14755 en graphic score 14998. Ryzen 5900x met 3600 mhz ddr. Draai nu op +150mhz core clock en + 1000 memory clock. Power limit op 102%. GPU temp max 63 graden tijdens de benchmark (custom fan curve). Idle temp 25 graden. Dus zeer tevreden met de koeling/performance van dit model.

Enige waar ik nog van baal is dat ik wilde upgraden naar ultra wide 3440x1440 en daar doet de 3080 het toch echt wel een stuk beter op de benchmarks en de 3070 hier en daar toch net wat minder. De 3070 heeft het nog best zwaar met cyberpunk op 1440p met raytracing en dlss aan. (40-50 fps met alle toeters en bellen en dlss op balanced).

Acties:
  • 0 Henk 'm!

  • Rubenvdk
  • Registratie: Juli 2012
  • Laatst online: 12-05 20:13
Zojuist voor de lol ook eens een 3DMark gedraaid met mijn 3090. Just for fun, ik heb geen verstand van overklokken en ben het ook niet van plan voorlopig. Ik weet dat 3DMark puur statistisch is, maar is dit resultaat positief? :)

Heb daarnaast sinds vanmorgen ook Asus Multicore Enhancement uit gezet omdat ik er toch mixed verhalen over hoor en lees.

Afbeeldingslocatie: https://tweakers.net/i/ZGyAAaXszjw1eZ9w7xcEGDe3AO4=/800x/filters:strip_icc():strip_exif()/f/image/4JqxUfYaOiUCc0EI7MwkaGaq.jpg?f=fotoalbum_large

i7-10700k | 32GB @3200Mhz | RTX 3090


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 03-07 05:10

ParaWM

Pro Prutser

Rubenvdk schreef op donderdag 7 januari 2021 @ 16:27:
Zojuist voor de lol ook eens een 3DMark gedraaid met mijn 3090. Just for fun, ik heb geen verstand van overklokken en ben het ook niet van plan voorlopig. Ik weet dat 3DMark puur statistisch is, maar is dit resultaat positief? :)

Heb daarnaast sinds vanmorgen ook Asus Multicore Enhancement uit gezet omdat ik er toch mixed verhalen over hoor en lees.

[Afbeelding]
Het grafiekje onder die scoreboog laat precies zien wat je wilt weten. Je zit precies op de modus van alle scores met jouw CPU/GPU combo, net onder het gemiddelde.
https://nl.wikipedia.org/...rekenkundig%20gemiddelde.

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 18:12

Phntm

Tlingelingeling

bronce schreef op donderdag 7 januari 2021 @ 15:13:
Gister de inno3d 3070 x4 binnen gekregen. Best tevreden met het model, nog nooit een kaart van inno3d gehad. Ik haal nu op timespy 14755 en graphic score 14998. Ryzen 5900x met 3600 mhz ddr. Draai nu op +150mhz core clock en + 1000 memory clock. Power limit op 102%. GPU temp max 63 graden tijdens de benchmark (custom fan curve). Idle temp 25 graden. Dus zeer tevreden met de koeling/performance van dit model.
Heb mijn 3070 aorus master nu op 900mv@1935 stabiel. Reden dat ik undervolt is dat gigabyte een beetje te fanatiek is omgegaan met hun voltages. Ik haalde wel goeie clocks maar het verschil is marginaal. Memory heb ik maar 900mhz gedaan. Power limit nog steeds op 100%. In time Spy een max temperatuur van 64 graden. Graphics score van 13 829 icm met mijn ryzen 5 3600. Time Spy score self is 12153.

Ik merk dat er nog veel ruimte is dus ik ga verder tweaken. Wel enorm verslavend dit.

Acties:
  • +1 Henk 'm!

  • Rubenvdk
  • Registratie: Juli 2012
  • Laatst online: 12-05 20:13
ParaWM schreef op donderdag 7 januari 2021 @ 16:58:
[...]

Het grafiekje onder die scoreboog laat precies zien wat je wilt weten. Je zit precies op de modus van alle scores met jouw CPU/GPU combo, net onder het gemiddelde.
https://nl.wikipedia.org/...rekenkundig%20gemiddelde.
Top thanks voor de toelichting! Dat ik daar overheen heb gelezen! :P Ik neem aan dat mijn score dan over het algemeen klopt?

i7-10700k | 32GB @3200Mhz | RTX 3090


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 03-07 05:10

ParaWM

Pro Prutser

Ik vraag me af hoe mensen (met een 3080) stabiele clocks rapporteren ruim boven de 1 volt; zeg 1.050mV of 1.093mV. Bij mij danst hij alle kanten op dan. Zijn dit misschien allemaal kaarten met 420W of 450W biossen?

Ik heb na heel wat spelen mooie strakke UV's gevonden die redelijk standaard zijn denk ik, zie hieronder. Die vier zijn echt 100% strak (want geen power limit denk ik?). Elke game of benchmark strak altijd op die clockspeed. Bij 975mV al is hij niet meer 100% strak, maar springt alleen 15mhz op en neer. Allemaal vrij logisch met de auto boost enzo. De hoogste UV op 962mhz geeft al 3% hoger scores dan out-of-de-box trouwens. Een standaard overclock van +125mhz doet daar nog een kleine 2% bij, maar hij springt dan op en neer tussen de 1950 en 2130mhz als een gek. Voltage ook all over the place. Wat volgens mij ook nog voor slechtere 1% en 0.1% lows zorgt (niet getest nog).

Ik kan dus niet zeggen wat mijn clock is bij 1.050mV en zeker niet bij 1.093mV (die laatste haalt hij bijna nooit). Voor de UV waardes kan ik dat wel duidelijk zeggen.

750mV: 1710 mhz
825mV: 1845 mhz
900mV: 1935 mhz
962mV: 2010 mhz

[ Voor 3% gewijzigd door ParaWM op 07-01-2021 20:04 ]

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 30-06 18:27
SanderH_ schreef op zondag 3 januari 2021 @ 13:56:
@themash360 Kudos voor de uitgebreide uitleg _/-\o_

Lijkt mij dan dat ik dezelfde "issues" kan verwachten met mijn setup?

Om je een idee te geven, in 3DMark Time Spy met alles stock haalt hij onderstaande (wat mij normaal lijkt):
  • Algemene score: 15.692
  • GPU score: 17.525
  • CPU score: 9.853
Ik haal over de 16K met mijn 2080 ti.....

Stay hungry, stay foolish!

Pagina: 1 ... 37 ... 54 Laatste

Let op:
Dit topic is ervaringen over de nieuwe nVidia RTX 3xxx kaarten uit te wisselen en om de kaarten zelf te bediscussieren. Dit topic is niet bedoeld voor aankoopadvies zoals:

• Is mijn voeding krachtig genoeg voor de nieuwe kaarten?
• Is mijn processor snel genoeg voor de nieuwe kaarten?
en ook niet voor levertijden en prijzen!

Als je er niet uit komt, maak dan een topic aan in Componenten Aankoopadvies.