• GoldenLeafBird
  • Registratie: September 2017
  • Laatst online: 22-03 20:21
Robin4 schreef op zaterdag 30 juli 2022 @ 02:36:
[...]

Kan je eens testen wat je cpu doet bij cpu-z stress test na 5 minuten..

Wil wel eens weten hoeveel watt er onder in het vakje staat en hoe warm hij dan word.
Temperatuur op 72 graden, de core clocks op 4300-4400, CPU power op 111W, alles aldus RyzenMaster. Volgens m'n fancontroller staat de NH-D15 (inmiddels met 2 fans) op 63% te draaien.

Als ik de fan op 100% zet dan gebeurt er eigenlijk weinig trouwens.

  • Robin4
  • Registratie: Januari 2005
  • Laatst online: 18:18
Ik had ondertussen gewoon de PPT limit ingesteld op 128 watt.. En is nou wel iets koeler zonder erover te gaan.

Geloof dat die nou 78 graden zou worden..

http://specs.tweak.to/12249 Nieuwe stuff, zie link links.

Vandaag maintenance rondje gedaan voor madam haar 5800X rig. Na m'n laatste persoonlijke swap met radiatoren had ik de 360x30 van haar gejat en vervangen met een 280x30. In de lente was dat 85-86c full load CB R23 maar had de fans pull gezet en de arctic p14 fans zijn gewoon echt slecht in een pull config. Vandaag beetje verbaasd dat temps tot 93c opliepen. Tijd voor beetje werk dan maar.

Paste spread niet naar m'n zin.


Ik had deze IHS al lichtelijk afgevlakt eerder zonder helemaal tot het koper te gaan maar nu maar even zoden aan de dijk gezet.




360x30 weer geïnstalleerd op de AIO pomp.

CB R23 nog steeds 85-86c helaas maar stukken beter.

PBO disabled gezet en nu 82-83c tijdens R23. Tijdens gamen lage to mid 70c.

Daar kan ze weer even mee vooruit.


Heb zelf een 5800X3D besteld die morgen binnen komt om mijn 5900X in mijn hoofd systeem te vervangen dit omdat ik alle compiling en encoding nu offload naar m'n server met 3950X en ik eigenlijk geen 12 cores meer nodig heb. De 5900X gaat de 3950X vervangen in de server en dan kan ik alle zwaardere taken daar in VMs draaien en de 3950X verkopen dekt grootste gedeelte van de 5800X3D aanbesteding.

Zal de 5800X3D eerst maar eens even uitvoering benchmarken tegen de 5900X. Gaat in een X570 Unify welke over de nieuwe 5800X3D OC features beschikt met de laatste beta bios. Hoop dat het niet zo'n heethoofd als m'n 5800X is.. Mijn 5900X blijft heel mooi rond de 72-73c bij volle load R23 met PBO en CO.

Side grades. Curiosity. En ben niet van plan om op AM5 te springen met de eerste generatie DDR5. Koop liever eerst een nieuwe GPU om de 6900XT te vervangen voor 3440x1440p. 5800X3D moet het nog wel even uithouden met een nieuwe GPU denk ik.

Morgen testen.

[Voor 4% gewijzigd door Cidious op 04-08-2022 19:31]

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • meljor
  • Registratie: November 2004
  • Laatst online: 18:57
5800x3d is volgens mij warmer dan de 5800x...

Laatste heb ik ook en is idd een heatertje.
Kan m'n ogen bijna niet geloven.

CBR23
15.3K @ 143-145W 5800X @ 84c = 105 points per watt
23K @ 180-185W 5900X @ 73c = 124 points per watt
15K @ 103-104W 5800X3D @ 72c = 144 points per watt

Dat met de wetenschap dat de V-Cache ook meer stroom vraagt laat een enorme vooruitgang zien in process kwaliteit bij TSMC. Het voltage komt niet boven 1.2v uit. Waar de 5800X constant boven de 1.4v aan het hameren is bij stick settings. De 5800X en 5800X3D zijn beiden 105W TDP processoren maar zelfs bij het handmatig uitschakelen van PBO laat mijn MSI moederbord de 5800X 145W trekken. Waar de 5800X3D constant mooi onder de 105W blijft.

Mijn 5800X is van de eerste batch launch day.

Sidenote:
Stock haalde de 5800X3D maar 14K punten bij 104W. Het resultaat hierboven is met MSI Kombo Strike 3.


Dan nu het meest schokkende dat me meteen opviel. De 5800X3D is vele malen snappier dan de 5900X in regulier Windows gebruik. Ik had altijd al het idee dat mijn 5800X ook snappier was met het openen van apps etc maar schreef dit af onder het kopje van niet gelijke Windows installatie etc (wel zelfde geheugen en geheugen settings). Maar nadat ik de 5800X3D in m'n 5900X systeem opstarten viel m'n kaak wijd open van hoe responsief alles was geworden browser en applicaties openen gewoon sneller. Om er zeker van te zijn dat het geen kopers vegoeilijking is heb ik de 5900X weer terug gestoken en ja hoor aanzienlijk meer vertraging bij vrijwel alle reguliere Windows handelingen. Alle andere bios instellingen voor het geheugen etc zijn gelijk.

Ik vermoed zelf dat dit komt door de chiplet latency. Ik ga dit wel even goed testen vandeweek met een stopwatch. Maar wat een leuke bonus!

Snelle game test gedaan met ARK omdat dit spel heep erg slecht loopt op een oude Unreal 4 engine.

5900X

5800X3D


Kleine verbetering. Meer game tests komen eraan.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

Gaming benchies + 6900XT @ 3440x1440 + Max settings - Geen RT/FSR/Upscaling

Forza Horizon 5:
5900X
5800X3D
F1 22
5900X
5800X3D
Horizon - Zero Dawn
5900X
5800X3D



Conclusie: zoals ik hierboven al aangaf de 5800X3D heeft 1 groot probleem en dat is de 12-core 5900X die voor €389 verkocht wordt, waar de 5800X3D €459 moet kosten hier in Nederland (Ik heb hem voor omgerekend €420 hier in China gekocht bij de officiele retailer). Bij hogere resoluties en hogere settings ga je het verschil gewoon NIET merken, zelfs niet met een 6900XT met max OC (+15% power limiet). En wie koopt er een 5800X3D en een high end rig om op 1080p te gamen? De reviews zijn dan ook veelal een beetje vreemd te noemen op 1080p getest en dan schreeuwen van de daken dat het DE BESTE gaming processor is. Sommige leden hier hadden die mening dan ook blindelings gekopieerd. Een 5900X, 5800X of zelfs een 5600(X) zal op hogere resoluties een zelfde soort ervaring leveren.

Ik kan nog een paar rondjes op 1440p testen en dan zal misschien F1 22 nog iets verder uitlopen maar ik verwacht geen schokkende verschillen. Ik weiger op 1080p te testen omdat dit gewoon niet een praktische usecase is die ik ooit zal gebruiken ik hoop dan ook dat reviewers hier spoedig van af stappen omdat het hiet eerlijk en realistisch vergelijken is.


Dat allemaal gezegd te hebben. De resultaten zijn exact zoals ik verwacht had voor games en ik ga er vanuit dat met een RDNA3 kaart ik misschien er iets meer baat bij zal hebben met gaming. De grote verassingen waren elders te vinden in de enorm goede efficientie en performance voor reguliere taken. 105W max load is aanzienlijke lager dan de 185W die mijn 5900X nu bij max load trekt en zelfs lager dan dat van de 5800X welke 145W trekt bij exact dezelfde multicore performance.

Blije koop!

Ik ga nu bezig met verder fine-tunen en BCLK overklokken. Ook ga ik 2000 FCLK nog weer een keer een kans geven. Ik houd jullie op de hoogte.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Het is een mooie processor die 5800X3D, maar veel te laat en voor teveel op de markt verschenen :(.
Er zijn een aantal situaties/spellen waarbij de extra cache veel uitmaakt, als ik het mij goed herinner was dat bij Anno 1800 en ook bij drukke mmo's waar veel random dingen gebeuren en latency dus erg belangrijk is.
Ik denk dus dat je met WoW ook een aardig verschil zal merken in hogere P1%.
Avg. FPS zal dan weer van niet veel tot niet verschillen, aangezien je met 3440x1440 en hoge instellingen echt GPU bound bent.

Heeft de 5800X3D niet standaard een B2 stepping? Het gerucht is dat deze stepping voor een aardige verbetering in de efficiëntie heeft gezorgd door het stroomverbruik te verlagen.
Mijn 5800X is ook een exemplaar van de begin periode en een enorme stroomvreter.
Stock trekt het rustig 140A en zit ik met een rondje CB23 al op 80 graden, alsof ik geen waterkoeling heb >.>.
Ik heb om die reden het vermogen beperkt tot 125W en daarmee blijft het binnen de perken. Maar tjemig zeg, het is gewoon een 3800X op turbo.


Over het snappier aanvoelen. Heb je gecontroleerd of TPM in beide gevallen uit stond? Dat kan behoorlijk wat random latency geven namelijk (daar kwam ik achter toen ik gamebenchmarks aan het draaien was en last had van inconsistente metingen..stond blijkbaar opeens aan na een nieuwe bios firmware).
Een andere mogelijke oorzaak kan een semi instabiele soc zijn.
Ik heb voor de grap eens de (onder)grenzen opgezocht en hoe dichter je bij instabiliteit komt hoe trager/meer stroperig het aan begon te voelen. Soms kan het beter zijn het werkgeheugen een stap lager te zetten qua FLCK dan op het randje te zitten.
De AIDA latenties moeten dan vrij constant blijven op een kaal Windows systeem zonder internet.

  • CMT
  • Registratie: Januari 2003
  • Nu online
Cidious schreef op vrijdag 5 augustus 2022 @ 12:15:
Conclusie: zoals ik hierboven al aangaf de 5800X3D heeft 1 groot probleem en dat is de 12-core 5900X die voor €389 verkocht wordt, waar de 5800X3D €459 moet kosten hier in Nederland (Ik heb hem voor omgerekend €420 hier in China gekocht bij de officiele retailer). Bij hogere resoluties en hogere settings ga je het verschil gewoon NIET merken, zelfs niet met een 6900XT met max OC (+15% power limiet). En wie koopt er een 5800X3D en een high end rig om op 1080p te gamen? De reviews zijn dan ook veelal een beetje vreemd te noemen op 1080p getest en dan schreeuwen van de daken dat het DE BESTE gaming processor is. Sommige leden hier hadden die mening dan ook blindelings gekopieerd. Een 5900X, 5800X of zelfs een 5600(X) zal op hogere resoluties een zelfde soort ervaring leveren.

Ik kan nog een paar rondjes op 1440p testen en dan zal misschien F1 22 nog iets verder uitlopen maar ik verwacht geen schokkende verschillen. Ik weiger op 1080p te testen omdat dit gewoon niet een praktische usecase is die ik ooit zal gebruiken ik hoop dan ook dat reviewers hier spoedig van af stappen omdat het hiet eerlijk en realistisch vergelijken is.


Dat allemaal gezegd te hebben. De resultaten zijn exact zoals ik verwacht had voor games en ik ga er vanuit dat met een RDNA3 kaart ik misschien er iets meer baat bij zal hebben met gaming. De grote verassingen waren elders te vinden in de enorm goede efficientie en performance voor reguliere taken. 105W max load is aanzienlijke lager dan de 185W die mijn 5900X nu bij max load trekt en zelfs lager dan dat van de 5800X welke 145W trekt bij exact dezelfde multicore performance.

Blije koop!

Ik ga nu bezig met verder fine-tunen en BCLK overklokken. Ook ga ik 2000 FCLK nog weer een keer een kans geven. Ik houd jullie op de hoogte.
Gefeliciteerd met je aankoop!
Er is een groep die veel baat heeft bij de 5800X3D, maar dat zijn vooral e-sporters die op 1080p met zeer hoge fps spelen. Ik denk dat het net zo'n niche groep is als mensen die op hoge/ultra instellingen spelen met 3440x1440 resolutie. Maar ik heb een vermoeden dat de grote cache ook in GPU bound situaties wel zal helpen om de dippen te verminderen. Daarvoor zou je de P1% in de gaten moeten houden (en a.d.h.v. meerdere metingen uitmiddelen)

Ik heb zelf een 5600G afgelopen week op de kop getikt en volgens mij is dat toch een redelijk ondergewaardeerde processor. De L3 cache is een stuk kleiner met maar 16MB, maar dat merk je eigenlijk alleen op 1080p en 1440p. Of dat boeit hangt ook helemaal vanaf waar je de FPS lat legt.
Voor mij zijn verschillen boven 100FPS niet meer interessant.
Toch is het volgens tweakers daarom een slechte gaming processor O-).
Maar net zoals jij gemerkt heb, maakt het op 3440x1440 op hoge instellingen niet uit (met de huidige halo videokaarten dan).
Waar de 5600G in uitblinkt testen reviewers vaak niet. Namelijk het verbruik onder gaming.
In een CPU bound situatie is het verbruik letterlijk de helft! van mijn 5800X (41W vs. 85W) en in GPU bound situatie bijna de helft (ik kan even niet bij de metingen, maar zo uit het hoofd ca. 65% van de 5800X).
Op 3400X1440 en hoge instellingen is het verschil in FPS nagenoeg verwaarloosbaar. Het valt dan bijna in de foutmarge met 1%,

De 5600G is wel een vreemde eend eigenlijk, want de cores blijken vrij onzuinig te zijn (verbrassen net zoveel als de 5800X), maar worden niet tot in het extreme geboost. Daar staat tegenover dat de SoC met 2.8W echt héél zuinig is en de rest van de cpu (zonder cores) slechts 4.2W verbruikt (FLCK staat op 3800MHz met 1:1).
Mijn 5800X met B0 stepping, heeft een soc+rest verbruik van 21W in totaal, dus permanent 15W extra.
Ik moest even in mijn ogen wrijven toen ik 34W op de vermogensmeter zag staan met de highend PC in rust _/-\o_ Dat is dan met pomp, fan controller en usb geluidskaart dat nog ca. 7W snoept aan lichtnet zijde.

Ik vind het jammer dat ze de focus zo op 1080P leggen, want ook al presteert de 5600G in sommige gevallen 25% minder dan een 5600X, is dit prestatie 'nadeel' ook te beschouwen als een hardware matige FPS limiter voor de videokaart. Dan hoeft deze ook niet geboost te worden tot in het rode gebied en heb je netto een zuinig gaming systeem.
Ik had een 5700G voor een paar dagen. Ik dacht dat dit een goede server processor zou zijn. Maar geen PCIE 4.0 en de bios van mn Asus workstation board kon er niks mee. Kon geen bitfurcation gebruiken etc. Heb hem maar weer terug gestuurd. Om andere redenen dan waar jij jouw 5600G om waardeert. Ik vond de 5700G maar een onding voor mijn usecase haha. was de grootste teleurstelling van mn recente aankopen haha.

Voor gewoon een huis tuin en keuken computer kan ik hem iedereen aanraden. Gewoon erg effectief en degelijke graphics.

Heb je nu dan ook je 5800X vervangen door 5600G?

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

CMT schreef op vrijdag 5 augustus 2022 @ 13:35:
Het is een mooie processor die 5800X3D, maar veel te laat en voor teveel op de markt verschenen :(.
Er zijn een aantal situaties/spellen waarbij de extra cache veel uitmaakt, als ik het mij goed herinner was dat bij Anno 1800 en ook bij drukke mmo's waar veel random dingen gebeuren en latency dus erg belangrijk is.
Ik denk dus dat je met WoW ook een aardig verschil zal merken in hogere P1%.
Avg. FPS zal dan weer van niet veel tot niet verschillen, aangezien je met 3440x1440 en hoge instellingen echt GPU bound bent.

Heeft de 5800X3D niet standaard een B2 stepping? Het gerucht is dat deze stepping voor een aardige verbetering in de efficiëntie heeft gezorgd door het stroomverbruik te verlagen.
Mijn 5800X is ook een exemplaar van de begin periode en een enorme stroomvreter.
Stock trekt het rustig 140A en zit ik met een rondje CB23 al op 80 graden, alsof ik geen waterkoeling heb >.>.
Ik heb om die reden het vermogen beperkt tot 125W en daarmee blijft het binnen de perken. Maar tjemig zeg, het is gewoon een 3800X op turbo.


Over het snappier aanvoelen. Heb je gecontroleerd of TPM in beide gevallen uit stond? Dat kan behoorlijk wat random latency geven namelijk (daar kwam ik achter toen ik gamebenchmarks aan het draaien was en last had van inconsistente metingen..stond blijkbaar opeens aan na een nieuwe bios firmware).
Een andere mogelijke oorzaak kan een semi instabiele soc zijn.
Ik heb voor de grap eens de (onder)grenzen opgezocht en hoe dichter je bij instabiliteit komt hoe trager/meer stroperig het aan begon te voelen. Soms kan het beter zijn het werkgeheugen een stap lager te zetten qua FLCK dan op het randje te zitten.
De AIDA latenties moeten dan vrij constant blijven op een kaal Windows systeem zonder internet.
Ja 5800X3D = B2 stepping. veel betere kwaliteit chips per definitie.

TPM staat bij mij altijd aan omdat ik altijd bitlocker gebruik.

Betreft stroperig en schokerige ervaring. Dit is heel vaak timings die niet op elkaar afgesteld zijn. Timings die op elkaar moeten wachten omdat ze uit sync lopen voor waar de processor op zit te wachten. Heb dit meerdere malen gehad. Daarom draai ik nu gewoon met de timings waar ik zeker van weet dat die met all mijn crucial kits op al mijn Zen 2/3 processors soepel draaien. Enige verschil is tRFC tussen de verschillende memory kits. de betere Crucial (Micron Rev E) kits die ik heb kunnen lager in tRFC. De rest is allemaal hetzelfde en niet op het randje.

Ja ik ga toch eens kijken of ik nog wat meer met de 5800X kan doen.. heb hem al een tijdje weinig liefde en aandacht gegeven in madame haar machine met de 2070 Super haha. Zij gebruikt de computer voor werk en Elden Ring. Was stabiel.. dus heb er niet naar om gekeken.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

TimeSpy + 6900XT @ max OC (+15%) 1440p

5900X
5800X3D


Verkijk je niet op de CPU test. Deze is gewoon vreemd. Graphics score exact hetzelfde met 1440p.

[Voor 6% gewijzigd door Cidious op 05-08-2022 16:57]

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

Een beetje knooien met de BCLK kloks. Boven de 103 krijg ik te maken met instabiliteit. Ik heb anderen 111.75MHz zien doen. Moet nog maar even kijken hoe zij daar komen.

[Voor 22% gewijzigd door Cidious op 06-08-2022 10:55]

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:23

ParaWM

Pro Prutser

Cidious schreef op zaterdag 6 augustus 2022 @ 10:54:
Een beetje knooien met de BCLK kloks. Boven de 103 krijg ik te maken met instabiliteit. Ik heb anderen 111.75MHz zien doen. Moet nog maar even kijken hoe zij daar komen.
B550 is het niet. Met X570 kun je amper BCLK klokken wat ik me zo herinner.

Sinterklaas wil bier !

ParaWM schreef op zaterdag 6 augustus 2022 @ 11:01:
[...]


B550 is het niet. Met X570 kun je amper BCLK klokken wat ik me zo herinner.
Neen. Ik heb een gozer gezien met zelfde MSI X570 Unify bord met 111.75MHz BCLK. Unify heeft een losse clock generator voor BCLK blijkbaar. Ook wat extra opties in de bios voor BCLK dan mijn MSI B550M Mortar.



De temps schieten wel gestaag omhoog. Sneller dan ik gewend ben.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

Cidious schreef op zaterdag 6 augustus 2022 @ 10:54:
Een beetje knooien met de BCLK kloks. Boven de 103 krijg ik te maken met instabiliteit. Ik heb anderen 111.75MHz zien doen. Moet nog maar even kijken hoe zij daar komen.
Waarschijnlijk een moederbord met externe clock generator. Dat zijn helaas vaak wel de duurdere borden :P

Chronia Lvl 60 Warlock Diablo 3

Dennism schreef op zaterdag 6 augustus 2022 @ 11:51:
[...]


Waarschijnlijk een moederbord met externe clock generator. Dat zijn helaas vaak wel de duurdere borden :P
Zelfde bord als ik heb. MSI X570 Unify met inderdaad een externe klok generator. Ik kan tot 108 posten maar het is niet stabiel. Zal even de kleine lettertjes moeten lezen hoe dit stabiel te maken. Het is alleen voor entertainment anyway.

[Voor 20% gewijzigd door Cidious op 06-08-2022 13:33]

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Cidious schreef op vrijdag 5 augustus 2022 @ 16:17:
Ik had een 5700G voor een paar dagen. Ik dacht dat dit een goede server processor zou zijn. Maar geen PCIE 4.0 en de bios van mn Asus workstation board kon er niks mee. Kon geen bitfurcation gebruiken etc. Heb hem maar weer terug gestuurd. Om andere redenen dan waar jij jouw 5600G om waardeert. Ik vond de 5700G maar een onding voor mijn usecase haha. was de grootste teleurstelling van mn recente aankopen haha.

Voor gewoon een huis tuin en keuken computer kan ik hem iedereen aanraden. Gewoon erg effectief en degelijke graphics.

Heb je nu dan ook je 5800X vervangen door 5600G?
Ik moest even opzoeken wat bifurbication was, een moeilijk woord dus voor het opsplitsen van de PCIe lanes :z Kwam je met de 5700G tekort aan lanes voor de NVME's?

De 5800X is nog niet vervangen, maar ik zit er wel serieus over na te denken. Mijn plan was om met Zen4 te gaan spelen. Daarvan verwacht ik dat het idle verbruik ook flink lager zal zijn vanwege de SoC die op 7nm gemaakt zal worden.
Ik had de CPU aanvankelijk voor mijn zus gekost omdat ze echt een gaming PC nodig heeft.
Maar dat zit even in de ijskast omdat de vraagprijzen voor videokaarten nog altijd zo idioot hoog is (bij VA doen ze net zo hard mee met de idioterie). MSRP betalen voor een bijna 2 jaar oude kaart 8)7
Betreft stroperig en schokerige ervaring. Dit is heel vaak timings die niet op elkaar afgesteld zijn. Timings die op elkaar moeten wachten omdat ze uit sync lopen voor waar de processor op zit te wachten. Heb dit meerdere malen gehad. Daarom draai ik nu gewoon met de timings waar ik zeker van weet dat die met all mijn crucial kits op al mijn Zen 2/3 processors soepel draaien. Enige verschil is tRFC tussen de verschillende memory kits. de betere Crucial (Micron Rev E) kits die ik heb kunnen lager in tRFC. De rest is allemaal hetzelfde en niet op het randje.
Sorry, ik bedoelde daarmee het spelen met de spanningen voor de SoC (vddp, vddg-ccd en vddg-iod). Er zit redelijk wat spreiding in wat 'werkt' omdat er hier ook een mate van klok stretching van de geheugencontroller kan plaatsvinden.
Dat zie je echter niet in HWinfo terug, maar merk je wel aan de latency (consistentie).

Ik ben trouwens wel benieuwd met wat je bedoeld qua timings die op elkaar afgestemd zijn.
Iets anders dan de vuistregels zoals tRC = min. tRP + tRas en tFAW = min. tRRDS*4 ?
Het is mij bijv. een raadsel hoe ze aan bepaalde specifeke tRFC waarden komen en ik zou graag willen weten of er optima berekend kunnen worden (iets anders dus als het natte vingerwerk).
CMT schreef op zaterdag 6 augustus 2022 @ 16:04:
[...]

Ik moest even opzoeken wat bifurbication was, een moeilijk woord dus voor het opsplitsen van de PCIe lanes :z Kwam je met de 5600G tekort aan lanes voor de NVME's?

De 5800X is nog niet vervangen, maar ik zit er wel serieus over na te denken. Mijn plan was om met Zen4 te gaan spelen. Daarvan verwacht ik dat het idle verbruik ook flink lager zal zijn vanwege de SoC die op 7nm gemaakt zal worden.
Ik had de CPU aanvankelijk voor mijn zus gekost omdat ze echt een gaming PC nodig heeft.
Maar dat zit even in de ijskast omdat de vraagprijzen voor videokaarten nog altijd zo idioot hoog is (bij VA doen ze net zo hard mee met de idioterie). MSRP betalen voor een bijna 2 jaar oude kaart 8)7


[...]

Sorry, ik bedoelde daarmee het spelen met de spanningen voor de SoC (vddp, vddg-ccd en vddg-iod). Er zit redelijk wat spreiding in wat 'werkt' omdat er hier ook een mate van klok stretching van de geheugencontroller kan plaatsvinden.
Dat zie je echter niet in HWinfo terug, maar merk je wel aan de latency (consistentie).

Ik ben trouwens wel benieuwd met wat je bedoeld qua timings die op elkaar afgestemd zijn.
Iets anders dan de vuistregels zoals tRC = min. tRP + tRas en tFAW = mij. tRRDS*4 ?
Het is mij bijv. een raadsel hoe ze aan bepaalde specifeke tRFC waarden komen en ik zou graag willen weten of er optima berekend kunnen worden (iets anders dus als het natte vingerwerk).
Bitfurcation omdat ik de pcie slots gebruik om NVME kaarten in the installeren in de server. Mijn Asus WS Pro X570-ACE heeft x8 x1 x8 x8 op de pcie sloten. Ik gebruik dus pcie 4.0 m.2 adapter kaarten om meer NVMEs te installeren inderdaad.

5 NVMEs en 8 SATA schijven in totaal. Dan kan je geen pcie lanes onbenut laten. De 5700G wilde mijn geen bitfurcation optie geven op die sloten en leek ook lanes te missen voor die sloten. Lanes die mijn 3950X en 5900X wel leveren op dezelfde sloten met dezelfde bios. Dat is dus een bios compatibiliteits probleempje met de relatief 'nieuwe' 5700G of gewoon beperking van de 5700G. En dan heeft hij ook geen PCIE 4.0. en ik gebruik wel 4.0 NVMEs.

Betreft AM5 denk ik dat je kwa stroomvebruik van een koude kermis gaat terug komen haha. De IO-die voor Zen 2 gebruikt maar zo'n 10-14W gemiddeld. Zelfs met deftige OC. De nieuwe SOC mag dan op een beter proces zijn gebakken maar de frequentie gaat ook omhoog. En daarboven op is al bekend dat de TDP over de gehele product lijn omhoog gaat. 230W TDP voor de topmodellen is gelekt. Dus ben bang dat AM5 niet veel zuiniger gaat worden onder load. Misschien dat idle iets verbeterd. Wie weet.

Betreft de timings. Ja sommige timings hebben een onderlinge relatie en moeten in een bepaalde ratio van elkaar staan of het geheugen (lees memory controller) begint te hikken.

Het is lang geleden dat ik me heel erg in timings heb verdiept voor Zen 2/3 omdat ik al jaren op dezelfde geheugen kits draai nu met settings die ik blindelings vertrouw. Ik weet nog wel dat Zen 1 en Zen + hier nog gevoeliger voor was ook.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Vandaag ben ik ook in de weer geweest om alle gaming benchmarks tussen de 5800X en 5600G te destilleren in een (hopelijk overzichtelijke) spreadsheet.
Misschien vinden jullie het ook interessant.
Naast een directe vergelijking tussen de twee, heb ik ook gekeken naar de % winst puur alleen door de cache (een 5600G 'sim' met 32MB aan L3).
En ook wat de evt. winst verschillen zijn met werkgeheugensnelheid (3800MHz vs 3600MHz CL16) en PCIE 3.0 vs. 4.0.



De 5600G is echt enorm zuinig voor gaming met 30W op 3440x1440!
Vergeleken met de 5800X varieert de toename in efficiëntie tussen + 227% en 183%..
Je kan trouwens ook zien dat de extra cache veel doet bij de P1 FPS.
Zelfs bij 100% GPU bound is er winst te zien.
Het is echt een gemiste kans van AMD, een 5600G met extra cache, had een knaller van een CPU kunnen zijn.

Edit: De gebruikte videokaart is een watergekoelde AMD RX6900XT met alles op stock.

[Voor 4% gewijzigd door CMT op 06-08-2022 17:21]


  • CMT
  • Registratie: Januari 2003
  • Nu online
Cidious schreef op zaterdag 6 augustus 2022 @ 16:20:
[...]


Bitfurcation omdat ik de pcie slots gebruik om NVME kaarten in the installeren in de server. Mijn Asus WS Pro X570-ACE heeft x8 x1 x8 x8 op de pcie sloten. Ik gebruik dus pcie 4.0 m.2 adapter kaarten om meer NVMEs te installeren inderdaad.

5 NVMEs en 8 SATA schijven in totaal. Dan kan je geen pcie lanes onbenut laten. De 5700G wilde mijn geen bitfurcation optie geven op die sloten en leek ook lanes te missen voor die sloten. Lanes die mijn 3950X en 5900X wel leveren op dezelfde sloten met dezelfde bios. Dat is dus een bios compatibiliteits probleempje met de relatief 'nieuwe' 5700G of gewoon beperking van de 5700G. En dan heeft hij ook geen PCIE 4.0. en ik gebruik wel 4.0 NVMEs.
Oei, dat is een hoop. Dan is de 5xxxG echt niet geschikt. Die hebben 'maar' 24x pcie 3.0 lanes.
De totale bandbreedte is dus de helft van een 5xxxX met 24x pcie 4.0 lanes.
Maar laten we eerlijk zijn, daarvoor is de APU ook niet gemaakt (ik vermoed ook vanwege de focus op een laag stroomverbruik).
Betreft AM5 denk ik dat je kwa stroomvebruik van een koude kermis gaat terug komen haha. De IO-die voor Zen 2 gebruikt maar zo'n 10-14W gemiddeld. Zelfs met deftige OC. De nieuwe SOC mag dan op een beter proces zijn gebakken maar de frequentie gaat ook omhoog. En daarboven op is al bekend dat de TDP over de gehele product lijn omhoog gaat. 230W TDP voor de topmodellen is gelekt. Dus ben bang dat AM5 niet veel zuiniger gaat worden onder load. Misschien dat idle iets verbeterd. Wie weet.
Hmm laten we hopen van niet. Ik kijk het nog met argus ogen aan allemaal.
Het is wel jammer dat de vermogens battle zo compleet losgeslagen is en door niets of niemand geremd lijkt te worden.

Acties:
  • 0Henk 'm!
  • Pinned
OPROEP:

Beste allen,

Gezien ZEN 4 volgende week dinsdag aangekondigd wordt en als het goed is enige weken daarna al leverbaar is, is het ook bijna tijd voor een 'ZEN 4 platform ervaringen en OC topic' vervolgtopic.

Zelf wil ik het Topicstarter stokje graag overdragen aan een enthousiaste en uiteraard liefst kundige nieuwe hoofdauteur :) .

De huidige mede auteur @DaniëlWW2 heeft aangegeven misschien over een tijdje nog wel een bijdrage aan de mobo sectie te kunnen leveren maar is momenteel te druk om direct een hele actieve rol te vervullen.

Voor mede auteur @Saturnus is het een optie betrokken te blijven bij statische zaken zoals tabellen en layout maken (wat imho niet meevalt om zelf te doen als je daar weinig ervaring in hebt).

Als er iemand is die interesse heeft om Topicstarter te worden dan hoor ik het graag en een extra mede auteur lijkt me zeker een goede optie maar is ook aan de nieuwe TS :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Help!!!! schreef op zaterdag 27 augustus 2022 @ 10:02:
OPROEP:

Beste allen,

Gezien ZEN 4 volgende week dinsdag aangekondigd wordt en als het goed is enige weken daarna al leverbaar is, is het ook bijna tijd voor een 'ZEN 4 platform ervaringen en OC topic' vervolgtopic.

Zelf wil ik het Topicstarter stokje graag overdragen aan een enthousiaste en uiteraard liefst kundige nieuwe hoofdauteur :) .

De huidige mede auteur @DaniëlWW2 heeft aangegeven misschien over een tijdje nog wel een bijdrage aan de mobo sectie te kunnen leveren maar is momenteel te druk om direct een hele actieve rol te vervullen.

Voor mede auteur @Saturnus is het een optie betrokken te blijven bij statische zaken zoals tabellen en layout maken (wat imho niet meevalt om zelf te doen als je daar weinig ervaring in hebt).

Als er iemand is die interesse heeft om Topicstarter te worden dan hoor ik het graag en een extra mede auteur lijkt me zeker een goede optie maar is ook aan de nieuwe TS :)
Ik nomineer @CMT mochte deze geinteresseerd zijn ;) Erg kundig met tabellen en soortgelijke.

Zelf ben ik wel van plan om bij de 5800X3D te blijven tot op z'n minst volgend jaar einde lente begin zomer om te wachten op Vcache modellen en betere prijzen/stabiliteit voor AM5 moederborden. Kinderziektes verholpen etc.

Ben momenteel net overgestapt op een X570 Unify-X omdat mijn normale X570 Unify kuren begon te geven. De chipset gooide onder load scenarios de 10GbE kaart en NVMEs eruit in willekeurige volgorde. Ik vermoed chipset degradatie of iets dergelijks. Dat deel van het moederbord heef ook wel wat te verduren gehad met stroperig (premix) waterkoeling oepsies en alcohol schoonmaak procedures. Kan maar zo zijn dat een grondige ultrasone reiniging het euvel oplost. Wil er zelf niet veel meer mee knooien momenteel.

Unify-X omdat vervangen met een zelfde Unify maar een beetje saai is en ik toch nog even bij AM4 wil blijven met een nieuwe GPU en 5800X3D.

FCLK 1900+ getest. Stabieler dan reguliere Unify (waarschijnlijk door maar slechts 2 dimm slots) maar nog steeds WHEA 19 feest. Ik draai lekker 1900 stabiel. Met de 5800X3D maakt het toch niet zoveel uit door de grote cache.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Nou ja kundig, ik besteed veel tijd aan het netjes maken van de Excel sheets ^^.
Ik voel mij gevleid door de nominatie, maar moet het helaas respectvol afwijzen.
Van code en tabellen maken op GoT heb ik helemaal geen verstand.

Een keer geprobeerd om een tabel te maken voor wat meetresultaten en ik was er een halve dag mee bezig (en alsnog niet netjes gekregen) :-( . Daarbij komt dat er perioden zijn wanneer ik niet aktief ben op GoT en dat is dan niet zo handig als auteur.

@Cidious
Over de WHEA 19 errors, heb je al de optie geprobeerd om spread spectrum uit te zetten?
In mijn situatie was dat net het zetje dat de 5800X nodig had (stabiele BLCK).
Ik weet verder niet of ik het al verteld had, maar met de 5600G kreeg ik de FLCK stabiel op 2200MHz met 1.10Vsoc. Op hetzelfde Tomahawk B550 moederbord, waar de 5800X zonder kunstgrepen niet verder komt dan 1900MHz. Het was dus echt de CPU die de limiet vormde (en AMD's misleiding door te stellen dat 2000Mhz de nieuwe 1900MHz was). De chipset had dus geen invloed.

Kan ik trouwens hier nog wat cpu NFSW laten zien van een 5800X3D als afsluiter van AM4?
Iets wat ik in mijn PC ervaring nog niet eerder heb meegemaakt (niet positief).
CMT schreef op maandag 26 september 2022 @ 02:36:
Nou ja kundig, ik besteed veel tijd aan het netjes maken van de Excel sheets ^^.
Ik voel mij gevleid door de nominatie, maar moet het helaas respectvol afwijzen.
Van code en tabellen maken op GoT heb ik helemaal geen verstand.

Een keer geprobeerd om een tabel te maken voor wat meetresultaten en ik was er een halve dag mee bezig (en alsnog niet netjes gekregen) :-( . Daarbij komt dat er perioden zijn wanneer ik niet aktief ben op GoT en dat is dan niet zo handig als auteur.

@Cidious
Over de WHEA 19 errors, heb je al de optie geprobeerd om spread spectrum uit te zetten?
In mijn situatie was dat net het zetje dat de 5800X nodig had (stabiele BLCK).
Ik weet verder niet of ik het al verteld had, maar met de 5600G kreeg ik de FLCK stabiel op 2200MHz met 1.10Vsoc. Op hetzelfde Tomahawk B550 moederbord, waar de 5800X zonder kunstgrepen niet verder komt dan 1900MHz. Het was dus echt de CPU die de limiet vormde (en AMD's misleiding door te stellen dat 2000Mhz de nieuwe 1900MHz was). De chipset had dus geen invloed.

Kan ik trouwens hier nog wat cpu NFSW laten zien van een 5800X3D als afsluiter van AM4?
Iets wat ik in mijn PC ervaring nog niet eerder heb meegemaakt (niet positief).
Ja ik ben ook niet actief genoeg om veel meer toe te voegen aan dit topic.

Betreft de G modellen. Ja deze halen makkelijker hogere FCLK inderdaad. Zit de IO die voor deze niet ingebakken met de cores en cache?

Ik dacht dat spread spectrum automatisch uit stond op de Unify maar zal het even handmatig uitzetten om zeker te zijn.

Wat was dat laatste stuk over de 5800X3D? By all means. Share haha.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Okee, ik heb gewaarschuwd ;)





Koelpasta was in een laagje gelijkmatig over de IHS gesmeerd zoals ik altijd doe.
Het is zeker 0.2mm dik en heeft mij nog niet eerder een 'tekort' opgeleverd.
Voordat ik het installeerde kreeg ik de indruk dat de hoekpunten van de IHS uitstaken.
Het gevolg is dan ook dat de cores met 105W ppt, net zo heet werden als de 5800X met 142W ppt.

Ik snap nu ook waarom er soms grote verschillen in ervaring zijn met de 5800X3D. Dit was echt onacceptabel.

  • bjvdven
  • Registratie: November 2015
  • Nu online
CMT schreef op maandag 26 september 2022 @ 08:49:
Okee, ik heb gewaarschuwd ;)

[Afbeelding]

[Afbeelding]

Koelpasta was in een laagje gelijkmatig over de IHS gesmeerd zoals ik altijd doe.
Het is zeker 0.2mm dik en heeft mij nog niet eerder een 'tekort' opgeleverd.
Voordat ik het installeerde kreeg ik de indruk dat de hoekpunten van de IHS uitstaken.
Het gevolg is dan ook dat de cores met 105W ppt, net zo heet werden als de 5800X met 142W ppt.

Ik snap nu ook waarom er soms grote verschillen in ervaring zijn met de 5800X3D. Dit was echt onacceptabel.
Dat is behoorlijk slecht inderdaad. Schuurpapier erover! Al zijn hoge temperaturen met de 5800X3D geen rariteit. De cache laag is geen goede hitte geleider. Mijn 5800X3D blijft mooi onder de 60C tijdens PUBG maar gaat bij CB23 naar 77C met een Core Optimizer van -30 all core.

[Voor 8% gewijzigd door bjvdven op 26-09-2022 10:23]

RX 7900XTX, 5800X3D, MSI B450 GAMING PRO CARBON AC, G.skill 16GB 3600cl14 b-die, Arctic Freezer II 280mm ||| Galaxy S23 Ultra 512GB

CMT schreef op maandag 26 september 2022 @ 08:49:
Okee, ik heb gewaarschuwd ;)

[Afbeelding]

[Afbeelding]

Koelpasta was in een laagje gelijkmatig over de IHS gesmeerd zoals ik altijd doe.
Het is zeker 0.2mm dik en heeft mij nog niet eerder een 'tekort' opgeleverd.
Voordat ik het installeerde kreeg ik de indruk dat de hoekpunten van de IHS uitstaken.
Het gevolg is dan ook dat de cores met 105W ppt, net zo heet werden als de 5800X met 142W ppt.

Ik snap nu ook waarom er soms grote verschillen in ervaring zijn met de 5800X3D. Dit was echt onacceptabel.
Shit! Dat ziet er inderdaad erger uit dan mijn 5800X. Ja mijn temps zijn echt super netjes. En mijn load komt niet boven de 115W uit.. 80W PPT en 65c max bij 7.5 uur NON-STOP gaming. CB load is 110W bij 75c. Spread ziet er bij mij dan ook normaal uit. Ik ben helemaal in m'n nopjes met de chip. Mijn 5900X werkt lekker in de server met 128GB ram en bende VMs en opslag. Alles op orde.

Ga je hem terug sturen of lappen? Lappen is een beetje zonde voor de verkoop waarde, en terugsturen.. ben benieuwd of ze hem terug nemen hiervoor. Hoop het wel.

Je kan hem natuurlijk wel licht lappen om de opstaande randen te verlagen en de inscriptie met rust te laten die had ik eerste met mijn 5800X gedaan voordat ik deze volledig heb gelapt.



dit is dan goed voor exact 15K punten. met CO -30 all core (MSI Kombo Strike 3)

[Voor 23% gewijzigd door Cidious op 26-09-2022 10:27]

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

bjvdven schreef op maandag 26 september 2022 @ 10:20:
[...]


Dat is behoorlijk slecht inderdaad. Schuurpapier erover! Al zijn hoge temperaturen met de 5800X3D geen rariteit. De cache laag is geen goede hitte geleider. Mijn 5800X3D blijft mooi onder de 60C tijdens PUBG maar gaat bij CB23 naar 77C met een Core Optimizer van -30 all core.
Ik zal waarschijnlijk wat ruimere koeling hebben maar dit komt heel erg overeen met wat ik hier ook ervaar.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • bjvdven
  • Registratie: November 2015
  • Nu online
Cidious schreef op maandag 26 september 2022 @ 10:30:
[...]


Ik zal waarschijnlijk wat ruimere koeling hebben maar dit komt heel erg overeen met wat ik hier ook ervaar.
Ahja jouw koeling is wat "beefier". Maar mijn Arctic II 280mm trekt hem goed. Ik heb mn limieten op 115 95 114 staan in PBO2 Tuner. Dan boost ie SC naar 4550 op de meeste cores en tijdens CB23 naar 4440 met een score van 15080.

Ik wil vandaag nog even aan de slag met een Core Voltage offset om de temperaturen nog wat extra te drukken.

[Voor 10% gewijzigd door bjvdven op 26-09-2022 10:41]

RX 7900XTX, 5800X3D, MSI B450 GAMING PRO CARBON AC, G.skill 16GB 3600cl14 b-die, Arctic Freezer II 280mm ||| Galaxy S23 Ultra 512GB

Ik heb alles standaard staan behalve Kombo Strike en geheugen uiteraard. Werkt perfect. Ben enorm blij met het totaal pakket nu. Sommige van mijn games zijn gestopt met stotteren haha. Ik speel veel ARK en dit draait nu gewoon soepeler (hele oude UE4 engine iteratie).

Gisteren hele dag gespeeld met de vriendin op private server. Mijn rig max 65c CPU en 6900XT max 65c hotspot, 48c normale temp. X570s Unify-X MAX passieve chipset... 68c :+ Evolutie, maar dan backwards... Ambient 28-29c (Zal blij zijn als de zomer beetje afkoelt hier...)

[Voor 6% gewijzigd door Cidious op 26-09-2022 10:42]

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
De 5800X3D heb ik al teruggestuurd. Het was mij veel te prijzig om dan nog te gaan lappen.
Verder een hele mooie processor wel, maar ook niet super speciaal.
Alleen met geheugen afhankelijke toepassingen merkte ik een duidelijke prestatie winst.
Het lager verbruik kwam ook grotendeels vanwege de lagere max. klok en PPT.
Wat mij wel heel erg opviel is dat de frametime lijnen een stuk gladder waren!
Niet vanwege de uitschieters, maar de hoeveelheid 'ruis'. Dat zal zeker meespelen in de ervaring hoe rustig iets aanvoelt.

Zal ik ook de meetresultaten nog posten? Ik heb het net als de 5600G door een aantal gaming benchmarks en tests gehaald.

Nu Zen4 om de hoek staat (om 15:00h vandaag verloopt de NDA *O* ), ben ik van plan daar voor te gaan.
Misschien niet meteen, maar dat hangt van een aantal zaken af.
De iGPU heeft een groot voordeel met foutzoeking en mijn hoop is groot dat ze nu wel iets aan het hoge SoC verbruik hebben gedaan.
Met de huidige electriciteitprijs en een PC dat elke dag ca. 12 uur aanstaat, maakt 15W verschil t.o.v. een APU best wat uit. Op jaarbasis kan het €40 euro of meer schelen.

[Voor 8% gewijzigd door CMT op 26-09-2022 11:04]

CMT schreef op maandag 26 september 2022 @ 10:51:
De 5800X3D heb ik al teruggestuurd. Het was mij veel te prijzig om dan nog te gaan lappen.
Verder een hele mooie processor wel, maar ook niet super speciaal.
Alleen met geheugen afhankelijke toepassingen merkte ik een duidelijke prestatie winst.
Het lager verbruik kwam ook grotendeels vanwege de lagere max. klok en PPT.
Wat mij wel heel erg opviel is dat de frametime lijnen een stuk gladder waren!
Niet vanwege de uitschieters, maar de hoeveelheid 'ruis'. Dat zal zeker meespelen in de ervaring hoe rustig iets aanvoelt.

Zal ik ook de meetresultaten nog posten? Ik heb het net als de 5600G door een aantal gaming benchmarks en tests gehaald.

Nu Zen4 om de hoek staat (om 15:00h vandaag verloopt de NDA *O* ), ben ik van plan daar voor te gaan.
Misschien niet meteen, maar dat hangt van een aantal zaken af.
De iGPU heeft een groot voordeel met foutzoeking en mijn hoop is groot dat ze nu wel iets aan het hoge SoC verbruik hebben gedaan.
Met de huidige electriciteitprijs en een PC dat elke dag ca. 12 uur aanstaat, maakt 15W verschil t.o.v. een APU best wat uit. Op jaarbasis kan het €40 euro of meer schelen.
Ja je kan altijd even wat resultaten posten. Kan nooit kwaad lijkt me. Als je tijd ervoor hebt natuurlijk. Heb zelf wat getest met 5900X en 5800X3D Ik kwam veelal tot de conclusie dat de 5800X3D gewoon meer een specialistische efficiëntere tool is voor gaming waar de 5900X meer all-round is maar dat betaal je in vermogen.

Betreft jouw keuze om voor AM5 te wachten. Heel slim. Ik heb dus besloten om pas volgend jaar zomer weer naar AM5 te kijken om verscheidene redenen.
  1. Ik spendeer liever mijn budget aan een GPU eerst. 6900XT is leuk maar met opkomende engines houdt het niet over op een 3440x1440p 144Hz. 100FPS is een beetje het gemiddelde bij max settings. Sommige games die wat beter draaien en sommigen (ARK, RDR2 etc) die als dikke stront lopen op wat voor systeem dan ook. AKA slechte optimalisatie.
  2. Ik heb een hele zure nasmaak van de Zen 3 launch. Beta testen voor AMD is niet iets waar ik blij van word. Dit was een zeer frustrerende en energie kostende periode waarbij elke bios update wel weer iets kon breken. Ik ga dan ook niet weer voor premium prijzen beta tester spelen voor de AIBs en AMD.
  3. Eerste batches chips zijn altijd beroerde kwaliteit. Mijn 5800X van de launch batch is een enorm slecht exemplaar. Amper stabiel bij stock settings. Afhankelijk van de bios kan hij stabiel of niet stabiel zijn. Bij het gebruik van de CO moet 1 core zelfs positief voltage krijgen voor een volledig stabiel systeem. Nieuwer B2 stepping 5800X chips zijn veel liever.
  4. X670 te duur, DDR5 te duur en te langzaam nog.
  5. Eerste release SKUs zien er niet veelbelovend uit. Zijn net iets beter dan Alder Lake zoals het nu lijkt. (Benchmarks moeten mij natuurlijk nog ongelijk bewijzen). Ik wacht liever op Vcache modellen eind dit jaar of begin volgend jaar.
Daarom heb ik besloten voor de 5800X3D te gaan en nog een laatste keer in mijn moederbord te investeren om dat chipset euvel van mijn andere te verhelpen. Tijd zal het leren of het een goede gok was.

Ben meest benieuwd naar 5800X3D vs 7600X/7800X voor gaming. Ik doe vrijwel geen productieve taken meer op deze machine na het overzetten van mijn 5900X naar de server. All zware taken als code compiling en video encoding gebeurt nu op de 5900X homeserver via 10GbE en NVMEs. Voelt praktisch aan alsof het lokaal gebeurt.

Dan is het nog even wachten tot de RTX 4090 reviews uitkomen dan HWU deze over de verschillende nieuwe processoren kan testen tegen de 5800X3D zodat we een beeld krijgen of next gen GPUs erg gehinderd gaan worden door mijn 5800X3D vs 7000 non-vcache / Alder/Raptor-Lake.

Hoe dan ook denk ik dat de 5800X3D het wel uithoudt to volgend jaar Zomer met een nieuwe GPU erin zonder me teveel terug te houden. Het zou natuurlijk een beetje zuur zijn als ik om en nabij een $1000 (ja ik ben ook niet blij met deze prijzen.. Bedank heer Jensen maar!) neerleg voor een nieuwe GPU en deze dan niet lekker kan benutten haha.

Zoals het er nu uitziet. B650E + 7800X3D lijkt hopelijk een goede combi te gaan worden voor een Desktop gaming PC. Maar de tijd zal het leren.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Okidokie, ik zal de resultaten later posten.
Alles moet gesorteerd & in Excel overgezet worden, maar dat moest ik sowieso nog doen voor mijzelf.
Dan plak ik de test voor een lager verbruik er ook gelijk bij en is er één overzicht van alles.

Een van de zaken waar ik op wacht is wat de prijs gaat doen voor de moederborden, cpu en werkgeheugen.
DDR5 daalt nu al fors en ze voorspellen dat het dit jaar nog ca. 10-15% zal dalen.
Maar de moederborden worden waarschijnlijk peperduur en dan wacht ik liever op een 3D cache versie.

Een GPU upgrade staat bij mij ook bovenaan. Wat dat betreft zit ik in hetzelfde schuitje met gemiddeld 100 FPS voor 3440x1440 bij de zwaardere games. Voor mijn 100Hz scherm is dat een mooie match, maar ik wil niet nog een keer met 60+300W spelen in de zomer >.> en 120Hz OLED staat op de wenslijst!

Ik heb een sterk vermoeden dat de 5800X3D, ook voor een RTX4090 geen bottleneck zal vormen. Niet op 3440x1440 in ieder geval, waarbij de FPS nog onder de 200 zit. Maar zelfs al zou het merkbaar worden, zoiets gaat dan geleidelijk en de belangrijke P1 FPS veranderd nauwelijks.

Hieronder is het verschil te zien in frametimes van een benchmark run in WoW - Bastion (Shadowlands):


Let ook op de schaal. Het gaat niet om de grote pieken, maar de 'ruis' met 5ms bereik.
Met de 5800X3D is er een behoorlijk verbetering te zien, dat zich ook vertaald in significant hogere P1 FPS.
Nu is wel zo dat WoW al heel oud is en de engine gewoon niet lekker kan draaien met moderne hardware.
Maar dit laat wel goed de meerwaarde zien van meer cache bij slechte optimalisatie. Alles voelt gewoon veel fijner aan
CMT schreef op maandag 26 september 2022 @ 13:58:
Okidokie, ik zal de resultaten later posten.
Alles moet gesorteerd & in Excel overgezet worden, maar dat moest ik sowieso nog doen voor mijzelf.
Dan plak ik de test voor een lager verbruik er ook gelijk bij en is er één overzicht van alles.

Een van de zaken waar ik op wacht is wat de prijs gaat doen voor de moederborden, cpu en werkgeheugen.
DDR5 daalt nu al fors en ze voorspellen dat het dit jaar nog ca. 10-15% zal dalen.
Maar de moederborden worden waarschijnlijk peperduur en dan wacht ik liever op een 3D cache versie.

Een GPU upgrade staat bij mij ook bovenaan. Wat dat betreft zit ik in hetzelfde schuitje met gemiddeld 100 FPS voor 3440x1440 bij de zwaardere games. Voor mijn 100Hz scherm is dat een mooie match, maar ik wil niet nog een keer met 60+300W spelen in de zomer >.> en 120Hz OLED staat op de wenslijst!

Ik heb een sterk vermoeden dat de 5800X3D, ook voor een RTX4090 geen bottleneck zal vormen. Niet op 3440x1440 in ieder geval, waarbij de FPS nog onder de 200 zit. Maar zelfs al zou het merkbaar worden, zoiets gaat dan geleidelijk en de belangrijke P1 FPS veranderd nauwelijks.

Hieronder is het verschil te zien in frametimes van een benchmark run in WoW - Bastion (Shadowlands):
[Afbeelding]

Let ook op de schaal. Het gaat niet om de grote pieken, maar de 'ruis' met 5ms bereik.
Met de 5800X3D is er een behoorlijk verbetering te zien, dat zich ook vertaald in significant hogere P1 FPS.
Nu is wel zo dat WoW al heel oud is en de engine gewoon niet lekker kan draaien met moderne hardware.
Maar dit laat wel goed de meerwaarde zien van meer cache bij slechte optimalisatie. Alles voelt gewoon veel fijner aan
Mooie grafieken.

Wat voor scherm heb jij? Ik had een BenQ EX3501R 35" VA 100Hz 3440x1440p Freesync en ben zojuist overgestapt op een Dell S3422DWG 34" VA 144Hz 3440x1440p Freesync Premium Pro. Voornamelijk omdat Freesync echt kapot was op de BenQ en met de lagere FPS is dit gewoon vervelend. Freesync en 144Hz werkt nu perfect. Ik mis wel een beetje de 35" vs 34" :+ Maar verder een mooie stopgap. Ik had bijna een LG C2 42" gekocht. Dat zou net passen. Helaas is burn-in nog wel degelijk een issue en voor die prijs wil ik daar gewoon geen zorgen om hoeven maken. Zelfde geld voor de Alienware ultrawide. I wacht nog even voor mini-led denk ik. Huid scherm heeft acceptabele HDR als VA paneel en kan bijna tot 600nits. Voor nu stilt dat mijn honger een beetje haha.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

Zen 4 reviews zijn gedropt. 5800X3D redelijk gelijk met de nieuwe chips. Niet waard om te upgraden. Ik blijf lekker AM4 draaien tot nieuwe Vcache SKUs komen.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Ik heb twee LG 35WN65C schermen. Daarin zitten dezelfde 35" AUO panelen als bij Benq ;).
Je zou het niet zeggen, maar die ene inch maakt een hoop uit. Een 34" ernaast zag er 'klein' uit.
Ik stuur je wel even een PB ipv dit topic met monitor meuk te versmeren haha.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 18:21

OMX2000

By any means necessary...

Cidious schreef op maandag 26 september 2022 @ 16:02:
Zen 4 reviews zijn gedropt. 5800X3D redelijk gelijk met de nieuwe chips. Niet waard om te upgraden. Ik blijf lekker AM4 draaien tot nieuwe Vcache SKUs komen.
Ik denk dat veel mensen dat gaan doen. Het platform is een behoorlijk ander beestje geworden. Ander geheugen, pci express 5.0 SSD’s zijn leuk maar veel duurder maar nie veel sneller, warmte van cpu stelt andere eisen aan koeling, en moederbordjes zijn duurder en en en hogere eisen aan voeding.

Ik denk dat we een jaartje moeten wachten voor het interessant gaat worden. Ook onder druk van waarmee Intel gaat komen.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 25-03 13:17
OMX2000 schreef op dinsdag 27 september 2022 @ 09:13:
[...]


Ik denk dat veel mensen dat gaan doen. Het platform is een behoorlijk ander beestje geworden. Ander geheugen, pci express 5.0 SSD’s zijn leuk maar veel duurder maar nie veel sneller, warmte van cpu stelt andere eisen aan koeling, en moederbordjes zijn duurder en en en hogere eisen aan voeding.

Ik denk dat we een jaartje moeten wachten voor het interessant gaat worden. Ook onder druk van waarmee Intel gaat komen.
De reden dat ik dus een 5800X3D ga aanschaffen en de 3700x ga verkopen.

Acties:
  • +12Henk 'm!
  • Pinned

  • CMT
  • Registratie: Januari 2003
  • Nu online
@Cidious en allemaal.
Hier is het dan, het complete (gaming) onderzoek dat ik gedaan heb voor de 5800X, 5800X3D en 5600G.
Ik kan helaas geen spreadsheet uploaden en één screenshot maken van alles was wat lastig.
Dus is het opgedeeld in een gedeelte cpu vergelijking en een gedeelte cpu+gpu verbruiks onderzoek/tuning.

5800X3D / 5800X / 5600G gaming benchmark overzicht:


5800X3D / 5800X en RX6900XT gaming verbruik onderzoek/tuning overzicht:


Ik heb een hele hoop onderzocht (bij elkaar is dit >50 uur werk geweest, waarschijnlijk veel meer :X ) en de belangrijkste hoofdconclusies die hieruit te trekken zijn:
  • 5600G is een efficiëntiemonster, helaas beperkt door de relatief kleine L3 cache en PCIE3.0 link
  • 5800X3D geeft een groot voordeel bij het spel WoW, bekend om haar slechte schaling met de CPU (oude engine, niet goed te optimaliseren). Een paar posts terug is ook het grote verschil tussen de frametimes te zien: https://tweakers.net/i/ei...TvkbWsWl.png?f=user_large
  • 5800X3D dankt zijn 'zuinigheid' met name aan de beperkte PPT van 105W en max. klok van 4500MHz.
  • Een 5800X met dezelfde beperkingen als een 5800X3D, verbruikt praktisch evenveel
  • In een RX6900XT GPU bound situatie en een 100Hz FPS cap, verliest de 5800X3D bijna al het voordeel. Met een 5800X klok beperking daarbovenop is er haast geen onderscheid meer te maken.
  • De GPU targetklok begrenzen tot 2000MHz, geeft in mijn situatie maar 2-10% prestatieverlies, terwijl het verbruik met 59-64% daalt (respectievelijk 89-93W PPT besparing).
  • De GPU PPT afstemmen op een vergelijkbaar gemiddeld GPU verbruik, levert hetzelfde op. Globaal is het wel beter om een targetklok begrenzing te gebruiken.
  • Door de CPU en GPU te beperking met een max klok en een kleine UV op de GPU te zetten, is mijn totaal verbruik minstens met 53-58% gedaald. Respectievelijk 112W PPT - 104W PTT
  • In feite is het is nog veel meer, omdat hier het rendementsverlies vanwege de vrm's en de PC voeding niet meegerekend zijn. Aan lichtnet zijde ca. 142W (Borderlands 3) en 132W (WoW - Shadowlands).
Voor mij is het hoofdstuk Zen3, hiermee afgesloten :) .
Ik kijk ernaar uit om iets met Zen4 te doen of eventueel een zijstapje naar Raptor Lake.
Het zal erg afhangen van de prijs voor de B650 moederborden en of de CPU+DDR5 prijzen nog flink willen dalen in het voorjaar.

Edit:
Belangrijk pluspunt van de 5800X3D bijgezet. De extra L3 cache kan een hoop voordeel geven bij oude en/of slecht geoptimaliseerde games.

[Voor 8% gewijzigd door CMT op 29-09-2022 13:38]

CMT schreef op woensdag 28 september 2022 @ 05:50:
@Cidious en allemaal.
Hier is het dan, het complete (gaming) onderzoek dat ik gedaan heb voor de 5800X, 5800X3D en 5600G.
Ik kan helaas geen spreadsheet uploaden en één screenshot maken van alles was wat lastig.
Dus is het opgedeeld in een gedeelte cpu vergelijking en een gedeelte cpu+gpu verbruiks onderzoek/tuning.

5800X3D / 5800X / 5600G gaming benchmark overzicht:
[Afbeelding]

5800X3D / 5800X en RX6900XT gaming verbruik onderzoek/tuning overzicht:
[Afbeelding]

Ik heb een hele hoop onderzocht (bij elkaar is dit >50 uur werk geweest, waarschijnlijk veel meer :X ) en de belangrijkste hoofdconclusies die hieruit te trekken zijn:
  • 5600G is een efficiëntiemonster, helaas beperkt door de relatief kleine L3 cache en PCIE3.0 link
  • 5800X3D dankt zijn 'zuinigheid' met name aan de beperkte PPT van 105W en max. klok van 4400MHz.
  • Een 5800X met dezelfde beperkingen als een 5800X3D, verbruikt praktisch evenveel
  • In een RX6900XT GPU bound situatie en een 100Hz FPS cap, verliest de 5800X3D bijna al het voordeel. Met een 5800X klok beperking daarbovenop is er haast geen onderscheid meer te maken.
  • De GPU targetklok begrenzen tot 2000MHz, geeft in mijn situatie maar 2-10% prestatieverlies, terwijl het verbruik met 59-64% daalt (respectievelijk 89-93W PPT besparing).
  • De GPU PPT afstemmen op een vergelijkbaar gemiddeld GPU verbruik, levert hetzelfde op. Globaal is het wel beter om een targetklok begrenzing te gebruiken.
  • Door de CPU en GPU te beperking met een max klok en een kleine UV op de GPU te zetten, is mijn totaal verbruik minstens met 53-58% gedaald. Respectievelijk 112W PPT - 104W PTT
  • In feite is het is nog veel meer, omdat hier het rendementsverlies vanwege de vrm's en de PC voeding niet meegerekend zijn. Aan lichtnet zijde ca. 142W (Borderlands 3) en 132W (WoW - Shadowlands).
Voor mij is het hoofdstuk Zen3, hiermee afgesloten :) .
Ik kijk ernaar uit om iets met Zen4 te doen of eventueel een zijstapje naar Raptor Lake.
Het zal erg afhangen van de prijs voor de B650 moederborden en of de CPU+DDR5 prijzen nog flink willen dalen in het voorjaar.
WEW! Wat een werk man! petje af!

Ja ik blijf lekker genieten van de setup die ik nu heb wachten op vcache. Raptor lake kan nog steeds amper 5800X3D bijbenen en Zen 4 non-vcache heeft hetzelfde probleem.


Intel zijn eigen slide:
"

Raptor Lake lijkt een enorm goed product zeker voor mid-end maar niet iets voor mij als 5800X3D user om te overwegen als stopgap voor Zen 4 Vcache.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Na de Ryzen 7000 release en Raptor Lake aankondiging mag ik me ook hier melden. De 5800X3D zit in mijn systeem. Dure grap, maar het uiteindelijk denk ik wel waard voor specifiek een gaming systeem. :)

Eerste dat me opvalt is dat Windows nog sneller is. De 3700X was nooit traag, maar altijd net iets beter dan de 1700 die ik hiervoor had. Maar er was altijd dat kleine beetje vertraging tussen op iets klikken en het opstarten. Dat lijkt bijna weg te zijn. Dat verwachte ik al, maar het blijft opvallend. Tweede is dat ik flink moet gaan werken aan de afstelling van mijn ventilatoren want dit ding wil best snel warm worden. Ik gebruik trouwens een thermal pad wat niet bepaald de meest efficiënte koeling zal geven. Uiteindelijk maakt het waarschijnlijk weinig uit omdat het probleem tussen de CPU en IHS zit, maar toch. Ik heb die pad drie jaar geleden met mijn 3700X gekocht en het werkt gewoon fijn zonder thermal paste. Dit is meteen ook een mooie test.

Derde is dat uiteindelijk de 5800X3D kocht met voorbereiding op RDNA3 en omdat ik best vaak games speel die gewoon totaal niet geoptimaliseerd zijn aan de CPU kant. Om even te demonstreren wat ik bedoel met ANNO 1800, een waar toonbeeld van Ubisoft hun optimalisatiecapaciteiten. :+

3700X


5800X3D


Ja dat is een verdubbeling in GPU utilisation en dus ook framerate. De magie van meer L3 cache. :P
Moet bij gezegd worden dat als je helemaal uit zoemt het alsnog net iets meer dan 30fps is. Maar het was 20fps met mijn 3700X. Nog steeds is het verschil fors. Dat gebeurd er dus als je met een forse CPU bottleneck zit. Een andere game die die ik ook snel had getest, won ook zo twintig fps en was opeens ook veel soepeler omdat die wel eens gaat haperen.

Eigenlijk zijn er nog wel meer (oudere) games die ik wil gaan testen zoals Empire en Rome II Total War of natuurlijk de ultieme test, Crysis. :Y)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 19:24

OMD

Valar dohaeris

DaniëlWW2 schreef op woensdag 28 september 2022 @ 17:21:
Na de Ryzen 7000 release en Raptor Lake aankondiging mag ik me ook hier melden. De 5800X3D zit in mijn systeem. Dure grap, maar het uiteindelijk denk ik wel waard voor specifiek een gaming systeem. :)

Eerste dat me opvalt is dat Windows nog sneller is. De 3700X was nooit traag, maar altijd net iets beter dan de 1700 die ik hiervoor had. Maar er was altijd dat kleine beetje vertraging tussen op iets klikken en het opstarten. Dat lijkt bijna weg te zijn. Dat verwachte ik al, maar het blijft opvallend. Tweede is dat ik flink moet gaan werken aan de afstelling van mijn ventilatoren want dit ding wil best snel warm worden. Ik gebruik trouwens een thermal pad wat niet bepaald de meest efficiënte koeling zal geven. Uiteindelijk maakt het waarschijnlijk weinig uit omdat het probleem tussen de CPU en IHS zit, maar toch. Ik heb die pad drie jaar geleden met mijn 3700X gekocht en het werkt gewoon fijn zonder thermal paste. Dit is meteen ook een mooie test.

Derde is dat uiteindelijk de 5800X3D kocht met voorbereiding op RDNA3 en omdat ik best vaak games speel die gewoon totaal niet geoptimaliseerd zijn aan de CPU kant. Om even te demonstreren wat ik bedoel met ANNO 1800, een waar toonbeeld van Ubisoft hun optimalisatiecapaciteiten. :+

3700X
[Afbeelding]

5800X3D
[Afbeelding]

Ja dat is een verdubbeling in GPU utilisation en dus ook framerate. De magie van meer L3 cache. :P
Moet bij gezegd worden dat als je helemaal uit zoemt het alsnog net iets meer dan 30fps is. Maar het was 20fps met mijn 3700X. Nog steeds is het verschil fors. Dat gebeurd er dus als je met een forse CPU bottleneck zit. Een andere game die die ik ook snel had getest, won ook zo twintig fps en was opeens ook veel soepeler omdat die wel eens gaat haperen.

Eigenlijk zijn er nog wel meer (oudere) games die ik wil gaan testen zoals Empire en Rome II Total War of natuurlijk de ultieme test, Crysis. :Y)
Welke resolutie speel je?

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 16Gb G.Skill Flare C14 // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
OMD schreef op woensdag 28 september 2022 @ 21:33:
[...]


Welke resolutie speel je?
2560x1440p met een 5700XT.

En het lijkt erop dat een oude bug in ETW ook verholpen is. In die game kon je vaak de muren van een fort niet vernietigen omdat je framerate dan instortte. Daar lijkt de 5800X3D ook geen last van te hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 19:24

OMD

Valar dohaeris

DaniëlWW2 schreef op woensdag 28 september 2022 @ 21:43:
[...]

2560x1440p met een 5700XT.

En het lijkt erop dat een oude bug in ETW ook verholpen is. In die game kon je vaak de muren van een fort niet vernietigen omdat je framerate dan instortte. Daar lijkt de 5800X3D ook geen last van te hebben.
Ik twijfel nog een beetje. Heb een 2080, dus een beetje vergelijkbaar met jou. Speel alleen op een 3440x1440 en weet niet hoeveel ik erop vooruit ga ten opzichte van de 3700x.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 16Gb G.Skill Flare C14 // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Zanac-ex
  • Registratie: Februari 2011
  • Laatst online: 25-03 08:16
DaniëlWW2 schreef op woensdag 28 september 2022 @ 17:21:
Eerste dat me opvalt is dat Windows nog sneller is. De 3700X was nooit traag, maar altijd net iets beter dan de 1700 die ik hiervoor had. Maar er was altijd dat kleine beetje vertraging tussen op iets klikken en het opstarten. Dat lijkt bijna weg te zijn. Dat verwachte ik al, maar het blijft opvallend. Tweede is dat ik flink moet gaan werken aan de afstelling van mijn ventilatoren want dit ding wil best snel warm worden.
Upgrade gedaan van 5800X -> 5800X3D.
RTX2070S.
Windows en applications zijn snappy, responsive.
Gevoelsmatig hele fijne upgrade zeker met een een high refresh monitor.
Oudere spellen zoals S.T.A.L.K.E.R draaien nu zonder stutters.
NDH15S voor de koeling en net zo stil als voorheen.
Bedoeling is dat deze CPU een flinke tijd meegaat maar verwacht niet dat deze het levensduur record van mijn 2600k gaat verbreken.
DaniëlWW2 schreef op woensdag 28 september 2022 @ 17:21:
Na de Ryzen 7000 release en Raptor Lake aankondiging mag ik me ook hier melden. De 5800X3D zit in mijn systeem. Dure grap, maar het uiteindelijk denk ik wel waard voor specifiek een gaming systeem. :)

Eerste dat me opvalt is dat Windows nog sneller is. De 3700X was nooit traag, maar altijd net iets beter dan de 1700 die ik hiervoor had. Maar er was altijd dat kleine beetje vertraging tussen op iets klikken en het opstarten. Dat lijkt bijna weg te zijn. Dat verwachte ik al, maar het blijft opvallend. Tweede is dat ik flink moet gaan werken aan de afstelling van mijn ventilatoren want dit ding wil best snel warm worden. Ik gebruik trouwens een thermal pad wat niet bepaald de meest efficiënte koeling zal geven. Uiteindelijk maakt het waarschijnlijk weinig uit omdat het probleem tussen de CPU en IHS zit, maar toch. Ik heb die pad drie jaar geleden met mijn 3700X gekocht en het werkt gewoon fijn zonder thermal paste. Dit is meteen ook een mooie test.

Derde is dat uiteindelijk de 5800X3D kocht met voorbereiding op RDNA3 en omdat ik best vaak games speel die gewoon totaal niet geoptimaliseerd zijn aan de CPU kant. Om even te demonstreren wat ik bedoel met ANNO 1800, een waar toonbeeld van Ubisoft hun optimalisatiecapaciteiten. :+

3700X
[Afbeelding]

5800X3D
[Afbeelding]

Ja dat is een verdubbeling in GPU utilisation en dus ook framerate. De magie van meer L3 cache. :P
Moet bij gezegd worden dat als je helemaal uit zoemt het alsnog net iets meer dan 30fps is. Maar het was 20fps met mijn 3700X. Nog steeds is het verschil fors. Dat gebeurd er dus als je met een forse CPU bottleneck zit. Een andere game die die ik ook snel had getest, won ook zo twintig fps en was opeens ook veel soepeler omdat die wel eens gaat haperen.

Eigenlijk zijn er nog wel meer (oudere) games die ik wil gaan testen zoals Empire en Rome II Total War of natuurlijk de ultieme test, Crysis. :Y)
Ben enorm blij dat jij dat ook voelt dat windows vlotter is met het openen van apps. Ik kwam van een 5900X af en had dat nooit verwacht. Heb twee keer terug geswapt om het te verifiëren.

Op wat voor moederbord heb je hem geprikt? Met MSI borden en de laatste beta heb je de optie tot curve optimizer via de Kombo Strike bios optie en anders is er een Windows tool. Sinds jij can ZEN 2 komt zal je er misschien niet direct bekend mee zijn maar curve optimizer is de beste manier van undervolting door de voltage / frequentie curve te verschuiven per core.

Mijn 5800X3D doet -30 op alle cores en dat brengt de 5800X3D gelijk aan de reguliere 5800X in multi threading en heel dichtbij met single core workloads. Bij lagere power draw.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • CMT
  • Registratie: Januari 2003
  • Nu online
Ik vraag mij af dat niet komt omdat jullie van een dual CCD naar een single CCD zijn overgestapt en daarbij dus niet meer last hebben van de hoge inter-CCD latencies.
De stap van een 3800X naar de 5800X was ook duidelijk te merken voor mij.

Tussen de 5600G, 5800X en 5800X3D kon ik verder met het openen van programma's, gevoelsmatig geen verschil merken. Het voelde bij allen vlot en direct aan (ik heb ook ervoor gezorgd dat de IMC echt stabiel was).

@Cidious
Doet de 5800X3D echt -30 allcore stabiel? Het exemplaar dat ik had, was volgens het Hydra testprogramma van 1usmus een 'bronze sample' en kon de CO op bepaalde cores maar met een paar stappen verlagen. Ik las wel ergens dat de CO optimizer mogelijk niet goed werkt en dat een allcore offset wel stabiel bleek te zijn.
Een groot gemis vind ik ook wel de toegang ontzegging tot de PBO limieten :-(
Ik snap dat de chip een voltage beperking heeft, maar geef ze dan wel de optie om de PPT, EDC, TDC, Fmax en Tmax in te stellen imho.

[Voor 11% gewijzigd door CMT op 29-09-2022 06:26]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Cidious schreef op donderdag 29 september 2022 @ 04:55:
[...]


Ben enorm blij dat jij dat ook voelt dat windows vlotter is met het openen van apps. Ik kwam van een 5900X af en had dat nooit verwacht. Heb twee keer terug geswapt om het te verifiëren.

Op wat voor moederbord heb je hem geprikt? Met MSI borden en de laatste beta heb je de optie tot curve optimizer via de Kombo Strike bios optie en anders is er een Windows tool. Sinds jij can ZEN 2 komt zal je er misschien niet direct bekend mee zijn maar curve optimizer is de beste manier van undervolting door de voltage / frequentie curve te verschuiven per core.

Mijn 5800X3D doet -30 op alle cores en dat brengt de 5800X3D gelijk aan de reguliere 5800X in multi threading en heel dichtbij met single core workloads. Bij lagere power draw.
C6H. :P
Maar ik moet nog kijken of ik echt ga spelen met instellingen. Ik had ook ooit mijn RAM strak gezet en toen won ik er ook zo 5fps mee in ANNO1800, maar ik betwijfel of de winst nu weer zo groot is. :)
OMD schreef op woensdag 28 september 2022 @ 21:52:
[...]


Ik twijfel nog een beetje. Heb een 2080, dus een beetje vergelijkbaar met jou. Speel alleen op een 3440x1440 en weet niet hoeveel ik erop vooruit ga ten opzichte van de 3700x.
Tja ga je een nieuwe videokaart kopen en wat speel je? Als je net zoals ik Paradox titels en ANNO 1800 speelt, dan ga je het merken. Speel je goed geoptimaliseerde games dan denk ik niet, totdat er bijvoorbeeld een flinke RDNA3 GPU bij komt. De vraag is uiteindelijk ook of de 5700X afdoende is. Het prijsverschil is immers fors. 3700X is wel een dual CCD CPU en er zijn games die hier gewoon niet mee om kunnen gaan. Met name oudere games.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 19:24

OMD

Valar dohaeris

DaniëlWW2 schreef op donderdag 29 september 2022 @ 06:22:
[...]


C6H. :P
Maar ik moet nog kijken of ik echt ga spelen met instellingen. Ik had ook ooit mijn RAM strak gezet en toen won ik er ook zo 5fps mee in ANNO1800, maar ik betwijfel of de winst nu weer zo groot is. :)


[...]

Tja ga je een nieuwe videokaart kopen en wat speel je? Als je net zoals ik Paradox titels en ANNO 1800 speelt, dan ga je het merken. Speel je goed geoptimaliseerde games dan denk ik niet, totdat er bijvoorbeeld een flinke RDNA3 GPU bij komt. De vraag is uiteindelijk ook of de 5700X afdoende is. Het prijsverschil is immers fors. 3700X is wel een dual CCD CPU en er zijn games die hier gewoon niet mee om kunnen gaan. Met name oudere games.
Ik speel games waarbij ik weet dat het verschil gigantisch is (simracing) maar ook veel rts games en fps. Nieuwe gpu wil ik wellicht ook, ik wacht even tot amd zijn line up bekend heeft gemaakt.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 16Gb G.Skill Flare C14 // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X

CMT schreef op donderdag 29 september 2022 @ 06:17:
Ik vraag mij af dat niet komt omdat jullie van een dual CCD naar een single CCD zijn overgestapt en daarbij dus niet meer last hebben van de hoge inter-CCD latencies.
De stap van een 3800X naar de 5800X was ook duidelijk te merken voor mij.

Tussen de 5600G, 5800X en 5800X3D kon ik verder met het openen van programma's, gevoelsmatig geen verschil merken. Het voelde bij allen vlot en direct aan (ik heb ook ervoor gezorgd dat de IMC echt stabiel was).

@Cidious
Doet de 5800X3D echt -30 allcore stabiel? Het exemplaar dat ik had, was volgens het Hydra testprogramma van 1usmus een 'bronze sample' en kon de CO op bepaalde cores maar met een paar stappen verlagen. Ik las wel ergens dat de CO optimizer mogelijk niet goed werkt en dat een allcore offset wel stabiel bleek te zijn.
Een groot gemis vind ik ook wel de toegang ontzegging tot de PBO limieten :-(
Ik snap dat de chip een voltage beperking heeft, maar geef ze dan wel de optie om de PPT, EDC, TDC, Fmax en Tmax in te stellen imho.
Absoluut 100% stabiel. Hitte speelt een grote rol daarin ook. Een koele chip heeft minder frequentie nodig bij dezelfde frequentie als een hete chip. Mijn vriend heeft er ook 1 en doet ook -30 all core. gamers Nexus heeft er 1 die ook gewoon -30 doet. Lijkt vrij normaal. Overclock.net kan ook bijna iedereen het doen. Ik denk dat jouw sample erg terug gehouden werd door hogere temperaturen door slechte IHS.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Altijd, echt altijd als ik iets van AMD koop, gebeurd dit. :(
Opeens is die nog maar €440.
uitvoering: AMD Ryzen 7 5800X3D Boxed

Ik hou er ook niet van om maar terug te sturen puur omdat elders de prijs omlaag is gegaan. En het gebeurd me werkelijk alleen maar met AMD spul. Het gebeurde met mijn HD5850, HD7950, 1700, RX5700XT en nu de 5800X3D. :-(

[Voor 34% gewijzigd door DaniëlWW2 op 29-09-2022 11:28]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

DaniëlWW2 schreef op donderdag 29 september 2022 @ 11:25:
Altijd, echt altijd als ik iets van AMD koop, gebeurd dit. :(
Opeens is die nog maar €440.
uitvoering: AMD Ryzen 7 5800X3D Boxed
Ja dat is een beetje zuur. Ik heb de mijne voor omgerekend €425 en een week later ging hij in de verkoop hier voor €380. Inmiddels hangt hij op €360 hier in China.

Zo gaan die dingen... Helaas 8)7

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 24-03 08:38
DaniëlWW2 schreef op donderdag 29 september 2022 @ 11:25:
Altijd, echt altijd als ik iets van AMD koop, gebeurd dit. :(
Opeens is die nog maar €440.
uitvoering: AMD Ryzen 7 5800X3D Boxed

Ik hou er ook niet van om maar terug te sturen puur omdat elders de prijs omlaag is gegaan. En het gebeurd me werkelijk alleen maar met AMD spul. Het gebeurde met mijn HD5850, HD7950, 1700, RX5700XT en nu de 5800X3D. :-(
Kan je binnenkort nog even een videokaart aanschaffen anders?

Mechwarrior Online: Flapdrol


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
haarbal schreef op donderdag 29 september 2022 @ 11:31:
[...]

Kan je binnenkort nog even een videokaart aanschaffen anders?
Ik plan een N32. Ik laat het wel weten. :+ :')

edit: @OMD dit maakt het wel wat makkelijker voor je. Ik zou bijna voorstellen dat dit je moment is, ware het niet dat als ik dat voorstel, de prijs waarschijnlijk nog verder zal zakken. Maar als ik het niet voorstel, dan zakt die prijs waarschijnlijk niet meer. :P

[Voor 36% gewijzigd door DaniëlWW2 op 29-09-2022 12:14]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 19:24

OMD

Valar dohaeris

DaniëlWW2 schreef op donderdag 29 september 2022 @ 11:32:
[...]


Ik plan een N32. Ik laat het wel weten. :+ :')

edit: @OMD dit maakt het wel wat makkelijker voor je. Ik zou bijna voorstellen dat dit je moment is, ware het niet dat als ik dat voorstel, de prijs waarschijnlijk nog verder zak zakken. Maar als ik het niet voorstel, dan zakt die prijs waarschijnlijk niet meer. :P
Prijs is juist gestegen afgelopen dagen. Zat te twijfelen over de tray versie van 455 euro. te lang getwijfeld en is nu alleen boxed te koop voor 499. Meh :/

Edit:
Oh wacht, zie nu pas de daling. Bestellen dan maar :+

Edit 2:
Besteld :+

[Voor 6% gewijzigd door OMD op 29-09-2022 12:13]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 16Gb G.Skill Flare C14 // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X

DaniëlWW2 schreef op donderdag 29 september 2022 @ 11:25:
Altijd, echt altijd als ik iets van AMD koop, gebeurd dit. :(
Opeens is die nog maar €440.
uitvoering: AMD Ryzen 7 5800X3D Boxed

Ik hou er ook niet van om maar terug te sturen puur omdat elders de prijs omlaag is gegaan. En het gebeurd me werkelijk alleen maar met AMD spul. Het gebeurde met mijn HD5850, HD7950, 1700, RX5700XT en nu de 5800X3D. :-(
Dus je gaat nu Intel kopen? :o :P

Wel frustrerend. Balen.

En wat haarbal zegt: geef ons ajb wel even een seintje bij RDNA3 8) :>

[Voor 5% gewijzigd door Help!!!! op 29-09-2022 12:04]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 09:46
DaniëlWW2 schreef op donderdag 29 september 2022 @ 11:25:
Altijd, echt altijd als ik iets van AMD koop, gebeurd dit. :(
Opeens is die nog maar €440.
uitvoering: AMD Ryzen 7 5800X3D Boxed

Ik hou er ook niet van om maar terug te sturen puur omdat elders de prijs omlaag is gegaan. En het gebeurd me werkelijk alleen maar met AMD spul. Het gebeurde met mijn HD5850, HD7950, 1700, RX5700XT en nu de 5800X3D. :-(
Kun je ook nog even een 3080 12GB, 6800 XT of 6900 XT kopen? Scheelt de rest allemaal een hele hoop geld :D

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Robkazoe schreef op donderdag 29 september 2022 @ 12:18:
[...]

Kun je ook nog even een 3080 12GB, 6800 XT of 6900 XT kopen? Scheelt de rest allemaal een hele hoop geld :D
offtopic:
Nee want ik wacht op RDNA3. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 09:46
Ook prima, kunnen we meteen met 10% korting een AMD 7000 kaart kopen. Kan ik ook mee leven ;)
Maar even alle gekheid op een stokje, als je bij Megekko of Alternate de CPU hebt gekocht, bel/mail even. Vaak zijn bedrijven wel coulant hiermee omdat zij ook niet zitten te wachten op een retour + nieuwe aankoop want dat kost hun ook gewoon geld.

  • D4NG3R
  • Registratie: Juli 2009
  • Laatst online: 17:20
DaniëlWW2 schreef op donderdag 29 september 2022 @ 11:25:
Altijd, echt altijd als ik iets van AMD koop, gebeurd dit. :(
Opeens is die nog maar €440.
uitvoering: AMD Ryzen 7 5800X3D Boxed

Ik hou er ook niet van om maar terug te sturen puur omdat elders de prijs omlaag is gegaan. En het gebeurd me werkelijk alleen maar met AMD spul. Het gebeurde met mijn HD5850, HD7950, 1700, RX5700XT en nu de 5800X3D. :-(
Bwhahahaha dat is wel stom ongeluk ja.

Mijn ervaring bij AMD is juist het tegenovergestelde, HD5770, HD7770, RX470 en recent R5 5600 telkens ongepland kunnen krijgen net na een prijsverlaging. :D

En bij het groene kamp ontzettend veel geluk gehad met m'n timing om een 3060 Ti te kopen. :+

Komt d'r in, dan kö-j d’r oet kieken


  • Novacore
  • Registratie: November 2021
  • Niet online
De prijsverlaging van de 5800x3D is tempting, maar ik heb een 3700x en game op een 3440x1440 monitor. Is de consensus nog steeds dat een upgrade niet echt veel zin heeft in dit scenario? Voor context speel ik ook nog "oude" games als Diablo 3 en WoW die volgens mij wel baat hebben bij snellere single-core performance. Ik heb ook vernomen dat ray tracing nogal CPU-intensief is, dus dat het wel degelijk ook performance kan verbeteren in zwaardere RT-titels, die ik ook wel speel. Heeft iemand hier relevante ervaringen mee?

eerste post btw hoi

  • OMD
  • Registratie: September 2003
  • Laatst online: 19:24

OMD

Valar dohaeris

Novacore schreef op donderdag 29 september 2022 @ 14:18:
De prijsverlaging van de 5800x3D is tempting, maar ik heb een 3700x en game op een 3440x1440 monitor. Is de consensus nog steeds dat een upgrade niet echt veel zin heeft in dit scenario? Voor context speel ik ook nog "oude" games als Diablo 3 en WoW die volgens mij wel baat hebben bij snellere single-core performance. Ik heb ook vernomen dat ray tracing nogal CPU-intensief is, dus dat het wel degelijk ook performance kan verbeteren in zwaardere RT-titels, die ik ook wel speel. Heeft iemand hier relevante ervaringen mee?

eerste post btw hoi
Ik heb hem net besteld, kom ook van een 3700x. WoW is volgens mij echt een prime example waarbij deze cpu dus echt veel zin heeft. Oude engines draaien mega snel op de 5800x3d. Zo ook simracing games wat ik speel.

Voor Diablo 3 zal het geen hol uitmaken. Kopen dat ding :+

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 16Gb G.Skill Flare C14 // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Novacore schreef op donderdag 29 september 2022 @ 14:18:
De prijsverlaging van de 5800x3D is tempting, maar ik heb een 3700x en game op een 3440x1440 monitor. Is de consensus nog steeds dat een upgrade niet echt veel zin heeft in dit scenario? Voor context speel ik ook nog "oude" games als Diablo 3 en WoW die volgens mij wel baat hebben bij snellere single-core performance. Ik heb ook vernomen dat ray tracing nogal CPU-intensief is, dus dat het wel degelijk ook performance kan verbeteren in zwaardere RT-titels, die ik ook wel speel. Heeft iemand hier relevante ervaringen mee?

eerste post btw hoi
RT doet niks met CPU's. Dat is helemaal op je GPU die het eigenlijk ook niet echt trekt. :P
Verder is de 5800X3D juist een monster in oudere games die nog te veel op een core hangen. Normale uplift in games is iets van 20% van een 3700X naar de 5800X (alleen als je GPU bound bent) en de 5800X3D zou er nog eens iets van 15% bij moeten doen met forse uitschieters naar boven. Je kan ook altijd nog wat benchmarks opzoeken. :)

[Voor 11% gewijzigd door DaniëlWW2 op 29-09-2022 15:07]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op donderdag 29 september 2022 @ 15:02:
[...]


RT doet niks met CPU's. Dat is helemaal op je GPU die het eigenlijk ook niet echt trekt. :P
Verder is de 5800X3D juist een monster in oudere games die nog te veel op een core hangen. Normale uplift in games is iets van 20% van een 3700X naar de 5800X (alleen als je GPU bound bent) en de 5800X3D zou er nog eens iets van 15% bij moeten doen met forse uitschieters naar boven. Je kan ook altijd nog wat benchmarks opzoeken. :)
Dat ben ik niet helemaal met je eens. RT maakt een game wel meer CPU-cache afhankelijk. Zie maar eens de voorsprong die een 5800X3D heeft wat betreft IPC, specifiek met RT games in bijvoorbeeld de 7000 review op Computerbase.

Dat gezegd hebbende, ik twijfel ook of het zinvol is om de upgrade te maken ivm hoge resolutie. Mijn oudere 3950X is vanaf 3440x1440 Ultra settings eigenlijk al geen bottleneck met een 3090 en verlies ik weer op MT taken. Dan zal het alleen zijn om de minimum frames wat op te krikken met RT. Maar ik was het wellis/nietes spelletje van AMD met Zen3 op X370 eigenlijk al zat. ;) Dat is voor mij ook een reden om even mooi af te wachten. Wellicht verandert de zaak volledig met de aankomende generatie videokaarten maar die sla ik sowieso over.

R9 3950X | RTX 3090 | C6H X370 | 32GB FlareX | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
M-spec schreef op donderdag 29 september 2022 @ 16:22:
[...]


Dat ben ik niet helemaal met je eens. RT maakt een game wel meer CPU-cache afhankelijk. Zie maar eens de voorsprong die een 5800X3D heeft wat betreft IPC, specifiek met RT games in bijvoorbeeld de 7000 review op Computerbase.
Met een 720P test waar de 5800X3D het toch al goed doet.
Dat heeft niks met RT te maken omdat RT helemaal geen gebruik maakt van de CPU. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

DaniëlWW2 schreef op donderdag 29 september 2022 @ 16:57:
[...]

Met een 720P test waar de 5800X3D het toch al goed doet.
Dat heeft niks met RT te maken omdat RT helemaal geen gebruik maakt van de CPU. ;)
Niet helemaal waar. Het blijkt dat met zwaardere RT effecten er meer data aangeleverd moet worden aan de GPU. En dit is uiteraard de taak van de CPU en het geheugen/cache etc. Het hangt uiteraard af van wat voor effecten en hoeveel data en het zal dus per game verschillen maar RT is wel degelijk meer load op de CPU in veel games.

Mocht je nou overstappen op een GPU die iets beter RT kan weergeven dan een 5700XT dan zou je dit zelf ook kunnen testen. Mocht ik wat tijd hebben dan zal ik het je laten zien op de 5800X3D en 6900XT wat CPU load doet met en zonder RT in sommige games. Ben momenteel een beetje druk.

Jouw conclusie dat RT geen invloed heeft op de CPU is niet correct. In hoeverre het uitmaakt per game/setup situatie is uiteraard variabel zoals met veel dingen.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Cidious schreef op donderdag 29 september 2022 @ 17:58:
[...]


Niet helemaal waar. Het blijkt dat met zwaardere RT effecten er meer data aangeleverd moet worden aan de GPU. En dit is uiteraard de taak van de CPU en het geheugen/cache etc. Het hangt uiteraard af van wat voor effecten en hoeveel data en het zal dus per game verschillen maar RT is wel degelijk meer load op de CPU in veel games.

Mocht je nou overstappen op een GPU die iets beter RT kan weergeven dan een 5700XT dan zou je dit zelf ook kunnen testen. Mocht ik wat tijd hebben dan zal ik het je laten zien op de 5800X3D en 6900XT wat CPU load doet met en zonder RT in sommige games. Ben momenteel een beetje druk.

Jouw conclusie dat RT geen invloed heeft op de CPU is niet correct. In hoeverre het uitmaakt per game/setup situatie is uiteraard variabel zoals met veel dingen.
Dus RT maakt geen gebruik van de CPU. Draw calls zijn iets anders. :)
Verder negeer je dat RT programma's ook baked light effects vervangen. En het gaat om drie games. In Far Cry 6 doen AMD processoren het toch al beter dan Intel en doet de 5800X3D het nog iets beter. In Cyberpunk doet de 5800X3D het beter dan de 7700X die het net zoals elke AMD processor vooral slecht doet. En in Spiderman is de 7700X beter. Daarop kan je niet baseren dat er een voordeel met RT is, nog baseren dat de CPU belangrijk is voor RT.
https://www.computerbase....hmarks_in_spielen_in_720p

Sterker nog, met hoe hard framerates instorten zodra je RT aanzet, kan je eerder stellen dat de CPU juist minder belast is en een kleinere factor is bij RT dan niet RT. Immers veel minder draw calls. ;)

[Voor 3% gewijzigd door DaniëlWW2 op 29-09-2022 18:55]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op donderdag 29 september 2022 @ 16:57:
[...]

Met een 720P test waar de 5800X3D het toch al goed doet.
Dat heeft niks met RT te maken omdat RT helemaal geen gebruik maakt van de CPU. ;)
Ik heb het zelf ondervonden maar je mag er anders van vinden. Ik zag het onder andere met custom Cyberpunk benchmarks icm de 3090 toen het spul allemaal nog nieuw was. Destijds nog met een 3800X waar ik met RT het CPU gebruik zag stijgen tot soms 90% op alle 16 threads. CPU gebruik nam behoorlijk toe ongeacht de resoluties. Zonder RT ging je richting 100FPS op de max van de CPU met een keer 50-60% thread gebruik. En wanneer games zoals deze al baat hebben bij snel werkgeheugen en bandbreedte, dan is extra V-cache perfect als buffer. Immers een factor zoveel sneller dan elk werkgeheugen.

R9 3950X | RTX 3090 | C6H X370 | 32GB FlareX | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid


  • Novacore
  • Registratie: November 2021
  • Niet online
Je kan in deze video (timestamped) zien dat RT idd zwaarder aan de CPU trekt YouTube: CPU reviews can be misleading...watch this before you buy!

  • dutchnltweaker
  • Registratie: December 2013
  • Laatst online: 16:34
Vraagje, heb nu een AM4 platform bijna 3 jaar geleden gekocht en zie het niet zitten aankomende jaren te investeren in een AM5 platform.
Heb nu een 3600 zen 2 processor, maar zit erg te twijfelen nu de 5800x3d processor. Is toch een hele stap vooruit en eigenlijk de beste cpu voor de am4 platform als ik dat zo lees? en als ik straks een nieuwe GPU heb wel weer jaren vooruit (is mijn laatste build voor nu). 440 euro kost die nu om aan te schaffen. Gaan de prijzen nog dalen of is dit het een beetje?

Of toch beter wachten?

  • Novacore
  • Registratie: November 2021
  • Niet online
dutchnltweaker schreef op vrijdag 30 september 2022 @ 12:38:
Vraagje, heb nu een AM4 platform bijna 3 jaar geleden gekocht en zie het niet zitten aankomende jaren te investeren in een AM5 platform.
Heb nu een 3600 zen 2 processor, maar zit erg te twijfelen nu de 5800x3d processor. Is toch een hele stap vooruit en eigenlijk de beste cpu voor de am4 platform als ik dat zo lees? en als ik straks een nieuwe GPU heb wel weer jaren vooruit (is mijn laatste build voor nu). 440 euro kost die nu om aan te schaffen. Gaan de prijzen nog dalen of is dit het een beetje?

Of toch beter wachten?
Het is de beste AM4-CPU voor gaming in het specifiek, maar zeker niet de beste allrounder of voor productivity workloads, dus dat ligt er een beetje aan waar je 'm voor wilt gebruiken.

Wat prijsdalingen betreft, er is nu een nieuwe lijn processors met de AM5, dus een prijsdaling van de hoge adviesprijs van bijna 500 euro was te verwachten. Wat de prijs verder gaat doen weet niemand zeker, maar volgens mij zien processors in het algemeen niet geweldige dalingen als ze nog goed meedraaien, wat de 3D zeker doet. Dus als je in de markt bent heeft meer wachten denk ik niet heel veel zin, tenzij je echt maanden kunt wachten. Eventueel zou je tot eind november (black friday) kunnen wachten om te kijken of er nog goede deals komen, maar anders lijkt nu me juist een goed moment als je toch niet wilt overstappen op AM5.
DaniëlWW2 schreef op donderdag 29 september 2022 @ 18:26:
[...]


Dus RT maakt geen gebruik van de CPU. Draw calls zijn iets anders. :)
Verder negeer je dat RT programma's ook baked light effects vervangen. En het gaat om drie games. In Far Cry 6 doen AMD processoren het toch al beter dan Intel en doet de 5800X3D het nog iets beter. In Cyberpunk doet de 5800X3D het beter dan de 7700X die het net zoals elke AMD processor vooral slecht doet. En in Spiderman is de 7700X beter. Daarop kan je niet baseren dat er een voordeel met RT is, nog baseren dat de CPU belangrijk is voor RT.
https://www.computerbase....hmarks_in_spielen_in_720p

Sterker nog, met hoe hard framerates instorten zodra je RT aanzet, kan je eerder stellen dat de CPU juist minder belast is en een kleinere factor is bij RT dan niet RT. Immers veel minder draw calls. ;)
DaniëlWW2 schreef op donderdag 29 september 2022 @ 18:26:
[...]


Dus RT maakt geen gebruik van de CPU. Draw calls zijn iets anders. :)
Verder negeer je dat RT programma's ook baked light effects vervangen. En het gaat om drie games. In Far Cry 6 doen AMD processoren het toch al beter dan Intel en doet de 5800X3D het nog iets beter. In Cyberpunk doet de 5800X3D het beter dan de 7700X die het net zoals elke AMD processor vooral slecht doet. En in Spiderman is de 7700X beter. Daarop kan je niet baseren dat er een voordeel met RT is, nog baseren dat de CPU belangrijk is voor RT.
https://www.computerbase....hmarks_in_spielen_in_720p

Sterker nog, met hoe hard framerates instorten zodra je RT aanzet, kan je eerder stellen dat de CPU juist minder belast is en een kleinere factor is bij RT dan niet RT. Immers veel minder draw calls. ;)
Draw Calls = CPU dus wel relevant. Vreemd dat je die niet mee wil nemen in de beredenering.

Om even jouw eigen link te gebruiken bij gebrek aan eigen hapklare resultaten heb ik even Spider-Man met en zonder RT gepakt.





Normaal negeer ik 720p benchmarks omdat deze gewoon nonsens zijn voor dagelijks gebruik evenals de meeste 1080p benchmarks maar puur voor het argument dat RT WEL CPU afhankelijk is bekijk alsjeblieft bovenstaande twee bar grafieken en leg ons uit waarom als RT niet CPU afhankelijk is dat bij RT aan en uit met dezelfde GPU, er een onderling verschil is tussen CPUs.

Als RT niet CPU afhankelijk was geweest dan waren de resultaten zo goed als gelijk aan elkaar tussen de CPUs maar puur en alleen een verschil tussen RT aan en uit. Deze grafieken laten wel degelijk een CPU bottleneck zien. Ik vind het vreemd dat je dit niet op hebt gepikt en wel de link post.

Mijn concrete vraag is: Waarom is de 5800X3D niet gelijk aan de 12900K met RT aan zoals deze dat is zonder RT. Hoe kan het dat volgens jou de CPU niet verantwoordelijk is voor RT als dit de enige verschillen zijn.

Mocht ik iets cruciaals gemist hebben, dan hoor ik dat graag. Dit is puur een discussie, niet een aanval ;)

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
@Cidious Ik zeg dat omdat draw calls uiteindelijk maar een deel van de puzzel zijn. Een zeer belangrijk deel van de puzzel, maar zeker niet alles voor gaming. Anders zaten we nog steeds op een CPU core. :P

Ik zie namelijk met RT de 5800X3D juist minder presteren dan de 7700X in die game en dat staat precies tegenover het idee dat de 5800X3D beter zou zijn met RT. Dat verschil per game gewoon.

Ik weet niet wat precies de reden is waarom de ene game iets doet en de andere game iets anders. Als ik nu zou moeten gokken dan denk ik dat in Spiderman de 7700X cache starved lijkt te worden omdat het maar een CCD is. De 7950X heeft twee CCD's en omdat de game enige thread awareness lijkt, gaat die net iets beter. Zodra je alleen RT aanzet verlies je heel wat frames en valt de beperking van de 7700X weg. En dan zie je opeens dat waarschijnlijk de hogere clock speeds alsmede juist een CCD hebben, het verschil lijkt te maken. Want nu lijkt de 7700X het voordeel te hebben dat er geen data tussen twee chiplets gaat. :)

Maar dit is geen bewijs dat een bepaalde processor beter is met RT aan dan een ander. En dit is ook nog eens 720P. Ik verwacht eigenlijk dat met hogere resoluties, het verschil nog veel kleiner zal worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

DaniëlWW2 schreef op vrijdag 30 september 2022 @ 14:17:
@Cidious Ik zeg dat omdat draw calls uiteindelijk maar een deel van de puzzel zijn. Een zeer belangrijk deel van de puzzel, maar zeker niet alles voor gaming. Anders zaten we nog steeds op een CPU core. :P

Ik zie namelijk met RT de 5800X3D juist minder presteren dan de 7700X in die game en dat staat precies tegenover het idee dat de 5800X3D beter zou zijn met RT. Dat verschil per game gewoon.

Ik weet niet wat precies de reden is waarom de ene game iets doet en de andere game iets anders. Als ik nu zou moeten gokken dan denk ik dat in Spiderman de 7700X cache starved lijkt te worden omdat het maar een CCD is. De 7950X heeft twee CCD's en omdat de game enige thread awareness lijkt, gaat die net iets beter. Zodra je alleen RT aanzet verlies je heel wat frames en valt de beperking van de 7700X weg. En dan zie je opeens dat waarschijnlijk de hogere clock speeds alsmede juist een CCD hebben, het verschil lijkt te maken. Want nu lijkt de 7700X het voordeel te hebben dat er geen data tussen twee chiplets gaat. :)

Maar dit is geen bewijs dat een bepaalde processor beter is met RT aan dan een ander. En dit is ook nog eens 720P. Ik verwacht eigenlijk dat met hogere resoluties, het verschil nog veel kleiner zal worden.
Dank voor je response.

Sorry maar dit is wel bewijs dat sommige games met RT verschillend draaien op verschillende processoren. Als je mijn vorige bericht leest zeg ik ook duidelijk dat het per game verschillend is. Maar mijn statement was dat jouw conclusie niet correct was. Jij geeft aan dat RT niet processor afhankelijk is en dat is het absoluut wel zoals bovenstaande grafieken laten zien.

Betreft 720p geef ik ook al aan dat het absoluut een nonsense resolutie is maar voor mijn argument waar ik jouw conclusie in twijfel trek is het prima functioneel. Mijn punt is nog steeds dat jouw conclusie niet correct is. Je zegt meermaals dat RT geen CPU gebruikt en de data zegt gewoon dat je geen gelijk hebt.

Betreft draw calls een klein onderdeel van de puzzel, dit kan correct zijn voor sommige games maar het feit blijft dat het CPU werk is en dus WEL CPU gebruikt.

Ik heb erg het gevoel dat je de feiten een beetje aan het draaien bent om jouw statement te laten passen nu en dit lijkt niet correct afgaande op de beschikbare data en het analyseren en relativeren van de data.


Dat allemaal gezegd te hebben. Ik denk dat je een beetje zoek geraakt bent in het feit dat de GPU absoluut belangrijker is voor RT dan de CPU, maar om de CPU helemaal uit te sluiten is niet correct. De data hierboven laat dit zien. Ik heb jouw beredenering allemaal zorgvuldig gelezen en je bent absoluut niet onredelijk en wel praktisch relativerend maar feitelijk is jouw conclusie niet correct.

Ik ben het verder echt wel met je eens dat je beter op een beter GPU kan focussen voor RT.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Topicstarter
Ik zeg dit omdat de conclusies niet ondersteund word door het bewijs. :)
ik heb ook vernomen dat ray tracing nogal CPU-intensief is, dus dat het wel degelijk ook performance kan verbeteren in zwaardere RT-titels
Dat ben ik niet helemaal met je eens. RT maakt een game wel meer CPU-cache afhankelijk. Zie maar eens de voorsprong die een 5800X3D heeft wat betreft IPC, specifiek met RT games in bijvoorbeeld de 7000 review op Computerbase.
Zodra je RT aanzet verschuiven workloads meteen. Je framerate halveert bijna en je ziet een paar processoren wat verschuiven. Maar als je naar de ruwe verhoudingen kijkt, dan veranderd er weinig. De Zen 3 processoren blijven rond de 75-78% van de 5800X3D of 7700X zitten. Het verschil wordt net iets kleiner omdat je framerate immers bijna halveert. Bij Alder Lake zie je wel kleine verschuivingen van een paar procent dichter naar de 12900KS zodra je RT aanzet. Dat is alleen geen bewijs van voordeel of nadeel van een bepaald type CPU. Dat is het gebruikelijke geschuif wat constant gebeurd bij games met verschillende resoluties en framerates. De 5800X3D is dan ook nog eens behoorlijk apart en niet te vergelijken.

Daar is Igorslab review van de 5800X3D perfect voor. Zowel de RTX3090Ti als RX6900XT en twee resoluties. En het gaat constant door elkaar heen.
https://www.igorslab.de/e...-all-efficient-upgrade/2/

Ik ageerde namelijk tegen de helaas breed gedragen mythe dat RT berekening zelf ook maar iets te maken heeft met de CPU. Verder durf ik niks te zeggen over hoeveelheid draw calls die veranderen tussen wel of geen RT of het precies veranderen van workloads op de CPU omdat ik simpelweg geen idee heb hoe groot het verschil is.

Als ik de indruk wekte dat RT niet meer draw calls kan opleveren, mijn excuses. Het punt is dat ik het gewoon niet weet, mede omdat het ook per game zal verschillen. Mijn argument is dat zodra je RT aanzet, er zoveel workloads veranderen omdat de uiteindelijke framerate zo veranderd, dat je niet kan spreken van een voorkeur of noodzaak van een bepaald type CPU zoals dus meer cache. Cache is uiteindelijk behulpzaam bij prestaties, zie al helemaal de 5800X3D, maar ook niet doorslaggevend zoals we juist bij de 7700X en 5800X3D zien. En dit blijft 720P waar elk verschil van de CPU, onnodig uitvergroot zal worden. Ga je naar zelfs 1080p, dan is het waarschijnlijk al minder. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

DaniëlWW2 schreef op vrijdag 30 september 2022 @ 15:04:
Ik zeg dit omdat de conclusies niet ondersteund word door het bewijs. :)


[...]


[...]


Zodra je RT aanzet verschuiven workloads meteen. Je framerate halveert bijna en je ziet een paar processoren wat verschuiven. Maar als je naar de ruwe verhoudingen kijkt, dan veranderd er weinig. De Zen 3 processoren blijven rond de 75-78% van de 5800X3D of 7700X zitten. Het verschil wordt net iets kleiner omdat je framerate immers bijna halveert. Bij Alder Lake zie je wel kleine verschuivingen van een paar procent dichter naar de 12900KS zodra je RT aanzet. Dat is alleen geen bewijs van voordeel of nadeel van een bepaald type CPU. Dat is het gebruikelijke geschuif wat constant gebeurd bij games met verschillende resoluties en framerates. De 5800X3D is dan ook nog eens behoorlijk apart en niet te vergelijken.

Daar is Igorslab review van de 5800X3D perfect voor. Zowel de RTX3090Ti als RX6900XT en twee resoluties. En het gaat constant door elkaar heen.
https://www.igorslab.de/e...-all-efficient-upgrade/2/

Ik ageerde namelijk tegen de helaas breed gedragen mythe dat RT berekening zelf ook maar iets te maken heeft met de CPU. Verder durf ik niks te zeggen over hoeveelheid draw calls die veranderen tussen wel of geen RT of het precies veranderen van workloads op de CPU omdat ik simpelweg geen idee heb hoe groot het verschil is.

Als ik de indruk wekte dat RT niet meer draw calls kan opleveren, mijn excuses. Het punt is dat ik het gewoon niet weet, mede omdat het ook per game zal verschillen. Mijn argument is dat zodra je RT aanzet, er zoveel workloads veranderen omdat de uiteindelijke framerate zo veranderd, dat je niet kan spreken van een voorkeur of noodzaak van een bepaald type CPU zoals dus meer cache. Cache is uiteindelijk behulpzaam bij prestaties, zie al helemaal de 5800X3D, maar ook niet doorslaggevend zoals we juist bij de 7700X en 5800X3D zien. En dit blijft 720P waar elk verschil van de CPU, onnodig uitvergroot zal worden. Ga je naar zelfs 1080p, dan is het waarschijnlijk al minder. :)
Mooie uitleg van je argumenten en op deze manier klopt het dan ook meer met de data. Ik ben geen expert in de onderliggende techniek ook omdat dit allemaal nog heel jonge tech is die constant doorontwikkeld wordt en verschillende games RT heel anders implementeren.

Mijn punt was voornamelijk dat jouw conclusie te algemeen en resoluut was betreft iets dat makkelijk aan te tonen is dat er wel een verhouding is tussen RT en CPU op een manier waar jij en ik misschien geen volledig inzicht in hebben.

Het zou heel goed mogelijk kunnen zijn dat sommige games RT deels software matig implementeren zoals dat eerder ook het geval was, waarbij de CPU dan absoluut wel een grotere rol zal spelen dan bij puur en alleen hardware matige implementatie over de GPU. Welke games het hoe doen ben ik momenteel niet volledig van op de hoogte omdat ik RT nog te weinig aandacht heb gegeven (because 6900XT haha).

Ik denk dat het grootste euvel om hier een duidelijk conclusie over te trekken is, dat veel games het verschillend aanpakken en het lastig is om een one fits all conclusie te trekken.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • M-spec
  • Registratie: September 2004
  • Niet online
Het is maar net afhankelijk van hoe men test en vergelijkt. Met alles op een gelijk speelveld van 4.4GHz, dus een IPC vergelijk, of de nieuwe 5+GHz kookplaatmodus. In het eerste geval is de 5800X3D altijd sneller dan Zen4 in games.

Ik ben het eens dat er niet exact de vinger op te leggen is waardoor de CPU's onderling die wisselingen laten zien. Soms komt Alder-Lake op IPC toch ineens bovenaan. In Spiderman+RT bijvoorbeeld.

R9 3950X | RTX 3090 | C6H X370 | 32GB FlareX | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid


  • Remth2
  • Registratie: September 2020
  • Laatst online: 16-03 15:16
Vraagje, mijn moederbord zet soms de vddp voltage naar 1000. Nu komt dat getal in het rood te staan dus ik moet het telkens handig matig naar auto zetten.

Nu blijft dit probleem zich voordoen en ik wil graag deze bios update behouden. Wat is een goede vddp voltage? En hoe zet ik dit als getal er in?

Gigabyte x570 aorus elite moederbord. Bios versie F37d
Ryzen 7 3700x
Kingston FURY Renegade DDR4 Memory 3600mhz 16cl 16gb (2x8gb)
0.900 VDDP is meer dan genoeg. 1.0v is ok maar absoluut niet nodig. Ik draai 3800cl16 met 0.9 vddp op al mijn systemen.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • Remth2
  • Registratie: September 2020
  • Laatst online: 16-03 15:16
Cidious schreef op zaterdag 1 oktober 2022 @ 17:33:
0.900 VDDP is meer dan genoeg. 1.0v is ok maar absoluut niet nodig. Ik draai 3800cl16 met 0.9 vddp op al mijn systemen.
Ah top! Neem aan dat ik gewoon manuel en 0,9 in kan vullen of 1?

Acties:
  • +1Henk 'm!
Remth2 schreef op zaterdag 1 oktober 2022 @ 18:50:
[...]


Ah top! Neem aan dat ik gewoon manuel en 0,9 in kan vullen of 1?
Waarschijnlijk 900mv als ik me goed herinner van Gigabyte. Voor MSI is het 0.900v.

1.000v is ok maar hoog en soms zelfs instabieler.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • dutchnltweaker
  • Registratie: December 2013
  • Laatst online: 16:34
Novacore schreef op vrijdag 30 september 2022 @ 13:11:
[...]

Het is de beste AM4-CPU voor gaming in het specifiek, maar zeker niet de beste allrounder of voor productivity workloads, dus dat ligt er een beetje aan waar je 'm voor wilt gebruiken.

Wat prijsdalingen betreft, er is nu een nieuwe lijn processors met de AM5, dus een prijsdaling van de hoge adviesprijs van bijna 500 euro was te verwachten. Wat de prijs verder gaat doen weet niemand zeker, maar volgens mij zien processors in het algemeen niet geweldige dalingen als ze nog goed meedraaien, wat de 3D zeker doet. Dus als je in de markt bent heeft meer wachten denk ik niet heel veel zin, tenzij je echt maanden kunt wachten. Eventueel zou je tot eind november (black friday) kunnen wachten om te kijken of er nog goede deals komen, maar anders lijkt nu me juist een goed moment als je toch niet wilt overstappen op AM5.
Je bedoelt de 5900x ipv de 5800x3d of?
Tja dat is een lastige, als ik de prijzen zie van de nieuwe motherboards dan weet ik zeker dat ik niet wil investeren in am5.

Vraag me af of er met blackfriday wel echt veel afgaat of het een "nep" korting gaat zijn.

  • Gijs007
  • Registratie: Februari 2008
  • Laatst online: 16:11
Tijdje terug dit bereikt, nu merk ik dat mijn NVMe PCIe 4.0 SSD's af en toe eruit knallen. Ik lees dat dit een bekend probleem is bij een hogere fclk.
Heeft iemand tips om dit te stabiliseren? Ik kan zo gauw geen tips vinden over voltage van de socket e.d., om dit op te lossen. Denk dat daar nog wel wat te halen is.

AMD Ryzen 9 7950X | NZXT Kraken X63 | GIGABYTE X670E AORUS XTREME | G.Skill Trident Z Neo F5-6000J3038F16GX2-TZ5NR | Inno3D GeForce RTX 4090 iCHILL X3 | Corsair AX860i | 2 x WD Black NVMe SSD SN850 2TB | 1 x Intel Optane 900P 480GB | Corsair iCUE 5000T


  • balarina
  • Registratie: Juni 2011
  • Nu online
Hey, nooby vraagje. Tijdens gamen is mijn gpu usage 99-100%, echter mijn CPU usage is 0%.
Is dit normaal? Ik begrijp dat de gpu veelal het werk doet, maar ik vind het opmerkelijk.

De performance is verder goed. Maar was benieuwd of ik niet een verkeerde setting of iets heb.

  • GoldenLeafBird
  • Registratie: September 2017
  • Laatst online: 22-03 20:21
balarina schreef op maandag 10 oktober 2022 @ 22:02:
Hey, nooby vraagje. Tijdens gamen is mijn gpu usage 99-100%, echter mijn CPU usage is 0%.
Is dit normaal? Ik begrijp dat de gpu veelal het werk doet, maar ik vind het opmerkelijk.

De performance is verder goed. Maar was benieuwd of ik niet een verkeerde setting of iets heb.
Doorgaans betekent dit dat je GPU de bottleneck in je systeem is. Dat is niet erg, er moet ergens een bottleneck zitten immers.
Welke CPU/GPU combinatie heb je?

  • balarina
  • Registratie: Juni 2011
  • Nu online
GoldenLeafBird schreef op maandag 10 oktober 2022 @ 22:09:
[...]


Doorgaans betekent dit dat je GPU de bottleneck in je systeem is. Dat is niet erg, er moet ergens een bottleneck zitten immers.
Welke CPU/GPU combinatie heb je?
5900x met Gigabyte rtx 3080 gaming oc LHR 2.0.
Edit: ik zie dat ik in nvidia control panel de setting: kopje 3d settings-->configure surround, physx-->physx settings mijn gpu heb aangevinkt ipv auto select (recommended). Ik zal morgen ff kijken of dit uitzetten verschil geeft.

[Voor 25% gewijzigd door balarina op 10-10-2022 22:41]

Gijs007 schreef op maandag 10 oktober 2022 @ 17:51:
[...]


Tijdje terug dit bereikt, nu merk ik dat mijn NVMe PCIe 4.0 SSD's af en toe eruit knallen. Ik lees dat dit een bekend probleem is bij een hogere fclk.
Heeft iemand tips om dit te stabiliseren? Ik kan zo gauw geen tips vinden over voltage van de socket e.d., om dit op te lossen. Denk dat daar nog wel wat te halen is.
VSOC en VDDG IOD verhogen (en mogelijk chipset voltage maar die zou ik als laatste aanspreken).

Post eens een screenshot van ZenTimings hier en ik kan er even overheen kijken en je misschien wat veranderingen adviseren.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • GoldenLeafBird
  • Registratie: September 2017
  • Laatst online: 22-03 20:21
balarina schreef op maandag 10 oktober 2022 @ 22:25:
[...]


5900x met Gigabyte rtx 3080 gaming oc LHR 2.0.
Edit: ik zie dat ik in nvidia control panel de setting: kopje 3d settings-->configure surround, physx-->physx settings mijn gpu heb aangevinkt ipv auto select (recommended). Ik zal morgen ff kijken of dit uitzetten verschil geeft.
Tsja wat ik zeg, het hoeft geen probleem te zijn. Als je een GPU intensieve game speelt zal je CPU rustig aan doen. Omgekeerd is ook het geval, als je iets als CIV VI speelt zal je CPU het veel zwaarder hebben.

  • Gijs007
  • Registratie: Februari 2008
  • Laatst online: 16:11
Cidious schreef op dinsdag 11 oktober 2022 @ 04:19:
[...]


VSOC en VDDG IOD verhogen (en mogelijk chipset voltage maar die zou ik als laatste aanspreken).

Post eens een screenshot van ZenTimings hier en ik kan er even overheen kijken en je misschien wat veranderingen adviseren.
Zal dat eens proberen, heb nu deze instellingen:

AMD Ryzen 9 7950X | NZXT Kraken X63 | GIGABYTE X670E AORUS XTREME | G.Skill Trident Z Neo F5-6000J3038F16GX2-TZ5NR | Inno3D GeForce RTX 4090 iCHILL X3 | Corsair AX860i | 2 x WD Black NVMe SSD SN850 2TB | 1 x Intel Optane 900P 480GB | Corsair iCUE 5000T


Acties:
  • +1Henk 'm!
  • Pinned
Gijs007 schreef op dinsdag 11 oktober 2022 @ 10:57:
[...]

Zal dat eens proberen, heb nu deze instellingen:
[Afbeelding]
OMG! Jouw VSOC staat op 1.55v!!!! dat is absoluut schadelijk! Geen wonder dat je systeem kreunt.. ABSOLUUT onder 1.2v houden voor dagelijks gebruik. 1.125v is aan te raden omdat jouw VDDG op 1.05v staat. Het kan echt heel goed zijn dat je je IOD die al vernaggeld hebt met dit voltage voor dagelijks gebruik. Heb je dit zelf handmatig ingevoerd? Absoluut onnodig en behoorlijk zot.

VSOC 1.15v (MAX)
VDDP 0.900v (900mv)
VDDG CCD 0.940v (940mv)
VDDG IOD 1.075v (1075mv)

Ik zelf draai nog wat lager maar hierboven is veilig en veelal stabiel voor Zen 2/3 met 3800Mhz Mem en 1900 FCLK

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • Brad Pitt
  • Registratie: Oktober 2005
  • Laatst online: 25-03 23:19
Heb nu met op zich volle tevredenheid een 3700x icm Arctic 360mm AiO. De prijzen van de 7 serie plus het verplicht ander moederbord en geheugen kopen is met mijn salaris op korte (en ook lange) termijn onmogelijk.

Nu kriebelt uiteraard constant de upgrade drang O-)

Speel eigenlijk zelden tot nooit games, wat ik vooral doe is gewoon beetje rommelen met de pc (wel veel in-en uitpakken met 7zip en UHD's converten en zo). De 5800X3D is qua single core ongeëvenaard (op AM4) maar ik vind de 5950x gewoon super kicken (32 threads ftw!).

Wat is nu wijsheid (ja gewoon blijven op zoals het is uiteraard), 3700x er uit, 5950x er in en twaalf uur per dag task manager kijken of toch de 5800X3D aanschaffen. De huidige prijs van de 5950x is alsnog boven budget, kan echt maximaal tot 499 o.i.d. gaan.

First world (completely unnecessary) problems. (y)

Nickname does not reflect reality


  • Gijs007
  • Registratie: Februari 2008
  • Laatst online: 16:11
Cidious schreef op dinsdag 11 oktober 2022 @ 15:13:
[...]


OMG! Jouw VSOC staat op 1.55v!!!! dat is absoluut schadelijk! Geen wonder dat je systeem kreunt.. ABSOLUUT onder 1.2v houden voor dagelijks gebruik. 1.125v is aan te raden omdat jouw VDDG op 1.05v staat. Het kan echt heel goed zijn dat je je IOD die al vernaggeld hebt met dit voltage voor dagelijks gebruik. Heb je dit zelf handmatig ingevoerd? Absoluut onnodig en behoorlijk zot.

VSOC 1.15v (MAX)
VDDP 0.900v (900mv)
VDDG CCD 0.940v (940mv)
VDDG IOD 1.075v (1075mv)

Ik zelf draai nog wat lager maar hierboven is veilig en veelal stabiel voor Zen 2/3 met 3800Mhz Mem en 1900 FCLK
Die VSOC klopt niet, staat in het BIOS ingesteld op 1.15.

Heb de voltage aangepast naar jouw voorbeeld, zal even duren voor ik weet of het probleem hiermee is opgelost. SSD klapt er maar zelden uit, voornamelijk bij lange game sessies.

Overigens merk ik direct na het booten dat mijn toetsenbord e.d. heel even uit en aan gaan. Ook zie ik in de windows eventlog dat een van de SSD's tijdelijk niet bereikbaar is. Dacht altijd dat dit een software/driver issue was, maar heeft wellicht een relatie met dit probleem?

AMD Ryzen 9 7950X | NZXT Kraken X63 | GIGABYTE X670E AORUS XTREME | G.Skill Trident Z Neo F5-6000J3038F16GX2-TZ5NR | Inno3D GeForce RTX 4090 iCHILL X3 | Corsair AX860i | 2 x WD Black NVMe SSD SN850 2TB | 1 x Intel Optane 900P 480GB | Corsair iCUE 5000T

Gijs007 schreef op dinsdag 11 oktober 2022 @ 16:14:
[...]

Die VSOC klopt niet, staat in het BIOS ingesteld op 1.15.

Heb de voltage aangepast naar jouw voorbeeld, zal even duren voor ik weet of het probleem hiermee is opgelost. SSD klapt er maar zelden uit, voornamelijk bij lange game sessies.

Overigens merk ik direct na het booten dat mijn toetsenbord e.d. heel even uit en aan gaan. Ook zie ik in de windows eventlog dat een van de SSD's tijdelijk niet bereikbaar is. Dacht altijd dat dit een software/driver issue was, maar heeft wellicht een relatie met dit probleem?
Lijkt me sterk dat ZenTimings dit niet goed weergeeft. Graag even verifiëren met Ryzen Master dan. Mocht het wel op 1.55v staan dan ben je gewoon effectief je IOD aan het bakken.

Ik had hier zelf een probleem mee met mijn X570 Unify recentelijk en vervangen door een X570S Unify-X en geen problemen meer. Welk moederbord heb je?

Ik vraag me nu zelf eigenlijk af of ik de voltages zelf niet te laag had staan voor mn 5800X3D op de normale Unify. Kan het me niet goed meer herinneren. Dat bord is wel ter RMA gegaan en de retailer heeft aangegeven het bord te repareren of vervangen. Verder heb ik geen info nog over of ze echt een fout hebben gevonden. Beetje koffiedik kijken tot ik het bord terug in handen heb.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Na 5,5 jaar 1700X ben ik over op 5700X. Voelt lekker aan. Ik trek alle registers open en zodoende piekt die op 4850MHz, en dat op B350. :D De temperatuur is er wel naar, 82 graden Celsius max all core, 68 single, 45 idle. Daarom nu bezig de PBO curve omlaag te duwen.

Ik zag een post op Reddit om OCCT te gebruiken op 2 threads om snel errors te vinden, maar hier loopt het wat vreemd. Laat ik die minuten lang draaien dan is alles okay. Zet ik in TaskManager de affinity op de cores die ik wil testen, dan is het snel over voor een core. Kan het echt zijn dat die core in Windows op -30 curve stabiel is, maar in OCCT niet eens op -10?

Bizar, nu komt -15 opeens wel door OCCT...

[Voor 3% gewijzigd door Saturnus op 20-10-2022 22:35]


  • rapture
  • Registratie: Februari 2004
  • Laatst online: 19:17

rapture

Zelfs daar netwerken?

dutchnltweaker schreef op dinsdag 4 oktober 2022 @ 09:13:
[...]

Je bedoelt de 5900x ipv de 5800x3d of?
Tja dat is een lastige, als ik de prijzen zie van de nieuwe motherboards dan weet ik zeker dat ik niet wil investeren in am5.

Vraag me af of er met blackfriday wel echt veel afgaat of het een "nep" korting gaat zijn.
98 euro van de prijs eraf tikken kan interessant zijn.



Gaat Amazon.de de prijs nog een keer naar 347,72 euro verlagen?

Bij een voldoende grote korting koop je dit jaar nog tegen wat de prijs half jaar of een heel jaar later kan zijn.

  • dutchnltweaker
  • Registratie: December 2013
  • Laatst online: 16:34
rapture schreef op vrijdag 21 oktober 2022 @ 00:50:
[...]

98 euro van de prijs eraf tikken kan interessant zijn.

[Afbeelding]

Gaat Amazon.de de prijs nog een keer naar 347,72 euro verlagen?

Bij een voldoende grote korting koop je dit jaar nog tegen wat de prijs half jaar of een heel jaar later kan zijn.
Wanneer is die zo laag geweest? Kan het niet vinden in pricewatch. Misschien met blackfriday dat er goede deals komen? Voor 347 euro is het een no brainer. Dan bestel ik hem vandaag nog :).
Saturnus schreef op donderdag 20 oktober 2022 @ 21:29:
Na 5,5 jaar 1700X ben ik over op 5700X. Voelt lekker aan. Ik trek alle registers open en zodoende piekt die op 4850MHz, en dat op B350. :D De temperatuur is er wel naar, 82 graden Celsius max all core, 68 single, 45 idle. Daarom nu bezig de PBO curve omlaag te duwen.

Ik zag een post op Reddit om OCCT te gebruiken op 2 threads om snel errors te vinden, maar hier loopt het wat vreemd. Laat ik die minuten lang draaien dan is alles okay. Zet ik in TaskManager de affinity op de cores die ik wil testen, dan is het snel over voor een core. Kan het echt zijn dat die core in Windows op -30 curve stabiel is, maar in OCCT niet eens op -10?

Bizar, nu komt -15 opeens wel door OCCT...
Dit euvel is bekend. Soms heeft het veranderen van de offset van een core invloed of de offset van een andere core. Ik liep hier heel erg tegenaan met mijn 5800X. Ik gebruik PBO2 Tuner + Core Cycler en dan is het proces veelal automatisch. Misschien iets minder strakke curve door dat Prime95 belachelijk zwaar vergeleken met normaal gebruik maar absoluut 100% stabiel en vanuit windows af te stellen.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16


  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Cidious schreef op vrijdag 21 oktober 2022 @ 14:16:
[...]


Dit euvel is bekend. Soms heeft het veranderen van de offset van een core invloed of de offset van een andere core. Ik liep hier heel erg tegenaan met mijn 5800X. Ik gebruik PBO2 Tuner + Core Cycler en dan is het proces veelal automatisch. Misschien iets minder strakke curve door dat Prime95 belachelijk zwaar vergeleken met normaal gebruik maar absoluut 100% stabiel en vanuit windows af te stellen.
Ik zal nog even zien. Alles -30 nu, op een na; -10. Heb niet het idee dat dat het nou veel zuiniger maakt.
Dit tunen is echt heel anders dan het klassieke overklokken. :X Zelfs vcore of vsoc aanpassen zorgt voor meer of minder energiebudget, en daarmee hogere of lagere prestaties, en niet zoals vroeger minder energie voor dezelfde prestaties.
Saturnus schreef op vrijdag 21 oktober 2022 @ 15:31:
[...]

Ik zal nog even zien. Alles -30 nu, op een na; -10. Heb niet het idee dat dat het nou veel zuiniger maakt.
Dit tunen is echt heel anders dan het klassieke overklokken. :X Zelfs vcore of vsoc aanpassen zorgt voor meer of minder energiebudget, en daarmee hogere of lagere prestaties, en niet zoals vroeger minder energie voor dezelfde prestaties.
Het zal niet zuiniger worden als jij niet handmatig de power limieten vast legt. PBO advanced is ook ruime power limieten en de chip zal dan gewoon lekker doorboosten zolange voltage en stroom nog niet hun limiet hebben bereikt. Het is een driehoek van Voltage, Stroom, Temperatuur. En dan heeft AMD ook de frequentie nog gelimiteerd per chip. En die limiet kan je met 200Mhz max verschuiven.

R9 5800X3D + MEG X570s Unify-X MAX + RX 6900XT + 32GB Crucial 3800cl16

Pagina: 1 ... 36 ... 39 Laatste


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee