Acties:
  • +1 Henk 'm!
Robkazoe schreef op dinsdag 11 april 2017 @ 15:57:
[...]

Had je ook verwacht dat de 1600X qua performance gelijk zou liggen aan de 7600K? Dat had ik namelijk niet verwacht. Bij die games zie je echt dat het gelijk loopt met de i5. Ik had verwacht dat de 1600X bij oudere DirectX11 games 5 tot 10% minder snel zou zijn (conform 1800X t.o.v. 7700K).
Het licht aan de game. :)
Vanaf 2015 begon meer dan vier cores wel relevant te worden voor zwaardere games, en nu in 2017 komt het steeds meer naar voren dat het wel zinvol is, extra cores/threads. De extra berekeningen van moderne games pakt de 1600X dan beter op, net zoals achtergrondprogramma's naast de game. Heb je echt een zeer CPU intensieve titel te pakken die volledig op een of twee cores hangt dan wint de 7600k natuurlijk. Zo simpel is het niet meer. Verder was ik er voor de reviews ook al duidelijk over dat de 7600k zich nog wel even staande zal houden. Daar blijf ik bij. Ik denk dat de 1600 alleen de betere, eigenlijk de beste keuze is voor een gaming CPU op het moment. Daar sta ik al weken bij en dat lijkt wel aardig te kloppen. Overclock die een beetje en je hebt een winnaar. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 09:45
Of het per se NU de beste keus is durf ik niet te zeggen. Wil je 3-4+ jaar met je pc doen, dan denk ik dat je beter op meer cores dan op meer IPC kan gokken

Acties:
  • +2 Henk 'm!

Verwijderd

Minstens 8 keer getest voor de i5. De minima ontstaan waar de straaljager vliegt.
Afbeeldingslocatie: https://s17.postimg.org/uh83gsuf3/image.png
YouTube: Ryzen 5 - Launch Review - 8 Games Tested
De Ryzen CPU's draaien met 3200 MT/s DDR4.

[ Voor 37% gewijzigd door Verwijderd op 11-04-2017 19:30 ]


Acties:
  • 0 Henk 'm!

  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 13:04
Daar moet je ook maar net achter komen.... :D

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Anandtech's conclusie:
I have $250, What Should I Get – the Core i5 7600/7600K or the Ryzen 5 1600X?

Platform wise, the Intel side can offer more features on Z270 over AM4, however AMD would point to the lower platform cost of B350 that could be invested elsewhere in a system.

On performance, for anyone wanting to do intense CPU work, the Ryzen gets a nod here. Twelve threads are hard to miss at this price point. For more punchy work, you need a high frequency i5 to take advantage of the IPC differences that Intel has.

For gaming, our DX12 titles show a plus for AMD in any CPU limited scenario, such as Civilization or Rise of the Tomb Raider in certain scenes. For e-Sports, and most games based on DX9 or DX11, the Intel CPU is still a win here.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik raad je aan om naar een stukje uit de chat van Joker met Tech Deals en Wendell (Level1Tech) te luisteren van eerder in de week. Zij hadden het erover dat de minima FPS (zelfs de 1%) niet representatief zijn voor hoe de framerendertijd varieert tijdens het gamen en dat veel reviewers zich blindstaren op de gemiddelde en minima FPS terwijl de ervaring als je er zelf mee gamet voor Ryzen positiever is (lees: dat zij de R7 als prettiger ervaren dan de 7700k als je kieskeurig bent) dan wat die cijfers suggereren. Dat plaatst hun conclusie - dat je voor de voor de meeste spellen een betere ervaring zou hebben met die Intel CPU's - in een ander licht.
418O2 schreef op dinsdag 11 april 2017 @ 16:40:
Of het per se NU de beste keus is durf ik niet te zeggen. Wil je 3-4+ jaar met je pc doen, dan denk ik dat je beter op meer cores dan op meer IPC kan gokken
Als het nu niet de beste keuze zou zijn dan ligt het zo verschrikkelijk dicht bij elkaar dat de voordelen die Ryzen duidelijk heeft (mulithread, extra kernen) zwaarder wegen. De 1700 en de 1600 zijn de beste CPU's om nu te kopen voor de meeste gamers en andere powerusers.
Robkazoe schreef op dinsdag 11 april 2017 @ 17:09:
Daar moet je ook maar net achter komen.... :D
De beloning voor grondiger testen, die man doet goed zijn best.
Mijn voorzichtige hypothese (gebaseerd op hoe de CPU allicht extra wordt belast als je een straaljager laat voorbij vliegen in zo'n spel terwijl er al veel NPC's etc. zijn en hoe logisch het zou zijn om zoiets af te wentelen op een andere kern als die beschikbaar is, wetende dat GTAV 6 kernen kan gebruiken) is dat ook GTAV, wat sterk lijkt te profiteren van een hogere klokfrequentie, soms die extra kernen nodig heeft. Het zou kunnen verklaren waarom voor GTAV Ryzen toch als meer vloeiend wordt ervaren dan Kaby Lake ondanks dat de meeste benchmarks een andere indruk wekken.

[ Voor 57% gewijzigd door Verwijderd op 11-04-2017 17:33 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op dinsdag 11 april 2017 @ 17:22:
[...]

Ik raad je aan om naar een stukje uit de chat van Joker met Tech Deals en Wendell (Level1Tech) te luisteren van eerder in de week. Zij hadden het erover dat de minima FPS (zelfs de 1%) niet representatief zijn voor hoe de framerendertijd varieert tijdens het gamen en dat veel reviewers zich blindstaren op de gemiddelde en minima FPS terwijl de ervaring als je er zelf mee gamet voor Ryzen positiever is (lees: dat zij de R7 als prettiger ervaren dan de 7700k als je kieskeurig bent) dan wat die cijfers suggereren. Dat plaatst hun conclusie - dat je voor de voor de meeste spellen een betere ervaring zou hebben met die Intel CPU's - in een ander licht.
Mij hoef je niet te overtuigen, ik heb een Ryzen 1800X met twee Radeon 290X kaarten en een FreeSync scherm: vlot en vloeiend loopt het zeker, als de engine tenminste geoptimaliseerd is. Bijvoorbeeld No Man's Sky draait even slecht als met een enkele 290X en een i5-4670K. Echter zelfs bij The Division, een game die behoorlijk wat optimalisatie nog kan gebruiken, merkte ik echter een vloeiendere game play (zelfs met FreeSync) dan met een i5-4670K.

Acties:
  • 0 Henk 'm!

  • Viper®
  • Registratie: Februari 2001
  • Niet online

Ryzen 5 test review van LTT. Ook een stukje over de cache techniek en overclocking.

De 1600X ziet er interessant uit. Jammer dat ze alleen het X370 bord getest hebben en niet op de meegeleverde B370

[ Voor 29% gewijzigd door Viper® op 11-04-2017 19:13 ]


Acties:
  • +1 Henk 'm!

  • Robkazoe
  • Registratie: December 2002
  • Laatst online: 13:04


Ik vond zelf deze video wel heel interessant. Paul heeft namelijk voor alle drie de processoren een standaard overklok gedaan. De 1600X (technisch gezien een underclock) + 1500X + 1700 op 3,9 GHz. De 7600K op 4,8 GHz. Deze standaard overklok is wat Paul verwacht als een minimum te behalen overklok.

Vooral grappig om te zien dat de processoren eigenlijk voor een groot deel gelijk op gaan. Maar bij een paar spellen merk je dat de meerdere cores nut hebben en dat de 1500X dan niet meer mee kan.

@4:30 beginnen de benchmarks.
@6:25 beginnen de gamereviews.

Ben zelf heel erg benieuwd naar de 1600 OC resultaten. Ik ga @Catch22 gewoon goed in de gaten houden. :P

[ Voor 10% gewijzigd door Robkazoe op 11-04-2017 20:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op dinsdag 11 april 2017 @ 18:45:
[...]

Mij hoef je niet te overtuigen, ik heb een Ryzen 1800X met twee Radeon 290X kaarten en een FreeSync scherm: vlot en vloeiend loopt het zeker, als de engine tenminste geoptimaliseerd is. Bijvoorbeeld No Man's Sky draait even slecht als met een enkele 290X en een i5-4670K. Echter zelfs bij The Division, een game die behoorlijk wat optimalisatie nog kan gebruiken, merkte ik echter een vloeiendere game play (zelfs met FreeSync) dan met een i5-4670K.
No Man's Sky draait op geen enkel systeem fatsoenlijk, het is de tegenpool van Doom en Overwatch wat op een aardappel draait. :)
Het probleem met de meeste reviewers is dat ze weinig het systeem gebruiken, ze draaien even wat benchmarks (vaak nog enkel in game benchmarks ook 8)7) en dat is het. Als je een maand lang enkel dat systeem gebruikt dan kan je veel beter ervaren of dat het systeem goed werkt.
Viper® schreef op dinsdag 11 april 2017 @ 19:11:
[video]
Ryzen 5 test review van LTT. Ook een stukje over de cache techniek en overclocking.
Dat stukje is interessant maar het valt tegen dat zij WEER enkel met een Nvidia-kaart testen en dan ook nog eens voor DX12-implementaties. Zij zouden beter moeten weten na de ontdekkingen van AdoredTV en een aantal andere mensen die dit opvolgden met hun eigen onderzoekje. Lazy reviewing, als Linus de actuele ontwikkelingen zou volgen dan zou hij dit weten.
De 1600X ziet er interessant uit.
En de 1600 die waarschijnlijk dezelfde overklok haalt maar mogelijk met een iets hogere spanning. Even afwachten.

Over Paul zijn vergelijkingen ben ik ook niet zo te spreken, hij vergelijkt verschillende prijsklasses. De 1600 vs. de 7600 en de 1400 vs. de 7400 en 7500, dat zijn de vergelijkingen die zouden moeten plaatsvinden. Ik kan me nog voorstellen dat je de 1600X vergelijkt met de 7600k maar aangezien de 1600 waarschijnlijk hetzelfde presteert en die ongeveer hetzelfde kost als de 7600...

Haal je trouwens die 4,8 GHz zonder te delidden? :)

[ Voor 52% gewijzigd door Verwijderd op 12-04-2017 00:18 ]


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 09:45
Robkazoe schreef op dinsdag 11 april 2017 @ 19:42:
Ben zelf heel erg benieuwd naar de 1600 OC resultaten. Ik ga @Catch22 gewoon goed in de gaten houden. :P
Er is maar 1 ander die de 1600 heeft besteld toch? Ik zal vanavond even kijken of ik wat eerste OC stappen kan zetten. Zal ook even wat OC guides zoeken. Laatste cpu die ik heb overgeclocked was een P4 3.2, maar die werden standaard al veel te warm dus daar was niets uit te halen

Acties:
  • 0 Henk 'm!

  • Yooo Kerol
  • Registratie: April 2017
  • Laatst online: 22-02-2021
Is er een mogelijkheid waar ik een PC-builder kan vinden op deze site (onder pricewatch gok ik), zodat bijpassende componenten gelijk gefilterd worden. Net als bijvoorbeeld de pcbuilder op Alternate.

[ Voor 24% gewijzigd door Yooo Kerol op 12-04-2017 14:59 ]


Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 09:58
Yooo Kerol schreef op woensdag 12 april 2017 @ 14:58:
Is er een mogelijkheid waar ik een PC-builder kan vinden op deze site (onder pricewatch gok ik), zodat bijpassende componenten gelijk gefilterd worden. Net als bijvoorbeeld de pcbuilder op Alternate.
Deze vraag hoort hier niet thuis, maar ervan uitgaande dat je een Ryzen systeem wil aanschaffen. Filter op AM4 bij CPU's en moederborden + kies een setje DDR4 geheugen dat op de site van het moederbord staat als getest en goedgekeurd (qvl lijst).

Acties:
  • 0 Henk 'm!

  • Twam
  • Registratie: Januari 2014
  • Laatst online: 10:29
Yooo Kerol schreef op woensdag 12 april 2017 @ 14:58:
Is er een mogelijkheid waar ik een PC-builder kan vinden op deze site (onder pricewatch gok ik), zodat bijpassende componenten gelijk gefilterd worden. Net als bijvoorbeeld de pcbuilder op Alternate.
Een echte tool is er niet, maar met de zoekfilters zou je in de pricewatch een eind moeten komen.

Voor AMD Ryzen-processors kun je je zoekresultaten bijvoorbeeld beperken tot de socket AM4. Als je weet wat voor harde schijf je wilt (sata/pcie, M.2 of niet) kun je dat bij de filters voor het moederbord toevoegen, net als wat voor I/O-aansluitingen je minimaal wilt.

Het vergt iets meer eigen onderzoek, maar gelukkig is al die informatie goed te vinden.

Ik zou eerst besluiten wat voor processor je wilt, dan wat voor harde schijf (en/of hoeveel schijven), zodat je aan de hand daarvan je moederbordfilters kunt instellen. Verder zal het allemaal wel loslopen, tenzij je hele specifieke eisen hebt (PCI + PCIe, SLI-ondersteuning, HDMI 2, etc.), maar dan zijn daar meestal ook wel filters voor.

Edit: ninja'd! Wel goed punt van die QVL-lijst, Ryzen is nog een beetje nuffig over RAM-types. Zal er uiteindelijk wel uitgepatcht worden, maar nu nog even lastig.

[ Voor 6% gewijzigd door Twam op 12-04-2017 15:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Kijk eens aandachtig naar de verschillen tussen de Fury en de GTX 1080 bij de Civ VI benchmark, Ryzen presteert opvallend beter met de Fury terwijl voor Intel het verschil vergelijkenderwijs klein is.
http://www.anandtech.com/...twelve-threads-vs-four/11
Om het gemakkelijker te maken om het te zien (helaaas plaatst Anandtech ze niet naast elkaar) plaats ik het hier wat overzichtelijker; om en om de 1080 en de Fury. Met de 1600X is er bij de 99% iets raars aan de hand, als iemand dat kan verklaren... (wel een hele grote afwijking door toevallige variaties bij het benchmarken, ervan uitgaanade dat ze netjes alle achtergrondapplicaties sluiten en dat zelfs W10 niet zulke extreme dingen op de achtergrond doet).

Zeg het maar als ik dit verkeerd zie, rekening houdende met het feit dat de performance van de Fury dichter bij de GTX 1070 dan bij de GTX 1080 ligt valt het te verwachten dat met een krachtigere AMD kaart (Vega) het verschil nog groter zou zijn, zelfs als die kaart slechts gelijk zou presteren met een GTX 1080.
En toch testen bijna alle reviewers met een Nvidia kaart. Ik weet niet of dat het bias is, misschien is het wel gewoon lui reviewen en te weinig nieuwsgierig zijn.

Afbeeldingslocatie: https://s4.postimg.org/550169tpp/image.png
Afbeeldingslocatie: https://s15.postimg.org/fuwckfb4b/image.png
Afbeeldingslocatie: https://s17.postimg.org/7ram0y1fj/image.png
Afbeeldingslocatie: https://s16.postimg.org/wpqem55id/image.png
Afbeeldingslocatie: https://s8.postimg.org/mtjcge91x/image.png
Afbeeldingslocatie: https://s15.postimg.org/ggkyqywmz/image.png

[ Voor 35% gewijzigd door Verwijderd op 12-04-2017 15:28 ]


Acties:
  • 0 Henk 'm!

  • Yooo Kerol
  • Registratie: April 2017
  • Laatst online: 22-02-2021
Hoe zit dat dan met maximale RAM wat Ryzen ondersteundtdttd?
Toen met de launch van de R7 was 2600MHz de limiet ofzo en stond volgens mij ook officieel op de website van AMD oid, maar als je meer dan 2 kaartjes wilde dan kon het alleen op een lagere snelheid van 2133MHz.
Vervolgens hoor ik een maand later dat ze ook 3200MHz ondersteunen en ze gebaat zijn bij die hogere snelheid? En weer later (weekje terug ofzo) zie ik een video waarin iemand 3600 MHz test en dat dat echt dé shit is en dat ie verwacht dat 4200 MHz nog extremer moet zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Vergelijk ook even Fury vs. GTX1080 voor Intel vs. Ryzen bij Rocket League (DX9).
http://www.anandtech.com/...twelve-threads-vs-four/14
Ik ga nu niet de plaatjes uploaden en ik volsta met de opmerking dat de verschillen aanzienlijk groter zijn dan wat je bij Civ ziet: 130 vs 180 en 66 vs. 105 bij de GTX 1080 en 176 vs. 178 en 125 vs. 126 bij de Fury. Ryzen heeft geen probleem met gaming, Nvidia heeft een probleem met Ryzen. Gekoppeld aan een AMD kaart is Ryzen een prima gaming CPU maar weinig reviewers hebben dit tot nu toe opgemerkt. We worden gigantisch belazerd door de meeste reviewers. Waarschijnlijk doen ze het niet met opzet maar door onwetendheid maar gebruik dit om het kaf van het koren te scheiden. ;)
Anandtech heeft zich positief onderscheiden, zowel met de keuze van de kaarten als met de keuze van de concurrerende CPU's van Intel.

[ Voor 21% gewijzigd door Verwijderd op 12-04-2017 17:26 ]


Acties:
  • 0 Henk 'm!

  • regmaster
  • Registratie: Juli 2002
  • Niet online
Opmerkelijke cijfers want nu blijkt dat AMD kaarten het beter op het eigen platform doen dan op het Intel platform en dat Nvidia kaarten het beduidend minder doen op het AMD platform maar weer beter op het Intel platform. Ervan uitgaan dat de gemeten waarden kloppen is er wel iets opmerkelijks aan de hand want waarom doet een AMD kaart het minder op het Intel platform? Het is geen nieuw platform zoals het AM4 platform dat wel is dus daar zou het niet aan moeten liggen. Optimaliseert AMD de drivers alleen voor het eigen platform en niet voor Intel? De waarden wijzen wel in die richting maar of het echt zo is kan alleen AMD vertellen. Ik vind de cijfers wel vreemd.

Acties:
  • 0 Henk 'm!

Verwijderd

regmaster schreef op woensdag 12 april 2017 @ 17:53:
Opmerkelijke cijfers want nu blijkt dat AMD kaarten het beter op het eigen platform doen dan op het Intel platform en dat Nvidia kaarten het beduidend minder doen op het AMD platform maar weer beter op het Intel platform. Ervan uitgaan dat de gemeten waarden kloppen is er wel iets opmerkelijks aan de hand want waarom doet een AMD kaart het minder op het Intel platform? Het is geen nieuw platform zoals het AM4 platform dat wel is dus daar zou het niet aan moeten liggen. Optimaliseert AMD de drivers alleen voor het eigen platform en niet voor Intel? De waarden wijzen wel in die richting maar of het echt zo is kan alleen AMD vertellen. Ik vind de cijfers wel vreemd.
Dat dit voor DX12 en Vulkan een probleem is was al ongeveer twee weken lang bekend, dat het ook voor DX9 zo'n verschil maakt is voor mij een grote verrassing. Wat Nvidia ook met de drivers doet, het lijkt erop dat ze die drivers geoptimaliseerd hebben met een bepaalde CPU architectuur in gedachte en dat dit nu slecht werkt voor de Ryzen architectuur.
Ik ben voorzichtig m.b.t. AMD op Intel vs. AMD op Ryzen, de verschillen zijn klein en sowieso verschilt dat van spel tot spel. Ik kan me voorstellen dat AMD de drivers voor de grafische kaarten wat probeert te optimaliseren voor CPU's die meer dan 4 kernen hebben maar ik weet niet in welke mate dat mogelijk is. Nvidia doet dit in essentie voor DX11 (de 'hoofd-CPU' werk laten delegeren om zodoende de piekbelasting bij die ene kern te verlagen) maar ten koste van een flinke CPU overhead.
YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling &amp...

Acties:
  • 0 Henk 'm!
En de verklaringen zijn nu al meerdere malen gegeven...
CiV 6 in DX12 mode kan meer dan een CPU core aanspreken voor de renderinstructies om frames te produceren. Dat is met afstand de belangrijkste innovatie van DX12. Elke AMD GPU die met DX12 kan werken, is in staat om meerdere CPU cores aan te spreken voor de renderinstructies. Ondertussen is geen enkele Nvidia, DX12 capable GPU in staat om dit te doen.

Wat je ziet gebeuren is dat AMD behoorlijk wegloopt bij Nvidia in DX12 prestaties. Daar is maar een verklaring voor, de AMD GPU is niet langer gelimiteerd omdat alle renderinstructies op een CPU core terecht komen. Nvidia GPU's blijven wel gelimiteerd omdat de softwarematige aanpak wel wat, maar zeker niet alle renderinstructies naar andere CPU cores kunnen verplaatsen. Dat is waarom een Fury X, maar ook een RX480 zo enorm uitloopt in elke DX12 of Vulkan titel. Het verklaard ook waarom er extra schaling optreed met meer dan vier cores. Extra CPU rekenkracht is beschikbaar en aanspreekbaar dus die extra core mag ook even aan de slag. Het is dat ik nu met een 7950 zit want anders zou ik zelf eens CiV 6 gaan benchen met CPU gebruik. Misschien doe ik dat wel, hoewel ik geen spectaculaire verschillen verwacht aangezien deze GPU onderhand redelijk oud is.

De ultieme test voor deze theorie van bottlenecking zal Vega zijn. Is Vega enigszins vergelijkbaar met de 1080(Ti) in DX11 games en loopt Vega gigantisch hard weg in DX12 titels dan hebben we bevestiging dat de GPU's inderdaad behoorlijk worden gebottlenecked, door een 7700k @5ghz...
Dat is overigens het enige scenario dat ik kan bedenken waar een extreem krachtige GPU op 1080p testen met een 7700k ook zinvol mag heten. Voor de rest is het een volslagen zinloos, en vertekende test.
Dat zou meteen het einde zijn van de Ryzen vs Intel discussie. Ryzen wint dan gewoon. Nvidia heeft dan helemaal een probleem als Volta geen hardware scheduler heeft. Maar dit is te veel offtopic.

Wat je waarschijnlijk bij de Ryzen en Nvidia combinatie ziet is een softwarematig optimalisatieprobleem. Als ik hier een theorie naar voren zou moeten schuiven dan zou ik gokken dat de softwarematige scheduler van Nvidia, de Zen architectuur niet herkent en in een failsafe modus terugzakt en het bij een CPU core houd. Vervolgens heeft de Nvidia driver wel meer CPU overhead op die core en daardoor vallen de prestaties tegen. Nou, als iemand deze theorie kan falsificeren/verifiëren, geweldig, betwijfel of dat snel zal gebeuren...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Yooo Kerol
  • Registratie: April 2017
  • Laatst online: 22-02-2021
regmaster schreef op woensdag 12 april 2017 @ 17:53:
Opmerkelijke cijfers want nu blijkt dat AMD kaarten het beter op het eigen platform doen dan op het Intel platform en dat Nvidia kaarten het beduidend minder doen op het AMD platform maar weer beter op het Intel platform. Ervan uitgaan dat de gemeten waarden kloppen is er wel iets opmerkelijks aan de hand want waarom doet een AMD kaart het minder op het Intel platform? Het is geen nieuw platform zoals het AM4 platform dat wel is dus daar zou het niet aan moeten liggen. Optimaliseert AMD de drivers alleen voor het eigen platform en niet voor Intel? De waarden wijzen wel in die richting maar of het echt zo is kan alleen AMD vertellen. Ik vind de cijfers wel vreemd.
YouTube: Ryzen of the Tomb Raider
Let MET NAME op wat hij zegt op 15:15

Acties:
  • +8 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
regmaster schreef op woensdag 12 april 2017 @ 17:53:
Opmerkelijke cijfers want nu blijkt dat AMD kaarten het beter op het eigen platform doen dan op het Intel platform en dat Nvidia kaarten het beduidend minder doen op het AMD platform maar weer beter op het Intel platform. Ervan uitgaan dat de gemeten waarden kloppen is er wel iets opmerkelijks aan de hand want waarom doet een AMD kaart het minder op het Intel platform? Het is geen nieuw platform zoals het AM4 platform dat wel is dus daar zou het niet aan moeten liggen. Optimaliseert AMD de drivers alleen voor het eigen platform en niet voor Intel? De waarden wijzen wel in die richting maar of het echt zo is kan alleen AMD vertellen. Ik vind de cijfers wel vreemd.
*weg* niet op de man

Ik zal voor de duidelijkheid RTG gebruiken als ik het over AMD GPU's heb, met AMD bedoel ik hieronder dus hun CPU's.

RTG kaarten doen het niet beter op het "eigen" platform.

Bij Civ6 doet AMD het beter omdat dat spel nu eenmaal graag meer cores heeft. Of je daarbij Nvidia of RTG gebruikt maakt verder geen donder uit, AMD wint het sowieso. De reden dat RTG het dan weer net iets beter doet dan Nvidia heeft te maken met het feit dat het DX12 is. RTG loopt niet tegen hun eigen driver overhead aan en tegelijkertijd is GCN gewoon veel beter geschikt voor wat Civ6 doet. Daar zit geen complot achter.

In Rocket League doet RTG het ook niet beter op "eigen" platform. Daar liggen de framerates gewoon heel dicht bij elkaar tussen Intel en AMD. Maar kijk je dan naar Nvidia is het juist Nvidia die heel ver achter liggen; de resultaten op Intel liggen gelijk aan die van RTG op zowel Intel als AMD en dat is dan ook een harde limit van het spel, want in beide gevallen zit je op de 125 FPS. Behalve dan als je Nvidia op AMD gebruikt, dan haal je ineens nog maar de helft. Gezien het feit RTG op zowel Intel als AMD even goed presteert, ligt het probleem dus bij Nvidia, niet bij AMD, Intel of RTG. Ik weet niet of je Rocket League ooit gespeeld hebt, maar het spel is niet bepaald zwaar voor je systeem, vandaar ook dat een beetje systeem zonder moeite die 125 FPS moet kunnen halen. Ik haal dat in elk geval probleemloos met m'n 4770K en GTX 970, daar heb je echt geen 1080 of Fury voor nodig.

Sterker nog, als jij daadwerkelijk naar de cijfers had gekeken had je gezien dat RTG het bijvoorbeeld slechter doet op "eigen" platform in Shadow of Mordor. Gezien het feit dat het DX11 is en de AMD resultaten net iets onder de Intel resultaten liggen heb je daar dus te maken met een spel dat niet fatsoenlijk multithreaded is bovenop RTG's eigen overhead, waardoor je bij RTG+Intel een hele duidelijke cap ziet.

Neem je vervolgens GTA V dan zie je het tegenovergestelde. Het spel is wel multithreaded, maar door RTG's driver overhead zijn ze GPU limited en zie je dat de framerates op alle CPU's vrijwel gelijk is.


Waarom wijken de resultaten van Nvidia + AMD dan zo af in sommige gevallen?

Simpel: Nvidia's software hacks. Voor DX12 zit er een hele berg prediction in de driver omdat ze dat niet aan de hardware over kunnen laten. Aan de andere kant is het geen nieuws (althans, ik hoop dat het geen nieuws is) dat GPU drivers boordevol hacks zitten om sommige games fatsoenlijk draaiende te krijgen. Blijkbaar is een hack die Nvidia in de driver heeft zitten voor Rocket League wel heel erg slecht en verneukt het daar iets waardoor de driver waarschijnlijk op slechts 1 core draait en daar dan iets mafs doet waardoor die op 100% komt te hangen en een harde CPU bottleneck vormt. Ik vraag me dan ook af waarom AT daar niet iets dieper op in is gegaan.


Er wordt hier gepraat over allerlei complot theorieën maar dit is niet iets dat Nvidia met opzet heeft gedaan. De enige opzet van hun kant is dat ze de vorige generaties van AMD CPU's inderdaad niet veel voorrang hebben gegeven, maar het feit dat RL zo ondermaats presteert is gewoon een bug in de driver. Geen opzettelijke "nerf".

Tegelijkertijd is het niet zo dat RTG hun drivers voor "eigen" platform optimaliseert. Ten eerste heeft RTG daar geen baat bij; sterker nog, totdat Ryzen echt marktaandeel pakt, is dat juist slecht voor de verkoop. Ten tweede heeft ook AMD er niets aan, want het zijn juist de enthusiasts en early adopters die ze willen hebben, en die zitten voorlopig nog wel even op een 1080 Ti of iets wat te duur is.

[ Voor 3% gewijzigd door br00ky op 13-04-2017 08:30 ]


Acties:
  • 0 Henk 'm!
Ik denk eigenlijk niet eens dat het een bug is bij Nvidia. Ik denk eerder dat ze bij het driver departement van Nvidia druk bezig zijn om te werken aan Ryzen ondersteuning. Het is niet alsof AMD nu een zoveelste architectuur refresh heeft uitgebracht, zoals ze bij Intel nu al jaren doen, waar optimaliseren niet al te lastig zal zijn. Nee, Zen is een ander beestje en daar zal vermoedelijk behoorlijk voor gecodeerd moeten worden. Dat gaat denk ik ook nog wel even duren. Dat ondertussen hele volkstammen aan "reviewers" het probleem niet zien en doorgaan met hun oh zo zinvolle 7700k/1080 testen en Ryzen afbranden, tja. 8)7

Maar deze discussie is behalve zeer leerzaam, ik hou wel van dit soort diepere discussies, ook offtopic. Apart topic hoe dergelijke drivers functioneren of weet je ergens nog wat extra leesstof? :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Een van de saaiste video's ooit. :)
YouTube: AMD Ryzen Part 2: 4-way Ryzen vs Intel: Double Blind Experiment (Par...
Een zeer lichte overwinning voor Ryzen, de Intel systemen werden meer genoemd m.b.t. kleine probleempjes die ze opmerkten. En dit met vooral een Nvidia kaart (Wendell probeerde ook even de Fury kaart uit). Een nadeel, ze hadden slechts een monitor van 60 Hz die overklokt kon worden naar 75 Hz.

Acties:
  • +3 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:46

Compizfox

Bait for wenchmarks

DaniëlWW2 schreef op dinsdag 11 april 2017 @ 15:31:
Zitten er meteen weer een paar tussen die meteen de 7600k tot de koning kronen, alsnog 7700k een soort van aanraden because reasons en natuurlijk alweer de 1080(Ti) of een Titan want iedereen heeft nu een dergelijke GPU nodig voor 1080p...

Gamersnexus kan je bijvoorbeeld wel overslaan. De conclusie alleen is al niet consistent en ik weet eigenlijk niet wat ze nu willen zeggen wat sterke vermoedens oproept dat ze om het punt heendraaien. Ze leggen vooral de nadruk op dat de Ryzen 7 slecht is en de 7700k geweldig. Ja, dat was het hele punt van de review natuurlijk. 8)7

Nu even Anand goed bekijken want die hebben meerdere GPU's getest. :)
Wat vind je verkeerd aan de review van GamersNexus? Ik heb hem net gelezen en zie er niks geks aan.

Ze raden Ryzen 7 af omdat R7 in games ongeveer hetzelfde presteert als een R5 1600. Aangezien de 1600 flink goedkoper is dan Ryzen 7... je snapt hem al, hoop ik.

Als je niet op prijs let, is de 7700k inderdaad koning voor games. Je kunt het leuk vinden of niet, deze CPU wint het gewoon van Ryzen als het gaat om performance in games. De 7600k lijkt echter toch te krap te zitten met z'n 4 threads: in games die goed threaded zijn, gaat R5 er overheen.

Als het tussen i5 en R5 gaat, lijkt R5 beter te zijn (en dat concludeert GamersNexus ook gewoon).

En ja, natuurlijk is het het punt van de review om de Ryzen CPUs te vergelijken met Intel's aanbod.


Louw Post schreef op dinsdag 11 april 2017 @ 15:39:
Heb zo snel ook geen Battlefield voorbij zien komen ergens, dat is toch één van de betere games voor multi-threading.

De benchmarks met een AMD gpu zien er wat mij betreft goed uit, maar om naast mijn cpu (4690k) ook mijn gpu te vervangen (970, dus ook niet echt waard om een 480 te nemen volgens mij) lijkt me een beetje te veel van het goede voor nu.
De review van GamersNexus (waar ik het hierboven al over had) neemt BF1 wel mee: http://www.gamersnexus.ne...fading-i5-argument/page-4


DaniëlWW2 schreef op dinsdag 11 april 2017 @ 15:52:
[...]
Lees de conclusie nog eens. Ze raden Ryzen 5 niet zozeer aan, maar stellen dat i5 op haar laatste benen loopt, Ryzen 5 ongeveer gelijkwaardig is, Ryzen 7 moet je vanaf blijven en dan blijft de 7700k over...
Ben je nu niet een beetje aan het lezen wat je graag wil lezen?

Ik lees gewoon dat ze de R5 beschouwen als een betere keus dan de i5. De meest logische keuzes volgens hun zijn de R5 1600 en de 7700k, en daar kan ik het alleen maar mee eens zijn.
Dat en alweer de 1080, want dat moet je hebben voor 1080p maakt die review gewoon bagger.
Dat begrijp je dan verkeerd: niemand zegt dat je die moet hebben. Maar als reviewer moet je testen met een dikke GPU om GPU-bottleneck weg te halen en te zorgen dat games CPU-bound zijn.
Pak je een minder krachtige GPU dan vervallen de verschillen.
Ja hehe, da's logisch. Maar wat is het nut van een review waarin alle geteste CPUs vrijwel gelijk presteren? Daar heb je niks aan. De enige reden dat dit gedaan wordt, is om verschillen tussen de CPUs in de resultaten te introduceren.

Niemand suggereert dat een GTX1080 logisch is om te combineren met een R5 1600 voor 1080p of whatever. Die GTX1080 is puur en alleen om ervoor te zorgen dat de benchmarks CPU-bound zijn.

HardOCP had hier nog een mooi stukje over:
No matter how many times I write this paragraph, a lot of folks do not seem to "get it." These are very much "benchmarks." These are good in helping us understand how well CPUs are at performing calculations in 3D gaming engines. These benchmarks in no way represent real-world gameplay. These are all run at very low resolutions to try our best to remove the video card as a bottleneck. I will not hesitate to say that anyone spouting these types of framerate measurements as a true gameplay measuring tool in today’s climate is not servicing your needs or telling you the real truth.
https://www.hardocp.com/a..._5_1600_1400_cpu_review/4

[ Voor 52% gewijzigd door Compizfox op 13-04-2017 02:11 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • +1 Henk 'm!

Verwijderd

Compizfox schreef op donderdag 13 april 2017 @ 00:40:
[...]

Wat vind je verkeerd aan de review van GamersNexus? Ik heb hem net gelezen en zie er niks geks aan.
Het gaat al verkeerd met het feit dat ze enkel een Nvidia kaart gebruiken en dat ze daarmee doodleuk het feit negeren dat Ryzen veel slechter presteert door voor Ryzen slecht werkende Nvidia drivers terwijl je bij AMD-kaarten een veel kleiner verschil hebt tussen Ryzen en Intel of Ryzen zelfs wint, afhankelijk van het spel. Voor verschillende DX12-spellen en 1 DX9-spel is tot nu toe aangetoond dat Ryzen bij een Nvidia-kaart een fors lagere FPS haalt dan bij een AMD-kaart terwijl voor Intel het verschil veel kleiner is. Ik verwijs nogmaals naar o.a. de Anandtech-review en de eerder besproken filmpjes (AdoredTV, NerdTechGasm...).
Hiermee zijn al die gaming benchmarks van GamersNexus niets waard en zijn hun conclusies op niets gebaseerd. Laat hen eerst en vooral maar eens met zowel Nvidia-kaarten als AMD-kaarten testen.

Core Components (Unchanging)

NZXT 1200W Hale90v2
For DDR4 platforms: Corsair Vengeance LPX 32GB 3200MHz*
For Ryzen DDR4: Corsair Vengeance LPX 3000MHz clocked to 2933MHz (See Page 2)
Premiere & Blender tests do not exceed 8GB DRAM. Capacity is a non-issue for our testing, so long as it is >16GB
For DDR3 platforms: HyperX Savage 32GB 2400MHz
Intel 730 480GB SSD
Open Air Test Bench
Cooler #1 (Air): Be Quiet! Dark Rock 3
Cooler #2 (Cheap liquid): Asetek 570LC w/ Gentle Typhoon fan
Cooler #3 (High-end): Kraken X62
EVGA GTX 1080 FTW1

Over hun conclusies heb ik ook wat te zeggen (indien die aannames zouden kloppen dan kan zouden ze tot op zekere hoogte verdedigbaar zijn...) maar dat doet er niet toe aangezien hun conclusies op foute aannames zijn gebaseerd.
DaniëlWW2 schreef op woensdag 12 april 2017 @ 18:29:
Wat je waarschijnlijk bij de Ryzen en Nvidia combinatie ziet is een softwarematig optimalisatieprobleem.
Misschien is er theoretisch een kans van <1% dat iets anders het probleem veroorzaakt...
Hoeveel duidelijker kan het worden? :?
Wederom om en om GTX 1080 en Fury. Aangezien veel mensen te lui zijn om even te klikken en zelf de data te bekijken, het gemak dient een mens... (niet naar jou gericht ;))
Je moet blind zijn om niet te zien dat er serieuze driver(Nvidia)-problemen (#GamersNexus, #...) zijn. Over Rise of the Tomb Raider hebben we het genoeg gehad maar dit toont aan dat het probleem zich niet beperkt tot enkel DX12.

Afbeeldingslocatie: https://s12.postimg.org/3mifzpn59/image.png
Afbeeldingslocatie: https://s15.postimg.org/5ey9bhw3f/R10.png
Afbeeldingslocatie: https://s9.postimg.org/q1kw5p2jz/image.png
Afbeeldingslocatie: https://s12.postimg.org/by58iz919/R11.png
Afbeeldingslocatie: https://s23.postimg.org/th5ckfs3v/image.png
Afbeeldingslocatie: https://s28.postimg.org/q3od73ftp/R12.png
Als ik hier een theorie naar voren zou moeten schuiven dan zou ik gokken dat de softwarematige scheduler van Nvidia, de Zen architectuur niet herkent en in een failsafe modus terugzakt en het bij een CPU core houd.
Vervolgens heeft de Nvidia driver wel meer CPU overhead op die core en daardoor vallen de prestaties tegen.
Daar durf ik niet over te speculeren maar het ligt aan de driver, zoveel is duidelijk.
Het valt op dat uitgerekend het simpele DX9-spel Rocket League ook stevig minder presteert. Aangezien ik dit spel niet heb vraag ik jullie om even te testen of dat dit spel meer dan 1 kern gebruikt (tenzij iemand het al weet).


Als bonus nog even deze:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph11244/86322.png
Toch vreemd dat een oude niet al te beste AMD-CPU beter presteert dan Ryzen, tenzij de drivers van Nvidia fucked up zijn voor Ryzen.
Voor de duidelijkheid, ik bestrijd niet dat sommige Intel CPU's momenteel een hogere gemiddelde FPS halen, ook met krachtige AMD-kaarten, waar het om gaat is dat het verschil minder groot is dan dat 90% van de reviewers (die enkel een Nvidia-kaart gebruiken) ons wil doen geloven.

[ Voor 72% gewijzigd door br00ky op 13-04-2017 08:32 . Reden: weergave plaatjes aangepast ]


Acties:
  • 0 Henk 'm!

Verwijderd

-kan weg-

[ Voor 99% gewijzigd door Verwijderd op 13-04-2017 02:40 ]


Acties:
  • 0 Henk 'm!

  • regmaster
  • Registratie: Juli 2002
  • Niet online
Werelds schreef op woensdag 12 april 2017 @ 20:13:
[...]

Ik snap dat je iets tegen AMD hebt, maar wat je hier uit loopt te kramen raakt kant noch wal, slaat als een tang op een varken en meer van dat soort uitdrukkingen. Normaal gesproken meng ik me niet in dit soort onzin, maar jij maakt het wel heel bont. Je snapt duidelijk niets van de cijfers en roept maar gewoon iets.
Normaal reageer ik nooit inhoudelijk op persoonlijke aanvallen maar nu jij dat wel nodig vindt krijg je deze terug.
Jouw reactie zegt meer over jouw denkwijze dan over mijn, door jou gesuggereerde, hekel aan AMD. Het zal me werkelijk aan mijn aars oxideren welk merk het beste presteert, ik koop op het moment dat ik het nodig heb of vind, het beste wat er voor mijn budget te krijgen is. Als dat AMD is dan is dat AMD, is dat Intel dan wordt het Intel.
Ik ben alleen geen blinde merk volger zoals jij dat blijkbaar bent, die daardoor niet open staat voor andere meningen of andere denkwijzen. Ook verdedig ik geen merk tegen beter weten in, het is maar een gebruiks artikel dat weggaat wanneer er iets beters voorbij komt.
*knip*

[ Voor 15% gewijzigd door br00ky op 13-04-2017 08:29 ]


Acties:
  • 0 Henk 'm!

  • mstx
  • Registratie: Februari 2004
  • Niet online
Verwijderd schreef op donderdag 13 april 2017 @ 02:15:
Toch vreemd dat een oude niet al te beste AMD-CPU beter presteert dan Ryzen
De A10 is gewoon de beste CPU! _/-\o_

Afbeeldingslocatie: https://i.imgur.com/sqzKFHI.png

(En dat met een AMD kaart :+ )

[ Voor 5% gewijzigd door mstx op 13-04-2017 08:30 ]


Acties:
  • 0 Henk 'm!

  • NINjak
  • Registratie: April 2000
  • Laatst online: 14-08 15:29
Verwijderd schreef op woensdag 12 april 2017 @ 23:18:
Een van de saaiste video's ooit. :)
YouTube: AMD Ryzen Part 2: 4-way Ryzen vs Intel: Double Blind Experiment (Par...
Een zeer lichte overwinning voor Ryzen, de Intel systemen werden meer genoemd m.b.t. kleine probleempjes die ze opmerkten. En dit met vooral een Nvidia kaart (Wendell probeerde ook even de Fury kaart uit). Een nadeel, ze hadden slechts een monitor van 60 Hz die overklokt kon worden naar 75 Hz.
Was een leuke blind test van Level1Techs (Wendel en co.) maar volgens mij hadden ze die monitor naar 85Hz overgeklokt en niet "maar" 75Hz. De conclusie was niet spannend (vonden ze zelf ook) overal was net zo goed op te gamen EN de glitches die ze hadden gehad zouden best aan GTA kunnen liggen.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op woensdag 12 april 2017 @ 20:33:
Ik denk eigenlijk niet eens dat het een bug is bij Nvidia. Ik denk eerder dat ze bij het driver departement van Nvidia druk bezig zijn om te werken aan Ryzen ondersteuning.
Nvidia's MT implementatie werkt gewoon, anders deed het probleem zich in meer gevallen zo extreem voor als bij RL. Ze verliezen daar bijna 50% performance, in een game die echt geen Titan nodig heeft om de 125 FPS cap te bereiken. Ik bereik die cap probleemloos met een 4770K en 970.

Met Ryzen is het probleem denk ik eerder dat de hele handel beperkt wordt tot een enkele core. Als er iemand hier Ryzen + Nvidia + RL heeft is dat eenvoudig te controleren natuurlijk ;)

Waardoor dat komt is koffiedik kijken, het kan zoiets doms zijn als een CPU ID switch waarbij AMD onbekend is en ze terug vallen op een enkele core. Het kan ook iets veel ingewikkelders zijn, het is in elk geval geen veel voorkomend probleem. Dit lijkt echt geïsoleerd tot RL te zijn in deze mate, dus dan mag je gewoon van een bug uit gaan.
Maar deze discussie is behalve zeer leerzaam, ik hou wel van dit soort diepere discussies, ook offtopic. Apart topic hoe dergelijke drivers functioneren of weet je ergens nog wat extra leesstof? :)
Hier is de laatste tijd her en der wel iets over verschenen, in beide GPU topics heeft hier recent wel iets over gestaan. Ik zal kijken of ik wat links kan vinden. Het komt er allemaal vooral op neer dat hoewel RTG het afgelopen jaar veel aan hun DX11 overhead gedaan heeft, ze nog steeds ver achter liggen op Nvidia; en ze hebben ook geen DX11MT "hack" zoals Nvidia dat heeft. Aan de andere kant is het in DX12/Vulkan juist Nvidia waar de driver meer werk doet dan eigenlijk nodig zou moeten zijn, terwijl RTG's driver daar 90% gewoon 1 op 1 door kan laten.

Nvidia's DX11 driver is dusdanig efficiënt dat ze met het werk dat ze in DX12/Vulkan moeten doen eigenlijk niet veel winnen. Bij RTG is dat dus omgekeerd, daarom zie je Fury (X) in sommige gevallen ineens zo bizar goed presteren. Fiji wordt dan niet meer beperkt door de brakke driver.

Als je het hebt over de game-specifieke "hacks" in beide drivers ga ik er eigenlijk van uit dat je daar wel van op de hoogte bent :P
regmaster schreef op donderdag 13 april 2017 @ 07:05:
Ik ben alleen geen blinde merk volger zoals jij dat blijkbaar bent, die daardoor niet open staat voor andere meningen of andere denkwijzen. Ook verdedig ik geen merk tegen beter weten in, het is maar een gebruiks artikel dat weggaat wanneer er iets beters voorbij komt.
Dat was geen mening of andere denkwijze. Je had niet eens naar de cijfers gekeken, want wat jij beweerde stond loodrecht op de cijfers. Het is hetzelfde als de onzin over dat Ryzen zo veel beter zou draaien op Windows 7, waarvan meerdere sites inmiddels bewezen hebben dat niet klopt; en de enige bron die liet "zien" dat W7 beter was dat deed met volstrekt onzinnige vergelijkingen (geen identieke settings voor beide systemen). Of de link die je plaatste over Intel die VISC geïmplementeerd zou hebben, wat ook gewoon grote onzin was. Even los van hoe oud die link was en welke site het was, was het een "nieuws" bericht over een gerucht. Het minste dat je had kunnen was even een review van een degelijke website er bij te nemen om te kijken of er ook maar het minste van klopte.

Het begin van mijn post was wellicht iets te direct en mijn excuses daarvoor, maar het neemt niet weg dat je gewoon naar de feiten moet kijken. Dat deed je nu simpelweg niet.

Acties:
  • 0 Henk 'm!
Ik pik er even de belangrijkste uit want het meeste is al beantwoord. :)
Compizfox schreef op donderdag 13 april 2017 @ 00:40:
Ben je nu niet een beetje aan het lezen wat je graag wil lezen?

Ik lees gewoon dat ze de R5 beschouwen als een betere keus dan de i5. De meest logische keuzes volgens hun zijn de R5 1600 en de 7700k, en daar kan ik het alleen maar mee eens zijn.

Dat begrijp je dan verkeerd: niemand zegt dat je die moet hebben. Maar als reviewer moet je testen met een dikke GPU om GPU-bottleneck weg te halen en te zorgen dat games CPU-bound zijn.

Ja hehe, da's logisch. Maar wat is het nut van een review waarin alle geteste CPUs vrijwel gelijk presteren? Daar heb je niks aan. De enige reden dat dit gedaan wordt, is om verschillen tussen de CPUs in de resultaten te introduceren.
En dat is dus hartstikke krom. We raden de i5 een soort van af, dus kijk naar de R5 1600, en de 7700k die behoorlijk wat duurder is. i5 en R5 zijn mainstream CPU's, en daar wordt even de behoorlijk dure 7700k aangeraden. Die CPU is geen partij in deze vergelijking omdat deze buiten het budget van mensen valt die een i5 of R5 willen kopen.

Vervolgens hoe komen ze tot de conclusie dat een 7700k een keuze is? Dat doen ze omdat ze testen met een GTX1080 en die GPU heeft alle singlethread prestaties nodig om überhaupt gepusht te worden zoveel frames te produceren op 1080p. Wat test je dan precies? Juist ja, je test hoe een overkill GPU omgaat met singlethread prestaties van een CPU lijn die de nadruk legt op multithread prestaties. Beetje krom lijkt me.

Het zou acceptabel zijn als test, mochten we zeven jaar terug in de tijd zouden gaan en DX12, of überhaupt meer dan twee cores gebruiken iets uit een verre toekomst was. Inderdaad, pak dan de Intel CPU met de hoogste clockspeed, einde discussie. Dat is niet meer zo simpel. Je ziet het toch zelf ook in DX12 games met een AMD GPU? De verschillen in prestaties zijn behoorlijk. Verder moet toch ook opvallen dat er steeds meer games zijn die meer dan vier cores kunnen aanspreken, en ook meer dan vier cores/8 threads? Een thread is ook ongeveer 30% van een core qua prestaties. In het meest optimale geval, BF1 dus, presteert een 7700k dus ongeveer als een hexacore. Dat is dan ook nog eens pure theorie, in veel games zal het ook zo niet gaan.
Niemand suggereert dat een GTX1080 logisch is om te combineren met een R5 1600 voor 1080p of whatever. Die GTX1080 is puur en alleen om ervoor te zorgen dat de benchmarks CPU-bound zijn.
Ik vind het dus niet langer meer logisch, maar ronduit vertekenend. Als je testmethodiek niet klopt, dan zijn de resultaten ook niet serieus te nemen. Je test ook niet voor de toekomst met deze setup. De toekomst is niet dat we voor eeuwig blijven zitten op een CPU core die alle renderinstructies afhandeld. Nee, we schuiven steeds meer naar multicore support hiervoor en dan verliezen de i5's het, zijn de R5 quadcores ook niet al te interessant en zal je naar een hexacore moeten kijken.
Werelds schreef op donderdag 13 april 2017 @ 10:50:
[...]

Nvidia's MT implementatie werkt gewoon, anders deed het probleem zich in meer gevallen zo extreem voor als bij RL. Ze verliezen daar bijna 50% performance, in een game die echt geen Titan nodig heeft om de 125 FPS cap te bereiken. Ik bereik die cap probleemloos met een 4770K en 970.

Met Ryzen is het probleem denk ik eerder dat de hele handel beperkt wordt tot een enkele core. Als er iemand hier Ryzen + Nvidia + RL heeft is dat eenvoudig te controleren natuurlijk ;)

Waardoor dat komt is koffiedik kijken, het kan zoiets doms zijn als een CPU ID switch waarbij AMD onbekend is en ze terug vallen op een enkele core. Het kan ook iets veel ingewikkelders zijn, het is in elk geval geen veel voorkomend probleem. Dit lijkt echt geïsoleerd tot RL te zijn in deze mate, dus dan mag je gewoon van een bug uit gaan.
Tomb Raider loopt ook wel te veel uit de pas om te negeren denk ik. :)
Afbeeldingslocatie: https://tweakers.net/ext/f/72hEac5LtNCHCQ2Tq14ZNpVx/full.jpg

Bij de 1080 valt Ryzen weg qua prestaties, terwijl het een paar procent zou moeten zijn. Ik vermoed toch dat het iets dieper zit dan enkele games, maar daar kom je niet zo makkelijk achter, tenzij je een hele stapel aan hardware hebt liggen.
Hier is de laatste tijd her en der wel iets over verschenen, in beide GPU topics heeft hier recent wel iets over gestaan. Ik zal kijken of ik wat links kan vinden. Het komt er allemaal vooral op neer dat hoewel RTG het afgelopen jaar veel aan hun DX11 overhead gedaan heeft, ze nog steeds ver achter liggen op Nvidia; en ze hebben ook geen DX11MT "hack" zoals Nvidia dat heeft. Aan de andere kant is het in DX12/Vulkan juist Nvidia waar de driver meer werk doet dan eigenlijk nodig zou moeten zijn, terwijl RTG's driver daar 90% gewoon 1 op 1 door kan laten.

Nvidia's DX11 driver is dusdanig efficiënt dat ze met het werk dat ze in DX12/Vulkan moeten doen eigenlijk niet veel winnen. Bij RTG is dat dus omgekeerd, daarom zie je Fury (X) in sommige gevallen ineens zo bizar goed presteren. Fiji wordt dan niet meer beperkt door de brakke driver.
Wat ik mij eigenlijk afvraag is of de Nvidia scheduler in staat is om bijvoorbeeld 6 cores te voorzien van instructies bij een DX12 titel? Bij AMD gaat dat zoals je zelf al zegt bijna automatisch en dat levert resultaten op. Dit is alleen ook een beetje offtopic. :P
Als je het hebt over de game-specifieke "hacks" in beide drivers ga ik er eigenlijk van uit dat je daar wel van op de hoogte bent :P
Een zwaar getesseleerde zee onder een gamemap aanbrengen ofzo? 8)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op donderdag 13 april 2017 @ 11:25:
Tomb Raider loopt ook wel te veel uit de pas om te negeren denk ik. :)

Bij de 1080 valt Ryzen weg qua prestaties, terwijl het een paar procent zou moeten zijn. Ik vermoed toch dat het iets dieper zit dan enkele games, maar daar kom je niet zo makkelijk achter, tenzij je een hele stapel aan hardware hebt liggen.
In het geval van RotTR kijk ik eerder naar het spel zelf. Daar schort van alles aan, dat spel heeft vanaf dag 1 problemen met allerlei hardware. Ik beschouw die game dan ook niet als een betrouwbare benchmark voor zowel GPU's als CPU's, ongeacht welke API het op draait.
Wat ik mij eigenlijk afvraag is of de Nvidia scheduler in staat is om bijvoorbeeld 6 cores te voorzien van instructies bij een DX12 titel? Bij AMD gaat dat zoals je zelf al zegt bijna automatisch en dat levert resultaten op. Dit is alleen ook een beetje offtopic. :P
Mwah, het is nog wel deels on-topic, vooral met de huidige stand van zaken met 3D API's ;)

Maar nee, dat is niet helemaal hoe het werkt. Aan de ene kant heb je de game/engine zelf die gewoon multithreaded kan zijn. Een thread voor de AI, geluid, game logic, rendering enzovoort. Dat laatste kan echter ook nog multithreaded door verschillende technieken in de API's. Ik zal er niet te diep op in gaan, als je meer wil weten zijn "command list" en "command queue" handige termen ;)

Door rendering ook nog eens te multithreaded kun je meerdere CPU cores gebruiken om de GPU aan te sturen, terwijl dit anders door een enkele core gebeurt. En dat is precies wat Nvidia's driver tot op zekere hoogte probeert voor DX9/DX11ST games. Ze nemen de instructies en proberen die zo veel mogelijk in meerdere command lists te splitsen. Zouden ze dan aan 6 threads kunnen komen? Ja, maar omdat het een best-effort verhaal is waar ze voorzichtig moeten zijn en niet te veel cycles kunnen verspillen omdat het anders performance gaat kosten zal dat in veel gevallen niet zo ver komen.

DX12/Vulkan is dan weer een heel ander verhaal, dat eigenlijk precies andersom zit. Daar móet je als dev bijna wel meerdere queues gebruiken en zit je dus inherent op meerdere threads. Voor RTG is het lekker makkelijk, die hebben 64 queues in hardware tot hun beschikking, dus die kunnen eigenlijk alle threads die ze tot hun beschikking hebben gebruiken om die queues naar de GPU te sturen en de GPU dan lekker zelf de queues op de CU's in laten delen. Bij Nvidia is het ingewikkelder, die hebben dat niet in de hardware. Ze kunnen wel de GPC's, TPC's en SM's partitioneren, maar dat is niet zo vrij als het in GCN is. Belangrijker is nog dat ze die indeling moeten maken vóór het naar de GPU gestuurd wordt en dat is dus wat de driver nog moet doen. Het lijkt erg op wat ze doen voor DX9/DX11ST, maar dat splitsen van taken hoeven ze niet meer te doen. Eerder het tegenover gestelde, ze zullen soms queues samen moeten voegen om te zorgen dat een partitie niet onnodig stil komt te liggen. Bij Nvidia heb je dus kans dat een game minder schaalt met meer cores - hoeft niet en zal ook niet veel voor komen (als het dat al doet), maar de kans bestaat wel. Sowieso is een hogere kloksnelheid voor hen nog steeds belangrijk omdat die scheduler dan sneller klaar is. Voor RTG is dat iets minder van belang, hogere kloksnelheid betekent vooral dat instructies net iets rapper naar de GPU gestuurd kunnen worden, verdere voordelen hebben ze niet echt :)

Verhaal is nog iets langer geworden dan ik wilde, ik moet echt eens ergens links gaan bewaren over dit soort onderwerpen :P

En voordat er iemand klaag dat ik het te simpel stel: yep. Dit is echter meer een software verhaal dat specifiek over rendering gaat. Dit is geen dev forum en deze thread gaat over AMD's hardware en nieuws daarover ;)
Een zwaar getesseleerde zee onder een gamemap aanbrengen ofzo? 8)
Nee, dat is weer een ander verhaal; dat overigens ook bij de waardeloze dev studio lag ;)

Nee, ik heb het dan over engine-specifieke optimalisaties. Elke engine doet dingen op z'n eigen manier en vaak is dat niet 100% geoptimaliseerd voor elke architectuur. Wat de drivers in die gevallen doen is bepaalde instructies dan deels "herschrijven". Zo kunnen ze met geometry shaders soms dingen sneller dan met de gewone SP's. Dan schrappen ze een hoop instructies en vervangen ze door een sneller pad. Dat zou eigenlijk bij de devs moeten liggen, maar dit is inmiddels zo ingebakken in de cultuur dat het nog wel even duurt voordat we er echt van af zijn. Je ziet wel dat er steeds meer devs zijn die hier wel echt veel aandacht aan besteden. DICE doet dit bijvoorbeeld al jaren, het is alleen jammer dat de devs die hun engine gebruiken dan weer minder zijn. Ook UE3.5 en UE4 is niets mis mee als ze goed gebruiken worden, maar veel devs kijken niet veel verder dan hun neus lang is omdat de engine al zo veel out-of-the-box doet.

Dat staat dan weer los van IQ optimalisaties die ze doorvoeren. Soms gaat dat mis waardoor ze een paar procent performance winnen met verlies van IQ (Nvidia's mipmap bias in Trackmania, AMD's AF in Crysis), maar over het algemeen merken wij daar niets van. Dat wil niet zeggen dat ze dat altijd doen, AMD is bijvoorbeeld vrij conservatief met het beperken van tessellation samples. Ze kunnen dat probleemloos doen, maar ze laten dit in de meeste gevallen over aan de developer (CDPR heeft bijvoorbeeld het aantal samples verlaagd met Hairworks) of aan de gebruiker (kun je in CCC gewoon een limiet aan stellen; of dat tegenwoordig in Crimson nog kan weet ik niet aangezien ik al jaren op Nvidia zit, maar ik neem aan van wel). Veel van dit soort dingen kun je ook zelf forceren via de driver CP's of via dingen als Nvidia Inspector.

En weer los daarvan heb je de SLI/CFX profielen. Ook dat is weer vooral gericht op hoe engines werken en draait vooral om hoe de workload gesplitst wordt. Ook dat kun je via dingen als Inspector zelf regelen in veel gevallen, door games op het profiel van een andere game te laten draaien.

Acties:
  • 0 Henk 'm!

Verwijderd

NINjak schreef op donderdag 13 april 2017 @ 10:49:
[...]

Was een leuke blind test van Level1Techs (Wendel en co.) maar volgens mij hadden ze die monitor naar 85Hz overgeklokt en niet "maar" 75Hz.
Dat zou kunnen, ik herinner 75 maar het kan best dat ik dat ervan maakte omdat dat zo'n standaard overklok is (tegenwoordig) voor een 60 Hz. monitor.
De conclusie was niet spannend (vonden ze zelf ook) overal was net zo goed op te gamen EN de glitches die ze hadden gehad zouden best aan GTA kunnen liggen.
Dat is wat ze zeiden (voorzichtig en correct) maar bij systemen 1 en 3 (Intel) hadden ze alle kleine probleempjes vastgesteld bij het vergelijken. Ja, Fallout 4 is dramatisch slecht geoptimaliseerd (om die reden zal ik het nooit spelen) en GTAV heeft wat bugs (een gigantisch grote vooruitgang in vergelijking met de eerdere edities maar Rockstar mag het de volgende keer nog wat beter doen, zeker voor 6 en 8 kernen) maar de negatieve verschillen die ze vonden troffen ze vooral aan bij de twee Intel-systemen. Hun voorizchtigheid is terecht maar de uitspraken tijdens de test wijzen op een zeer lichte overwinning voor Ryzen en dat met overwegend een Nvidia-kaart. :)
Werelds schreef op donderdag 13 april 2017 @ 10:50:
Het komt er allemaal vooral op neer dat hoewel RTG het afgelopen jaar veel aan hun DX11 overhead gedaan heeft, ze nog steeds ver achter liggen op Nvidia;
Heb jij het over de overhead op 1 kern (zeg maar de hoofdkern van de CPU - aangewezen door DX11 - die alle taken krijgt en vervolgens de taken kan delegeren naar andere kernen) of over de totale CPU-overhead? Ik begreep laatst dat Nvidia juist een hogere totale overhead heeft maar wel de belasting van die hoofdkern vermindert door ervoor te zorgen dat die hoofdkern niet de taken zelf krijgt maar de taken die het krijgt delegeert. Iets in die richting. Heb jij meer informatie hierover?

[ Voor 23% gewijzigd door Verwijderd op 13-04-2017 13:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-

[ Voor 99% gewijzigd door Verwijderd op 13-04-2017 13:33 ]


Acties:
  • 0 Henk 'm!
Werelds schreef op donderdag 13 april 2017 @ 12:44:
[...]

In het geval van RotTR kijk ik eerder naar het spel zelf. Daar schort van alles aan, dat spel heeft vanaf dag 1 problemen met allerlei hardware. Ik beschouw die game dan ook niet als een betrouwbare benchmark voor zowel GPU's als CPU's, ongeacht welke API het op draait.
Fair enough. :)
Voor de rest duidelijk. Op deze lijnen zat ik al een beetje maar zo is het iets duidelijker.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

Verwijderd

Daniël, jij weet dat ik het met jou eens ben dat GamersNexus Ryzen niet goed reviewde (ik zeg het niet graag want ik mag die persoon op zich wel) maar laat me even de advocaat van de duivel spelen. Je moet bij Ryzen bij voorkeur RAM kopen wat een hogere klokfrequentie heeft en al snel 40-50 euro meer kost, het is weinig getest hoe een B350-moederbord de CPU's hoger klokt en X370-moederborden zijn ook voor AM4 behoorlijk prijzig. Op dit moment volstaat 4 kernen met hyperthreaading nog nipt voor de zwaarst draaiende spellen en de consoles hebben in ieder geval totdat de PS5 en de X2 (als die zo gaat heten, je weet het nooit bij MS) uitkomen veel zwakkere CPU's dan een 1600. Schiet er rustig gaten in. ;)

Dit gezegd hebbende, naar mijn mening zou je de 1600 moeten afzetten tegen de 7600; dezelfde prijs en waarschijnlijk, maar niet 100% zeker, levert de 1600 dezelfde prestaties als de 1600X met een iets hogere spanning. De 1500 zou moeten worden vergelijken met de 7400 en de 7500. Koppel dit aan een B350-moederbord en Ryzen wint. Houd er rekening mee dat je twee extra kernen hebt en dat je hiermee meer longevity hebt (6-8 jaar is niet abnormaal voor hoelang je een CPU gebruikt) terwijl er misschien (hopelijk) meer geprogrammeerd gaat worden voor extra kernen (extra functies die uitgeschakeld kunnen worden) en dat je nu al bij de 7700k soms dips lijkt te krijgen (zeer voorzichtig kan je stellen dat hier aanwijzingen voor zijn) bij de zwaarst draaiende spellen doordat achtergrondtaken in de weg zitten tijdens het gamen en ik durf te stellen dat de Ryzen een betere keuze is. Ik kan hun argumentatie volgen maar het is wat eenzijdig. Ik erger me het meeste aan het gebrek aan nieuwsgierigheid wat je bij de reviewers hebt gezien. Niet even testen met AMD-kaarten om te zien of dat het misschien aan de drivers ligt, niet even testen met sneller RAM geheugen tot enkele weken nadat andere mensen het al hadden opgemerkt en iedereen al had geconcludeerd dat sneller RAM-geheugen werkt. Ze testen zoals je jarenlang een Intel-CPU kon testen en ze staan er te weinig bij stil dat bij een nieuwe architectuur nieuwe regels gelden. Let wel, Ryzen is niet enkel een nieuwe architectuur, volgens mensen die er verstand van hebben (bijvoorbeeld Wendell) is het ook nog eens een nieuw paradigma voor CPU's binnen de informatica/elektrotechniek. Dan gaat het natuurlijk over de CCX, de Infinity Fabric en de branche prediction waarvan is vastgesteld dat die 'leert' tijdens het gebruiken van de CPU (hogere uitslag R15 bij het herhalen van de test t/m de 6de keer volgens Wendell), zoals AMD claimde.

Acties:
  • 0 Henk 'm!

Verwijderd

Sorry, ik dacht dat iemand anders ondertussen een reactie had geplaatst.
Werelds schreef op donderdag 13 april 2017 @ 12:44:
Dat staat dan weer los van IQ optimalisaties die ze doorvoeren. Soms gaat dat mis waardoor ze een paar procent performance winnen met verlies van IQ (Nvidia's mipmap bias in Trackmania, AMD's AF in Crysis), maar over het algemeen merken wij daar niets van. Dat wil niet zeggen dat ze dat altijd doen, AMD is bijvoorbeeld vrij conservatief met het beperken van tessellation samples. Ze kunnen dat probleemloos doen, maar ze laten dit in de meeste gevallen over aan de developer (CDPR heeft bijvoorbeeld het aantal samples verlaagd met Hairworks) of aan de gebruiker (kun je in CCC gewoon een limiet aan stellen; of dat tegenwoordig in Crimson nog kan weet ik niet aangezien ik al jaren op Nvidia zit, maar ik neem aan van wel).
Je kan bij AMD momenteel per spel allerlei instellingen van het spel overrulen vanuit AMD settings wanneer het spel het toestaat (meestal). Een voorbeeld van een spel wat het niet toestaat: de oudere Assassins Creed spellen, je krijgt de FPS niet hoger dan net boven de refresh rate van je monitor in het geval van een 60 Hz scherm (ik weet niet hoe het bij een hogere refreshrate gaat). Bij The Witcher 3 draait het als een trein als je een optimale stand voor de tessellation instelt die hoog genoeg is dat je geen verschil ziet met hogere waardes maar niet zo hoog is dat je GPU enorm daalt. Nog een interessant detail, voor nieuwe spellen past AMD in beginsel de framelimitersetting toe die je elders instelde. Over de software van AMD voor de grafische kaarten heb ik de laatste jaren niets te klagen: gebruiksvriendelijker, meer opties, nagenoeg geen crashes (waarschijnlijk in mijn geval steeds aan de gebruiker te wijten: spanning, vermogen en overklok ;)). Ik vind het spijtig dat de CPU-tak van AMD nog niet zo ver is, hopelijk komt dat nog. Ik wil graag zien dat je per programma en per soort applicatie de overklok en spanning kan instellen. Wel maximaal voor games, niet als je bijvoorbeeld een of andere ingewikkelde simulatie (niet game) of model laat doorrekenen of wanneer een browsers of een programma zoals MS Office eventjes een piekbelasting heeft. Dit soort finetuning zou AMD nog moeten invoeren, ik heb er alle begrip voor dat AMD momenteel andere prioriteiten heeft (microcode, UEFI's) maar ik zou het fijn vinden als AMD zou laten weten dat het hieraan gaat werken.

[ Voor 26% gewijzigd door Verwijderd op 13-04-2017 14:14 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Verwijderd schreef op donderdag 13 april 2017 @ 13:06:
Heb jij het over de overhead op 1 kern (zeg maar de hoofdkern van de CPU - aangewezen door DX11 - die alle taken krijgt en vervolgens de taken kan delegeren naar andere kernen) of over de totale CPU-overhead? Ik begreep laatst dat Nvidia juist een hogere totale overhead heeft maar wel de belasting van die hoofdkern vermindert door ervoor te zorgen dat die hoofdkern niet de taken zelf krijgt maar de taken die het krijgt delegeert. Iets in die richting. Heb jij meer informatie hierover?
Je legt hier iets te veel verantwoordelijkheid bij DX11, maar min of meer wel ja. Bij RTG heb je min of meer al je batches in 1 thread zitten, dus als je game dan zelf ook nog matig aan multithreading doet zit je op 1 core met (te) veel game logic én het werk dat de driver moet doen. Bij Nvidia wordt dat laatste flink gesplitst. Hun totale overhead qua gebruikte CPU cycles is meer, maar de qua benodigde tijd is minder en die laatste is waar het om draait.

Stel je hebt 1000000 (1 miljoen) calls. Ga nu even uit van 1 MHz en niets anders dat cycles op slurpt; elke call hier krijgt even exact 1 cycle voor het rekengemak. Op 1 core heb je dan precies 1 seconde nodig. Dat is waar RTG zit. Nvidia neemt die 1m calls en bekijkt ze eerst even. Kost ze misschien 250k extra cycles, maar ze kunnen dan wel 500k calls naar een tweede core gooien. Op core 1 gebruiken ze dan 750k cycles (0,75s) en op core 2 500k cycles (0,5s). In totaal zitten ze hoger, maar omdat die parallel lopen zijn ze uiteindelijk 25% minder tijd kwijt.

In de praktijk werkt het natuurlijk compleet anders, want je kunt niet zomaar even een hoop naar een 2e core gooien en dan magisch alles werkend hebben, maar het bovenstaande is min of meer het idee.

Nvidia's oplossing is aan de ene kant een lelijke hack for luie devs, maar aan de andere kant een heel elegante oplossing om betere prestaties te krijgen in een heel breed scala aan games. Ook zij zijn zoals ik al zei echter beperkt in hoe ver ze dingen kunnen splitsen, dus het is niet zo dat dit meteen met 16 of zelfs 8 threads schaalt ;)

Acties:
  • 0 Henk 'm!
@Verwijderd Wat wil je nu precies zeggen? :P

Ik hou nu volgens mij al even vol dat je de line up als volgt moet zien, en ik krijg gewoon gelijk als ik de prijzen nu zie in de Pricewatch:
1600X vs 7700
1600 vs 7600k
1500X vs 7500
1400 vs 7400

De eerste en laatste is een Ryzen win, de andere twee kan je om twisten. De 1500X kan het verschil wegclocken, bij de 1600 vs 7600k gaat het om singlethread vs multithread. Dat wordt gemist in de meeste reviews, die alleen maar singlethread testen. Vervolgens wordt dit uitvergroot door de keuze van de 1080(Ti) of een Titan. Dat is helemaal niet hoe het blijft gaan. Ik zie Intel niet opeens enorme winsten maken in singlethread prestaties. Games schuiven ook steeds meer af op verschillende cores, omdat zelfs de luiste ontwikkelaars onderhand wel moeten. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op donderdag 13 april 2017 @ 15:31:
@Verwijderd Wat wil je nu precies zeggen? :P

Ik hou nu volgens mij al even vol dat je de line up als volgt moet zien, en ik krijg gewoon gelijk als ik de prijzen nu zie in de Pricewatch:
1600X vs 7700
1600 vs 7600k
1500X vs 7500
1400 vs 7400

De eerste en laatste is een Ryzen win, de andere twee kan je om twisten. De 1500X kan het verschil wegclocken, bij de 1600 vs 7600k gaat het om singlethread vs multithread. Dat wordt gemist in de meeste reviews, die alleen maar singlethread testen. Vervolgens wordt dit uitvergroot door de keuze van de 1080(Ti) of een Titan. Dat is helemaal niet hoe het blijft gaan. Ik zie Intel niet opeens enorme winsten maken in singlethread prestaties. Games schuiven ook steeds meer af op verschillende cores, omdat zelfs de luiste ontwikkelaars onderhand wel moeten. :P
Ik kijk naar de MSRP en ik houd er rekening met de prijzen zoals ze over een paar maanden zijn wanneer de ergste prijsgouging bij de winkeltjes in Nederland is getemperd.
De 1600 presteert natuurlijk hetzelfde als de 1600X, als je die niet overklokt dan ligt het aan die persoon zelf. Ik weet echter niet wat je beter kan hebben, de 7700 of de 7600k, De 7700 is een vreemd buitenbeentje, bijna niemand zal die kopen (ofwel de 7600k ofwel de 7700k).
Inderdaad, Intel gaat nagenoeg geen winst kunnen maken met de STP totdat er weer een nodeverkleining komt.

[ Voor 5% gewijzigd door Verwijderd op 13-04-2017 16:56 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op donderdag 13 april 2017 @ 13:50:
Daniël, jij weet dat ik het met jou eens ben dat GamersNexus Ryzen niet goed reviewde (ik zeg het niet graag want ik mag die persoon op zich wel) maar laat me even de advocaat van de duivel spelen. Je moet bij Ryzen bij voorkeur RAM kopen wat een hogere klokfrequentie heeft en al snel 40-50 euro meer kost, het is weinig getest hoe een B350-moederbord de CPU's hoger klokt en X370-moederborden zijn ook voor AM4 behoorlijk prijzig. Op dit moment volstaat 4 kernen met hyperthreaading nog nipt voor de zwaarst draaiende spellen en de consoles hebben in ieder geval totdat de PS5 en de X2 (als die zo gaat heten, je weet het nooit bij MS) uitkomen veel zwakkere CPU's dan een 1600. Schiet er rustig gaten in. ;)

Dit gezegd hebbende, naar mijn mening zou je de 1600 moeten afzetten tegen de 7600; dezelfde prijs en waarschijnlijk, maar niet 100% zeker, levert de 1600 dezelfde prestaties als de 1600X met een iets hogere spanning. De 1500 zou moeten worden vergelijken met de 7400 en de 7500. Koppel dit aan een B350-moederbord en Ryzen wint. Houd er rekening mee dat je twee extra kernen hebt en dat je hiermee meer longevity hebt (6-8 jaar is niet abnormaal voor hoelang je een CPU gebruikt) terwijl er misschien (hopelijk) meer geprogrammeerd gaat worden voor extra kernen (extra functies die uitgeschakeld kunnen worden) en dat je nu al bij de 7700k soms dips lijkt te krijgen (zeer voorzichtig kan je stellen dat hier aanwijzingen voor zijn) bij de zwaarst draaiende spellen doordat achtergrondtaken in de weg zitten tijdens het gamen en ik durf te stellen dat de Ryzen een betere keuze is. Ik kan hun argumentatie volgen maar het is wat eenzijdig. Ik erger me het meeste aan het gebrek aan nieuwsgierigheid wat je bij de reviewers hebt gezien. Niet even testen met AMD-kaarten om te zien of dat het misschien aan de drivers ligt, niet even testen met sneller RAM geheugen tot enkele weken nadat andere mensen het al hadden opgemerkt en iedereen al had geconcludeerd dat sneller RAM-geheugen werkt. Ze testen zoals je jarenlang een Intel-CPU kon testen en ze staan er te weinig bij stil dat bij een nieuwe architectuur nieuwe regels gelden. Let wel, Ryzen is niet enkel een nieuwe architectuur, volgens mensen die er verstand van hebben (bijvoorbeeld Wendell) is het ook nog eens een nieuw paradigma voor CPU's binnen de informatica/elektrotechniek. Dan gaat het natuurlijk over de CCX, de Infinity Fabric en de branche prediction waarvan is vastgesteld dat die 'leert' tijdens het gebruiken van de CPU (hogere uitslag R15 bij het herhalen van de test t/m de 6de keer volgens Wendell), zoals AMD claimde.
Gooi er ajb een paar enters / alinea's tussendoor. We zijn geen NSA decrypters.... :P

Verder, nu de stof wat begint neer te dwarrelen moet ik zeggen dat die 1600X wel een verdomd mooie CPU is.
- Profiteren van de grote AMD verdienste dat > 4 cores eindelijk mainstream kan worden.
- 1800X clocks
- Goede gameprestaties en duidelijk betere multithread prestaties tov Intel.
- In mijn ogen meer toekomstgericht.

Voor mij toch wel een nobrainer tov een 7600K. Prijs paar tientjes lager, bijv 225 a 235 had het een nog hardere knaller gemaakt.

Omdat alle R5 CPU's in essentie gewoon R7 CPU's zijn vraag ik me wel af of en wat dit zegt over de yields, efficientie en winstgevendheid.
Ze zullen veel meer R5 nodig hebben dan R7 agv de prijs. Zouden ze veel goede R7's moeten crippelen om voldoende R5's te krijgen of zijn de yields dusdanig dat er sowieso genoeg R5's zijn....

[ Voor 4% gewijzigd door Help!!!! op 13-04-2017 18:24 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Ik vind de 1600 anders interessanter. Goedkoper dan de 7600k, met een koeler waar je 3,7ghz mee zou moeten halen, en voorbij de 3,7ghz heb je dusdanig meer voltage en hitteproductie dat het minder interessant is. Voor mij is de 1600 dan ook de echte winnaar, niet de 1600X. De 1500X is ook wel aardig als je een 1600 niet kan betalen, maar beter om de €30 extra uit te geven. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Voor mij niet omdat de OC niet gegarandeerd is. Waarbij die 3.7 al een handmatige OC behelst. Denk dat in mainstream er toch wel heel veel mensen zijn die niet zelf overclocken.

Daarnaast is 3.7 is ook nog lang geen 4.0 en Ryzen houdt wel degelijk van clockspeed.

Qua prijs is 1600X duidelijk tov 7600K neergezet als je het mij vraagt.

Waar ik zelf eerst aan een 1700X (of wellicht een 1700) zat te denken, heb ik het gevoel dat de 1600X een veel rationelere keus is voor de korte tot middellange termijn. Want, veel goedkoper, toch hele goede multithread en de gegarandeerde hogere 1800X clocks.

De 1600X lijkt enigzins onverwacht ook niet te lijden onder de 3+3 opstelling.

Denk dat de 1600X tot de tegenzet van Intel echt een hardloper kan gaan worden qua verkoop.

[ Voor 33% gewijzigd door Help!!!! op 13-04-2017 18:43 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Louw Post
  • Registratie: Februari 2006
  • Laatst online: 11:34

Louw Post

Cerenas

Ik vraag me af of er geen moederborden komen waarbij je cores kan unlocken, zoals dat in het Phenom II tijdperk kon. Hehehe :9

Edit: Trouwens, weet iemand toevallig of het AMD logo op de Wrait Spire licht geeft (die bij de normale 1600 zit)?

[ Voor 31% gewijzigd door Louw Post op 13-04-2017 19:05 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:46

Compizfox

Bait for wenchmarks

Verwijderd schreef op donderdag 13 april 2017 @ 02:15:
[...]
Het gaat al verkeerd met het feit dat ze enkel een Nvidia kaart gebruiken en dat ze daarmee doodleuk het feit negeren dat Ryzen veel slechter presteert door voor Ryzen slecht werkende Nvidia drivers terwijl je bij AMD-kaarten een veel kleiner verschil hebt tussen Ryzen en Intel of Ryzen zelfs wint, afhankelijk van het spel. Voor verschillende DX12-spellen en 1 DX9-spel is tot nu toe aangetoond dat Ryzen bij een Nvidia-kaart een fors lagere FPS haalt dan bij een AMD-kaart terwijl voor Intel het verschil veel kleiner is. Ik verwijs nogmaals naar o.a. de Anandtech-review en de eerder besproken filmpjes (AdoredTV, NerdTechGasm...).
Hiermee zijn al die gaming benchmarks van GamersNexus niets waard en zijn hun conclusies op niets gebaseerd. Laat hen eerst en vooral maar eens met zowel Nvidia-kaarten als AMD-kaarten testen.
OK, goed punt, maar om dan te zeggen dat de review daarom niets waard is ben ik het niet mee eens. Ze zijn lang niet de enige die alleen met een GTX1080 hebben getest. Vind je bijvoorbeeld de review van Computerbase.de om dezelfde reden ook niets waard?

Rocket League is natuurlijk een heel raar geval. Daar is duidelijk iets heel raars aan de hand (waarschijnlijk in de vorm van een driver bug?) en lijkt me daarom niet heel representatief.


Werelds schreef op donderdag 13 april 2017 @ 10:50:
[...]
Nvidia's DX11 driver is dusdanig efficiënt dat ze met het werk dat ze in DX12/Vulkan moeten doen eigenlijk niet veel winnen. Bij RTG is dat dus omgekeerd, daarom zie je Fury (X) in sommige gevallen ineens zo bizar goed presteren. Fiji wordt dan niet meer beperkt door de brakke driver.
Kun je dit iets verder uitweiden? Hoe zit het nou precies? DX12 zorgt voor minder driver overhead (wat werk voor de CPU is) t.o.v. DX11 toch? En RTG heeft een betere DX12-implementatie dan Nvidia, correct?

Hoe verhoudt zich dat dan precies tot Ryzen?


DaniëlWW2 schreef op donderdag 13 april 2017 @ 11:25:
[...]
En dat is dus hartstikke krom. We raden de i5 een soort van af, dus kijk naar de R5 1600, en de 7700k die behoorlijk wat duurder is. i5 en R5 zijn mainstream CPU's, en daar wordt even de behoorlijk dure 7700k aangeraden. Die CPU is geen partij in deze vergelijking omdat deze buiten het budget van mensen valt die een i5 of R5 willen kopen.
Die aanbevelingen zijn natuurlijk de 'sweet spots': de CPUs die een hoge performance/prijs-verhouding hebben.

Voor iemand met het budget voor een i5/R5 is de 7700k inderdaad geen optie; dat is voor als je een hoger budget hebt. Dat is toch niet zo vreemd? Je kunt onafhankelijk van prijs een aantal CPUs aanwijzen die slimme opties zijn. De 7700k is daar één van (op hoger budget) omdat die zeer goed presteert in games.
Vervolgens hoe komen ze tot de conclusie dat een 7700k een keuze is? Dat doen ze omdat ze testen met een GTX1080 en die GPU heeft alle singlethread prestaties nodig om überhaupt gepusht te worden zoveel frames te produceren op 1080p. Wat test je dan precies? Juist ja, je test hoe een overkill GPU omgaat met singlethread prestaties van een CPU lijn die de nadruk legt op multithread prestaties. Beetje krom lijkt me.
Doel je hiermee op het fenomeen waar ik het met CHBF even hierboven over had waarbij Nvidia in DX12-games slecht met multicore CPUs omgaat? Anders snap ik even niet wat je bedoelt. Want ja, het is juist de bedoeling dat je een situatie creëert waarbij je CPU performance nodig hebt om frames te pushen; op die manier meet je de performance van de CPU in plaats van de GPU.
[...]
Ik vind het dus niet langer meer logisch, maar ronduit vertekenend. Als je testmethodiek niet klopt, dan zijn de resultaten ook niet serieus te nemen. Je test ook niet voor de toekomst met deze setup. De toekomst is niet dat we voor eeuwig blijven zitten op een CPU core die alle renderinstructies afhandelt.
De testmethodiek klopt prima als het je gaat om het benchmarken van CPU-performance in games. Testen voor de toekomst blijft gewoon lastig: heb jij even wat games uit te toekomst voor mij zodat ik daarmee kan testen? ;) Dat kun je eigenlijk alleen doen door te speculeren, en door games te testen die nu al voorop liggen als het gaat om gebruik van een hoop threads.
Nee, we schuiven steeds meer naar multicore support hiervoor en dan verliezen de i5's het, zijn de R5 quadcores ook niet al te interessant en zal je naar een hexacore moeten kijken.
Dat klopt, maar die uitspraak is volgens mij vrij in lijn met GamersNexus' review hoor :)

[ Voor 61% gewijzigd door Compizfox op 13-04-2017 19:47 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Tomski1986
  • Registratie: September 2011
  • Laatst online: 08-09 08:55
Ik ben niet zo'n echte kenner als jullie dus vraag ik hier best:
Wat is, qua prijs / kwaliteit nu het beste om aan te schaffen. Zowel nu als in de toekomst?
(Gaming / alledaags gebruik)

De Ryzen 5 1600 (X) of de i5 7600K?

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 09:45
Tomski1986 schreef op donderdag 13 april 2017 @ 19:40:
Ik ben niet zo'n echte kenner als jullie dus vraag ik hier best:
Wat is, qua prijs / kwaliteit nu het beste om aan te schaffen. Zowel nu als in de toekomst?
(Gaming / alledaags gebruik)

De Ryzen 5 1600 (X) of de i5 7600K?
Welk antwoord verwacht je hier precies? :p als je het mij vraagt, de 1600.

De fan van de 1600 licht niet op

Acties:
  • 0 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Laatst online: 11-09 22:35

The Chosen One

Zie signature!

1600(X) zit de meeste value/money met wat futureproofing. Voor zover je dat nu kunt zeggen ofc.

Of je moet "weer" wachten op de X299 serie van Intel (tegenhanver van de X399!) ;p
Onderdeel van de "enthousiast" serie maar wel met 6-8 (en 10 cores). De vraag is alleen zitten die prijzen in de buurt van R5/R7 om te concureren of (veel) hoger omdat het X299 is.
Maar ja dat kan niemand zeggen gok ik tenzij er ergens leaks zijn.

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:46

Compizfox

Bait for wenchmarks

Iets anders: kan iemand mij uitleggen hoe het nou zit met RAM-support? Ik zie in reviews vaak dit plaatje:

Afbeeldingslocatie: https://pics.computerbase.de/7/6/7/3/7/29-1080.262468404.jpg

Maar toch zie ik benchmarks waar men ram op 3200 MHz draait... hoe zit dat?

Gewoon een heel grote verzameling snoertjes


Acties:
  • +1 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Nu online

Tomas Hochstenbach

Redacteur componenten
Compizfox schreef op donderdag 13 april 2017 @ 20:11:
Iets anders: kan iemand mij uitleggen hoe het nou zit met RAM-support? Ik zie in reviews vaak dit plaatje:

[afbeelding]

Maar toch zie ik benchmarks waar men ram op 3200 MHz draait... hoe zit dat?
3200 MHz is de hoogste snelheid die je kan instellen, maar wordt niet officieel ondersteund. Zeker in het begin werkte vrijwel geen enkele kit op deze snelheid, de geheugencompatibiliteit begint langzaam beter te worden. Ik zou nog altijd afgaan op de officiële ondersteuningslijsten van mobo-fabrikanten en geheugenmerken ipv at random een kit kopen. Voor geheugen hoger dan 3200 MHz moet je overigens de baseclock aanpassen, wat betekent dat de turbo's en XFR worden uitgeschakeld.

Acties:
  • 0 Henk 'm!
Compizfox schreef op donderdag 13 april 2017 @ 19:21:
Die aanbevelingen zijn natuurlijk de 'sweet spots': de CPUs die een hoge performance/prijs-verhouding hebben.

Voor iemand met het budget voor een i5/R5 is de 7700k inderdaad geen optie; dat is voor als je een hoger budget hebt. Dat is toch niet zo vreemd? Je kunt onafhankelijk van prijs een aantal CPUs aanwijzen die slimme opties zijn. De 7700k is daar één van (op hoger budget) omdat die zeer goed presteert in games.
Maar wie koopt er nu werkelijk een 1080(Ti) om te gamen op 1080p? De enige reden die ik kan bedenken is als je een 144hz monitor hebt en perse alles minimaal met een framerate wil spelen van 144, en alles moet op ultra settings, terwijl je het verschil met high niet eens ziet. Ja, koop dan een 1080(Ti) en een 7700k. Voor de andere 99%, de mensen die een 1440p monitor kopen of het niet zo erg vindt om een setting omlaag te halen is de 7700k overkill op 1080p. Voor een 1080p scherm met een lagere verversingssnelheid of de bereidheid om wat settings omlaag te doen, heb je de 1080(Ti) al niet nodig, en de 7700k dus ook niet. Er wordt gedaan alsof die combinatie het minimaal acceptabele is, wat onzin is. Er wordt in veel gevallen niet realistisch getest met een RX480 of 1060, naast de 7600k en de 1600. Dan lopen de verschillen behoorlijk terug. Dan is de 7600k nu maar een paar procent sneller. Je kan echt wel bedenken dat die paar procent niet opwegen tegen de betere levensduur verwachting van de 1600. Verder is het niet eens een uitgemaakte zaak welke van de twee CPU's wint. Beide hebben hun games waar ze beter presteren. Ook is een verschil van een of twee frames te verwaarlozen. Bij vijf of meer mag je van beter spreken. Dan pakken we Anand erbij omdat de meeste reviews alleen maar 1080(Ti) waren...

Afbeeldingslocatie: https://tweakers.net/ext/f/9q6myOn9AHF80iBghCvxRnyp/full.jpg
Afbeeldingslocatie: https://tweakers.net/ext/f/cEOXWQIgVZXYiy2WZwc5tWI6/full.jpg
Afbeeldingslocatie: https://tweakers.net/ext/f/iEVFdZ2gN4YTQJTRuZkhl0sO/full.jpg
Afbeeldingslocatie: https://tweakers.net/ext/f/72hEac5LtNCHCQ2Tq14ZNpVx/full.jpg
Afbeeldingslocatie: https://tweakers.net/ext/f/ldhBwCA7UmvQLcryPd7XNGSC/full.jpg

Negeer de bovenste benchmarks en kijk naar de RX480 en 1060. In CiV 6 wint Ryzen keihard met DX12 en een AMD GPU. De 1500X haar winst bij Nvidia kan ik niet verklaren, misschien de extra cache maar dat is speculatie. Dat was te verwachten. Bij Rocket League is de Ryzen en Nvidia combinatie bugged, maar bij de RX480 is het gelijkwaardig. Schadow of Mordor heeft een lichte voorkeur voor Intel, maar Ryzen is niet slecht. Met een overclock zal je waarschijnlijk het verschil kunnen verkleinen. De verschillen in GTA V zijn te verwaarlozen, dat is zo goed als gelijk. Tomb Raider, daar is echt geen touw aan vast te knopen. Alleen de Fury X resultaten lijken enigszins te kloppen.

Kijk je nu alleen naar de 1080, "Ryzen is crap confirmed"... 8)7
Nee, bij Ryzen en de 1080 gaan behoorlijk wat dingen mis, die buiten de pas lopen als je andere GPU's ernaast bekijkt. Dat heeft Nvidia haar drivers te maken en niet Ryzen. Dat wordt duidelijk als je naar de AMD GPU's lijkt, als je kan vergelijken. De 1600X zou steevast een paar procent achter moeten liggen ten opzichte van de 7600k in games die maar vier cores of minder gebruiken, en inlopen of inhalen in games die meer dan vier cores gebruiken. De 1500X zou ongeveer tussen 7400 en 7500 moeten presteren, en was deze overclocked dan rond de 7500. Dat gebeurd niet bij Nvidia en daar kom je nooit achter als je blijft testen met de 1080...

De overgrote meerderheid heeft ook echt geen 1080(Ti), en dus ook geen 7700k nodig. Ga je vervolgens naar 1440p dan ben je meteen GPU gelimiteerd en vervalt wederom de noodzaak van de 7700k. Pak dan lekker een 1600 vanwege de extra cores of ga voluit met de 1700 zodat je werkelijk geen tekort gaat hebben aan CPU rekenkracht de komende jaren.

Het CPU bottleneck argument is ook onzinnig. Wederom, je test een extreme omstandigheid, en een die gaat veranderen. Bij DX12 games horen de GPU renderinstructues niet op die ene core gedumpt te worden. Dat is niet zo bij AMD en laat AMD nu met afstand de betere DX12 implementatie hebben. Verder, als je nu bewust een Nvidia GPU koopt vanwege DX12 games dan heb je overduidelijk je huiswerk niet gedaan. Wederom, koop je nu een GPU voor 1080o gaming en moet je de 144hz halen met alles ultra, dan de 7700k/1080(Ti), voor de rest is het onzinnig. Elke keer de 1080p, 144hz test doen en alles vergelijken met die test is ook onzinnig.
Doel je hiermee op het fenomeen waar ik het met CHBF even hierboven over had waarbij Nvidia in DX12-games slecht met multicore CPUs omgaat? Anders snap ik even niet wat je bedoelt. Want ja, het is juist de bedoeling dat je een situatie creëert waarbij je CPU performance nodig hebt om frames te pushen; op die manier meet je de performance van de CPU in plaats van de GPU.

De testmethodiek klopt prima als het je gaat om het benchmarken van CPU-performance in games. Testen voor de toekomst blijft gewoon lastig: heb jij even wat games uit te toekomst voor mij zodat ik daarmee kan testen? Dat kun je eigenlijk alleen doen door te speculeren, en door games te testen die nu al voorop liggen als het gaat om gebruik van een hoop threads.

Dat klopt, maar die uitspraak is volgens mij vrij in lijn met GamersNexus' review hoor :)
Nee dus. Je test hier een zeer specifiek scenario wat een aantal jaar geleden realistisch was om het maximale van een CPU te achterhalen, maar nu niet meer. Niet elke game gebruikt meer twee of drie cores en wat een high end GPU laat zien qua framerates is puur afhankelijk van singlecore prestaties van de CPU. Nee, er zijn games die dat doen, en games die over de vier cores heengaan. DX11 is nog van de ene core, bij Nvidia een beetje van andere CPU cores maar niet extreem veel. DX12/Vulkan, de toekomstige standaarden zijn fundamenteel anders en hebben veel meer aan veel cores dan minder, snellere cores. Gamen schuiven die kant nu ook al op. Dan kan je wel puur richten op wederom singlethread en de 1080(Ti), maar geen van beide vertelt je iets zinvols over prestaties over een paar jaar, als veel meer games DX12/Vulkan based zijn en gebruik maken van zes cores.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:46

Compizfox

Bait for wenchmarks

DaniëlWW2 schreef op donderdag 13 april 2017 @ 20:51:
[...]

Maar wie koopt er nu werkelijk een 1080(Ti) om te gamen op 1080p?
[...]
Er wordt gedaan alsof die combinatie het minimaal acceptabele is, wat onzin is. Er wordt in veel gevallen niet realistisch getest met een RX480 of 1060, naast de 7600k en de 1600. Dan lopen de verschillen behoorlijk terug.
Nogmaals: niemand suggereert dat een 1080(Ti) logisch is voor gamen op 1080p. Dat is een misvatting van jou. Die snelle GPU is puur en alleen voor de benchmark om GPU-bottleneck te voorkomen zodat je in de testresultaten verschil kunt zien tussen de geteste CPUs.

Ja, natuurlijk lopen de verschillen tussen de CPUs terug als een GTX1060 of RX480 pakt. Je introduceert daarmee namelijk een zekere mate van GPU-bottleneck, waardoor de invloed die de CPU heeft op de resultaten kleiner wordt. En dat is precies de reden dat je een GTX1080(Ti) pakt: om GPU-bottleneck te vermijden en daarmee de verschillen tussen de CPUs beter in beeld te brengen.

Ik verwijs nogmaals naar de quote van HardOCP in mijn vorige posts: het zijn slechts benchmarks, en de benchmarks zijn helemaal niet bedoeld om real-world gameplay te weerspiegelen. Ze zijn bedoeld om CPUs te benchmarken.

De misvatting lijkt te liggen bij dat jij denkt dat benchmarks realistische scenario's (voor gaming) horen voor te spiegelen, waaruit je dan direct conclusies kunt trekken voor jouw situatie. Dat is niet het geval: die benchmarks zijn er om CPUs te testen op performance, en de resultaten komen helemaal niet direct overeen met real-world scenario's. Er wordt dus getest met overkill GPUs, lage resoluties, etc om de verschillen tussen de CPUs duidelijk in beeld te brengen.

Dit betekent dat je de benchmarks ook met dat in je achterhoofd moet interpreteren. Als jij een RX480 hebt en op 1440p gamet (ik noem maar wat) en in de review wordt getest met een GTX1080 op 1080p, dan moet je bij het interpreteren van de benchmark er rekening mee houden dat in jouw real-world situatie de verschillen tussen CPUs veel minder extreem gaan zijn, omdat je GPU-bottlenecked bent.

En dat doe jij in feite ook in je verhaal hieronder (wat ik vanwege beknoptheid maar niet helemaal ga quoten), behalve dat jij dit beschouwt als kritiek op de testmethode, terwijl dit eigenlijk juist normale interpretatie van de benchmark is... :)
[...]
Nee dus. Je test hier een zeer specifiek scenario wat een aantal jaar geleden realistisch was om het maximale van een CPU te achterhalen, maar nu niet meer. Niet elke game gebruikt meer twee of drie cores en wat een high end GPU laat zien qua framerates is puur afhankelijk van singlecore prestaties van de CPU.
(emphasis mine)

Dit volg ik niet... Waarom is dat zo? Waarom is dat alleen afhankelijk van de single-core prestaties? Is dat bij low-end GPUs niet zo?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op donderdag 13 april 2017 @ 18:11:
Verder, nu de stof wat begint neer te dwarrelen moet ik zeggen dat die 1600X wel een verdomd mooie CPU is.
- Profiteren van de grote AMD verdienste dat > 4 cores eindelijk mainstream kan worden.
- 1800X clocks
- Goede gameprestaties en duidelijk betere multithread prestaties tov Intel.
- In mijn ogen meer toekomstgericht.

Voor mij toch wel een nobrainer tov een 7600K. Prijs paar tientjes lager, bijv 225 a 235 had het een nog hardere knaller gemaakt.
7600k vs 1600(X) zou inderdaad een nobrainer moeten zijn, voor alle gamers. Niet iedereen zal voor de 1600(X) kiezen maar ik ben nu zo arrogant om op te merken dat die mensen een verkeerde keuze maken. :)
Omdat alle R5 CPU's in essentie gewoon R7 CPU's zijn vraag ik me wel af of en wat dit zegt over de yields, efficientie en winstgevendheid.
Ze zullen veel meer R5 nodig hebben dan R7 agv de prijs. Zouden ze veel goede R7's moeten crippelen om voldoende R5's te krijgen of zijn de yields dusdanig dat er sowieso genoeg R5's zijn....
Let op, twee quadcores worden ook tot de R5 gerekend en in principe had Intel ons natuurlijk jaren geleden de hexacore moeten verkopen voor pak hem beet 250 euro, lijkt mij. Puur qua prijs, yields etc.
Intel had een monopolie en profiteerde ervan. Kijk alleen al naar hoe lang de quadcore standaard is, hoewel de i5-750 niet de eerste was mag je denk ik stellen dat dit de eerste quadcore was die standaard in een goedkope (700-800 euro) prebuild PC zat in 2009-2010. Inmiddels is de quadcore 8 jaar lang de 'basis'-CPU voor gamers. Rijkelijk lang gezien de ontwikkelingen waaronder de sprong van pak hem beet 45 nm. naar 14 nm. FinFet, hoe dat ook precies wordt uitgedrukt (nogal wat gefoefel en zelfs de ene 14 nm. van Intel is de andere niet). Natuurlijk kan je niet stellen dat je 3 keer zoveel kernen moet krijgen voor dezelfde prijs als de node 3 keer zo klein zou zijn geworden, of wat ook de verhouding is (dat is nu het punt niet), gezien de investeringskosten maar 50% meer kernen, het is geen ingewikkelde servetberekening.
DaniëlWW2 schreef op donderdag 13 april 2017 @ 18:28:
Ik vind de 1600 anders interessanter. Goedkoper dan de 7600k, met een koeler waar je 3,7ghz mee zou moeten halen, en voorbij de 3,7ghz heb je dusdanig meer voltage en hitteproductie dat het minder interessant is. Voor mij is de 1600 dan ook de echte winnaar, niet de 1600X.
Ik volg jou maar ik weet niet of dat het waar is. Het hangt af van het extra vermogen bij het spanningsverschil tussen de 1600 en de 1600X voor 3,9-4,1 GHz (afhankelijk van hoe het klokt). Ik zou graag eerst het verschil in de spanning willen weten en een berekening voor het verschil in vermogen bij X uur per week gemiddeld gebruik willen zien. Normaal gesproken zou het vermogen ongeveer kwadratisch moeten toenemen met de spanning. Een beetje grotere kans op 0,1 GHz meer is op zich ook wel de moeite waard als zo'n verschil er zou zijn, zolang het niet al te veel is wat je ervoor betaalt.
Ik ben niet gecharmeerd van de quadcores van Ryzen tot nu toe, die zou ik links laten liggen. Ik denk dat 99% van de powerusers de 1600, 1600X en de 1700 die zou moeten overwegen, boven de 1700 wordt het prijsverschil natuurlijk te groot gezien het verschil in prestaties, tenzij de 1700X nog wat meer in prijs zakt misschien (hetzelfde verhaal; verschil in vermogen...).

Eventjes iets anders, hebben jullie het meegekregen dat AMD op dit moment via de microcode een harde grens van rond de 4,1 GHz hanteert? Daarom kan niemand hoger klokken. Niet dat je niet bergen energie ertegen aan moet smijten vanaf de pak hem beet 4,0 GHz maar het is wel relevant om dit te weten aangezien de kans groot is dat AMD in de toekomst een grotere overklok zal toestaan, kwestie van experimenteren en zien wanneer het wel en niet stabiel blijft. Ik ben er zelf een voorstander van dat AMD niet zo'n grens hanteert in de microcode, zolang je het zelf kan finetunen...
Ik begrijp wel waarom ze het doen, het laatste wat je bij een nieuwe CPU wil is dat mensen gaan janken dat ze crashes krijgen omdat ze te grote stappen maken bij het overklokken zonder eerst de stabiliteit uit te proberen.

[ Voor 11% gewijzigd door Verwijderd op 13-04-2017 21:31 ]


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 09:45
Meer dan een Quadcore nemen was om de reden dat ryzen nu niet optimaal uit de verf komt, software was er niet op voorbereid.

En waarom niet, omdat er nauwelijks..

Zie mijn username

Acties:
  • 0 Henk 'm!
Nee, ik zeg iets anders. Natuurlijk zijn benchmarks niet zaligmakend en perfect. Dat reviewers vervolgens wel conclusies trekken aan de hand van een selectieve benchmarksessie, daar heb ik een probleem mee. Wil je conclusies trekken dan zal je breed moeten testen, en dus niet het ene scenario dat een vertekend beeld oplevert. We weten ongeveer wat Ryzen kan vanwege synthetische benchmarks, en als je te lage prestaties vind in games dan moet je door gaan testen. Nee, Ryzen werd daarentegen afgeschreven, er werden kromme vergelijkingen gemaakt en idioten op het internet gedroegen zich als idioten op het internet, because internet en gingen weer dom lopen trollen.

Ondertussen waren er een aantal die vrijwel meteen zagen dat er dingen niet klopte en die gingen graven, en dan komen er interessante dingen naar voren die de verschillen verklaren. Verklaringen zoals Nvidia's haar drivers die niet naar behoren presteren met Ryzen, zonder een logische verklaring. Dan moet je dus niet alweer met de 1080(Ti) onzintest aan komen zetten want je test er niks mee. Dat is een fout in testmethodiek en dat wordt duidelijk als je kijkt naar de Anand benches, waar ze wel met meerdere GPU's testte.
Dit volg ik niet... Waarom is dat zo? Waarom is dat alleen afhankelijk van de single-core prestaties? Is dat bij low-end GPUs niet zo?
Dat is hier uitgelegd en onderhand uitgebreid besproken. Nvidia en AMD haar GPU's scheduleren hun renderinstructies op een andere manier en er zijn verschillen tussen DX11 en DX12/Vulkan. Zie Wereld zijn recente reacties in dit topic en dit filmpje.
YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling &amp...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

418O2 schreef op donderdag 13 april 2017 @ 21:30:
Meer dan een Quadcore nemen was om de reden dat ryzen nu niet optimaal uit de verf komt, software was er niet op voorbereid.

En waarom niet, omdat er nauwelijks..

Zie mijn username
Ja, een catch22 maar naarmate de software beter wordt aangepast dankzij de hexacores en de octacores zullen de prestaties van de quadcores verbeteren en AMD heeft een sterke troef met de APU's voor de budgetgamers, studenten-PC's etc.
Om nog maar te zwijgen over de laptop-CPU's. Laag vermogen, veel betere geïntegreerde graphics, goede prijs, als AMD niet veel APU's aan laptopfabrikanten verkoopt...wel, dan verdenk ik Intel ervan weer het metaforische pistool (Compaq en server-CPU's, rebates...) tegen het hoofd van de laptopbouwers te houden.
Compizfox schreef op donderdag 13 april 2017 @ 21:19:
Dit volg ik niet... Waarom is dat zo? Waarom is dat alleen afhankelijk van de single-core prestaties? Is dat bij low-end GPUs niet zo?
DX11 wijst 1 hoofd-kern van de CPU aan die alle taken krijgt toegewezen, deze kern kan het weer delegeren naar andere kernen maar krijgt altijd een hogere belasting. Nvidia heeft een trucje bij DX11 waarbij ze de taken als het ware verwijderen maar in plaats daarvan de opdrachten door laten geven door de hoofdkern aan de andere kernen, naar verluidt. Die hoofdkern doet enkel nog delegeren voor wat het van de API krijgt terwijl bij AMD die hoofdkern volop wordt belast. Dit gaat ten koste van een CPU-overhead (het regelen van dit alles) maar die ene kern wordt ontzien en zelden werden 4 kernen voldoende zwaar belast. Nvidia profiteerde hiervan met deze slimme truc. Ik moet het hen nageven, dit is briljant. Ik haat de streken van Nvidia maar dit hebben ze slim gedaan.

[ Voor 59% gewijzigd door Verwijderd op 13-04-2017 21:39 ]


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 09:45
Gaan we overigens niet voorbij aan Frametimes, 99th percentile etc? Die cijfers zeggen meer over de ervaring dan het absolute gemiddelde imo

Acties:
  • 0 Henk 'm!

Verwijderd

Compizfox schreef op donderdag 13 april 2017 @ 19:21:
[...]

OK, goed punt, maar om dan te zeggen dat de review daarom niets waard is ben ik het niet mee eens. Ze zijn lang niet de enige die alleen met een GTX1080 hebben getest. Vind je bijvoorbeeld de review van Computerbase.de om dezelfde reden ook niets waard?
Laat ik het zo zeggen, de waarde is dat je vaststelt dat in combinatie met Ryzen Nvidia zwakker presteert dan in combinatie met Intel (we weten inmiddels dat het zo is en niet andersom, het is niet Ryzen wat zwakker presteert in combinatie met Nvidia).
De conclusies die over de gamingprestaties van Ryzen zijn getrokken op basis van enkel het testen met 1 krachtige Nvidia-kaart hebben geen waarde. Anandtech is fors in mijn achting gestegen. Ik kende dat medium natuurlijk al een flink aantal jaren maar ze hebben voor mij nu aangetoond nog steeds relevant te zijn.
418O2 schreef op donderdag 13 april 2017 @ 21:38:
Gaan we overigens niet voorbij aan Frametimes, 99th percentile etc? Die cijfers zeggen meer over de ervaring dan het absolute gemiddelde imo
Ook daar besteede Anandtech aandacht aan, 99% en tijdsduur onder X FPS.
Dan nog heb je natuurlijk niet alle relevante informatie! 1 voorbeeld, geen enkel reviewers heeft tot nu toe de inputlag gemeten. Het is best mogelijk om die met intel te vergelijken door een optische sensor en een camera op een handige manier te combineren (met software). Toegeven, het ontstijg de technische vaardigheid van de doorsnee techtuber maar het is best mogelijk, Linus had eens zo'n test gedaan om de inputlag van een draadloze muis te vergelijken met die van een bedrade muis.
Het is best mogelijk dat je met een lagere FPS een lagere inputlag hebt, het is het onderzoeken waard. Het zou misschien kunnen verklaren waarom zoveel reviewers Ryzen zoveel lekkerder vinden gamen dan wat de FPS suggereert (in combinatie met een Nvidia-kaart nog wel). .

[ Voor 36% gewijzigd door Verwijderd op 13-04-2017 21:46 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 13:46

Compizfox

Bait for wenchmarks

DaniëlWW2 schreef op donderdag 13 april 2017 @ 21:32:
[...]
Dat is hier uitgelegd en onderhand uitgebreid besproken. Nvidia en AMD haar GPU's scheduleren hun renderinstructies op een andere manier en er zijn verschillen tussen DX11 en DX12/Vulkan. Zie Wereld zijn recente reacties in dit topic en dit filmpje.
YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling &amp...
Dat weet ik inderdaad. Maar dan is het dus meer een Nvidia-specifiek dingetje dan een high-end GPU-dingetje (dat vooral single-core performance belangrijk is), toch?

(ik heb het filmpje nog niet afgekeken, dat ga ik nu doen)


Verwijderd schreef op donderdag 13 april 2017 @ 21:33:
[...]
DX11 wijst 1 hoofd-kern van de CPU aan die alle taken krijgt toegewezen, deze kern kan het weer delegeren naar andere kernen maar krijgt altijd een hogere belasting. Nvidia heeft een trucje bij DX11 waarbij ze de taken als het ware verwijderen maar in plaats daarvan de opdrachten door laten geven door de hoofdkern aan de andere kernen, naar verluidt. Die hoofdkern doet enkel nog delegeren voor wat het van de API krijgt terwijl bij AMD die hoofdkern volop wordt belast. Dit gaat ten koste van een CPU-overhead (het regelen van dit alles) maar die ene kern wordt ontzien en zelden werden 4 kernen voldoende zwaar belast. Nvidia profiteerde hiervan met deze slimme truc. Ik moet het hen nageven, dit is briljant. Ik haat de streken van Nvidia maar dit hebben ze slim gedaan.
Bedankt voor de uitleg.

Maar op basis hiervan zou je toch juist zeggen dat Nvidia GPUs in DX11 beter met Ryzen zouden moeten kunnen omgaan dan RTG GPUs? Dat is iets anders dan wat Daniël zegt (namelijk dat een high-end GPU als de GTX1080(Ti) vooral leunt op single-core performance).

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Compizfox schreef op donderdag 13 april 2017 @ 21:46:
Bedankt voor de uitleg.

Maar op basis hiervan zou je toch juist zeggen dat Nvidia GPUs in DX11 beter met Ryzen zouden moeten kunnen omgaan dan RTG GPUs? Dat is iets anders dan wat Daniël zegt (namelijk dat een high-end GPU als de GTX1080(Ti) vooral leunt op single-core performance).
Het probleem is dat dit niet zomaar even automatisch gaat voor de Nvidia-drivers, ze moeten per spel per architectuur dit programmeren en wat ze ook doen voor Intel, het werkt niet voor Ryzen. Ik heb geen idee hoe moeilijk het voor Nvidia wordt om het op te lossen maar laten we er maar vanuit gaan dat Nvidia het al had opgelost als het gemakkelijk zou zijn. ;)
In contrast hiermee doen de AMD-kaarten voor Vulkan en DX12 wel automatisch de load verdelen over de kernen, dit omdat zij een hardwarescheduler gebruiken. Je ziet dan ook dat Intel net zoveel profijt heeft en zal houden als AMD (CPU's) met hetzelfde aantal kernen etc.

Van deze gaan jullie smullen, jongens! Ik verklap nog even niets, behalve dat ze werkelijk alles hebben gedaan wat je kan doen om de performance voor dit spel te onderzoeken. Datgene wat we zo erg missen bij bijna alle reviewers...
YouTube: Gameplay/Frametimes of GTA V on Ryzen & Intel (3/3)

[ Voor 31% gewijzigd door Verwijderd op 13-04-2017 23:37 ]


Acties:
  • 0 Henk 'm!
Compizfox schreef op donderdag 13 april 2017 @ 21:46:
[...]

Dat weet ik inderdaad. Maar dan is het dus meer een Nvidia-specifiek dingetje dan een high-end GPU-dingetje (dat vooral single-core performance belangrijk is), toch?

(ik heb het filmpje nog niet afgekeken, dat ga ik nu doen)
Nee, het is zowel high end als Nvidia. Met een Fury X zijn er al heel wat minder vreemde resultaten en met een AMD GPU en een DX12 heb je helemaal geen problemen en zal Ryzen eerder een voor, dan een nadeel zijn. Dat wordt allemaal niet getest voor vele revieuwers en dat valt kwalijk te nemen. Dat is nu juist het punt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op vrijdag 14 april 2017 @ 00:20:
[...]


Nee, het is zowel high end als Nvidia. Met een Fury X zijn er al heel wat minder vreemde resultaten en met een AMD GPU en een DX12 heb je helemaal geen problemen en zal Ryzen eerder een voor, dan een nadeel zijn. Dat wordt allemaal niet getest voor vele revieuwers en dat valt kwalijk te nemen. Dat is nu juist het punt.
Dat wordt enorm onderschat. Je zag het bij de R5-review van PCPerspective ook, zij noemden doodleuk dat AMD verloor bij Rise of the Tomb raider maar vergelijk het voor een AMD-kaart met dezelfde API en het is een verwaarloosbaar kleine nederlaag (1-2 FPS). De audiojongen van PCPerspective merkte dit op tijdens de podcast, hij had AdoredTV zijn filmpje gezien. Hun verdediging: "ze hebben voor 1 spel zo'n verschil gevonden, we kunnen niet alles testen". Fair enough dat je niet alles meteen kan testen maar doe het dan een week later. Het gaat echter niet om slechts 1 spel, we hebben dit inmiddels bij een stuk of 5 spellen gezien bij 2 API's, ik twijfel er niet aan dat we er veel meer vinden zo gauw alle reviewers ook met een AMD-kaart testen. Nu zullen de 7700k en 6900k echt wel een hogere FPS halen dan Ryzen, voor nu, al is het maar omdat spellen voor Intel-CPU's zijn geoptimaliseerd en omdat er het bekende transCCX-probleem is. Echter gooien die 'uitzonderingen' wel flink het gemiddelde omlaag. Daarnaast gaat het niet enkel om de FPS zoals je in het bovenstaande filmpje van Level1Techs kan zien. Ondanks dat de FPS in GTA5 lager is heb je veel minder last van microstutter terwijl de Intel-CPU's in 2 minuten tijd (wel op een plaats die ervoor werd uitgezocht) 3 keer naar een rendertijd van >100 ms stijgen voor frame (dus in essentie een minimum FPS van 10 maar dit wordt niet gemeten omdat het om 1 frame gaat!) en als je de inputlag meet - wat zij deden (eindelijk iemand die het doet!) - dan blijt dat er geen verschil meetbaar is tussen Intel en Kaby Lake ondanks dat de FPS voor Intel hoger is. Kortom, dit spel speelt voor beide CPU's even goed maar als je heel erg kritisch bent dan zou ik de voorkeur geven aan Ryzen omdat je niet die microstutter hebt. Het ligt trouwens wel meer aan de engine van het spel dan aan de CPU.

Acties:
  • 0 Henk 'm!

  • Baardmeester
  • Registratie: Oktober 2006
  • Laatst online: 09:53


Zijn er meer testen waar het overclock potentieel van de 1600 en de 1600x wordt vergeleken? Als ze beide ongeveer even ver overclocken is de 1600 voor mensen die zeker gaan overclocken de beste keuze.

Acties:
  • 0 Henk 'm!
Baardmeester schreef op vrijdag 14 april 2017 @ 18:55:

Zijn er meer testen waar het overclock potentieel van de 1600 en de 1600x wordt vergeleken? Als ze beide ongeveer even ver overclocken is de 1600 voor mensen die zeker gaan overclocken de beste keuze.
Ja ze komen allemaal ongeveer even ver, ongeveer 3,9/4GHz max met een goede koeler. Dus ja als je gaat overklokken kun je gewoon de goedkoopste nemen. Je bent toch afhankelijk van de wel bekende silicon lottery.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Qinshi
  • Registratie: Juni 2016
  • Laatst online: 07-09 10:24
Ik ben aan het rondkijken om eventueel een nieuwe processor te kopen.
Vandaar een thread in een andere forum gedeelte.
Maar tweakers wijzen me op de Ryzen processoren.
Ik heb al heel wat afgelezen, en het toekomst van Rysen CPU's ziet er rooskleurig uit.
Je zou zelfs bijna durven zeggen, nog rooskleuriger dan de toekomst van intel.
Toen voor de prijs die zij soms durven vragen.

M'n idee was om een 7700K CPU te kopen en die te overclocken naar 5.0ghz.
Zelfs voor een complete 'overclocking noob' als ik, zou dat met die XMP aanpassing heel eenvoudig moeten zijn. (of niet?)

Echter, in welke mate is een AMD Ryzen te overclocken/hoe eenvoudig is zoiets?
En ik neem aan dat e 7700k = 1700x ?

Op dit moment heb ik een 1080p scherm. Soms overweeg ik een 1440p scherm aan te kopen, maar ik heb maar een gtx1070. en zou toch graag vlotjes boven de 60fps gaan.

[ Voor 10% gewijzigd door Qinshi op 14-04-2017 20:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

XMP = geheugen. Heeft bar weinig met een CPU te maken.

Alle ryzens laten een gemiddelde van 3.9 tot 4.2Ghz zien. Op LN2 is 5GHz net haalbaar. Het is niet meer zoals de Vishera's die makkelijk over de 5Ghz heengaan en zelfs op 8GHz met LN2.

Acties:
  • 0 Henk 'm!

  • necessaryevil
  • Registratie: September 2005
  • Laatst online: 01-09 17:29
Leuke ontwikkeling, eindelijk weer concurrentie voor Intel. Mij lijkt een Ryzen 5 1600 wel wat, maar ik heb niet heel hard een upgrade nodig.

Ik zie wel een nadeel, althans, voor AMD. De IPC van Intel is net iets beter dan die van AMD, maar AMD's vergelijkbare processors presteren beter omdat je voor dezelfde hoeveelheid geld meer cores krijgt. Je zou (met een vleugje pessimisme) dus kunnen stellen dat AMD op prijs concurreert en niet op technologie. Da's gevaarlijk voor AMD.

Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Voor AMD is deze node nieuw, voor Intel is het vertrouwd terrein. Het blijft een beetje appels met peren vergelijken.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
je kunt ook zeggen dat amd op technologie concurreert omdat ze voor een lage stroomverbruik met kleinere dies en meer cores gaan ipv alleen voor single thread performance...

Acties:
  • 0 Henk 'm!

  • Voyarch
  • Registratie: Oktober 2016
  • Laatst online: 11-09 22:14
Stel je wilt op 1440p en 144hz systeem gaan gamen met i7 7700k als proccesor en GTX 1080/ti YouTube: Ryzen 7 1700/ 1700X/ 1800X vs i7 7700K Gaming Benchmarks
Hier zie je dat de 7700 nog steeds een voorsprong heeft maar voor hoe lang? Zijn de extra frames het waard tegen de mogelijke toekomstige optimalisaties? En hoe presteren ze beiden boven de 100 fps? Vooral moeilijk omdat ik er alleen mee ga gamen en het nog niet zeker is (?) of meer cores belangrijker dan clockspeed gaat worden. Ik heb niet veel zin om met cpu en ram snelheiden te gaan zitten experimenteren om een goed resultaat te krijgen dus wat zou de beste keus zijn voor pak hem beet 5 jaar? Ik neig nu naar de Ryzen 1700x met de huidige ontwikkelingen. Maar het blijft natuurlijk gok werk..

[ Voor 12% gewijzigd door Voyarch op 15-04-2017 18:16 ]


Acties:
  • +1 Henk 'm!
^
Korte antwoord: Niemand die het exact weet.

Lange antwoord:
  • 7700K scoort nu het beste in de game benches maar Ryzen is zeker een goede runner-up
  • Er zijn ook berichten dat de Ryzen desalniettemin toch iets soepeler kan voelen.
  • Iha verwacht men m.i. toch wel dat >4 echte cores in de door jouw genoemde periode belangrijker wordt en een betere keus dan 4 echte cores (incl. HT).
  • Ryzen platform is voorlopig onvolwassener dan Intel maar verbetert redelijk snel.
Zelf zou ik toch eerder voor Ryzen gaan denk ik, ook om AMD te belonen. Intel heeft haar positie maximaal uitgebuit en zonder AMD zou je nog wel even aan die 4 cores vastzitten.
In multicore scenario's ga je hard vooruit tov een 7700k.

Imo is de 1600X de beste keuze. Best of both worlds tegen betere prijs dan 7700k en evt. stop je er volgend jaar een Ryzen 2 in.

[ Voor 9% gewijzigd door Help!!!! op 15-04-2017 18:33 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Borromini schreef op zaterdag 15 april 2017 @ 13:33:
Voor AMD is deze node nieuw, voor Intel is het vertrouwd terrein. Het blijft een beetje appels met peren vergelijken.
Eerder GF. ;)
Inderdaad, de node die AMD gebruikt is ongeveer twee keer zo groot (totale oppervlakte) als die van Intel. Als AMD de node van Intel zou kunnen gebruiken...
Daarnaast zou AMD waarschijnlijk de klokfrequentie wat hoger kunnen krijgen zonder iets in te leveren door wat te tweaken maar dat is voor de volgende generatie.
AMD heeft een compleet nieuwe architectuur uitgevonden die best wel toekomstbestendig is met die CCX-complesen, zeker in een serveromgeving. Qua branchprediction loopt AMD voor op Intel en de multithreading werkt beter (ik weet niet in welke mate dat aan de cache te danken is). Het is niet allemaal negatief. Intel loopt voor qua single core prestaties en het zal lastig worden om de achterstand qua node in te halen maar AMD heeft grote stappen gezet en zal waarschijnlijk de komende generaties weer dichter in de buurt komen.
Help!!!! schreef op zaterdag 15 april 2017 @ 18:31:
Imo is de 1600X de beste keuze. Best of both worlds tegen betere prijs dan 7700k en evt. stop je er volgend jaar een Ryzen 2 in.
Daar zijn veel mensen het niet mee eens. Het lijkt erop dat de 1600 dezelfde overklok haalt als de 1600X en dat je hooguit een iets hogere spanning nodig hebt.
Ik twijfel nog tussen de drie modellen. Ik neem geen stelling in welke van die twee beter is.

[ Voor 18% gewijzigd door Verwijderd op 15-04-2017 18:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-

[ Voor 100% gewijzigd door Verwijderd op 15-04-2017 18:38 ]


Acties:
  • 0 Henk 'm!

  • Voyarch
  • Registratie: Oktober 2016
  • Laatst online: 11-09 22:14
Help!!!! schreef op zaterdag 15 april 2017 @ 18:31:
^
Korte antwoord: Niemand die het exact weet.

Lange antwoord:
  • 7700K scoort nu het beste in de game benches maar Ryzen is zeker een goede runner-up
  • Er zijn ook berichten dat de Ryzen desalniettemin toch iets soepeler kan voelen.
  • Iha verwacht men m.i. toch wel dat >4 echte cores in de door jouw genoemde periode belangrijker wordt en een betere keus dan 4 echte cores (incl. HT).
  • Ryzen platform is voorlopig onvolwassener dan Intel maar verbetert redelijk snel.
Zelf zou ik toch eerder voor Ryzen gaan denk ik, ook om AMD te belonen. Intel heeft haar positie maximaal uitgebuit en zonder AMD zou je nog wel even aan die 4 cores vastzitten.
In multicore scenario's ga je hard vooruit tov een 7700k.

Imo is de 1600X de beste keuze. Best of both worlds tegen betere prijs dan 7700k en evt. stop je er volgend jaar een Ryzen 2 in.
Ik gun AMD het van harte, ik kijk wel wat er de komende paar maanden gaat gebeuren op dit gebied.

Acties:
  • 0 Henk 'm!

  • necessaryevil
  • Registratie: September 2005
  • Laatst online: 01-09 17:29
Inderdaad, de node die AMD gebruikt is ongeveer twee keer zo groot (totale oppervlakte) als die van Intel. Als AMD de node van Intel zou kunnen gebruiken...
[...]
Huh? Zen en Kaby Lake worden toch beiden op 14nm geproduceerd? Of zit er binnen de 14nm nodes ook nog grote verschillen?
je kunt ook zeggen dat amd op technologie concurreert omdat ze voor een lage stroomverbruik met kleinere dies en meer cores
Hmm, das interessant, ik wist niet dat ze een kleinere die hadden. Ik kan zogauw even geen bruikbare getallen vinden, maar ik hou me aanbevolen. Ca. 10% kleiner. Klinkt mij niet heel overtuigend in de oren, maar wellicht speelt het ook mee dat een kleinere die makkelijker is om foutloos te produceren.

[ Voor 17% gewijzigd door necessaryevil op 15-04-2017 19:18 ]


Acties:
  • +3 Henk 'm!

Verwijderd

necessaryevil schreef op zaterdag 15 april 2017 @ 19:16:
[...]

Huh? Zen en Kaby Lake worden toch beiden op 14nm geproduceerd? Of zit er binnen de 14nm nodes ook nog grote verschillen?
Ik had al aangegeven dat er grote verschillen zijn, de 14 nm. van GF is aanzienlijk groter dan die van Intel, dat betekent dat waarschijnlijk de transistors minder snel schakelen en een hoger vermogen hebben voor dat schakelen. Hoe het dan toch kan dat AMD een kleinere die en een relatief laag vermogen heeft? Geen geïntegreerde graphics, goed mechanisme waarmee delen van de CPU worden uitgeschakeld...
De geïntegreerde graphics nemen bij Intel tegenwoordig (Kaby Lake) meer dan 50% van het oppervlakte van de die van de CPU in beslag.
Nu zou er bij jou een lampje kunnen zijn gaan branden; geen geïntegreerde graphics en toch slechts 90% van het oppervlakte in plaats van dat ze pak hem beet half zo groot zijn, dat is omdat de node flink groter is. Inderdaad. Hoewel dat iets te kort door de bocht is omdat er meer verschillen zijn (oppervlakte wat wordt gereserveerd voor cache, branche prediction... wat niet gelijk is bij de beide architecturen).
Als Intel ervoor zou kiezen om ook CPU's uit te brengen zonder geïntegreerde graphics - als aparte productielijn - dan zouden ze die in theorie fors goedkoper kunnen maken dan AMD. Intel heeft overigens wel andere problemen (enorme kostenposten voor R&D en opgekochte bedrijven, je kan niet zomaar even op de korte termijn rigoreus downscalen, niet zonder veel kosten te maken) en naar verluidt momenteel ook geen ideeën over hoe ze de Core-architectuur verder kunnen verbeteren.
Lees deze oppervlakkige inleiding over de nodes, kijk op zijn minst even naar de tabel.
reviews: Het nattevingerwerk van nanometers - Met kleinere chips komen kopzorgen
Je zou kunnen stellen dat de afmetingen nu als marketinginstrument worden gebruikt omdat het moeilijk is om goede afspraken te maken over hoe er gemeten moet worden omdat verschillende bedrijven (GF, TSMC, Intel...) een verschillend ontwerp (de vorm van de transistor, of eigenlijk bij FinFet een serie transistors aangezien meerdere gates op 1 enkele transistor aansluiten) gebruiken.
Vanzelfsprekend heeft Intel - naar mijn vermoeden als reactie op Ryzen met de intentie om waar de media over schrijven te spinnen - het niet nagelaten om uitgebreid te benadrukken dat haar node superieur is. Ik ben bepaald geen fan van Intel (die hebben in het verleden andere bedrijven (waaronder AMD) en de consumenten flink genaaid, dat is een verhaal op zichzelf) maar hier hebben ze gelijk in.


Het punt hier is dat AMD nog een competitief nadeel heeft doordat de 14 nm. van GF achterloopt op die van Intel. Qua CPU zou ik echter wel voor Ryzen kiezen op dit moment als je voor 6 kernen of meer kiest, voor de quadcore zou ik eerder voor de unlocked versie van Intel kiezen dan voor de quadcore van Ryzen maar dan kan je net zo goed voor de 1600(X) kiezen. De hyperthreaded quadcore van Intel redt het nog eventjes maar als je die overweegt dan kan je weer beter voor de R7 1700 kiezen. Voor bijna iedereen die NU een CPU wil kopen raad ik aan om te kiezen tussen de 1600, 1600X en de 1700. Misschien kan je een uitzondering maken voor de meest competitieve gamers (professioneel) die per se de laagste input lag moeten hebben maar zelfs daar ben ik niet zeker van, bij GTA hebben ze (zoek naar Level1Techs gta 5 op Youtube of kijk naar mijn laatste reacties hier voor een directe link) vastgesteld dat de inputlag niet meetbaar verschilt terwijl de FPS bij Kaby Lake hoger is.
Als je nog even kan wachten op een nieuwe CPU dan zou ik wachten op de volgende generaties van AMD en Intel. Ryzen is de eerste generatie van een compleet nieuwe architectuur, die zullen voor de komende itereatie wel wat laaghangend fruit kunnen plukken en dus nog een redelijke winst qua prestaties bij een bepaalde klokfrequentie (nu fout IPC genoemd, ook door de bedrijven zelf) en de klokfrequentie kunnen boeken, ook omdat GF het productieproces waarschijnlijk nog wel wat zal verbeteren. Intel wordt min of meer gedwongen om een hexacore te verkopen voor een redelijk bedrag, of dat ze het ook bij de volgende generatie al gaan doen zullen we moeten afwachten.

Zelf steun ik bij een vergelijkbaar aanbod liever AMD op dit moment, niet uit merktrouw maar omdat het beter is als er een gezonde concurrentie is. Anders krijg je wat je de afgelopen 10 jaar zag, nauwelijks enige vooruitgang en te hoge prijzen. Daarnaast keur ik af wat Intel in het verleden heeft gedaan: ze gebruikten alles of niets rebates met als strikte voorwaarde dat bedrijven zoals HP, Acer en Dell geen computers met AMD-CPU verkochten (vandaar dat je ze ook toen weinig zag) en ze weigerden om nog server-CPU's te verkopen aan Compaq (kort daarna opgeslokt door HP) omdat ze PC's met AMD-CPU's gingen verkopen. Op dat moment leverde AMD de betere CPU's voor een lagere prijs, vandaar dat ik eerder aangaf dat Intel niet enkel andere bedrijven maar ook ons gebruikers naaide. Wij kregen een minder goed product voor een hogere prijs. Dit gebeurde mid jaren 0.

[ Voor 77% gewijzigd door Verwijderd op 15-04-2017 22:14 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zaterdag 15 april 2017 @ 21:24:
[...]
Zelf steun ik bij een vergelijkbaar aanbod liever AMD op dit moment, niet uit merktrouw maar omdat het beter is als er een gezonde concurrentie is. Anders krijg je wat je de afgelopen 10 jaar zag, nauwelijks enige vooruitgang en te hoge prijzen. Daarnaast keur ik af wat Intel in het verleden heeft gedaan: ze gebruikten alles of niets rebates met als strikte voorwaarde dat bedrijven zoals HP, Acer en Dell geen computers met AMD-CPU verkochten (vandaar dat je ze ook toen weinig zag) en ze weigerden om nog server-CPU's te verkopen aan Compaq (kort daarna opgeslokt door HP) omdat ze PC's met AMD-CPU's gingen verkopen. Op dat moment leverde AMD de betere CPU's voor een lagere prijs, vandaar dat ik eerder aangaf dat Intel niet enkel andere bedrijven maar ook ons gebruikers naaide. Wij kregen een minder goed product voor een hogere prijs. Dit gebeurde mid jaren 0.
Dit is voor mij bepalend geweest om AMD te nemen. In tegenstelling tot bijvoorbeeld de grafische-kaartenmarkt is het niet vanzelfsprekend om in de wereld van CPU's te springen: we moeten het voorlopig doen met Intel en AMD. Als je dan de wanpraktijken van Intel blijft steunen (door te kopen), zelfs op het moment dat AMD een goed concurrerend product released, dan investeer je (wederom) in een toekomst van uitbuiterij. En we moeten echt niet ver zoeken: zelfs de Media Markt had deze Intel-only deal tot dat de affaire een uitgesproken vonnis kreeg.

Ik zal niemand veroordelen die een Intel CPU koopt om de juiste redenen (zoals @Verwijderd al aanhaalt) maar er zijn genoeg redenen om nu de minder logische keuze te doen en te investeren in een gezonde markt.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 15 april 2017 @ 18:35:
[...]

Daar zijn veel mensen het niet mee eens. Het lijkt erop dat de 1600 dezelfde overklok haalt als de 1600X en dat je hooguit een iets hogere spanning nodig hebt.
Zie juist vaak dat de 1600 de bij de 1600X gegarandeerde 4ghz (nog zonder XFR) niet haalt. De voltages die ik zie terugkomen zijn ook relatief hoog, wat logisch is want Ryzen is volgensmij voornamelijk voltage binned.

De kracht vd 1600X is voor mij dat deze de prestaties garandeert. Overklokken is leuk maar is niet gegarandeerd, zeker bij hogere voltages leidt het al snel tot degradatie en wellicht rare issues in de toekomst die je dan weer moet troubleshooten. Je moet voor zekerheid wel iets meer betalen.

Daarnaast is het platform nog wat jeugdig zeg maar, waarbij overklokken ook wel een hoop troubleshooten is enzo. Bij de 1600X weet je in ieder geval dat issues niet aan een overklok liggen.

De kracht vd 1600 is dat je wellicht prestaties gelijk of iets minder dan een 1600X kunt krijgen. Echter die zekerheid heb je niet EN je moet gaan overklokken. Wel ben je iets goedkoper uit.
Ik twijfel nog tussen de drie modellen. Ik neem geen stelling in welke van die twee beter is.
Heb ik ook niet gedaan, daarom schrijf ik ook 'imo'. Het hangt er nl. van af wat je belangrijk vind.

Overigens de 1600X is zondermeer beter dan een 1600 anders was de 1600 een 1600X geweest... ;)

[ Voor 12% gewijzigd door Help!!!! op 16-04-2017 13:20 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op zondag 16 april 2017 @ 09:41:
[...]

Zie juist vaak dat de 1600 de bij de 1600X gegarandeerde 4ghz (nog zonder XFR) niet haalt. De voltages die ik zie terugkomen zijn ook relatief hoog, wat logisch is want Ryzen is volgensmij voornamelijk voltage binned.

De kracht vd 1600X is voor mij dat deze de prestaties garandeert. Overklokken is leuk maar is niet gegarandeerd, zeker bij hogere voltages leidt het al snel tot degradatie en wellicht rare issues in de toekomst die je dan weer moet troubleshooten. Je moet voor zekerheid wel iets meer betalen.

Daarnaast is het platform nog wat jeugdig zeg maar, waarbij overklokken ook wel een hoop troubleshooten is enzo. Bij de 1600X weet je in ieder geval dat issues niet aan een overklok liggen.

De kracht vd 1600 is dat je wellicht prestaties gelijk of iets minder dan een 1600X kunt krijgen. Echter die zekerheid heb je niet EN je moet gaan overklokken. Wel ben je iets goedkoper uit.


[...]

Heb ik ook niet gedaan, daarom schrijf ik ook 'imo'. Het hangt er nl. van af wat je belangrijk vind.

Overigens de 1600X is zondermeer beter dan een 1600 anders was de 1600 een 1600X geweest... ;)
We weten pas over een paar weken hoe groot de kans is op frequentie X bij spanning Y voor model A en B. Even rustig afwachten. Ja, de 1600X zal bij een lagere spanning 4,0 GHz halen dan de 1600, dat sowieso. De vraag is of dat je die haalt met een redelijke spanning (4,0-4,1 V lijkt me het maximale wat je moet willen) en dan volgt een berekening van de extra stroomkosten. We moeten dan wel eerst weten hoe het vermogen (Watt) schaalt met de spannig, ik heb voor de R7-CPU's nog geen cijfers hierover gevonden. Iemand anders wel?
De grote vraag voor mij is of dat 6 kernen volstaat of dat je beter ineens voor 8 gaat aangezien bij de 1700 3,9 GHz is gegarandeerd en 4,0 GHz ook altijd wordt gehaald maar niet altijd met 4,0 V of net eronder. Enerzijds is het fijn om extra kernen te hebben en wat meer toekomstbestendig te zijn, ook omdat de klokfrequentie relatief laag is, aan de andere kant zal het waarschijnlijk minstens tot na de komst van de PS5 duren vooraleer PC's voor hogere settings 8 kernen nodig hebben om alles uit een spel te halen en tegen de tijd dat je wel 8 kernen kan gebruiken verslaat allicht een nieuwe CPU met 6 kernen de 1700. Ik vrees dat niet rationeel te duiden is wat de verstandigere keuze is tussen de 1600/1600X en de 1700.

In jouw handtekening staat trouwens een mooie illustratie van hoe developers momenteel verzuimen om extra kernen te benutten die voor het oprapen liggen. Goed, dat spel is sowieso slecht uitgewerkt maar hitboxen kan je een stuk preciezer maken wanneer je wat extra CPU-kernen tot je beschikking hebt. Idem voor botsingsdetectie, een van de meest onderschatte kwalen in moderne spellen (geweldig, mensne doorheen auto's (GTAV), muren en vloeren zien bewegen...). Wat te denken van natuurkundige wetten inprogrammerem en uitvoeren en meer variatie in NPC's, meer nauwkeurige bewegingen etc.
Allemaal zaken die ze als optie zouden kunnen aanbieden via het menu. Heb je extra kernen, alsjeblieft. Heb je ze niet? Dan gebruiken we het simpelere algorithme wat voor de consoles wordt gebruikt. Het zou mooi zijn als developers dat zouden gaan doen. Misschien als Ryzen voldoende populair wordt en Intel straks ook van 6k-CPU's de standaard moet maken dat developers dat dan eindelijk eens willen ondersteunen. Het kost niet eens al te veel geld, veel van die algorithmes liggen al lang klaar (botsingsdetectie bijvoorbeeld) maar worden niet gebruikt omdat quadcore CPU's hier moeite mee hebben en/of omdat DX11 de load niet goed kan verdelen over de CPU-kernen. Met het populairder worden van Vulkan en DX12 (plagiaat van Mantle) wordt het voor developers gemakkelijker om wel dit soort functies te ondersteunen.
Vergeet de graphics - ja, hartstikke leuk - , wat spellen op dit moment echt beperkt is dat de CPU wordt onderbenut. Door dit te verbeteren voeg je veel meer toe aan het 'realistisch' maken van spellen dan door de graphics nog verder te verbeteren. Niet dat ik niet graag tegelijkertijd mooiere graphics zie maar de beste graphics die mogelijk zijn helpen niet als je karakters doorheen muren en auto's ziet lopen.

Terzijde, de gebrekkige botsingsdetectie (ten gevolge van de onderbenutte CPU, er bestaan goede algorithmes voor) wordt gebruikt/misbruikt (kwestie van of dat je het legit vindt om zo een speedrun te doen, ik spreek me er niet over uit :)) voor speedruns. Een voorbeeld hiervan is Deus Ex: Human Revolution. Zo gauw je een object vasthoudt kan je doorheen muren bewegen, dat komt door clipping naar de verkeerde kant.

[ Voor 38% gewijzigd door Verwijderd op 16-04-2017 16:21 ]


Acties:
  • 0 Henk 'm!

  • necessaryevil
  • Registratie: September 2005
  • Laatst online: 01-09 17:29
Als Intel ervoor zou kiezen om ook CPU's uit te brengen zonder geïntegreerde graphics - als aparte productielijn - dan zouden ze die in theorie fors goedkoper kunnen maken dan AMD.
De productiekosten zijn bij cpu's maar een fractie van de verkoopprijs, dus voor de consument is dat verschil ook niet zo groot.

Een voordeel voor Intel is dat hun IGP het bestaansrecht van de on-board graphics hebbben weggevaagd. Het is nu nutteloos voor chipsetfabrikanten om chipsets te maken met integrated graphics; Intel verkoopt nu dus meer IGP's (die moet je er immers bij kopen als je een cpu aanschaft).
bij Intel tegenwoordig (Kaby Lake) meer dan 50% van het oppervlakte van de die van de CPU in beslag.
Nu zou er bij jou een lampje kunnen zijn gaan branden; geen geïntegreerde graphics en toch slechts 90% van het oppervlakte in plaats van dat ze pak hem beet half zo groot zijn, dat is omdat de node flink groter is. Inderdaad.
Dat had ik ook nog even over het hoofd gezien.

Acties:
  • +4 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Humor die de pijnlijke waarheid verteld :).
https://www.reddit.com/r/...er_awards_2017_or_how_to/

Acties:
  • 0 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Laatst online: 11-09 22:35

The Chosen One

Zie signature!

Oftwel gewoon niet 1 review als totale waarheid zien. Stuk makkelijker en sneller uitgelegd dan zo'n dom cherrytable. ;p
Logica dat 1 review niet alles zegt lijkt me effectiever dan een minuut naar een tabel staren en kijken wat alles is. :+

Hoe en wat dan precies kijk je daarna.

[ Voor 60% gewijzigd door The Chosen One op 17-04-2017 20:02 ]

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • 0 Henk 'm!

Verwijderd

Het is maar net hoe je benchmarkt:
- Speel je het spel of draai je de ingebouwde benchmark (slecht idee in het algemeen)?
- Welk deel in het spel speel je?

Om het nog wat erger te maken, een hogere FPS is niet per se beter wanneer je twee verschillende CPU-architecturen vergelijkt. Het is de inputlag waar het om gaat voor de meeste gamers en het kan best dat een 10% lagere FPS bij merk B dezelfde input lag geeft. Ik verwijs nogmaals naar de video van L1T over GTA Intel vs. Ryzen. Hogere FPS voor intel maar dezelfde inputlag en meer microstutter (3 frames in 2 minuten tijd waarvan de rendertijd boven 0,1 seconde lag).
The Chosen One schreef op maandag 17 april 2017 @ 19:32:
Oftwel gewoon niet 1 review als totale waarheid zien. Stuk makkelijker en sneller uitgelegd dan zo'n dom cherrytable. ;p
En veel minder effectief!

[ Voor 49% gewijzigd door Verwijderd op 17-04-2017 19:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

The Chosen One schreef op maandag 17 april 2017 @ 19:32:
Logica dat 1 review niet alles zegt lijkt me effectiever dan een minuut naar een tabel staren en kijken wat alles is. :+\
Een minuut? De opzet van deze tabel is binnen een paar seconden wel duidelijk.
Logica is nu eenmaal niet aan iedereen besteed, door het concreet te maken begrijpen die mensen het wel.


Nu even bewust in een aparte reactie aangezien het anders wel een beetje een rotzooi wordt aangezien ik dan in dezelfde reactie op zijn reactie op mijn reactie zou reageren doordat hij zijn reactie op mijn reactie die volgde op zijn reactie in de reactie voor mijn reactie plaatste. :+
Voor wie dit nog volgt: kudos, Spock zou er trots op zijn.

[ Voor 37% gewijzigd door Verwijderd op 18-04-2017 15:55 ]


Acties:
  • 0 Henk 'm!

  • ikbenrichard197
  • Registratie: Juni 2011
  • Laatst online: 21-06-2023
Verwijderd schreef op maandag 17 april 2017 @ 23:24:
[...]

Nu even bewust in een aparte reactie aangezien het anders wel een beetje een rotzooi wordt aangezien ik dan in dezelfde reactie op zijn reactie op mijn reactie zou reageren doordat hij zijn reactie op mijn reactie die volgde op zijn reactie in de reactie voor mijn reactie plaatste. :+
Voor wie dit nog volgt: kudos, Spock zou er trots op zijn.
Dit lijkt mij een gevalletje opname ;)

Acties:
  • 0 Henk 'm!

  • Countess
  • Registratie: April 2003
  • Laatst online: 09-07 15:41
dues ex: 50% of 5% verschil met dezelfde kaart en de zelfde resolutie.

hoe krijgen mensen het voor elkaar!

mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!


Acties:
  • 0 Henk 'm!

Verwijderd

ikbenrichard197 schreef op dinsdag 18 april 2017 @ 08:27:
[...]


Dit lijkt mij een gevalletje opname ;)
Het zou iets zijn voor The Big Bang Theory. :)

Acties:
  • +2 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-09 23:51
The Source schreef op maandag 10 april 2017 @ 09:00:
[...]

Als dit waar is (waarmee ik het noch bevestig of ontken) is dit enkel de helft van het verhaal voor x299. Prijzen weet niemand nog iets van. Over een tijdje zal het andere nieuws wel uitlekken.
Kwestie van tijd zoals ik al zei;
Intel reageert op AMD: http://www.digitimes.com/news/a20170419PD207.html

[ Voor 8% gewijzigd door The Source op 19-04-2017 13:29 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Nu Intel niet meer kan uitmelken kunnen ze ineens wel iets eerder uitbrengen :z. Prima als bedrijf, niet leuk voor consumenten.

Acties:
  • 0 Henk 'm!

  • NINjak
  • Registratie: April 2000
  • Laatst online: 14-08 15:29
Sp3ci3s8472 schreef op woensdag 19 april 2017 @ 13:35:
[...]


Nu Intel niet meer kan uitmelken kunnen ze ineens wel iets eerder uitbrengen :z. Prima als bedrijf, niet leuk voor consumenten.
Natuurlijk komt dit allemaal op/met een nieuwe socket.... gewoon omdat het kan. Heb zelf geen idee of dit zo is, maar het zou me helemaal niets verbazen.

Acties:
  • 0 Henk 'm!
Leuk voor de mensen die een Kaby Lake CPU hebben gekocht, maar ik zie ook niet hoe dit een goed antwoord is. Hoe gaat Basin Falls/X299 effectief concurreren met Ryzen? Het is weer een high end platform, met de bijbehorende kosten en prijstechnisch dus niet interessant tenzij je meer dan acht cores nodig hebt of perse quadchannel RAM. Voor een hexacore concurrent hoef je er niet te zijn.

Coffee Lake, tja nog meer K series processoren is al helemaal niet het antwoord op de Ryzen 5 1600 en 1600X. Behalve dat dit een trap na is voor Kaby Lake bezitters, wat is precies het grote nieuws? Iets hogere clockspeeds? Betere IGP? Paar procent sneller voor dezelfde clocks? Geen van allen is relevant als je nu een Ryzen 1600 overweegt.

Maar dit hoort eigenlijk in een Intel nieuwstopic. Die kan ik alleen niet vinden en dat spreekt denk ik al boekdelen over Intel. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Tja, heb toch wat meer gegevens nodig om hier chocola van te maken.

Bijvoorbeeld, die K processors / Z370 serie:
  • Zijn dat nog steeds alleen quadcores (met HT) :?
  • En de pricing :?
  • Wel nog socket 1151 :?
Mochten er in de Intel Z370 serie nu ook >4 cores komen dan kan het potentieel stevige concurrentie zijn maar dat ligt vooral ook aan de prijs die Intel gaat vragen.
Ben wel beetje klaar met quadcores dus als die 6/8 cores niet komen…

De Intel X299 serie, wat gaat dat bijv. qua prijs doen? Daarnaast vind ik dat ook een beetje een kakafonie aan CPU’s uit verschillende productieprocessen, amper peil meer op te trekken. Tot nu toe weinig interessant denk ik voor mensen die 1600 tot 1700X willen kopen tenzij prijs stuk concurrerender wordt of prestaties veel beter.

AMD X399, wordt dat nu een een HEDT platform wordt (gebaseerd op Naples) maar niet het Naples platform zelf :? En welke Socket :?

Denk dat X399 die X299 Intel serie fikse concurrentie gaat geven.

[ Voor 3% gewijzigd door Help!!!! op 19-04-2017 14:22 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op woensdag 19 april 2017 @ 13:43:
Maar dit hoort eigenlijk in een Intel nieuwstopic. Die kan ik alleen niet vinden en dat spreekt denk ik al boekdelen over Intel. :P
Dat topic is hier te vinden: [Nieuwsdiscussie] multi-core Intel's: Core i - deel 2 Het lijkt me een prima idee om de discussie daar voort te zetten. *hint* *hint* ;)

Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Kan je dat niet beter in het Intel topic zetten, ipv. alweer Intel-nieuws in het AMD topic te plaatsen ? De "I told you so" komt nogal stom over als je jezelf voorstelt als iemand die meer op de hoogte is door zakelijke connecties.

Acties:
  • +1 Henk 'm!

Verwijderd

Ik heb er geen moeite mee dat hij dit in de AMD draad plaats, uiteindelijk is het wel AMD-gerelateerd, dat Intel nu eerder uitkomt met de volgende generatie is duidelijk een reatie op Ryzen. Genoeg ontopic voor mij maar ieder zijn mening.
5 maanden eerder, als dat geen reactie op Ryzen is...
Het demonstreert hoe sterk de vooruitgang van de hardware de afgelopen jaren is geremd doordat Intel een monopolie had. Als ze nu 5 maanden lang op die hardware zouden zijn blijven zitten (jaunari 2018 in plaats van augustus 2017) dan mogen we ons afvragen hoeveel eerder ze de afgelopen 5-10 jaar hun CPU's hadden kunnen uitbrengen.

[ Voor 52% gewijzigd door Verwijderd op 19-04-2017 17:32 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op woensdag 19 april 2017 @ 17:08:
Kan je dat niet beter in het Intel topic zetten, ipv. alweer Intel-nieuws in het AMD topic te plaatsen ? De "I told you so" komt nogal stom over als je jezelf voorstelt als iemand die meer op de hoogte is door zakelijke connecties.
Ik vind het wel interessant en relevant en iemand op z'n plek proberen te zetten is zeker off-topic ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Twee interessante zinnen uit het artikeltje:
Meanwhile, AMD is planning to announce its top-end 16-core Ryzen processor and X399 platform in the third quarter to compete for the gaming market.
Dit volg ik niet. Elke CCX bestaat toch uit maximaal 4 werkende kernen, ongeacht hoeveel kernen er op de CPU zitten? Wat heeft dat met de gaming-markt te maken? Het gaat nog vele jaren duren vooraleer 8 kernen niet volstaat.

"Intel has reportedly spent over US$100 million to order five EUV machine sets from ASML, to accelerate its pace of manufacturing."
Intel probeert op deze manier te forceren dat het eerder met de massaproductie van een kleinere schaal kan starten? Immers dacht ASML dat pas op zijn vroegst eind 2018 massaproductie met EUV mogelijk zou zijn, volgens de CEO directeur van ASML.

[ Voor 8% gewijzigd door Verwijderd op 19-04-2017 17:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 april 2017 @ 17:36:
Twee interessante zinnen uit het artikeltje:
Meanwhile, AMD is planning to announce its top-end 16-core Ryzen processor and X399 platform in the third quarter to compete for the gaming market.
Dit volg ik niet. Elke CCX bestaat toch uit maximaal 4 werkende kernen, ongeacht hoeveel kernen er op de CPU zitten? Wat heeft dat met de gaming-markt te maken? Het gaat nog vele jaren duren vooraleer 8 kernen niet volstaat.
Het heeft weinig met gaming te maken en is meer een professioneel platform.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 19 april 2017 @ 17:38:
[...]

Het heeft weinig met gaming te maken en is meer een professioneel platform.
Mijn gedachte ook maar dan zou dit een merkwaardige fout van de schrijver zijn.
Pagina: 1 ... 9 ... 11 Laatste

Dit topic is gesloten.