Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Twam schreef op dinsdag 16 januari 2018 @ 15:36:
[...]


Ik persoonlijk wel, al weet ik niet hoeveel daarvan mITX zullen zijn.

Dit is in ieder geval al een nieuw aangekondigde: pricewatch: MSI B350I Pro AC

1x DP en 1x HDMI 1.4, slechts, maar goed mogelijk dat er komende maanden nog opties bijkomen... Ik snap ook niet zo goed waarom er zo weinig opties zijn, want volgens mij zouden de huidige Bristol Ridge APU's ook al gewoon over zowel DP als HDMI 4K @ 60 Hz moeten kunnen... Zal een besparing zijn omdat meeste mensen Ryzen + dGPU gingen gebruiken op eerste reeks AM4-borden, maar ik vind het verkeerde zuinigheid...
Liever HDMI 2.0 en meer DP dan die stomme leds van tegenwoordig. :+

Acties:
  • +1 Henk 'm!

Verwijderd

Feta schreef op dinsdag 16 januari 2018 @ 15:42:
De Ryzen 3 1200 nu +/- een tientje goedkoper... Zou het nog meer gaan zakken als de 2200G uitkomt? :9~
Moet wel, anders is hij zo goed als onverkoopbaar, zelfde geld voor Bristol Ridge wat door de eerste 99 dollar Raven Ridge compleet uit de markt word geprijsd.

Acties:
  • 0 Henk 'm!

  • Feta
  • Registratie: Mei 2013
  • Laatst online: 30-01 20:30
Verwijderd schreef op dinsdag 16 januari 2018 @ 16:55:
[...]

Moet wel, anders is hij zo goed als onverkoopbaar, zelfde geld voor Bristol Ridge wat door de eerste 99 dollar Raven Ridge compleet uit de markt word geprijsd.
Zou wat zijn als de 1200 gewoon zakt naar de prijs van een G4560, dan wordt de APU ineens wat onaantrekkelijker voor een budget game build.

Zeker wanneer je de 1200 dan combineert met een 1050 GPU.... :9

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Zotac heeft wel een ZBOX met een moederbord dat 2x HDMI 2.0 en 1x DP heeft.
https://www.anandtech.com...d-raven-ridgebased-sff-pc

Het is er dus wel, nu alleen nog op andere mini ITX borden.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op woensdag 17 januari 2018 @ 13:33:
Zotac heeft wel een ZBOX met een moederbord dat 2x HDMI 2.0 en 1x DP heeft.
https://www.anandtech.com...d-raven-ridgebased-sff-pc

Het is er dus wel, nu alleen nog op andere mini ITX borden.
Zotac maakt nog steeds prima micro / pico kastjes met AMD spullen erin.
Blijkbaar dus ook met voorop lopende specs zoals HDMI V 2.0.
Het enige probleem is dat ze qua stijl / design heel hard achteruit zijn gaan.
Waar zijn die mooie zilveren kastjes met groene LED ring gebleven ?
Het lijkt inmiddels wel of ze hun best doen om de kastjes zo lelijk en saai mogelijk te maken ?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 17 januari 2018 @ 14:10:
[...]

Zotac maakt nog steeds prima micro / pico kastjes met AMD spullen erin.
Blijkbaar dus ook met voorop lopende specs zoals HDMI V 2.0.
Het enige probleem is dat ze qua stijl / design heel hard achteruit zijn gaan.
Waar zijn die mooie zilveren kastjes met groene LED ring gebleven ?
Het lijkt inmiddels wel of ze hun best doen om de kastjes zo lelijk en saai mogelijk te maken ?
Zotac maakt alleen geen moederborden, in ieder geval niet voor verkoop aan consumenten als ik zo in de PW kijk. Jammer, want ik heb al een mooie kast uitgezocht enzo :p.

Acties:
  • 0 Henk 'm!

Verwijderd

Anders zul je om het Zotac HDMI V 2.0 lelijke eendje kastje zelf een mooie kast moeten DIY-en. :Y)
......Je bent per slot van rekening tweaker....... :Y

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 17 januari 2018 @ 14:29:
Anders zul je om het Zotac HDMI V 2.0 lelijke eendje kastje zelf een mooie kast moeten DIY-en. :Y)
......Je bent per slot van rekening tweaker....... :Y
Beetje zonde van het geld, want ik wil er bijvoorbeeld wel snel ram in zetten, en ik weet niks af van de ondersteuning van ander sneller geheugen; maar je hebt gelijk het was in mij opgekomen :P.

Acties:
  • 0 Henk 'm!

  • The-Priest-NL
  • Registratie: Maart 2006
  • Laatst online: 13:02
Sp3ci3s8472 schreef op woensdag 17 januari 2018 @ 19:35:
[...]


Beetje zonde van het geld, want ik wil er bijvoorbeeld wel snel ram in zetten, en ik weet niks af van de ondersteuning van ander sneller geheugen; maar je hebt gelijk het was in mij opgekomen :P.
Deze bestaat in ieder geval: Pricewatch

Vraag is dan nog even of de Zotac dit ondersteund, maar aangezien hij pas in Q2 komt is daar nu nog niets over te vinden.

•Geocaching•Security, Media & OSINT Junkie•Opinions are my own and not those of my employer.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

The-Priest-NL schreef op woensdag 17 januari 2018 @ 19:59:
[...]


Deze bestaat in ieder geval: Pricewatch

Vraag is dan nog even of de Zotac dit ondersteund, maar aangezien hij pas in Q2 komt is daar nu nog niets over te vinden.
Dat is geen Samsung B die. Als een latje niet op de QVL lijst staat van de fabrikant dan kan je er beter wel voor zorgen dat je een latje hebt met Samsung B die ;). Ik ga ook voor 16GB 3200MT/s CL14 minimaal.

Acties:
  • 0 Henk 'm!

  • The-Priest-NL
  • Registratie: Maart 2006
  • Laatst online: 13:02
Sp3ci3s8472 schreef op woensdag 17 januari 2018 @ 20:03:
[...]


Dat is geen Samsung B die. Als een latje niet op de QVL lijst staat van de fabrikant dan kan je er beter wel voor zorgen dat je een latje hebt met Samsung B die ;). Ik ga ook voor 16GB 3200MT/s CL14 minimaal.
Klopt maar dat ga je niet vinden in SODIMM (wat ik zo in de PW zie.

•Geocaching•Security, Media & OSINT Junkie•Opinions are my own and not those of my employer.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

The-Priest-NL schreef op woensdag 17 januari 2018 @ 20:06:
[...]

Klopt maar dat ga je niet vinden in SODIMM (wat ik zo in de PW zie.
Klopt, dat heb je alleen nodig dus als je het Zotac kastje gaat kopen. Alle AM4 mini ITX borden hebben normaal DDR4, geen SODIMM.

Acties:
  • 0 Henk 'm!

Verwijderd

De Zotac heeft alleen de 2 instap APU's dus eigenlijk is supersnel OC geheugen daar minder op zijn plaats.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 18 januari 2018 @ 01:10:
De Zotac heeft alleen de 2 instap APU's dus eigenlijk is supersnel OC geheugen daar minder op zijn plaats.
Dat vraag ik mij af. Omdat je het geheugen met cpu en gpu moet delen is het zeker in het voordeel om snel geheugen te nemen. Dat zag je ook met de oude apu's.
Daarnaast is van Ryzen bewezen dat ze baat hebben bij sneller geheugen, nu is dit maar een quadcore met 4 threads in het geval voor de R3 2200G, in het geval van de R5 2400G is het een quadcore met 8 threads. Zeker in het geval van de 2400G is het nuttig.

De gpu's die in de apu's zitten zijn ook zeker niet de meest trage.

De benchmarks zullen uiteindelijk wel laten zien of het wel of niet nodig is. Ik ga voor een 2400G dus ik denk dat snel geheugen wel baat gaat hebben.

Acties:
  • 0 Henk 'm!
Raven Ridge lijkt meer te zijn dan alleen een Ryzen met een CCX. Het lijkt erop dat het een Zen+ ontwerp is met een GPU, die op 14nm zijn gebakken. Het zou zeer interessant zijn als iemand een desktop Raven Ridge zou bemachtigen en deze clock voor clock zou benchmarken met een Ryzen 1 chip.

Verder zal bij Raven Ridge, snel geheugen waarschijnlijk zinvol zijn. Niet vanwege de IF, maar vanwege de GPU kant van de APU. Het zijn Vega GPU's dus ze moeten in staat zijn om RAM direct aan te spreken, buiten de CPU om. Dat zal latency schelen, maar snellere RAM is natuurlijk wel zinvol. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Ooopsy, my bad, ik leg het verkeerd uit hier....

Ik bedoel nl niet dat sneller geheugen geen impact zal hebben op de prestaties, dat werkt altijd wel bij AMD.
Wat ik bedoel is dat de combinatie van een budget APU met het snelste type Samsung B-die geheugen imho weinig efficiënt zal zijn. Meer geld uitgeven aan een snellere APU zal al snel meer prestaties geven per $.
(dwz: icm standaard goedkoper geheugen)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op donderdag 18 januari 2018 @ 11:46:
Raven Ridge lijkt meer te zijn dan alleen een Ryzen met een CCX. Het lijkt erop dat het een Zen+ ontwerp is met een GPU, die op 14nm zijn gebakken. Het zou zeer interessant zijn als iemand een desktop Raven Ridge zou bemachtigen en deze clock voor clock zou benchmarken met een Ryzen 1 chip.
Ik wil het uiteindelijk best doen, maar het gegeven power budget is natuurlijk over de gpu en cpu verdeelt. Het lijkt mij beter om dit met de echte uiteindelijke Zen+ chips te doen die geene gpu hebben.

@Verwijderd
De R5 2400G is niet direct een budget chip, de R3 2200G misschien wel. Het is nog niet het snelste geheugen, 3200 C14 valt best mee :p. Ik heb een stuk sneller in mijn normale bak zitten, maar voornamelijk om er voor te zorgen dat als er een bottleneck was dat het niet het geheugen zelf was maar de memory controller van Ryzen.

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op donderdag 18 januari 2018 @ 15:14:
[...]


Ik wil het uiteindelijk best doen, maar het gegeven power budget is natuurlijk over de gpu en cpu verdeelt. Het lijkt mij beter om dit met de echte uiteindelijke Zen+ chips te doen die geene gpu hebben.
Volgens mij worden de Raven Ridge chips niet gelocked. Ik vraag me eerder af of er IPC vorderingen zijn gemaakt. ;)
Maar ik zit al een tijdje te denken om zelf een HTPC te maken. Oke, meer een veredelde dvd speler maar het gaat om het idee. Doe ik dit, dan gaat dat gebeuren met een AMD APU dammit. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op donderdag 18 januari 2018 @ 15:24:

Maar ik zit al een tijdje te denken om zelf een HTPC te maken. Oke, meer een veredelde dvd speler maar het gaat om het idee. Doe ik dit, dan gaat dat gebeuren met een AMD APU dammit. :P
Ik zou eigenlijk zeggen begin er niet aan...... Heb er tijdenlang als AV enthousiast redelijk diep in gezeten maar toch is het eigenlijk nooit echt goed of af. Dan is dit weer niet compatible dan werkt dat weer niet lekker en zit je weer settings te tweaken in plaats van te genieten van je muziek en video.

Ik heb alles de deur uit gedaan en een Shield neergezet en kan eigenlijk niet zeggen dat ik ook maar enige spijt heb van die keuze.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op donderdag 18 januari 2018 @ 15:14:
[...]
Ik wil het uiteindelijk best doen, maar het gegeven power budget is natuurlijk over de gpu en cpu verdeelt. Het lijkt mij beter om dit met de echte uiteindelijke Zen+ chips te doen die geene gpu hebben.

@Verwijderd
De R5 2400G is niet direct een budget chip, de R3 2200G misschien wel. Het is nog niet het snelste geheugen, 3200 C14 valt best mee :p. Ik heb een stuk sneller in mijn normale bak zitten, maar voornamelijk om er voor te zorgen dat als er een bottleneck was dat het niet het geheugen zelf was maar de memory controller van Ryzen.
Mijn punt is dus dat langzamer en minder geheugen icm een veel betere APU vrijwel zeker meer performance geeft. Stel dat er een R7 2700G uitkomt met rond de 15CU, 1000 streamprocessors, en de cpu op 4,5 ghz voor 4 cores en 8 threads. En dat deze chip ongeveer 75 euro duurder is dan de 2400G, dus +/- 250 euro. Dan loont het zelfs om voorlopig even een budget setje geheugen daarin te zetten ipv veel en duur geheugen in de R5 2400G. Zelfs wanneer de pc met de R7 2700G snakt naar geheugen zal hij toch nog sneller zijn dan de R5 2400G met veel en duur geheugen.....

Wanneer de geheugen prijzen dan eindelijk een keer van hun woeker en uitbuit niveau afzijn koop je er een betere set van..... ;) Voorlopig heb je dan wel het voordeel van de veel snellere APU.

Acties:
  • 0 Henk 'm!
Ik zag recentelijk voor het eerst een betaalbare Ryzen 2500U voorbij komen. Bij ibood 2500U, 256 GB ssd, 1TB hdd, 15.6inch Acer voor 749. Helaas bleek het 1x 8 GB gesoldeerd ram te zijn en daarom heb ik hem toch maar laten schieten. Weet niet of dit een voorbode is voor de launch van meer modellen? Daarmee vraag ik mij zowel af of de 'fout' om 1 module te solderen vaker gemaakt gaat worden en wanneer we nu eens wat te kiezen krijgen.

Voor mij zal het antwoord mogelijk te laat komen, ik ben van plan tijdens de btw dagen (25e) een nieuwe laptop scoren. Als het aanbod zo blijft dan wordt het toch een 8250U icm een mx150 voor 799, of een wat goedkoper model zonder mx150. Natuurlijk alleen mits er ook echt korting is, anders wacht ik nog wel even op beschikbaarheid.

[ Voor 21% gewijzigd door sdk1985 op 18-01-2018 18:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het vast solderen van het ram zal ook deels zijn om de laptop zo dun mogelijk te maken. Joost mag weten wat je daar precies aan hebt, een paar millimeter dunner. Rationeel geen goede verklaring voor om zoveel op te offeren voor, subjectief, betere looks. Accu, koeling, prijs en upgradebaarheid worden er zo niet beter op. Idem voor telefoons, op de upgradebaarheid na.

Als geek sta je bij de aankoop van een laptop stil of het om single of dualchannel geheugen gaat en of dit uitbreidbaar/aanpasbaar is. De gewone consument zal er geen reet van snappen. Het is voor die stervelingen waarschijnlijk al moeilijk genoeg om iemand te vinden die ze daarop kan attenderen. Want ook de verkopers in de Mediamarkt e.d. hebben er de ballen verstand van.

Het is ook allemaal niet makkelijk vandaag de dag...

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Zen+ gespot:
ZD2600BBM68AF_38/34_Y
6C 12T 3.4GHz
Dat betekent dus dat de opvolger van de Ryzen 5 1600 op 3.4-3.8GHz loopt, 200MHz meer dan zijn voorganger. Ik hoop dat ondanks deze marginale verbetering er wel meer uit te halen valt wat betreft de maximale overclock, anders is het - los van eventuele verbeteringen in de architectuur - slechts een kleine stap die het "12nm" proces brengt.

...and your ass will follow


Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 18 januari 2018 @ 21:00:
Het vast solderen van het ram zal ook deels zijn om de laptop zo dun mogelijk te maken.
Dat en omdat het fijn is dat je meer dan de kostprijs extra kan vragen voor een grotere capaciteit aan RAM of snellere RAM. Apple 'verdiende' hier gouden bergen mee om nog maar te zwijgen over hun SSD's waarvoor ze een paar keer de kostprijs vroegen. :')

2016 toen SATA SSD's niet duurder dan nu, mogelijk zelfs minder duur (smartphones en zo).
850 EVO
Afbeeldingslocatie: https://ic.tweakimg.net/ext/i/?ProduktID=422396&deliveryCountry=NL
Of dat het dunner makene van de laptops daadwerkelijk een extra reden is of een smoes, dat is moeilijk te zeggen, mijn gok zou zijn dat ze ook graag die dingen dunner maken omdat de leek graag dunnere laptops heeft.
Als geek sta je bij de aankoop van een laptop stil of het om single of dualchannel geheugen gaat en of dit uitbreidbaar/aanpasbaar is. De gewone consument zal er geen reet van snappen. Het is voor die stervelingen waarschijnlijk al moeilijk genoeg om iemand te vinden die ze daarop kan attenderen. Want ook de verkopers in de Mediamarkt e.d. hebben er de ballen verstand van.
Wat precies de reden is dat ze het doen. Veel mensen hier maken de fout om als geek/nerd/tweaker/enthousiasteling te denken, niet als de doorsnee klant. Ja, het is functioneel gezien volslagen idioot om dit soort fratsen uit te halen. Maak de laptop iets dikker en iets groter zodat je normaa RAM erin kan stoppen en nog eens een grafische kaart kan vervangen, wat betere I/O hebt, een wat grotere batterij hebt...
Mijn advies, als nerd: stop geen mechanische harde schijf en DVD/Blu-Ray in een laptop, het scheelt veel gewicht en ruimte die veel beter benut kan worden.
hidde212 schreef op donderdag 18 januari 2018 @ 21:46:
Zen+ gespot:


[...]


Dat betekent dus dat de opvolger van de Ryzen 5 1600 op 3.4-3.8GHz loopt, 200MHz meer dan zijn voorganger. Ik hoop dat ondanks deze marginale verbetering er wel meer uit te halen valt wat betreft de maximale overclock, anders is het - los van eventuele verbeteringen in de architectuur - slechts een kleine stap die het "12nm" proces brengt.
Even rustig afwachten, het kan dat ze omwille van het vermogenbudget niet hoger klokken terwijl het wel mogelijk is om op 4,4-4,6 GHz te klokken. Anders is het ook geen ramp, je betaalt nu €210-220 voor dezelfde RAM-latjes die 2 jaar geleden €75 kostten bij dezelfde winkel. :')
Het wordt verwacht dat dit in 2019 aanzienlijk beter gaat zijn, omdat Samsung en Hynix stappen hebben genomen die vanaf de tweede helft van 2018 vruchten gaat afwerpen en omdat je een typische RAM-cyclus lijkt te hebben waarbij het patroon is dat elke paar jaar die prijzen stijgen en weer dalen. Daarnaast kan je momenteel geen grafische kaart krijgen. Ik heb in ieder geen haast met het bouwen van een systeem hoe graag ik ook zou upgraden. Het lijkt erop dat ik de 10 jaar ga volmaken met mijn CPU, dat zag ik niet aankomen. 8)7

[ Voor 59% gewijzigd door Verwijderd op 18-01-2018 21:58 ]


Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

madmaxnl schreef op donderdag 18 januari 2018 @ 21:00:
Als geek sta je bij de aankoop van een laptop stil of het om single of dualchannel geheugen gaat en of dit uitbreidbaar/aanpasbaar is.
Of je tast gewoon wat dieper in de buidel en koopt ineens een uitvoering met voldoende geheugen. Als je niet te gek doet lukt 4 GB nog wel, maar ik heb mijn XPS 13 met 8 GB gekocht. Bedoeling is dan ook dat dat ding meer dan 3 jaar meegaat en dat ik het RAM niet kan upgraden stoort me niet enorm. De draadloze kaart en de NVMe SSD daarentegen zijn allebei al vervangen ondertussen ;)

Als puntje bij paaltje komt ga ik zelfs de interne batterij zelf vervangen als de rest van de hardware nog goed genoeg is.

Elke geek zijn prioriteiten lijkt me.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

Verwijderd

Borromini schreef op donderdag 18 januari 2018 @ 21:54:
[...]

Of je tast gewoon wat dieper in de buidel en koopt ineens een uitvoering met voldoende geheugen.
n/o, jij mist zijn punt. Het gebrek aan RAM-geheugen is slechts een van zijn vele bezwaren. Hij vindt het van de zotten om koste wat het kost die laptop een paar millimeter dunner en kleiner te maken en zoveel op te offeren voor iets wat objectief bezien geen enkel voordeel geeft. Plus dat je, zoals ik reeds aangaf, extra betaalt voor die extra RAM, dus meer dan wat de kostprijs van die extra RAM is.

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Verwijderd schreef op donderdag 18 januari 2018 @ 21:47:
[...]
Even rustig afwachten, het kan dat ze omwille van het vermogenbudget niet hoger klokken terwijl het wel mogelijk is om op 4,4-4,6 GHz te klokken. Anders is het ook geen ramp, je betaalt nu €210-220 voor dezelfde RAM-latjes die 2 jaar geleden €75 kostten bij dezelfde winkel. :')
Aangezien de beste modellen van de 1800X niet boven de 4.1GHz uitkomen (en de 1600 of 1700 vaak niet eens de 4.0 halen op reële voltages), zou dit plafond naar 4.2-4.3 getild worden als je de verhoging in kloksnelheid doortrekt naar de max overclock. Niet slecht, maar ik hoop persoonlijk dat er nog meer uit te persen valt.
Het wordt verwacht dat dit in 2019 aanzienlijk beter gaat zijn, omdat Samsung en Hynix stappen hebben genomen die vanaf de tweede helft van 2018 vruchten gaat afwerpen en omdat je een typische RAM-cyclus lijkt te hebben waarbij het patroon is dat elke paar jaar die prijzen stijgen en weer dalen. Daarnaast kan je momenteel geen grafische kaart krijgen. Ik heb in ieder geen haast met het bouwen van een systeem hoe graag ik ook zou upgraden. Het lijkt erop dat ik de 10 jaar ga volmaken met mijn CPU, dat zag ik niet aankomen. 8)7
Laten we het hopen. Bij de huidige RAM-prijzen krijg ik wel het gevoel dat het tijd wordt om de kartelschaar er maar eens bij te pakken. :+

...and your ass will follow


Acties:
  • 0 Henk 'm!

Verwijderd

hidde212 schreef op donderdag 18 januari 2018 @ 22:03:
Laten we het hopen. Bij de huidige RAM-prijzen krijg ik wel het gevoel dat het tijd wordt om de kartelschaar er maar eens bij te pakken. :+
Ze (Samsung, Hynix en Micron) zijn eerder betrapt op prijsafspraken (of misschien volumeafspraken om zo de prijs te sturen?). China doet momenteel een onderzoek

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 18 januari 2018 @ 17:58:
[...]

Mijn punt is dus dat langzamer en minder geheugen icm een veel betere APU vrijwel zeker meer performance geeft. Stel dat er een R7 2700G uitkomt met rond de 15CU, 1000 streamprocessors, en de cpu op 4,5 ghz voor 4 cores en 8 threads. En dat deze chip ongeveer 75 euro duurder is dan de 2400G, dus +/- 250 euro. Dan loont het zelfs om voorlopig even een budget setje geheugen daarin te zetten ipv veel en duur geheugen in de R5 2400G. Zelfs wanneer de pc met de R7 2700G snakt naar geheugen zal hij toch nog sneller zijn dan de R5 2400G met veel en duur geheugen.....

Wanneer de geheugen prijzen dan eindelijk een keer van hun woeker en uitbuit niveau afzijn koop je er een betere set van..... ;) Voorlopig heb je dan wel het voordeel van de veel snellere APU.
Snap ik, maar daar is toch nog niks over bekend? Terwijl geruchten van 2400G en de 2200G al een beste tijd rondzweefden.

Acties:
  • 0 Henk 'm!
hidde212 schreef op donderdag 18 januari 2018 @ 21:46:
Zen+ gespot:


[...]


Dat betekent dus dat de opvolger van de Ryzen 5 1600 op 3.4-3.8GHz loopt, 200MHz meer dan zijn voorganger. Ik hoop dat ondanks deze marginale verbetering er wel meer uit te halen valt wat betreft de maximale overclock, anders is het - los van eventuele verbeteringen in de architectuur - slechts een kleine stap die het "12nm" proces brengt.
Je trekt hier echt conclusies die je nooit kan onderbouwen. ;)
Ik had dit al gezien, en bewust hier niet geplaatst om deze reden. Ten eerste is dit een engineering sample. Dit is een testchip die ASUS waarschijnlijk geeft gekregen voor bios ontwikkeling. ES chips zijn vaak, maar niet altijd lager geclocked dan de daadwerkelijke chips in de winkel. Verder hoe weten we precies welke SKU dit zal zijn? Misschien dropt AMD de "2500X" wel en komen ze met drie hexacores.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Laatst online: 14:36

The Chosen One

Zie signature!

De website staat er natuurlijk al bekend om maar ik doe het toch; https://wccftech.com/amd-...sshair-vii-hero-x470-leak
Als je nog mensen elkaar vol voor AMDumb en Nvidiot en elkaar de dood wilt toewensen daar ff kijken. Je voelt je gegarandeerd slimmer erna. :+

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

DaniëlWW2 schreef op donderdag 18 januari 2018 @ 23:23:
[...]


Je trekt hier echt conclusies die je nooit kan onderbouwen. ;)
Ik had dit al gezien, en bewust hier niet geplaatst om deze reden. Ten eerste is dit een engineering sample. Dit is een testchip die ASUS waarschijnlijk geeft gekregen voor bios ontwikkeling. ES chips zijn vaak, maar niet altijd lager geclocked dan de daadwerkelijke chips in de winkel. Verder hoe weten we precies welke SKU dit zal zijn? Misschien dropt AMD de "2500X" wel en komen ze met drie hexacores.
Volgens mij doe ik vooral aannames. De enige conclusie die ik trek is dat de genoemde processor met ID ZD2600BBM68AF_38/34_y de opvolger van de 1600 is, met kloksnelheid 3.4/3.8GHz. Aangezien de ID begint met een Z en niet met een cijfer (zoals bij andere Zen engineering samples) gaat het hoogst waarschijnlijk om een release candidate en is dit een logische conclusie. Wat deze conclusie verder onderbouwt is dat het 12nm proces eigenlijk het 14nm+ proces van GF is en een marginale verbetering van kloksnelheden daarbij past. Tot slot ligt het ook voor de hand dat de 2600 de opvolger van de 1600 is.

Dat het nieuwe plafond op 4.3GHz ligt is puur hypothetisch; misschien is het steeds maar 4.1GHz. Ik hoop echter dat dat niet het geval is en dat we straks allemaal voor €285 een R7 2700 kunnen halen en deze naar 4.7 kunnen klokken. Of het reëel is? ;)

...and your ass will follow


Acties:
  • +1 Henk 'm!

  • MonkeyJohn
  • Registratie: Oktober 2014
  • Laatst online: 19-08 20:11
Hmm, ik had liever gezien dat ze Zen+ (aka zen 1.5) iets in de trant van '1650x' gingen noemen en pas bij Zen2 de "+1000" bij de processor naam zouden doen i.v.m. de grootte van de stap/vooruitgang. Dan heb je dus:
Zen 1: 1600
Zen +: 1650
Zen 2: 2600
Zen 3: 3600
Dat werkt veel beter in mijn hoofd i.p.v. dat ze nu al alle namen de 2000 serie in duwen :+

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Tja, die mag je aan Intel uitleggen, met haar 4000 t/m 7000 serie..

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • MonkeyJohn
  • Registratie: Oktober 2014
  • Laatst online: 19-08 20:11
Intel zoekt het maar uit met hun 1000 variaties van elke cpu per tick/tock.. 8)7 volgens mij snapt degene dat bedacht heeft nog niet eens :Y)

Acties:
  • 0 Henk 'm!
foppe-jan schreef op vrijdag 19 januari 2018 @ 08:12:
Tja, die mag je aan Intel uitleggen, met haar 4000 t/m 7000 serie..
Intel is dat op consumenten gebied eigenlijk vrij duidelijk in sinds Sandy Bridge, aan het eerste getal kun je bij de consumenten reeksen altijd direct zien over welke generatie het gaat. 2xxx t/m 8xxx voor de standaard range en 2xxx tot 7xxx voor het enthousiast segment.

Acties:
  • 0 Henk 'm!

  • Fleximex
  • Registratie: Juni 2006
  • Laatst online: 15:29
DaniëlWW2 schreef op donderdag 18 januari 2018 @ 23:23:
[...]


Je trekt hier echt conclusies die je nooit kan onderbouwen. ;)
Ik had dit al gezien, en bewust hier niet geplaatst om deze reden. Ten eerste is dit een engineering sample. Dit is een testchip die ASUS waarschijnlijk geeft gekregen voor bios ontwikkeling. ES chips zijn vaak, maar niet altijd lager geclocked dan de daadwerkelijke chips in de winkel. Verder hoe weten we precies welke SKU dit zal zijn? Misschien dropt AMD de "2500X" wel en komen ze met drie hexacores.
Voorbeeld daarvan https://wccftech.com/amd-zen-es-benchmarks-leak-out/

Dat is een 8 core 16 threads op 2,8GHz met een turbo naar 3,2Ghz. Die bestaat helemaal niet. En als je zoekt om Zen Ghz sample, of leaked, o.i.d. in Google en je zet de zoek periode tot 1 maart 2017 krijg je veel verschillende resultaten. Bijvoorbeeld een 8c/16t 3,6GHz met 3,9GHz turbo, etc, etc:

https://nl.hardware.info/...hz-en-39-ghz-turbo-gespot
https://forums.anandtech....45/page-132#post-38535254
https://i.redd.it/tic6i57uob5y.jpg
https://wccftech.com/amd-ryzen-zen-cpu-benchmarks-leak/

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dennism schreef op vrijdag 19 januari 2018 @ 08:52:
[...]


Intel is dat op consumenten gebied eigenlijk vrij duidelijk in sinds Sandy Bridge, aan het eerste getal kun je bij de consumenten reeksen altijd direct zien over welke generatie het gaat. 2xxx t/m 8xxx voor de standaard range en 2xxx tot 7xxx voor het enthousiast segment.
Yup, maar de vraag die hier impliciet wordt gesteld is dus wat de titel 'nieuwe generatie' verdient. Vanaf de 4000 serie zat het verschil hem vooral in de factory overclock die Intels CPUs meekregen. Natuurlijk liggen daar stroomverbruiksverbeteringen aan ten grondslag, maar het punt is dus dat als je corrigeert voor clocks, de prestaties en perf/watt sinds de introductie van 14nm nauwelijks zijn verbeterd.
Fleximex schreef op vrijdag 19 januari 2018 @ 09:26:
[...]

Voorbeeld daarvan https://wccftech.com/amd-zen-es-benchmarks-leak-out/

Dat is een 8 core 16 threads op 2,8GHz met een turbo naar 3,2Ghz. Die bestaat helemaal niet. En als je zoekt om Zen Ghz sample, of leaked, o.i.d. in Google en je zet de zoek periode tot 1 maart 2017 krijg je veel verschillende resultaten. Bijvoorbeeld een 8c/16t 3,6GHz met 3,9GHz turbo, etc, etc:
Klopt, maar het punt is dat van 14LPP naar 12LP de prestaties tussen 2-3.5GHz niet stroomefficienter zullen worden, want juist daar was 14LPP al prima. Het zal dus puur iets efficienter werken (en in dezelfde TDP envelop passen) 'aan de bovenkant'. Nou kan het natuurlijk dat ze er in het uiteindelijk product 3.5-3.9 van maken (als de 2600x/2800x makkelijk naar 4.4 kunnen bijv.), maar veel meer dan dit (+XFR) zal het waarschijnlijk niet worden.

[ Voor 36% gewijzigd door foppe-jan op 19-01-2018 09:31 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • Fleximex
  • Registratie: Juni 2006
  • Laatst online: 15:29
foppe-jan schreef op vrijdag 19 januari 2018 @ 09:27:
[...]

Klopt, maar het punt is dat van 14LPP naar 12LP de prestaties tussen 2-3.5GHz niet stroomefficienter zullen worden, want juist daar was 14LPP al prima. Het zal dus puur iets efficienter werken (en in dezelfde TDP envelop passen) 'aan de bovenkant'. Nou kan het natuurlijk dat ze er in het uiteindelijk product 3.5-3.9 van maken (als de 2600x/2800x makkelijk naar 4.4 kunnen bijv.), maar veel meer dan dit (+XFR) zal het waarschijnlijk niet worden.
Inderdaad. Maar het is om aan te geven dat 3,4-3,8, 3,6-4,0 kan worden. Maar ook niet. Het is afwachten.

Het valt me wel op dat in de Processor Multi-Media test van die site een score van 347.23Mpix/s wordt behaald voor de 2600 ES. Voor de 1600X bedraagt de gemiddelde score (met een gemiddelde van 3.85GHz) 345.24Mpix/s.

Acties:
  • +1 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 14-09 21:48

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Dus ook een kleine IPC verbetering. Best mooi voor een refresh.
Ik snap overigens die reacties op het internet niet ze verwachten wonderen van een node shrink. AMD noemt het niet voor niks Zen+ en geen Zen 2 8)7.

Je moet niet vergeten dat niet elke architectuur is gemaakt voor hoge clocks. De FX series konden hoog clocken maar hadden daardoor een lage IPC. Ryzen lijkt redelijk hoog te kunnen clocken en heeft hoge IPC.
Stel dat de IPC met Zen 2 boven die van Intel komt, dan hebben ze niet perse een hogere clocksnelheid nodig.

Acties:
  • 0 Henk 'm!

Verwijderd

hidde212 schreef op donderdag 18 januari 2018 @ 21:46:
Zen+ gespot:


[...]


Dat betekent dus dat de opvolger van de Ryzen 5 1600 op 3.4-3.8GHz loopt, 200MHz meer dan zijn voorganger. Ik hoop dat ondanks deze marginale verbetering er wel meer uit te halen valt wat betreft de maximale overclock, anders is het - los van eventuele verbeteringen in de architectuur - slechts een kleine stap die het "12nm" proces brengt.
Vergeet verder ook niet dat de klokfrequentie slechts 1 element is; latency, cache...
Even rustig testjes afwachten zo gauw de CPU uit is.
Fleximex schreef op vrijdag 19 januari 2018 @ 09:26:
[...]

Voorbeeld daarvan https://wccftech.com/amd-zen-es-benchmarks-leak-out/

Dat is een 8 core 16 threads op 2,8GHz met een turbo naar 3,2Ghz. Die bestaat helemaal niet. En als je zoekt om Zen Ghz sample, of leaked, o.i.d. in Google en je zet de zoek periode tot 1 maart 2017 krijg je veel verschillende resultaten. Bijvoorbeeld een 8c/16t 3,6GHz met 3,9GHz turbo, etc, etc:

https://nl.hardware.info/...hz-en-39-ghz-turbo-gespot
https://forums.anandtech....45/page-132#post-38535254
https://i.redd.it/tic6i57uob5y.jpg
https://wccftech.com/amd-ryzen-zen-cpu-benchmarks-leak/
Werd van Ryzen niet 3,2/2,8 gelekt? Rustig afwachten, over 3 maanden weten we het. :)
Ik verwacht een 0,4-0,6 GHz verhoging van de klokfrequentie maar het is niet zo relevant, het gaat om het totale plaatje: klokfrequentie, latency, cache, 'IPC' die geen IPC is :')... en natuurlijk de prijs.
The Chosen One schreef op donderdag 18 januari 2018 @ 23:28:
De website staat er natuurlijk al bekend om maar ik doe het toch; https://wccftech.com/amd-...sshair-vii-hero-x470-leak
Als je nog mensen elkaar vol voor AMDumb en Nvidiot en elkaar de dood wilt toewensen daar ff kijken. Je voelt je gegarandeerd slimmer erna. :+
offtopic:
Goh, wat goedkoop nage-aapt van de Nvidia-fanboys. Nvidiot was er eerder, en met goede redenen. ;)
MonkeyJohn schreef op vrijdag 19 januari 2018 @ 02:20:
Hmm, ik had liever gezien dat ze Zen+ (aka zen 1.5) iets in de trant van '1650x' gingen noemen en pas bij Zen2 de "+1000" bij de processor naam zouden doen i.v.m. de grootte van de stap/vooruitgang. Dan heb je dus:
Zen 1: 1600
Zen +: 1650
Zen 2: 2600
Zen 3: 3600
Dat werkt veel beter in mijn hoofd i.p.v. dat ze nu al alle namen de 2000 serie in duwen :+
Ik zou dat ook logischer vinden maar ach, het maakt weinig uit.
Sp3ci3s8472 schreef op vrijdag 19 januari 2018 @ 13:59:Stel dat de IPC met Zen 2 boven die van Intel komt, dan hebben ze niet perse een hogere clocksnelheid nodig.
Sterker nog, ze zouden liever de zogenaamde IPC verhogen met X% dan de klokfrequentie als ze hiertussen zouden kunnen kiezen aangezien je dan dezelfde prestaties krijgt met een lager vermogen. De klokfrequentie is lang niet zo interessant als dat veel mensen nu denken, de enige reden dat ook mensen die er verstand van hebben de klokfrequentie aanhalen is omdat Ryzen stomtoevallig ongeveer hetzelfde presteert als Intel bij dezelfde klokfrequentie. De kans dat het zo uitpakt is relatief klein maar toevallig is het zo gegaan.

[ Voor 76% gewijzigd door Verwijderd op 19-01-2018 14:15 ]


Acties:
  • 0 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Laatst online: 14:36

The Chosen One

Zie signature!

En dan de betere/slimmere(?) boost e.d. waar in principe niks over bekend is behalve AMD slide waar eigenlijk geen cijfers of info bijstaan.

Ik begin het wachten tot ik ga/wil upgraden steeds vervelender te vinden (how sad!) dus ik begin steeds meer naar Ryzen 2 te leunen nu. :+

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

The Chosen One schreef op vrijdag 19 januari 2018 @ 14:18:
En dan de betere/slimmere(?) boost e.d. waar in principe niks over bekend is behalve AMD slide waar eigenlijk geen cijfers of info bijstaan.

Ik begin het wachten tot ik ga/wil upgraden steeds vervelender te vinden (how sad!) dus ik begin steeds meer naar Ryzen 2 te leunen nu. :+
Hoewel upgraden leuk is ga ik pas upgraden met Zen 2, ik heb al een 1700x en dat voldoet prima aan de dingen die ik ermee doe :D.

Als je iets ouders hebt dan kan het wel leuk zijn, maar dan was de betere instap Ryzen geweest of in jou geval dus Zen 2.

Acties:
  • 0 Henk 'm!
Ik hoop nog steeds dat ze willen clocken tot 4.6Ghz, dan gaat Zen+ zeker mee doen voor mijn volgende system. Wil namelijk eigenlijk nog steeds niet inleveren aan WoW performance (want dat spel loopt al niet super in zeer drukke raids e.d.) en dan moet Zen+ beter presteren dan mijn huidige 4.6Ghz Intel ....... Maar als het heel dicht in de buurt komt.... denk dat 4.4Ghz toch wel mijn minimum vereiste gaat zijn.

Acties:
  • 0 Henk 'm!
Stukje tekst erbij van hwi:
Zoals te zien in de bovenstaande tabel vallen bij de meeste benchmarks de scores zo'n 9% a 10% hoger uit. Dit is zeker geen slechte score gezien we het hier over een engineering sample hebben. Ook zien we dat de basis klokfrequentie van 3,2 naar 3,4 GHz is verhoogt en de turbofrequentie van 3,6 naar 3,8 GHz is opgevoerd. Gezien dit respectievelijk 6,3% en 5,6% sneller is, lijken er ook daadwerkelijk kleine verbeteringen in de CPU-kernen plaats te hebben gevonden.
In lijn der verwachtingen. Maakt Ryzen weer net wat concurrerender, zeker in combinatie met de recente prijsverlaging.

@Verwijderd Had ik de 200 Mhz niet letterlijk voorspeld in onze discussie, of weet jij het ook niet meer? :>

[ Voor 5% gewijzigd door sdk1985 op 19-01-2018 16:26 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

sdk1985 schreef op vrijdag 19 januari 2018 @ 16:23:
[...]
In lijn der verwachtingen. Maakt Ryzen weer net wat concurrerender, zeker in combinatie met de recente prijsverlaging.
Ik zou eerder verwachten dat de recente prijsverlaging dient om ruimte te maken om de volgende generatie te introduceren tegen de introductieprijzen van de huidige. Het zou ook een rare zet zijn om een nieuwe productlijn meteen in de aanbieding te zetten.

Acties:
  • 0 Henk 'm!
dcm360 schreef op vrijdag 19 januari 2018 @ 16:32:
[...]

Ik zou eerder verwachten dat de recente prijsverlaging dient om ruimte te maken om de volgende generatie te introduceren tegen de introductieprijzen van de huidige. Het zou ook een rare zet zijn om een nieuwe productlijn meteen in de aanbieding te zetten.
Zou ook kunnen. In het verleden heeft AMD vaak gekozen voor de lage prijs met lage marge dus wat dat betreft is verder borduren op de verlaagde prijs in de ogen van AMD niet vreemd. Normaal zou ik daar op mopperen, alleen ze hebben nu echt een kans marktaandeel te pakken dus misschien moeten ze dat gewoon maar eens gaan doen. Intel Coffee lake is erg sterk (8100, 8400 erg goed voor gaming, 8700K video rendering) en de realiteit is dat bij min of meer gelijke prijs/prestatie Intel een flinke voorsprong heeft in de ogen van de consument. AMD heeft nog wat te bewijzen. Dus als AMD het gevoel kan terugbrengen dat je meer voor minder krijgt, in plaats van minder voor minder, dan gaat dat zeker helpen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op vrijdag 19 januari 2018 @ 16:43:
[...]

Zou ook kunnen. In het verleden heeft AMD vaak gekozen voor de lage prijs met lage marge dus wat dat betreft is verder borduren op de verlaagde prijs in de ogen van AMD niet vreemd. Normaal zou ik daar op mopperen, alleen ze hebben nu echt een kans marktaandeel te pakken dus misschien moeten ze dat gewoon maar eens gaan doen. Intel Coffee lake is erg sterk (8100, 8400 erg goed voor gaming, 8700K video rendering) en de realiteit is dat bij min of meer gelijke prijs/prestatie Intel een flinke voorsprong heeft in de ogen van de consument. AMD heeft nog wat te bewijzen. Dus als AMD het gevoel kan terugbrengen dat je meer voor minder krijgt, in plaats van minder voor minder, dan gaat dat zeker helpen.
Dat je de 8400 goed voor gaming noemt oke en is logisch, maar de 8100... dat ding heeft 4 cores zonder HT, als je naar hedendaagse games kijkt en dan vooral naar de min fps (1% en 0.1 low) dan zie je dat quad cores daar steeds slechter scoren. In mijn optiek is die cpu niet geschikt voor (serieus gamen) games. Voor simpel desktop gebruik is hij prima, maar meer moet je er niet mee willen.
Consument kan hier overigens anders over denken omdat ze niet beter weten en het blauwe logotje zien :p.


Als je de 8100 niet bedoelde mede door de komma dan mag je dit negeren :p.

[ Voor 3% gewijzigd door Sp3ci3s8472 op 19-01-2018 17:12 ]


Acties:
  • +3 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Verwijderd schreef op vrijdag 19 januari 2018 @ 14:03:
[...]

Werd van Ryzen niet 3,2/2,8 gelekt? Rustig afwachten, over 3 maanden weten we het. :)
Ik verwacht een 0,4-0,6 GHz verhoging van de klokfrequentie maar het is niet zo relevant, het gaat om het totale plaatje: klokfrequentie, latency, cache, 'IPC' die geen IPC is :')... en natuurlijk de prijs.
sdk1985 schreef op vrijdag 19 januari 2018 @ 16:23:
[...]

Stukje tekst erbij van hwi:
[...]
Nogmaals, het is dus geen engineering sample meer, zoals hw.info ook verkeerd over heeft genomen. Dat maakt het erg waarschijnlijk dat dit de uiteindelijke kloksnelheden zijn.

Afbeeldingslocatie: https://pbs.twimg.com/media/C4IeS8FWEAAdjRA.jpg
In lijn der verwachtingen. Maakt Ryzen weer net wat concurrerender, zeker in combinatie met de recente prijsverlaging.

@Verwijderd Had ik de 200 Mhz niet letterlijk voorspeld in onze discussie, of weet jij het ook niet meer? :>
Voor Zen2/7nm verwacht ik wel een grotere verbetering, aangezien dat ook niet meer op een low power proces is.

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Sp3ci3s8472 schreef op vrijdag 19 januari 2018 @ 17:11:
[...]


Dat je de 8400 goed voor gaming noemt oke en is logisch, maar de 8100... dat ding heeft 4 cores zonder HT, als je naar hedendaagse games kijkt en dan vooral naar de min fps (1% en 0.1 low) dan zie je dat quad cores daar steeds slechter scoren. In mijn optiek is die cpu niet geschikt voor (serieus gamen) games. Voor simpel desktop gebruik is hij prima, maar meer moet je er niet mee willen.
Consument kan hier overigens anders over denken omdat ze niet beter weten en het blauwe logotje zien :p.


Als je de 8100 niet bedoelde mede door de komma dan mag je dit negeren :p.
Al nieuwe games gezien waar ook de 8400 gewoon op 95%+ loopt op alle cores, net als de Ryzen 3.

Acties:
  • 0 Henk 'm!

Verwijderd

hidde212 schreef op vrijdag 19 januari 2018 @ 18:26:
[...]


[...]


Nogmaals, het is dus geen engineering sample meer, zoals hw.info ook verkeerd over heeft genomen. Dat maakt het erg waarschijnlijk dat dit de uiteindelijke kloksnelheden zijn.
Kijk even naar AdoredTV zijn laatste video, hij linkt naar een andere video waarin een AMD-medewerker (verantwoordelijk voor Threadripper) uitlegt dat er nog van alles wordt getuned in de komende maanden. Hardware is de eerste stap, vervolgens moet je de software nog afstemmen. Bovendien hebben we geen benul wat de overklokruimte is en welke segmenten er komen. Even rustig afwachten tot april. Mij maakt het verder weinig uit want gezien de crisis met RAM en grafische kaarten zit het er dit jaar toch niet in om een systeem te bouwen, 2018 is al afgeschreven voor PC enthusiasts.

Voor Zen2/7nm verwacht ik wel een grotere verbetering, aangezien dat ook niet meer op een low power proces is.
Niet alleen is het een compleet andere node, het komt van een ander bedrijf. Volgens wat nu bekend is over die node - en dat is inmiddels best veel - presteert die prima.
https://fuse.wikichip.org...7nm-process-cobalt-euv/2/
Los van wat Ryzen+ wel en niet waarmaakt, voor Zen2 zal de vooruitgang inderdaad groter zijn, voor Zen3 eveneens in vergelijking met Ryzen => Ryzen+
In theorie zou de vooruitgang tussen Ryzen+ en Zen2 ook groter moeten zijn dan die tussen Zen2 en Zen3 waarbij de vooruitgang tussen Zen2 en Zen3 groter is dan die tussen Ryzen en Ryzen+ (EUV en meer verbeteringen voor de architectuur). Zen2 lijkt mij het perfecte moment om in te stappen als de crisis met RAM en grafische kaarten dan voorbij is, of in ieder geval de RAM weer enigszins 'normaal' is geprijsd. In retrospectie zou ik natuurlijk willen dat ik 2 jaar geleden twee latjes had gekocht.
sdk1985 schreef op vrijdag 19 januari 2018 @ 16:23:
@Verwijderd Had ik de 200 Mhz niet letterlijk voorspeld in onze discussie, of weet jij het ook niet meer? :>
Ik heb een goed geheugen, ik herinner het dat jij dat voorspelde. Jij kraait echter veel te vroeg victorie. :)
Ik stel nog steeds dat mijn "minstens 0,4 GHz" er dichter bij in de buurt komt dan jouw 0,2 GHz. Nadat de eerste CPU's getest zijn door voldoende competente reviewers (die er weinig zijn) dan zullen we wel gaan zien wie het wint. :Y)
sdk1985 schreef op vrijdag 19 januari 2018 @ 16:43:
[...]

Zou ook kunnen. In het verleden heeft AMD vaak gekozen voor de lage prijs met lage marge dus wat dat betreft is verder borduren op de verlaagde prijs in de ogen van AMD niet vreemd. Normaal zou ik daar op mopperen, alleen ze hebben nu echt een kans marktaandeel te pakken dus misschien moeten ze dat gewoon maar eens gaan doen. Intel Coffee lake is erg sterk (8100, 8400 erg goed voor gaming, 8700K video rendering) en de realiteit is dat bij min of meer gelijke prijs/prestatie Intel een flinke voorsprong heeft in de ogen van de consument. AMD heeft nog wat te bewijzen. Dus als AMD het gevoel kan terugbrengen dat je meer voor minder krijgt, in plaats van minder voor minder, dan gaat dat zeker helpen.
1 woord: prijselasticiteit. Niemand van ons kan inschatten hoeveel meer ÄMD verkoopt door de prijs te verlagen, hopelijk voor AMD is er daar wel iemand die dit kan inschatten. De prijs verlagen om meer te verkopen is leuk in theorie maar dan moet je wel daadwerlijk substantieel meer verkopen en dat pakte helaas niet zo uit voor hun grafische kaarten. Helaas gaat het in deze sector net zo veel om branding als om kwaliteit aangezien de meeste mensen werkelijk niets over hardware weten. Verder sluit ik me aan bij @Sp3ci3s8472 wat betreft de 8100. Quadcore-CPU's moet je niet meer kopen voor gaming! Tenzij je ze heel erg goedkoop tweedehands kan kopen maar koop dan een CPU van een paar generaties oud + moederbord en DDR3. ;)
Enchantress schreef op vrijdag 19 januari 2018 @ 19:22:
[...]

Al nieuwe games gezien waar ook de 8400 gewoon op 95%+ loopt op alle cores, net als de Ryzen 3.
Ik denk dat daar voor een deel de hogere FPS bij Intel vandaan komt; betere benutting van de CPU. Je ziet bij Ryzen vaak dat de load meer lager ligt (in vergelijking met Intel) dan wat je zou verwachten op basis van het verschil in aantal kernen, threads en klokfrequentie. Dat deze 8400 zo'n grote load krijgt heeft allicht ook met het ontbreken uitgeschakeld zijn (see what I did? :P) van HT te maken maar ook met dat spellen en engines beter zijn aangepast aan Intel-CPU's. Kijk bijvoorbeeld maar eens naar de Unreal4 engine, die is een ramp voor AMD, zowel de CPU als de grafische kaart. Ik kan alleen maar hopen dat die engine een zachte dood sterft (m.u.v. hobbyïsme natuurlijk) tenzij ze drastisch het een en ander gaan optimaliseren.

[ Voor 62% gewijzigd door Verwijderd op 19-01-2018 21:15 ]


Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op vrijdag 19 januari 2018 @ 17:11:
[...]


Dat je de 8400 goed voor gaming noemt oke en is logisch, maar de 8100... dat ding heeft 4 cores zonder HT, als je naar hedendaagse games kijkt en dan vooral naar de min fps (1% en 0.1 low) dan zie je dat quad cores daar steeds slechter scoren. In mijn optiek is die cpu niet geschikt voor (serieus gamen) games. Voor simpel desktop gebruik is hij prima, maar meer moet je er niet mee willen.
Consument kan hier overigens anders over denken omdat ze niet beter weten en het blauwe logotje zien :p.


Als je de 8100 niet bedoelde mede door de komma dan mag je dit negeren :p.
Mwa vergis je niet, er zijn games dat die i3 de 1800X voorbij streeft dat is nog eens bang for buck... Ik heb zelf, naast een 8700K, een G4560 en daarmee kun je verrassend goed gamen. Frametimes van die i3 zijn ook helemaal niet gek:

HWI: https://nl.hardware.info/...080-ti-battlefield-1-dx12
Tom's
Afbeeldingslocatie: https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS82L04vNzM4OTU5L29yaWdpbmFsL2ltYWdlMDE0LnBuZw==
Afbeeldingslocatie: https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS83LzMvNzM4OTc1L29yaWdpbmFsL2ltYWdlMDE0LnBuZw==
Gaat niet zo in elke game, maar voor dat geld? Zeker wanneer de b-chipsets komen is dat goede value for money.

Ik vond de G4560 al gouden tijden voor budget gaming, maar met Ryzen/i3 8100 is het nog beter geworden. Vroeger was je blij als je 30 fps haalde met je AMD sempron en Intel celeron.

[ Voor 5% gewijzigd door sdk1985 op 19-01-2018 22:13 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Verwijderd schreef op vrijdag 19 januari 2018 @ 20:50:
[...]

Kijk even naar AdoredTV zijn laatste video, hij linkt naar een andere video waarin een AMD-medewerker (verantwoordelijk voor Threadripper) uitlegt dat er nog van alles wordt getuned in de komende maanden. Hardware is de eerste stap, vervolgens moet je de software nog afstemmen. Bovendien hebben we geen benul wat de overklokruimte is en welke segmenten er komen.
Natuurlijk, dat neemt niet weg dat de kloksnelheid van een release candidate redelijk indicatief is voor het uiteindelijke product, hoe jammer dat ook is.
sdk1985 schreef op vrijdag 19 januari 2018 @ 22:10:

Ik vond de G4560 al gouden tijden voor budget gaming, maar met Ryzen/i3 8100 is het nog beter geworden. Vroeger was je blij als je 30 fps haalde met je AMD sempron en Intel celeron.
Vroeger, de tijd waarin er geen productsegmentatie d.m.v. "unlocked" SKUs was en de tijd dat je gratis extra cores kon unlocken? Hebben we het over dezelfde vroeger?

...and your ass will follow


Acties:
  • +1 Henk 'm!
Perfecte voorbeeld van een slechte test. Het is bekend dat BF1 een game is waarbij quadcore's zonder HT onder de 4GHz eigenlijk niet meer voldoen op de zwaarste momenten. Als zo'n CPU er dan zo goed uitkomt als daar dan weet je zeker dat de test niet deugt. Zijn trouwens meer van dit soort zware games. Dus een i3 8100 is vooral leuk voor de wat minder zware games.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
-The_Mask- schreef op zaterdag 20 januari 2018 @ 00:24:
[...]

Perfecte voorbeeld van een slechte test. Het is bekend dat BF1 een game is waarbij quadcore's zonder HT onder de 4GHz eigenlijk niet meer voldoen op de zwaarste momenten. Als zo'n CPU er dan zo goed uitkomt als daar dan weet je zeker dat de test niet deugt. Zijn trouwens meer van dit soort zware games. Dus een i3 8100 is vooral leuk voor de wat minder zware games.
Het is een entry level cpu dus hij zal per definitie niet geschikt zijn om elk spel met de beste details en de beste fps en de beste frametimes te spelen. Punt is dat de andere cpu's hem niet bij benen. Zelfs met oude high-end modellen als de FX 8350 of een stock 2500K kom je daar niet aan die fps. De i3 is gewoon sterker dan de oude garde en dat vind ik indrukwekkend voor een cpu van 109 euro. Dat er geen AMD sticker op staat betekend toch niet dat het geen mooi product kan zijn?

Overigens impliceer je nu dat een cpu met ht of meer cores per definitie een betere spelervaring oplevert. Maar daar is eigenlijk nooit bewijs voor gevonden. Nu in het multicore tijdperk is opnieuw vastgesteld dat games bar slecht schalen en dat IPC+Ghz nog altijd de dienst uitmaakt. In het eerder genoemde GTA V heeft mijn 6C/12T slechts 29% belasting bij de standaard fps cap van 60. Als ik vervolgens 9 threads uitschakel via affinity draait die game nog steeds op 60 fps... Het is vaak de AVX + 4800-5000 Mhz die het werk doen. Ark Survival evolved is ook zo'n game. Hoorde pas 17 seconde op een i3 vs meer dan een minuut laden op een oudere i5 (haswell).

Verder is er altijd wel iets aan te merken op een test. GTA V gebruikt gameworks en project cars zal ook wel wat mis mee zijn. Los van welke benchmark je wel leuk vindt; met een oude budget cpu haal je de getoonde FPS en frametimes niet. Tom's heeft het ook in een grafiek gezet;

Afbeeldingslocatie: https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9WL1ovNzM5ODcxL29yaWdpbmFsL2ltYWdlMDA1LnBuZw==
Bij Asrock kun je het ding overigens nog flink op zijn staart trappen via blck overclocking. Gezien de blck die ik haalde met de 8700K op een Asrock bord (175 Mhz auto) en de frequentie zonder HT (5200 Mhz) moet 5 GHz geen probleem zijn.

Dat het niet de beste cpu op de markt is lijkt me duidelijk, hij kost dan ook slechts 109 euro. Voor dat bedrag moet je ergens concessies doen. Dat er dan snellere alternatieven bestaan lijkt me ook logisch. Maar nogmaals; voor budget gaming is het nog nooit zo geweest en dan praat ik over 25 jaar pc historie (486 was mijn eerste pc. Heb hem nog steeds, alleen zit er een P90 in).

Begrijp met niet verkeerd. Ik ontken het nut niet van HT dan wel van extra cores. Sterker nog ik heb het zelf mogen ervaren. Ik heb rainbow six siege op een G4400 gespeeld met een minimum fps van 30. De upgrade naar de G4560 met hyperthreading maakte daar 60 van. Maar voor gaming moet je wel eerst die IPC+Ghz hebben voor een extra core echt iets gaat opleveren. Een Ryzen 3 heeft wat dat betreft echt geen nut voor gaming. Er is geen test die gaat aantonen dat je daarmee een betere spelervaring krijgt.

[ Voor 94% gewijzigd door sdk1985 op 20-01-2018 02:42 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
-The_Mask- schreef op zaterdag 20 januari 2018 @ 00:24:
[...]

Perfecte voorbeeld van een slechte test. Het is bekend dat BF1 een game is waarbij quadcore's zonder HT onder de 4GHz eigenlijk niet meer voldoen op de zwaarste momenten. Als zo'n CPU er dan zo goed uitkomt als daar dan weet je zeker dat de test niet deugt. Zijn trouwens meer van dit soort zware games. Dus een i3 8100 is vooral leuk voor de wat minder zware games.
Dat heeft natuurlijk ook met het spel te maken, het zwaarste gedeelte van de game is namelijk amper consistent te benchmarken, dit betreft namelijk de multiplayer en dan vooral de maps met veel spelers. De singleplayer modus laat zich dan wel weer goed benchmarken, maar is veelal een stuk minder zwaar en zo is dat voor veel games het geval. Ik ga niet zeggen dat dit gelijk de review direct super goed maakt, maar reviewers moeten natuurlijk wel roeien met de riemen die ze hebben (en die de gamedevs aanleveren in sommige gevallen).

Echter roepen dat de test niet deugt vind ik dan mogelijk ook weer wat te ver gaan, voor iemand die zo'n vooral voor de single player koopt en incidenteel een potje multiplayer doet (ik zou zelf zo'n speler zijn als ik nog shooters zou kopen) kunnen deze resultaten best relevant zijn, voor iemand die de game enkel koopt voor multiplayer op de zwaarste maps met de meest mogelijke spelers in de game is het echter een ander verhaal en dan kun je inderdaad stellen dat een test als deze niet voldoet.

Acties:
  • 0 Henk 'm!
@Dennism
Bf1 is in de multiplayer inderdaad haast niet te benchmarken. De single player benchmarks zijn interessant omdat ze verschillen tussen cpu's en gpu's duidelijk weergeven. Een game die voor elke hardware configuratie dezelfde fps laat zien is niet nuttig om te testen. Wil je de multiplayer testen dan zou je allerlei bots moeten hebben die gescript een bepaalde match naspelen. Dat gaat veel te ver. Uberhaupt een test die je 5x kunt uitvoeren terwijl er 5x hetzelfde uitkomt is al heel lastig.

Er is an sich wel een probleem met reviews. Kijk maar eens naar een review van de i3 8100, daar zijn er echt weinig van. Ook ontbreken vaak interessante modellen in dat soort reviews. Normaal kijk ik graag bij techpowerup maar daar komt in de review van de 1070 ti bij techpowerup de 1060 niet eens voor... Techreport lijkt ook wel dood, enz.

Het probleem wordt echter juist gevoed door negatieve opmerkingen. Ik heb zelf mijn 8700K ook helemaal scheel getest met allerlei overclock instellingen, frame time metingen, stroomverbruik, HT uit, cores uitschakelen, enz. Ook heb ik twee moederborden 1 op 1 met elkaar vergeleken (de msi gaming M5 en de asrock gaming k6). Echter de zin om het te uit te werken ontbreekt want uiteindelijk is het toch nooit goed. Niet zodra het woordje Intel, AMD, Nvidia of Crucial valt. Combineer dat met het feit dat de pc community dol is op adblockers en het probleem wordt nog groter. Immers wil je financiële compensatie dan moet je minder tijd besteden en meer views genereren. Dus slechter testen en extremere uitdingen (clickbait). Dus als het publiceren van een review financieel weinig oplevert, maar wel een hoop gezeik geeft, dan is er weinig motivatie om een goede test te publiceren.




De eerste stap om dit soort problemen echt aan te pakken is overstappen naar een algemeen CPU nieuws en GPU nieuws topic. Iedereen die gaat flamen en op de man spelen consequent bannen en het probleem sterft vanzelf uit :> .

[ Voor 68% gewijzigd door sdk1985 op 20-01-2018 03:22 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dus als het publiceren van een review financieel weinig oplevert, maar wel een hoop gezeik geeft, dan is er weinig motivatie om een goede test te publiceren.
En daarom moeten mensen dus intrinsiek gemotiveerd zijn om iets integer uit te voeren, ipv door het geld wat ze ermee hopen (en menen) te 'verdienen'..

@sdk1985:
De eerste stap om dit soort problemen echt aan te pakken is overstappen naar een algemeen CPU nieuws en GPU nieuws topic. Iedereen die gaat flamen en op de man spelen consequent bannen en het probleem sterft vanzelf uit :> .
Dat gaat niet werken, want daarvoor is de status-quo brigade veel te groot (zie ook waarom wikipedia compleet is overgenomen door regelneukende editors die alle inbreng die hen niet aanstaat wegwerken door de schrijvers kapot te procederen via revertwars gevolgd door gescherm met zogenaamd van toepassing zijnde regels, enz.).

[ Voor 54% gewijzigd door foppe-jan op 20-01-2018 10:59 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

@Dennism
In de tweede video leverde hij terechte kritiek (dat het weinig zin heeft om kritiek te leveren op iemand zijn hardwarekeuze nadat de computer is gebouwd en dat je bij de samenstelling in het oog moet houden met welk doel de PC is samengesteld, dit herinner ik me van pak hem beet een jaar geleden toen ik het zag), de eerste video is poep. AMD en Nvidia zijn niet polariserend, Nvidia is polariserend omdat ze veel streken uithalen: PhysX kopen (toen anders genoemd) en van de markt halen om het proprietary op hun kaarten te krijgen, Gimpworks, mensen chanteren om een Nvidia-kaart te kopen voor PhysX maar dan vevolgens PhysX voor hen locken...
Bij AMD kon en kan je ook wel over het een en ander klagen maar dat alles heeft niets te maken met polariserend zijn.
sdk1985 schreef op vrijdag 19 januari 2018 @ 22:10:
[...]

Mwa vergis je niet, er zijn games dat die i3 de 1800X voorbij streeft dat is nog eens bang for buck... Ik heb zelf, naast een 8700K, een G4560 en daarmee kun je verrassend goed gamen. Frametimes van die i3 zijn ook helemaal niet gek:

HWI: https://nl.hardware.info/...080-ti-battlefield-1-dx12
Veel plezier met je >60 FPS in combinatie met flinke microstutter als je van plan bent om voor dit spel multiplayer te spelen. :)
Iets wat veel mensen, blijkbaar ook mensen van HWI, over het hoofd zien. Je kan zelfs >100 FPS hebben en tegelijkertijd flinke microstutter hebben.

[ Voor 121% gewijzigd door Verwijderd op 20-01-2018 10:58 ]


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Verwijderd schreef op zaterdag 20 januari 2018 @ 10:51:
@Dennism
In de tweede video leverde hij terechte kritiek (dat het weinig zin heeft om kritiek te leveren op iemand zijn hardwarekeuze nadat de computer is gebouwd en dat je bij de samenstelling in het oog moet houden met welk doel de PC is samengesteld, dit herinner ik me van pak hem beet een jaar geleden toen ik het zag), de eerste video is poep. AMD en Nvidia zijn niet polariserend, Nvidia is polariserend omdat ze veel streken uithalen: PhysX kopen (toen anders genoemd) en van de markt halen om het proprietary op hun kaarten te krijgen, Gimpworks, mensen chanteren om een Nvidia-kaart te kopen voor PhysX maar dan vevolgens PhysX voor hen locken...
Bij AMD kon en kan je ook wel over het een en ander klagen maar dat alles heeft niets te maken met polariserend zijn.
De "Poor Volta" video zou je nog wel onder het kopje polariserend kunnen plaatsen.

Daarnaast vind ik de RX 4xx en RX 5xx serie best wel polariserend ;)
[...]

Veel plezier met je >60 FPS in combinatie met flinke microstutter als je van plan bent om voor dit spel multiplayer te spelen. :)
Iets wat veel mensen, blijkbaar ook mensen van HWI, over het hoofd zien. Je kan zelfs >100 FPS hebben en tegelijkertijd flinke microstutter hebben.
Volgens mij heeft HWinfo gewoon de frametimes getest. Weliswaar niet op multiplayer, maar aan de hand hiervan kun je toch de conclusie trekken dat er zeer weinig tot geen microstutter plaatsvindt in singleplayer BF1 op alle processors boven de 2500k met een GTX1080Ti op Ultra en FHD?

...and your ass will follow


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 20 januari 2018 @ 10:51:

Veel plezier met je >60 FPS in combinatie met flinke microstutter als je van plan bent om voor dit spel multiplayer te spelen. :)
Iets wat veel mensen, blijkbaar ook mensen van HWI, over het hoofd zien. Je kan zelfs >100 FPS hebben en tegelijkertijd flinke microstutter hebben.
Dan heb je volgens mij toch die review niet gezien, of we hebben het over een andere review. Ik heb gister even dat filmpje van ze gekeken over Haswell en of de upgrade naar CL of Ryzen het waard is, waar ze volgens mij soortgelijke grafieken aanhalen en juist daar hebben ze het wel over minimale FPS en stutter :o

En nee, ik vind HWI reviews ook niet super, maar ik vind wel dat er soms ook te makkelijke kritiek gegeven wordt op reviewers.

[ Voor 8% gewijzigd door Dennism op 20-01-2018 13:14 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 20 januari 2018 @ 10:51:
@Dennism
In de tweede video leverde hij terechte kritiek (dat het weinig zin heeft om kritiek te leveren op iemand zijn hardwarekeuze nadat de computer is gebouwd en dat je bij de samenstelling in het oog moet houden met welk doel de PC is samengesteld, dit herinner ik me van pak hem beet een jaar geleden toen ik het zag), de eerste video is poep. AMD en Nvidia zijn niet polariserend, Nvidia is polariserend omdat ze veel streken uithalen: PhysX kopen (toen anders genoemd) en van de markt halen om het proprietary op hun kaarten te krijgen, Gimpworks, mensen chanteren om een Nvidia-kaart te kopen voor PhysX maar dan vevolgens PhysX voor hen locken...
Bij AMD kon en kan je ook wel over het een en ander klagen maar dat alles heeft niets te maken met polariserend zijn.


[...]

Veel plezier met je >60 FPS in combinatie met flinke microstutter als je van plan bent om voor dit spel multiplayer te spelen. :)
Iets wat veel mensen, blijkbaar ook mensen van HWI, over het hoofd zien. Je kan zelfs >100 FPS hebben en tegelijkertijd flinke microstutter hebben.
Bewijs voor veel microstutter bij die i3 8100 is er eigenlijk niet. AVX zal zijn ding wel doen voor de meeste games.

Microstutter heb ik zelf mogen ondervinden bij Rainbow Six Siege op de 2500K:
Afbeeldingslocatie: https://tweakers.net/ext/f/ymIsNSSHJcT8ABmnP1xmg7Cc/full.png?nohitcount=1
Met fps cappen kom je vaak ook een heel eind. Maar goed, in bijvoorbeeld battlefield one heb ik het eigenlijk nooit gemerkt, ook niet met de g4400 (die capte wel op 30 fps).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

hidde212 schreef op zaterdag 20 januari 2018 @ 11:56:
[...]

De "Poor Volta" video zou je nog wel onder het kopje polariserend kunnen plaatsen.
Ik zie die video vooral als een onhandige zet van de marketing. De underdog kan zoiets doen, maar de underdog moet het dan wel waarmaken. Helaas...
Het essentiële verschil is dat AMD/RTG/ATI nooit hardware heeft gekocht met de intentie om het van de markt te halen voor mensen die hardware van de concurrent kiezen (en hiermee PhysX de nek omdraaiden) en dat AMD/RTG/ATI nooit geheime code heeft gebruikt om de performance bij de kaarten van de concurrent op een kunstmatige manier te beperken zonder dat de concurrent hiervoor kan optimaliseren. Dat zijn rotstreken en een bedrijf zoals Nvidia onwaardig. Technisch zijn ze vaardig, dit soort streken zouden ze niet moeten uithalen, ze hebben dat niet nodig.
Volgens mij heeft HWinfo gewoon de frametimes getest. Weliswaar niet op multiplayer, maar aan de hand hiervan kun je toch de conclusie trekken dat er zeer weinig tot geen microstutter plaatsvindt in singleplayer BF1 op alle processors boven de 2500k met een GTX1080Ti op Ultra en FHD?
Ik heb me niet verdiept in hun review aangezien ik HWI hun reviews negeer (die van Tweakers overigens ook, om een andere reden) maar als je enkel singleplayer test en hierbij niet de caveat plaatst dat je bij multiplayer met zo'n quadcore CPU de nodige microstutter krijgt (algemeen bekend voor dit spel) dan is de review misleidend. Hoe lang houdt die singleplayer van BF1 je zoet? 6 uur? Bij dit spel gaat het vooral om de multiplayer, dan moet minstens ook de multiplayer testen. Bij Doom is het bijvoorbeeld net andersom, het gaat bij dat spel puur om de singleplayer, de multiplayer (de multiplayer werd door Bethesda gemaakt, de singleplayer door ID) is volgens de meeste spelers geflopt.
Dennism schreef op zaterdag 20 januari 2018 @ 13:13:
[...]


Dan heb je volgens mij toch die review niet gezien, of we hebben het over een andere review.
Hier heb ik eerder in de reactie al antwoord op gegeven.
Ik heb inderdaad niet hun review gezien en ik veronderstelde dat ze ook multiplayer hadden getest wat blijkbaar niet het geval is aangezien het bij dit spel logisch zou zijn om ook de multiplayer te testen.
Eerlijk gezegd vind ik dat we juist veel meer kritiek zouden moeten leveren op de reviewers, ze gaan het enkel beter doen als we meer kritiek leveren en het niveau ligt gewoon te laag. Ik kan nu weer aanhalen hoelang het duurde voordat ze Ryzen met hoger geklokt RAM testten - wat ze uiteindelijk enkel deden omdat Mindblanktech hen voor schut zette, hoelang het duurde voordat ze Ryzen met AMD-kaarten testten en hoelang het duurde voordat iemand eens ging ondervolten. Allemaal vanzelfsprekende kwesties en dan heb ik het nog niet gehad over de FPS-focus (microstutter en inputlag worden door velen van hen compleet genegeerd). De beste stuurlui staan aan wal maar het pijnlijke is dat er nu daadwerkelijk mensen aan wal staan die beter kunnen sturen. Dat zou eigenlijk niet moeten zijn. :X
Vanzelfsprekend moet dan wel het doel zijn om hen te helpen om hun werk te doen en niet om hen af te schieten. Alsjeblieft geen akelige opmerkingen en doodwensen. ;)
sdk1985 schreef op zaterdag 20 januari 2018 @ 15:34:
[...]

Bewijs voor veel microstutter bij die i3 8100 is er eigenlijk niet.
Ik betwijfel het, als je bij de 6700k (ongeveer 4,5 GHz.) al regelmatig 100% CPU-load ziet en zelfs bij singleplayer (Rise of the Tomb Raider)...
Hoe dan ook, het gaat steeds meer een probleem worden in de komende jaren als je slechts een quadcore hebt. Als je al een redelijk goede quadcore - voor een quadcore - hebt, prima, gebruik het nog 1-2 jaar en neem wat microstutter op de koop toe. Dat zou ik zelf waarschijnlijk doen. Het is een ander verhaal of dat je het nu nog zou moeten kopen.

Ja, die pieken van >100 ms. , dat is heel erg duidelijk microstutter. Jij geeft een goed voorbeeld waarom het slecht reviewen is als je slechts kijkt naar de FPS. Die FPS is prima maar met die microstutter...
Het kan natuurlijk best dat dit bij andere generaties van Intel en bij Ryzen eveneens een probleem is (of niet, ik weet het niet) maar geef mij maar een lagere FPS maar ruim boven de 60 zonder die microstutter als ik mag kiezen tussen dat en deze performance. Dat zal voor jou niet anders zijn. ;)

[ Voor 40% gewijzigd door Verwijderd op 20-01-2018 17:31 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 20 januari 2018 @ 17:18:

Hier heb ik eerder in de reactie al antwoord op gegeven.
Ik heb inderdaad niet hun review gezien en ik veronderstelde dat ze ook multiplayer hadden getest wat blijkbaar niet het geval is aangezien het bij dit spel logisch zou zijn om ook de multiplayer te testen.
Logisch ja, mogelijk helaas vrij wel niet daar BF1 niet echt een optie heeft om multiplayer in een gecontroleerde setting te benchmarken.

Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op zaterdag 20 januari 2018 @ 17:31:
[...]


Logisch ja, mogelijk helaas vrij wel niet daar BF1 niet echt een optie heeft om multiplayer in een gecontroleerde setting te benchmarken.
Open deur: bij multiplayer heb je bij definitie geen gecontroleerde setting. Ik vind dat echter geen reden om het niet te testen. Regressie naar het gemiddelde bij voldoende grote aantallen en zo.

Ik had mijn reactie nog een beetje uitgebreid, ik had ook gereageerd op jouw opmerking over dat we nogal kritisch zijn op reviewers.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 20 januari 2018 @ 17:33:
[...]

Open deur: bij multiplayer heb je bij definitie geen gecontroleerde setting. Ik vind dat echter geen reden om het niet te testen. Regressie naar het gemiddelde bij voldoende grote aantallen en zo.

Ik had mijn reactie nog een beetje uitgebreid, ik had ook gereageerd op jouw opmerking over dat we nogal kritisch zijn op reviewers.
Dat hoeft volgens mij niet, volgens mij heeft bijv. Pubg een soort van opname functie (die niet echt opneemt, maar meer een soort van dataset verzamelt), waarmee je later replay's kan doen die opnieuw gerenderd worden waarmee je dus wel enigzins consistent kan benchmarken. Volgens mij heeft Steve van Hardware Unboxed dat gebruikt voor zijn Pubg benchmarks. Maar goed het fijne weet ik er niet exact van daar ik dat soort games niet speel :P

m.b.t. reviewers, kritiek is uiteraard goed, maar de tools moeten er ook voor zijn vanuit de gameindustrie. Als een game als BF1 makkelijk en goed te benchmarken is in single player vind ik het echt totaal niet onlogisch dat reviewers dat gebruiken en dat wanneer de multiplayer totaal niet te benchmarken is op consistente wijze dat ze dat niet doen.

Het Ryzen geheugen verhaal vind ik opzich ook niet onlogisch, imho moet je altijd ook testen op de specificaties vanuit de fabrikant, dat zal namelijk in de regel de configuratie zijn die het meest gebruikt gaat worden. Sneller geheugen testen is ook mooi, maar bewaar dat imho zoveel mogelijk voor de overclock tests, daar alle geheugen in een Ryzen systeem sneller dan DDR4-2666MT/s in principe gewoon overclocken is. Tests met DDR4-3200MT/s zou wat mij betreft niet de standaard moeten zijn, daar vrij wel geen OEM of systeembouwer dat standaard gaat leveren.

Undervolten net zo, dat is leuk voor de tweaker om te min/maxen en leuk als optioneel / extra deel in een review, maar de standaard affabriek settings zijn ook daar imho het belangrijkst, het gros van de kopers zal namelijk nooit gaan undervolten.

Ryzen met AMD kaarten testen is dan natuurlijk wel een valide punt, maar ik kan me ook goed voorstellen dat gezien destijds AMD kaarten op de markt praktisch niet te verkrijgen waren en ze nog geen nieuwe generatie op de markt hadden dat het niet de hoogste prioriteit had. Wanneer Ryzen 2 uitkomt zou het mij zeer logisch lijken dat je met Vega en Pascal gaat testen (hoewel ze nu beide praktisch niet verkrijgbaar zijn op een paar modellen na :P ).

[ Voor 47% gewijzigd door Dennism op 20-01-2018 17:58 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op zaterdag 20 januari 2018 @ 17:44:
...
Het Ryzen geheugen verhaal vind ik opzich ook niet onlogisch, imho moet je altijd ook testen op de specificaties vanuit de fabrikant, dat zal namelijk in de regel de configuratie zijn die het meest gebruikt gaat worden. Sneller geheugen testen is ook mooi, maar bewaar dat imho zoveel mogelijk voor de overclock tests, daar alle geheugen in een Ryzen systeem sneller dan DDR4-2666MT/s in principe gewoon overclocken is. Tests met DDR4-3200MT/s zou wat mij betreft niet de standaard moeten zijn, daar vrij wel geen OEM of systeembouwer dat standaard gaat leveren.

Undervolten net zo, dat is leuk voor de tweaker om te min/maxen en leuk als optioneel / extra deel in een review, maar de standaard affabriek settings zijn ook daar imho het belangrijkst, het gros van de kopers zal namelijk nooit gaan undervolten.
...
Als je er zo over nadenkt, dan denk ik dat reviewers voortaan geen watercooling mogen gebruiken bij reviews. De meeste mensen delidden niet, watercooling is veel te duur en veel behuizingen hebben niet eens voldoende kastruimte voor watercooling. Voor dat meerprijs kun je beter een duurdere cpu of gpu kopen. Ik denk dat veel Intel scores zullen gaan sneuvelen vanwege slechte TIM, vooral bij endurance tests. O-)

Als lezer van reviews vind ik het juist interessant wat er gebeurt als je buiten de specs gaat wat de fabrikant op geeft. Stock specs zijn leidend, maar buiten de specs is het ook interessant. Daarom kijk ik vaak naar goede particuliere reviewers, die testen bijvoordbeeld of 32GB ram geheugen in een laptop werkt, terwijl de fabrikant tot 16GB heeft getest. Dit soort dingen vind ik juist interessant. Veel commerciele reviews kijk ik daarom ook heel oppervlakkig, want er staan weinig nuttige informatie in en veel dingen worden overgeslagen.

OEMS zijn veel te voorzichtig, waardoor ik hun systemen noodgedwongen moet vermijden. Ik word zo geremd, dat ik het gevoel heb alsof ik een leen pc heb gekocht en dat ik dat terug moet brengen. ;w Het is geen leasen, maar dat gevoel heb ik wel.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 20 januari 2018 @ 19:02:
[...]

Als je er zo over nadenkt, dan denk ik dat reviewers voortaan geen watercooling mogen gebruiken bij reviews. De meeste mensen delidden niet, watercooling is veel te duur en veel behuizingen hebben niet eens voldoende kastruimte voor watercooling. Voor dat meerprijs kun je beter een duurdere cpu of gpu kopen. Ik denk dat veel Intel scores zullen gaan sneuvelen vanwege slechte TIM, vooral bij endurance tests. O-)

Als lezer van reviews vind ik het juist interessant wat er gebeurt als je buiten de specs gaat wat de fabrikant op geeft. Stock specs zijn leidend, maar buiten de specs is het ook interessant. Daarom kijk ik vaak naar goede particuliere reviewers, die testen bijvoordbeeld of 32GB ram geheugen in een laptop werkt, terwijl de fabrikant tot 16GB heeft getest. Dit soort dingen vind ik juist interessant. Veel commerciele reviews kijk ik daarom ook heel oppervlakkig, want er staan weinig nuttige informatie in en veel dingen worden overgeslagen.

OEMS zijn veel te voorzichtig, waardoor ik hun systemen noodgedwongen moet vermijden. Ik word zo geremd, dat ik het gevoel heb alsof ik een leen pc heb gekocht en dat ik dat terug moet brengen. ;w Het is geen leasen, maar dat gevoel heb ik wel.
Wat ik bedoel is dat je in de basis test met de specificaties die de fabrikant opgeeft, als een fabrikant opgeeft dit product is niet bedoeld om gekoeld te worden met water of water koeling valt buiten de minimale / maximale specificaties, test dan inderdaad niet met waterkoeling. Net als dat je niet standaard test met delidded intel cpu's, bij moederborden zorgt dat de instellingen op default staan e.d.

Daarnaast zijn onder andere tests als die jij aangeeft ook interessant, maar wel als extra test, niet als basis setup.

Imho test een je een AMD / Intel systeem in de basis als volgt: Moederbord op default, CPU op stock settings, geheugen op maximale snelheid als gespecificeerd door de CPU fabrikant, eventuele andere hardware ook op stock. Dit moet de baseline zijn waarop je verder in de review of in andere reviews verder op kan bouwen.

Daarnaast kan (ik heb graag dat ze dit doen, begrijp me niet verkeerd, want het is vaak in ieder geval voor mij het meest interessant) je uiteraard ook testen wat er gebeurt qua performance als je sneller geheugen plaatst, de CPU gaat overklokken, mogelijk delidden in het geval van Intel e.d., het aanpassen van bepaalde settings in de bios als bijv. MCE en dit dan vergelijken met de baseline. Zodat je duidelijk kan zien wat je kan winnen t.o.v. de baseline met bepaalde zeer makkelijk tot lastiger uit te voeren tweaks maar het zou niet de baseline van de test moeten zijn.

Voor zaken als maximaal geheugen e.d. kijk ik trouwens in de regel gewoon naar de CPU / Chipset specificaties van de fabrikant, zo kwam ik er ook al vrij snel achter dat mijn Synology gewoon 32GB ram kan hebben, i.p.v. de 6GB die synology opgaf :P

[ Voor 5% gewijzigd door Dennism op 20-01-2018 19:23 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dennism schreef op zaterdag 20 januari 2018 @ 17:44:
[...]


Dat hoeft volgens mij niet, volgens mij heeft bijv. Pubg een soort van opname functie (die niet echt opneemt, maar meer een soort van dataset verzamelt), waarmee je later replay's kan doen die opnieuw gerenderd worden waarmee je dus wel enigzins consistent kan benchmarken. Volgens mij heeft Steve van Hardware Unboxed dat gebruikt voor zijn Pubg benchmarks. Maar goed het fijne weet ik er niet exact van daar ik dat soort games niet speel :P
Interessant en innovatief. Jammer alleen dat ze dat juist voor een spel hebben gedaan wat zo verschrikkelijk slecht is geoptimaliseerd en waarbij de uitslag zo perfect te voorspellen is: love Nvidia and Intel, hate AMD. ;)
Maar het is wel leuk om te weten dat het bestaat.
m.b.t. reviewers, kritiek is uiteraard goed, maar de tools moeten er ook voor zijn vanuit de gameindustrie. Als een game als BF1 makkelijk en goed te benchmarken is in single player vind ik het echt totaal niet onlogisch dat reviewers dat gebruiken en dat wanneer de multiplayer totaal niet te benchmarken is op consistente wijze dat ze dat niet doen.
Kwestie van voldoende runs doen met een vergelijkbare load. Dus ook een kwestie van de juiste server uitkiezen (die steeds maximaal is bezet of zo). Het lijkt mij dat het in dit geval minstens zo'n groot probleem is dat reviewers het snel willen kunnen uitvoeren. Daarom zie je ook nauwelijks dat ze een goede analyse doen van de framerendertime en zie je nooit - op 1 keer Level1Techs en 1 keer LinusTechTips (voor een draadloze muis) na - dat ze de inputlag meten. Ik wil oprecht weten of dat de inputlag bij dezelfde FPS hetzelfde is tussen Intel en Ryzen, of tussen twee daadwerkelijk verschillende Intel-generaties (SL = KL = CL op wat details na zoals iets betere powermanagement, wat minder slechte TIM en marktsegmentering). We weten voor GTA5 dat de inputlag niet evenredig afneemt met het stijgen van de FPS, in ieder geval niet wanneer je Intel met Ryzen vergelijkg (<1/180 seconde verschil in inputlag, >>10% verschil in FPS). Ik begrijp heus wel dat reviewers dat niet testen voor elk spel en voor elke CPU. Prima, maar doe het eens voor 20 spellen met de 1600 en de 8400, dat geeft voldoende informatie. Van mijn part neem je er nog 1 CPU van Intel bij waarvoor HT niet is uitgeschakeld om volledig te zijn, voor Ryzen weten we genoeg als je die ene neemt.
Het Ryzen geheugen verhaal vind ik opzich ook niet onlogisch, imho moet je altijd ook testen op de specificaties vanuit de fabrikant, dat zal namelijk in de regel de configuratie zijn die het meest gebruikt gaat worden. Sneller geheugen testen is ook mooi, maar bewaar dat imho zoveel mogelijk voor de overclock tests, daar alle geheugen in een Ryzen systeem sneller dan DDR4-2666MT/s in principe gewoon overclocken is. Tests met DDR4-3200MT/s zou wat mij betreft niet de standaard moeten zijn, daar vrij wel geen OEM of systeembouwer dat standaard gaat leveren.
Moet 3200 MT/s de standaard zijn? Natuurlijk niet! Moet er standaard ook getest worden met 3200 MT/s? Sinds Ryzen wel omdat de performance zo sterk schaalt met de klokfrequentie van het geheugen doordat de klokfrequentie van de IF zo sterk schaalt.

Dit brengt ons op een ander puntje, de mensen die voortijdig conclusies trekken m.b.t. Ryzen2, laten we eerst even afwachten of dat AMD met een truc komt om de IF hoger te klokken, hier valt veel gratis performance te halen als AMD erin zou slagen om de IF hoger te klokken bij dezelfde RAM.
Undervolten net zo, dat is leuk voor de tweaker om te min/maxen en leuk als optioneel / extra deel in een review, maar de standaard affabriek settings zijn ook daar imho het belangrijkst, het gros van de kopers zal namelijk nooit gaan undervolten.
Hetzelfde verhaal. De standaard? Nee, maar het zou wel standaard getest moeten worden omdat verschillende bedrijven verschillende veiligheidsmarges nemen. Stel - hypothetisch gesproken - dat AMD standaard wat extra V geeft omdat AMD ernaar streeft dat 1 op 10000 kaarten niet stabiel draait met de default-spanning terwijl Nvidia de lat legt op 1 op 100 kaarten en dit veroorzaakt 0,1 V verschil voor het minimum (dus dat AMD het 0,1 V lager zou klokken bij dezelfde veiligheidsmarge) dan is het relevant om dat te weten. Laat ik het zo zeggen, als je zo graag op vermogen vergelijkt dan moet je ook dit in ogenschouw nemen. Of beide, of geen van beide wat mij betreft. Net als dat je er rekening mee moet houden hoe de kaarten geklokt zijn. Als de ene kaart geklokt wordt in het 4*P voor 2*f deel van de grafiek terwijl de andere kaart geklokt wordt in het 2*P voor 2*f deel van de grafiek, dat is iets waar je rekening mee moet houden.
Nu zal jij waarwswchijnlijk stellen dat dit ingewikkeld wordt. Ja en nee, niets houdt reviewers tegen om voor elke kaart een serie van meetpunten te verzamen waarbij de minimale spanning wordt gezocht voor 5 verschillende klokfrequenties met een voldoende groot bereik. Je eist hiermee een hoger expertiseniveau van de reviewers maar dat vind ik niet onredelijk aangezien het niet moeilijk is om op dit niveau te komen als ze er slechts open voor staan om bij te leren en wat tijd te investeren.
Het is zoiets als dat je beter geen spellen reviewt als je 9 minuten nodig hebt om de tutorial van Cuphead te voltooien.

Niets ten nadele van deze man. Hij wordt voor iets anders dan dit ingehuurd, hij was vanuit die hoedanigheid op die beurs en het blad kon kiezen tussen deze prutser (met platformspellen ;)) het spel laten uitproberen en het niemand laten uitproberen. Maar goed, een feit is dat hij erin zuigt en dat hij daarom niet geschikt is om een review te doen van een dergelijk spel. Ik vond het dan ook niet zo slim dat hij een review schreef waarin hij klaagde over de moeilijkheidsgraad van het spel, die nogal overdreven wordt (vaardige platformspelers vinden juist dat die perfect is getuned voor normaal en moeilijk, zelf hou ik ook van dit soort spelletjes). Laat iemand anders naar die beurs gaan - voor dat doeleinde - en laat iemand anders een review schrijven. Ik denk dat hier speelt dat ze in dat wereldje ontkennen dat je goed moet zijn in een genre spellen om die spellen goed te kunnen reviewen.
Ryzen met AMD kaarten testen is dan natuurlijk wel een valide punt, maar ik kan me ook goed voorstellen dat gezien destijds AMD kaarten op de markt praktisch niet te verkrijgen waren en ze nog geen nieuwe generatie op de markt hadden dat het niet de hoogste prioriteit had. Wanneer Ryzen 2 uitkomt zou het mij zeer logisch lijken dat je met Vega en Pascal gaat testen (hoewel ze nu beide praktisch niet verkrijgbaar zijn op een paar modellen na :P ).
Volgens mij hadden veel van die mensen nog wel een Fury-kaart liggen. Zo niet, dan hadden ze die gemakkelijk kunnen kopen (tweedehands). Is het ideaal? Nee, gezien de beperkte hoeveelheid RAM, maar het is beter dan niets. Daarnaast hadden ze ook prima de 1060 en de 580 kunnen vergelijken.

We kunnen er lang over discussiëren maar volgens mij komt het in de kern op iets simpels neer: reviewers krijgen of nemen te weinig tijd om dit soort hardware goed te reviewen waardoor ze voor de gemakkelijke en snelle oplossingen kiezen. Ik zou graag zien dat minstens een deel van hen soms ook meer investeert wetende dat je hiermee een mooie kennisbasis opbouwt en dat je een gotobron wordt in die sector. Tom'Hardware deed dit bijvoorbeeld met het ondervolten van Fury, nog voordat de meeste van ons erover spraken. Reviewers horen leidend te zijn, niet volgend. Nu was het zo dat ene Mindblanktech de 'professionele' reviewers dwong om ook met verschillende snelheden voor RAM te testen en daarna duurde het nog 1-2 maanden voordat de reviewers in de gaten kregen dat soms het probleem lag bij de Nvidia-drivers (voor Ryzen, dat heeft vermoedelijk met die hacks van Nvidia - die overigens legitiem zijn, ik maak daar geen bezwaar tegen en ik moedig het zelfs aan in dit geval - te maken) in plaats van bij Ryzen. Nu zijn er ook spellen waarbij Ryzen juist een voordeel heeft van Nvidia-kaarten in vergelijking met AMD-kaarten (Ryzen vs. Intel), het punt is dat het verschil maakt en dat dit verschil lang werd ontkend. Het gaat er in de kern om dat ze beter meer tijd zouden nemen om af en toe grondige testen uit te voeren en beter minder met de de waan van de dag mee zouden waaien. Dat ze vaak reviews afraffelen is prima te begrijpen (clicks, je wil niet later zijn dan je concurrenten en je hebt maar een bepert aantal dagen tot 2 weken de tijd om het af te handelen) maar wat houdt hen tegen om daarnaast ook grondige testen uit te voeren en X keer per jaar met hiermee vezamelde data te komen?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 20 januari 2018 @ 19:55:
[...]

Interessant en innovatief. Jammer alleen dat ze dat juist voor een spel hebben gedaan wat zo verschrikkelijk slecht is geoptimaliseerd en waarbij de uitslag zo perfect te voorspellen is: love Nvidia and Intel, hate AMD. ;)
Maar het is wel leuk om te weten dat het bestaat.
Dat was 20 jaar geleden eigenlijk heel normaal. Soldier of Fortune (2), Call of Duty (2), enz hadden dat al rond 2000. Kreeg je bestandje van +- 300 KB wat je later terug kon kijken. Als ik me niet vergis had de eerste Call of Duty Black ops het ook nog.
Verwijderd schreef op zaterdag 20 januari 2018 @ 19:55:
Dat ze vaak reviews afraffelen is prima te begrijpen (clicks, je wil niet later zijn dan je concurrenten en je hebt maar een bepert aantal dagen tot 2 weken de tijd om het af te handelen) maar wat houdt hen tegen om daarnaast ook grondige testen uit te voeren en X keer per jaar met hiermee vezamelde data te komen?
Daar had ik toevallig net al een post aan gewijd gisteren in dit topic: sdk1985 in "AMD Nieuwsdiscussietopic - Deel 38"

[ Voor 30% gewijzigd door sdk1985 op 20-01-2018 22:30 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
Dat laatste ben ik zeker met je eens, reviewers doen het natuurlijk vaak als baan en moeten dus ook gewoon "productie" draaien, net als jij op je werk w.s. en ik net zo goed. Ik kan op mijn werk ook geen significant deel van mijn tijd besteden aan niche cases die geen brood op de plank brengen of waar de schoorsteen van het bedrijf niet van rookt. Dat zullen reviewers ook niet kunnen doen, die moeten ook kijken naar waar vraagt "de markt" naar en daar op inspelen met hun reviews. En dat betekent vaak inderdaad niet later zijn dan de rest en schijnbaar vraagt de markt eerder om meer reviews dan om meer diepgaande reviews, in ieder geval dat idee krijg ik. Dat dit voor ons Tweakers minder interessant is, is daarbij natuurlijk zeer jammer.

Al heb ik ook het idee dat de Tech bedrijven daar ook zelf beter aan kunnen bijdragen door in ieder geval de hardware op tijd te leveren aan de reviewers. Wat was het ook alweer met bijvoorbeeld Vega, kaarten op vrijdag bij de reviewers en maandag morgen of middag of iets dergelijks de NDA lift en dan ook nog eens last minute de instructie om zoveel mogelijk op Vega 56 te focussen ipv Vega 64? Met zo'n werkwijze kun je natuurlijk helaas ook niet echt een zeer diepgaand review verwachten.

Acties:
  • 0 Henk 'm!
Werkelijk, weer de BF1 discussie? :N

Een beter voorbeeld van de totale onkunde van de meeste "reviewers" is er nauwelijks te geven. Iedereen die sinds minstens 2011 een Battlefield heeft gespeeld en wel eens zijn framerate uit heeft gelezen weet dat de SP mode merkbaar beter draait. De reden daarvoor is ook makkelijk aan te wijzen. De gevechten in de SP zijn behoorlijk lineair en beperkt in schaal. Scripted events, weinig zware CPU loads.

De MP is totaal anders. In elke BF game wordt elke kogel die je vuurt voorzien van realistische parameters. Flight time, zwaartekracht, afwijking etc. Je hebt geen hitbox en scan waar vuren meteen leid tot een hit of mis. Dit systeem is CPU intensief vanwege de physics. Dan heb je nog destruction, andere phycics elementen, de schaal van de mappen, voertuigen, 64 spelers etc. Dit vraagt om heel wat meer CPU.

Ik weet nog heel goed dat de BF4 SP bij mij goed draaide met mijn i5 750. De MP was regelmatig al flinke framedrops en überhaupt mindere framerates. Ik heb toen gedacht over een Haswell i5, maar de game was zo kapot dat ik het snel opgaf en nooit meer terug heb gekeken. Meteen de laatste EA game die ik niet voor een prikkie uit een sale heb gekocht...


Dan benchmarken. Wat een onzin dat dit niet kan zeg...
Dan benchmark je maar meer dan 30 seconden en doe je het eens goed. Ga naar een TDM match en speel een aantal minuten. Herhaal dit een aantal keer en verzamel de resultaten. Dan heb je een duidelijk overzicht wat een combinatie ongeveer zal kunnen. Loop je te muggenziften op een paar procent, dan heb je überhaupt geen idee waar je mee bezig bent. Die paar procent variaties kunnen ook al optreden met een andere driver.

Speelt er nog meer wat de onkunde van de gemiddelde reviewer weer eens fijntjes demonstreert. Zelden, zeer zelden kom je reviews tegen waar de testmethodiek deugt, of er enige kennis van zaken bestaat voorbij het punt van wat getalletjes verzamelen en in een grafiek of tabel zetten.

De "methodiek" van HWI voor die test is bijvoorbeeld lachwekkend slecht. Waarom is het in godsnaam relevant om met een GTX1080Ti te gaan testen bij 1080P, en dan ook nog eens medium settings? Dit bedenk je toch niet als serieuze test. :')

Dan is er nog de CPU bottleneck test in het algemeen. Ook een prachtig staaltje van onwetendheid. Plaats een zeer krachtige GPU naast een CPU, verlaag de resolutie kunstmatig en kijk wat er gebeurd. Zonder die "test" kan ik je nu al vertellen dat de CPU met de hoogste clockspeed en IPC hier gaat winnen.

Waarom kan ik je dit zomaar vertellen zonder zelf te testen? Nou omdat je met een GTX1080Ti een gigantische hoeveelheid draw calls van de CPU gaat vragen om niet tegen een bottleneck aan te lopen. Wil je een voorbeeld wat een GPU doet met een draw call bottleneck? Kijk maar naar RX Vega. Het verschil tussen DX11 of DX12 API in dezelfde game kan zo meer dan 20% zijn. Voor het curieuze RX Vega en DX12/Vulkan ben ik ook al eens op ingegaan. Zie ook:

DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Maar terug naar de CPU’s. Naast maximalisering van draw calls bestaat er nog een parameter die maar weinig mensen zich realiseren. Een CPU is uiteindelijk niks meer dan een veredelde rekenmachine die aansturing nodig heeft vanuit software. Elke CPU heeft zijn eigen microcode. Elk programma heeft zijn eigen programmeertaal die niet zomaar compatibel is met microcode. Daar moet dus een laag tussen, een compiler.

De UE4 engine is een goed voorbeeld van een game engine die een compiler heeft die beduidend beter presteert met Intel CPU’s. Dat is alleen niet het enige voorbeeld. We weten dat Ryzen ongeveer 7 procent aan IPC mist. Natuurlijk is IPC geen constante waarde, maar in dit geval is het een redelijk betrouwbare indicator. Omdat AMD min of meer jaren uit de CPU markt heeft gelegen, zijn veel games niet toegerust met AMD geoptimaliseerde compilers. Dat zie je nog wel eens terug in sub 2017 games. In veel 2017 games is het verschil tussen Intel en Ryzen een paar procent, zoals je zou mogen verwachten gezien de prestaties van de twee architecturen. Dat is bijvoorbeeld waarom een GTA 5 als benchmark zinloos is. De game stamt nog uit 2013, en is in 2015 uitgebracht in opgepoetste vorm voor de PC. Er zit geen compiler optimalisatie in voor Ryzen, en dat lijkt me nogal logisch.

Dan is er nog de vreemde eend in de bijt, CiV 6. Deze game presteert beter op Ryzen dan Intel. Oh maar die game is "AMD Gaming Evolved", natuurlijk draait die dan beter op Ryzen dan Intel. Dat is het punt juist. CiV 6 is de enige game die systematisch betere prestaties laat zien op Ryzen dan Intel CPU's. Dat is echt geen toeval. Ik vermoed nu al een tijdje dat Fireaxis toegang heeft gekregen tot Ryzen code voor de launch, en de CPU compiler voor die game heeft geoptimaliseerd voor Ryzen. Het laat in ieder geval zien wat een compiler kan uitrichten als deze geoptimaliseerd is.


Als laatste is er nog het idee dat je kan “futureproofen”. Nee dit kan niet, volslagen zinloos idee. Zeker anno 2018 is het hopeloos omdat er wat staat te gebeuren in API land. Het moge duidelijk zijn dat een Polaris 10 chip niet afdoende heeft qua draw calls aan wat zelfs een 8700K kan leveren. Dat wordt pijnlijk duidelijk bij elke DX12/Vulkan titel waar een Polaris 10 chip opeens beduidend beter gaat presteren. Over Vega 10 hoef je niet eens te beginnen.

Nvidia heeft met hun drivers een manier gevonden om de barrière waar AMD tegen aanloopt te omzeilen. Een geniale aanpak van Nvidia, maar uiteindelijk ook maar tijdelijk. Er komt een punt waar de ruwweg 2,4 miljoen drawcalls niet meer voldoende zijn voor een nieuwe Nvidia GPU, en dan loopt die ook tegen een bottleneck aan. Enorme sprongen in clockspeed, of IPC hoef je niet te verwachten. Ik verwacht dat eigenlijk niet voor Zen 2, en vanuit Intel verwacht ik de komende jaren al helemaal weinig.

Een volgende generatie Nvidia GPU kan al heel goed bij die limiet terechtkomen. Wat dan? Rest alleen de mogelijkheid nog om de vraag naar draw calls uit te gaan splitsen tussen meerdere CPU cores. Dat doen DX12 en Vulkan dus, DX11 niet. Daar zit je dan met je “futureproof” 5GHz 7700K. Rauwe clockspeeds of iets betere IPC gaan niet lang meer de relevante factor zijn voor GPU prestaties. AMD GPU’s lopen al sinds Fiji tegen de bottleneck aan wat een elke CPU core kan doen. AMD heeft dit ook al jaren geleden voorzien met Mantle, later Vulkan en DX12 pushen, alsmede initiatieven zoals GPUOpen. Alles om low level API's maar te pushen.

Nvidia komt er nu nog omheen met hun eigen oplossing van dit probleem, maar dat gaat ook niet lang meer duren. We weten dat ze er nog niet tegenaan lopen omdat de GTX1080Ti geen grote prestatiesprong laat zien bij DX12/Vulkan titels. Gaat dat met een opvolger wel gebeuren, dan is DX11 als API standaard dood.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
@DaniëlWW2

Ik denk dat een deel hiervan het ook juist voor de reviewers zo lastig maakt.

Een 1080ti op medium en 1080p is in praktische zin geen test die iets zegt, niemand koopt namelijk zo'n setup, zonde van je geld. Echter als je als reviewer verschillen tussen cpu's in gaming wil laten zien moet je wel een setup pakken waar niets anders de bottleneck kan zijn dan de CPU. Dus in dat opzicht begrijp ik het wel. Praktisch gezien heb je er echter in veel gevallen niet veel aan. 1080P ultra / 1440P / 4K zijn dan praktisch gezien de betere test, echter dan zit je veelal naar bijna dezelfde grafieken te kijken omdat de bottleneck mogelijk ergens anders ligt (misschien uitgezonderd 1080P ultra). Bij andere tests die alleen de CPU aanspreken ligt dat natuurlijk anders, maar juist veel mensen lijken reviews enkel te bekijken voor gaming tests, zie je Steve bij Hardware unboxed ook vaak benoemen, eerst wat content creation / excel monte carlo e.d. test en dan "Now we go onto gaming what you all have been waiting for" en dan afhankelijk van de resolutie / quality presets wat grafieken die al niet dan wat verschil tonen :D

M.b.t. oudere games ben ik het echter niet volledig met je eens. In denk dat een game als GTA:V die schijnbaar als ik de cijfers mag geloven nog door miljoenen mensen gespeeld wordt in dat opzicht best relevanter kan zijn dan een recente game die door veel minder mensen gespeeld wordt. Als ik naar reviews zou kijken om (deels) op basis van die data mijn keuze te bepalen voor nieuwe componenten of een nieuw systeem wil ik graag wel zaken getest zien die ik ook ga draaien. Vandaar dat ik zaken als Pubg / GTA:V e.d. in review opzich wel logisch vind, ook al zijn het oudere c.q. brak geoptimaliseerd. Ze zijn namelijk schijnbaar nog wel mateloos populair binnen de doelgroep. Zaken die ik nooit ga draaien zijn voor mij niet interessant en zo zullen verwacht ik veel anderen dit ook bekijken. Neem ook bijv. test resultaten van SSD's, leuk zo'n crystalmark of atto resultaat, ik zie echter liever de verschillen in laadtijden, responstijden of daadwerkelijke bewerkingen in applicaties getest worden dat zegt mij meer voor mijn dagelijks gebruik dan het verschil tussen SSD A die 3300MB/sec haalt en SSD B die 3200MB/sec haalt bij het wegschijven van allemaal enen.

Als ik nu aan het shoppen zou zijn voor een system (heb het uitgesteld tot Ryzen 2 uit is :P ) hangt voor mij bijv een groot deel van die keuze af van bijv. World of Warcraft (en dan de performance in drukke mythic raids waar zelfs een recent high end systeem moeite mee heeft om überhaupt 60 fps te halen op de hoogste settings) een super brak geoptimaliseerde game uit 2004 (al is er door de jaren aardig gespijkerd aan de engine, het blijft brak geoptimaliseerd t.o.v. games van nu. Maar voor mij wel zeer belangrijk, want ik wil eigenlijk niet in performance achteruit gaan t.o.v. mijn systeem nu omdat dit de game is die ik veruit het meest speel en hoe mijn nieuwe systeem zal presteren in 2017/2018 games die ik mogelijk nooit zal spelen interesseert me maar bitter weinig ;)

[ Voor 14% gewijzigd door Dennism op 20-01-2018 21:45 ]


Acties:
  • +1 Henk 'm!
sdk1985 schreef op zaterdag 20 januari 2018 @ 01:29:
[...]

Overigens impliceer je nu dat een cpu met ht of meer cores per definitie een betere spelervaring oplevert.
In veel moderne games is dat idd zo, lees de goede reviews er maar op na.
Dat het niet de beste cpu op de markt is lijkt me duidelijk, hij kost dan ook slechts 109 euro. Voor dat bedrag moet je ergens concessies doen. Dat er dan snellere alternatieven bestaan lijkt me ook logisch. Maar nogmaals; voor budget gaming is het nog nooit zo geweest en dan praat ik over 25 jaar pc historie (486 was mijn eerste pc. Heb hem nog steeds, alleen zit er een P90 in).
Q6600, Q8200 hebben ook gewoon rond dat bedrag gezeten, niet tijdens launch maar wel toen die even op de markt was door de ideale dollar/euro koers. En die kon je beide ook nog overklokken.
Dennism schreef op zaterdag 20 januari 2018 @ 02:21:
[...]


Dat heeft natuurlijk ook met het spel te maken, het zwaarste gedeelte van de game is namelijk amper consistent te benchmarken, dit betreft namelijk de multiplayer en dan vooral de maps met veel spelers. De singleplayer modus laat zich dan wel weer goed benchmarken, maar is veelal een stuk minder zwaar en zo is dat voor veel games het geval. Ik ga niet zeggen dat dit gelijk de review direct super goed maakt, maar reviewers moeten natuurlijk wel roeien met de riemen die ze hebben (en die de gamedevs aanleveren in sommige gevallen).

Echter roepen dat de test niet deugt vind ik dan mogelijk ook weer wat te ver gaan, voor iemand die zo'n vooral voor de single player koopt en incidenteel een potje multiplayer doet (ik zou zelf zo'n speler zijn als ik nog shooters zou kopen) kunnen deze resultaten best relevant zijn, voor iemand die de game enkel koopt voor multiplayer op de zwaarste maps met de meest mogelijke spelers in de game is het echter een ander verhaal en dan kun je inderdaad stellen dat een test als deze niet voldoet.
Het is slecht omdat er geen enkele uitleg bij gegeven wordt. Nu leest eigenlijk iedereen het verkeerd en lijkt een CPU zoals de i3 8100 eigenlijk een perfecte CPU voor BF1 (en ook die andere CPU zware games). De praktijk is echter iets totaal anders dan die grafieken doen vermoeden. Alleen daarom is het al een slechte test, omdat zo goed als iedereen een verkeerde conclusie eruit gaat trekken. Sterker nog zelfs HWI trekt de conclusie dat de i3 8100 perfect zijn mannetje staat in BF1...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
-The_Mask- schreef op zaterdag 20 januari 2018 @ 21:45:
[...]

In veel moderne games is dat idd zo, lees de goede reviews er maar op na.

[...]

Q6600, Q8200 hebben ook gewoon rond dat bedrag gezeten, niet tijdens launch maar wel toen die even op de markt was door de ideale dollar/euro koers. En die kon je beide ook nog overklokken.
Je had toen duur ram en een duur moederbord nodig om lekker over te clocken (rond launch was ik 200 euro kwijt aan KHX 8500 2 GB en 200+ voor het moederbord). Tel dat eens bij elkaar op, mid-range was al op het randje eigenlijk was het voor die tijd high-end. Een euro van toen is natuurlijk ook geen euro van nu.

Los daarvan was de Q6600 echt geen topper en was je destijds bij elke game beter af met de 6700/6750 ivm de 3.8 Ghz die dingen dingen haalde. Welke bij launch circa de helft goedkoper was. Zelfs in de zwaarste cpu game van die tijd, supreme commander, verloor de Q6600 de race. Die 6750 was bij launch iets van 160 euro. Alleen was helaas het platform zelf niet zo voordelig. Hij was net goed genoeg om sandy bridge af te wachten. Kopers van de Q6600 moesten eigenlijk verplicht upgraden naar de i7 920 waardoor velen daarvan de 2500K hebben gemist en dus 'fout' zijn ingestapt tijdens ivy bridge of haswell.
[...]

Het is slecht omdat er geen enkele uitleg bij gegeven wordt. Nu leest eigenlijk iedereen het verkeerd en lijkt een CPU zoals de i3 8100 eigenlijk een perfecte CPU voor BF1 (en ook die andere CPU zware games). De praktijk is echter iets totaal anders dan die grafieken doen vermoeden. Alleen daarom is het al een slechte test, omdat zo goed als iedereen een verkeerde conclusie eruit gaat trekken. Sterker nog zelfs HWI trekt de conclusie dat de i3 8100 perfect zijn mannetje staat in BF1...
Dat lijkt me wat overdreven inderdaad. Maar ik verwacht dat de 60 fps wel te halen én stabiel te krijgen is met een framelimiter. Het zou mij niet verbazen als die i3 8100 het beter doet dan mijn 2500K op 4.6 GHz (en daar haalde behoorlijke stabiele framerates mee tijdens de beta, boven de 100 op dx11 ultra).

[ Voor 13% gewijzigd door sdk1985 op 20-01-2018 22:59 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op zaterdag 20 januari 2018 @ 20:13:
[...]

Dat was 20 jaar geleden eigenlijk heel normaal. Soldier of Fortune (2), Call of Duty (2), enz hadden dat al rond 2000. Kreeg je bestandje van +- 300 KB wat je later terug kon kijken. Als ik me niet vergis had de eerste Call of Duty Black ops het ook nog.


[...]

Daar had ik toevallig net al een post aan gewijd gisteren in dit topic: sdk1985 in "AMD Nieuwsdiscussietopic - Deel 38"
Doom was ze voor ;); of dit ook voor multiplayer was weet ik even niet, singleplayer wel :P.

Dit komt het dichts in de buurt van testen wat een multiplayer match kan voorstellen. Je mist wel dingen zoals de extra cpu load voor het daadwerkelijke multiplayer gedeelte van spellen.
Dennism schreef op zaterdag 20 januari 2018 @ 21:33:
@DaniëlWW2

Ik denk dat een deel hiervan het ook juist voor de reviewers zo lastig maakt.

Een 1080ti op medium en 1080p is in praktische zin geen test die iets zegt, niemand koopt namelijk zo'n setup, zonde van je geld. Echter als je als reviewer verschillen tussen cpu's in gaming wil laten zien moet je wel een setup pakken waar niets anders de bottleneck kan zijn dan de CPU. Dus in dat opzicht begrijp ik het wel. Praktisch gezien heb je er echter in veel gevallen niet veel aan. 1080P ultra / 1440P / 4K zijn dan praktisch gezien de betere test, echter dan zit je veelal naar bijna dezelfde grafieken te kijken omdat de bottleneck mogelijk ergens anders ligt (misschien uitgezonderd 1080P ultra). Bij andere tests die alleen de CPU aanspreken ligt dat natuurlijk anders, maar juist veel mensen lijken reviews enkel te bekijken voor gaming tests, zie je Steve bij Hardware unboxed ook vaak benoemen, eerst wat content creation / excel monte carlo e.d. test en dan "Now we go onto gaming what you all have been waiting for" en dan afhankelijk van de resolutie / quality presets wat grafieken die al niet dan wat verschil tonen :D

M.b.t. oudere games ben ik het echter niet volledig met je eens. In denk dat een game als GTA:V die schijnbaar als ik de cijfers mag geloven nog door miljoenen mensen gespeeld wordt in dat opzicht best relevanter kan zijn dan een recente game die door veel minder mensen gespeeld wordt. Als ik naar reviews zou kijken om (deels) op basis van die data mijn keuze te bepalen voor nieuwe componenten of een nieuw systeem wil ik graag wel zaken getest zien die ik ook ga draaien. Vandaar dat ik zaken als Pubg / GTA:V e.d. in review opzich wel logisch vind, ook al zijn het oudere c.q. brak geoptimaliseerd. Ze zijn namelijk schijnbaar nog wel mateloos populair binnen de doelgroep. Zaken die ik nooit ga draaien zijn voor mij niet interessant en zo zullen verwacht ik veel anderen dit ook bekijken. Neem ook bijv. test resultaten van SSD's, leuk zo'n crystalmark of atto resultaat, ik zie echter liever de verschillen in laadtijden, responstijden of daadwerkelijke bewerkingen in applicaties getest worden dat zegt mij meer voor mijn dagelijks gebruik dan het verschil tussen SSD A die 3300MB/sec haalt en SSD B die 3200MB/sec haalt bij het wegschijven van allemaal enen.

Als ik nu aan het shoppen zou zijn voor een system (heb het uitgesteld tot Ryzen 2 uit is :P ) hangt voor mij bijv een groot deel van die keuze af van bijv. World of Warcraft (en dan de performance in drukke mythic raids waar zelfs een recent high end systeem moeite mee heeft om überhaupt 60 fps te halen op de hoogste settings) een super brak geoptimaliseerde game uit 2004 (al is er door de jaren aardig gespijkerd aan de engine, het blijft brak geoptimaliseerd t.o.v. games van nu. Maar voor mij wel zeer belangrijk, want ik wil eigenlijk niet in performance achteruit gaan t.o.v. mijn systeem nu omdat dit de game is die ik veruit het meest speel en hoe mijn nieuwe systeem zal presteren in 2017/2018 games die ik mogelijk nooit zal spelen interesseert me maar bitter weinig ;)
Een probleem met die test methodiek is ook dat dingen zoals physics, AI en audio niet meeschalen met de framerate, tenminste in hedendaagse games die hebben allemaal hun eigen update frequentie. Koppel je dit niet los van elkaar dan krijg je rare dingen zoals je bij sommige console ports ziet als je deze van hun locked framerate afhaald. Iedere fatsoenlijke ontwikkelaar of dat nu indie of tripple A is hoort dit eigenlijk los van elkaar te koppelen. Hierop aansluitend, een quadcore gaat hier vaak meer moeite mee hebben dan een een cpu met meer threads.

[ Voor 69% gewijzigd door Sp3ci3s8472 op 20-01-2018 23:00 ]


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op zaterdag 20 januari 2018 @ 20:13:
[...]

Dat was 20 jaar geleden eigenlijk heel normaal. Soldier of Fortune (2), Call of Duty (2), enz hadden dat al rond 2000. Kreeg je bestandje van +- 300 KB wat je later terug kon kijken. Als ik me niet vergis had de eerste Call of Duty Black ops het ook nog.
Dat bestaat inderdaad al heel lang. De truc is eigenlijk ook heel simpel. Het enige wat je hoeft op te slaan is datgene wat verandert. Het level e.d. heeft de 'kijker' al en hoef je dus niet op te slaan. In de praktijk hoef je alleen de input van de spelers en de random events (cirkels, loot drops etc.) op te slaan, en met die data kun je alles opnieuw afspelen. Dat soort data laat zich ook nog eens goed comprimeren, zeker bij een shooter krijg je dan hele kleine bestandjes.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zaterdag 20 januari 2018 @ 22:55:
[...]

Dat bestaat inderdaad al heel lang. De truc is eigenlijk ook heel simpel. Het enige wat je hoeft op te slaan is datgene wat verandert. Het level e.d. heeft de 'kijker' al en hoef je dus niet op te slaan. In de praktijk hoef je alleen de input van de spelers en de random events (cirkels, loot drops etc.) op te slaan, en met die data kun je alles opnieuw afspelen. Dat soort data laat zich ook nog eens goed comprimeren, zeker bij een shooter krijg je dan hele kleine bestandjes.
Klopt, grootste gedeelte zal vector data zijn. Zeker in de tijd van Doom was het nodig om het op die manier op te slaan. Je had toen gewoon nog geen snel internet.

Acties:
  • +3 Henk 'm!
Dennism schreef op zaterdag 20 januari 2018 @ 21:33:
@DaniëlWW2

Ik denk dat een deel hiervan het ook juist voor de reviewers zo lastig maakt.
Helemaal niet. Ik kan dit achterhalen in mijn vrije tijd door een beetje interesse te tonen in de materie. Dan kan iemand die hier fulltime mee bezig is dit zeker ook. Is het nu werkelijk zo moeilijk om naar resultaten te kijken en je af te vragen waarom iets gebeurd? Kennelijk wel. :/
Een 1080ti op medium en 1080p is in praktische zin geen test die iets zegt, niemand koopt namelijk zo'n setup, zonde van je geld. Echter als je als reviewer verschillen tussen cpu's in gaming wil laten zien moet je wel een setup pakken waar niets anders de bottleneck kan zijn dan de CPU. Dus in dat opzicht begrijp ik het wel. Praktisch gezien heb je er echter in veel gevallen niet veel aan. 1080P ultra / 1440P / 4K zijn dan praktisch gezien de betere test, echter dan zit je veelal naar bijna dezelfde grafieken te kijken omdat de bottleneck mogelijk ergens anders ligt (misschien uitgezonderd 1080P ultra). Bij andere tests die alleen de CPU aanspreken ligt dat natuurlijk anders, maar juist veel mensen lijken reviews enkel te bekijken voor gaming tests, zie je Steve bij Hardware unboxed ook vaak benoemen, eerst wat content creation / excel monte carlo e.d. test en dan "Now we go onto gaming what you all have been waiting for" en dan afhankelijk van de resolutie / quality presets wat grafieken die al niet dan wat verschil tonen :D
En daar ben ik het dus zo mee oneens. Ik heb het afgelopen jaar heel wat mensen geadviseerd wat voor PC ze het beste konden kopen. Zo ongeveer niemand overclocked, en in verreweg de meeste gevallen gaat het om een 1080P 75Hz scherm. Dan was de R5 1600 met een RX580 of een GTX1060 de logische keuze. Hoe vaak ik niet heb gezien dat mensen met de 7700K aan kwamen zetten...

Je gaat er zo goed als niks mee winnen. De afgelopen maanden moet ook duidelijk zijn geworden dat zelfs een quadcore met SMT minder dan optimaal is. Toch zullen heel wat mensen alsnog een 7700K hebben gekocht, puur vanwege die benchmarks. Tegen de tijd dat ze een betere GPU kopen, kunnen ze die 7700K ook gaan vervangen. :N
M.b.t. oudere games ben ik het echter niet volledig met je eens. In denk dat een game als GTA:V die schijnbaar als ik de cijfers mag geloven nog door miljoenen mensen gespeeld wordt in dat opzicht best relevanter kan zijn dan een recente game die door veel minder mensen gespeeld wordt. Als ik naar reviews zou kijken om (deels) op basis van die data mijn keuze te bepalen voor nieuwe componenten of een nieuw systeem wil ik graag wel zaken getest zien die ik ook ga draaien. Vandaar dat ik zaken als Pubg / GTA:V e.d. in review opzich wel logisch vind, ook al zijn het oudere c.q. brak geoptimaliseerd. Ze zijn namelijk schijnbaar nog wel mateloos populair binnen de doelgroep. Zaken die ik nooit ga draaien zijn voor mij niet interessant en zo zullen verwacht ik veel anderen dit ook bekijken. Neem ook bijv. test resultaten van SSD's, leuk zo'n crystalmark of atto resultaat, ik zie echter liever de verschillen in laadtijden, responstijden of daadwerkelijke bewerkingen in applicaties getest worden dat zegt mij meer voor mijn dagelijks gebruik dan het verschil tussen SSD A die 3300MB/sec haalt en SSD B die 3200MB/sec haalt bij het wegschijven van allemaal enen.

Als ik nu aan het shoppen zou zijn voor een system (heb het uitgesteld tot Ryzen 2 uit is :P ) hangt voor mij bijv een groot deel van die keuze af van bijv. World of Warcraft (en dan de performance in drukke mythic raids waar zelfs een recent high end systeem moeite mee heeft om überhaupt 60 fps te halen op de hoogste settings) een super brak geoptimaliseerde game uit 2004 (al is er door de jaren aardig gespijkerd aan de engine, het blijft brak geoptimaliseerd t.o.v. games van nu. Maar voor mij wel zeer belangrijk, want ik wil eigenlijk niet in performance achteruit gaan t.o.v. mijn systeem nu omdat dit de game is die ik veruit het meest speel en hoe mijn nieuwe systeem zal presteren in 2017/2018 games die ik mogelijk nooit zal spelen interesseert me maar bitter weinig ;)
En daar zou ik dus nooit een systeem op baseren. Een brakke game kan je niet goed draaide krijgen, ongeacht de hardware.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Die GPU/CPU reviews van HWI moet je gewoon links laten liggen en dan vooral wat gaming betreft. (sorry hoor >:) )

Pentiums/I3/I5/FX/R3... testen met een 1080TI 8)7
Dat kan maar neem dan ook kaarten mee als de RX 570/580 GTX 1050TI/1060 en de Vega 64 en neem 1080P en 1440P mee.
Dan komen ze met, ja maar CPU test...... ja maar kost veel tijd..... sorry maar dan moet je niet zo`n site runnen, onder andere Techspot doet het toch ook.

Techspot test ook gewoon multiplayer.

Acties:
  • 0 Henk 'm!
Enchantress schreef op zaterdag 20 januari 2018 @ 23:42:

Techspot test ook gewoon multiplayer.
Voor zover ik weet test Steve van Techspot / Hardware unboxed BF1 ook niet in multiplayer. In ieder geval de beelden uit hun reviews laten voor zover ik weet single player zien, en wat hij over zijn eigen test methode verteld wijst voor over ik weet ook op single player:
Testing Methodology
Our benchmark pass lasted 60 seconds, we started at the beginning of the "Through Mud & Blood" story where you take command of a British Mark 5 Tank. This test features plenty of AI-controlled characters and more importantly an easy to follow path that allowed us to repeatedly reproduce the test with a high degree of accuracy.
Bijv. Pubg test hij dan voor zover ik weet wel in "multiplayer" via de soort van replay functie zoals ik hierboven al eerder aangaf. Al zie ik net wel nu ik het even terug kijk dat ie akelig zijn best doet om geen andere spelers tegen te komen in die replay :D

[ Voor 13% gewijzigd door Dennism op 21-01-2018 12:04 ]


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op zaterdag 20 januari 2018 @ 23:20:

En daar ben ik het dus zo mee oneens. Ik heb het afgelopen jaar heel wat mensen geadviseerd wat voor PC ze het beste konden kopen. Zo ongeveer niemand overclocked, en in verreweg de meeste gevallen gaat het om een 1080P 75Hz scherm. Dan was de R5 1600 met een RX580 of een GTX1060 de logische keuze. Hoe vaak ik niet heb gezien dat mensen met de 7700K aan kwamen zetten...

Je gaat er zo goed als niks mee winnen. De afgelopen maanden moet ook duidelijk zijn geworden dat zelfs een quadcore met SMT minder dan optimaal is. Toch zullen heel wat mensen alsnog een 7700K hebben gekocht, puur vanwege die benchmarks. Tegen de tijd dat ze een betere GPU kopen, kunnen ze die 7700K ook gaan vervangen. :N

En daar zou ik dus nooit een systeem op baseren. Een brakke game kan je niet goed draaide krijgen, ongeacht de hardware.
Daar ben ik het grotendeels zeker mee eens in de breedte, al hangt het natuurlijk nog wel af van de usecase. Als jij begin 2017 een systeem kocht en je upgrade normaliter iedere 2-3 jaar dan kan de 7700k destijds nog enigszins een logische keuze geweest zijn als je het systeem enkel voor high fps gaming kocht en je aan overclocking doet. Koop je echter je systemen voor 5+ jaar of je overclocked niet dan was na de Ryzen release de 7700K eigenlijk de aankoop niet meer waard, enkele niche cases daargelaten.

Wat ik bijv. met WoW heb is gewoon lastig, guildie van me is bijv. van Intel naar Ryzen gegaan, zeer mooie upgrade voor hem in het algemeen, maar in WoW ging ie op de momenten dat het er om gaat (Mythic raids met 20 spelers, en dan vooral in bossfights waar veel mechanics tegelijk afgaan) van 40-60FPS naar dips onder de 20FPS, das niet handig voor de rest van de groep als je daardoor wipes veroorzaakt. Met wat lagere settings hier en daar en wat minder addons heeft ie het gelukkig wel redelijk kunnen oplossen, maar echt handig was het niet :D Maar WoW is dat betreft ook een zeer lastige game om een systeem voor te kopen, terwijl die game wel al jaren relevant is en blijft voor veel gamers. Het grootste gedeelte van de game draait bijv volledig soepel op een budget machine van bijv. 5 jaar oud of zelf ouder zolang je niet alles op ultra wil hebben, terwijl de end game content in bepaalde scenario's zelfs de zwaarste machines laat zweten. Maar dan blijft het wel lastig om te zeggen om daar niet je systeem deels op te baseren als je die game bijv. al 13-14 jaar speelt en misschien nog wel 10 jaar zal spelen als je go to game.

Het is echter zeker niet zo dat je een game als WoW niet goed draaiende kan krijgen, moet er alleen voor zorgen dat je de beperkingen van de engine kent (gebruikt max 4 cores, waarvan 1 veel meer dan de andere 3, IPC en clockspeed zijn koning). Vandaar dat ik dus ook hoop dat Ryzen 2 qua overclocks die 10% clockspeed gaat halen daar met een +- 4.4Ghz ik er in WoW niet echt op achteruit zou moeten gaan en ik wel een zeer deftige upgrade voor de rest pak, waaronder mijn virtuele test machines :P

Acties:
  • 0 Henk 'm!
@Dennism maar dat lijkt dus meer op compiler issues dan puur clockspeeds. Als je het afgelopen jaar een upgrade hebt gedaan dan kom je waarschijnlijk van Nehalem, Sandy of Ivy. Ryzen heeft een IPC voordeel dat je er nooit achteruit op zou moeten gaan. Kom je van een 2500K of een 3570K, dan verlies je een paar honderd megahertz aan clockspeed, maar dat zou een Ryzen haar betere IPC moeten compenseren. Gebeurd dat niet, dan is de game het probleem.

Natuurlijk zijn hogere clocks leuk. Dat lijkt er ook wel in te zitten voor Ryzen 2 naast wat IPC. Dit garandeert alleen niks over speelbaarheid van bepaalde (zeer) oude games. Dat was het onderwerp hier, benchmarken en methodiek. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op zondag 21 januari 2018 @ 14:15:
@Dennism maar dat lijkt dus meer op compiler issues dan puur clockspeeds. Als je het afgelopen jaar een upgrade hebt gedaan dan kom je waarschijnlijk van Nehalem, Sandy of Ivy. Ryzen heeft een IPC voordeel dat je er nooit achteruit op zou moeten gaan. Kom je van een 2500K of een 3570K, dan verlies je een paar honderd megahertz aan clockspeed, maar dat zou een Ryzen haar betere IPC moeten compenseren. Gebeurd dat niet, dan is de game het probleem.

Natuurlijk zijn hogere clocks leuk. Dat lijkt er ook wel in te zitten voor Ryzen 2 naast wat IPC. Dit garandeert alleen niks over speelbaarheid van bepaalde (zeer) oude games. Dat was het onderwerp hier, benchmarken en methodiek. ;)
Bij WoW heb ik dat idee niet, gezien de oudheid van de engine verwacht ik eigenlijk dat deze sowieso niet geoptimaliseerd is voor enige moderne cpu, Intel of AMD ;)

Maar als ik kijk naar de enige beperkte test die ik zelf heb uitgevoerd tussen mijn Haswell en een Ryzen 1600 die ik gebouwd heb voor een maat van me laat die simpele test dat eigenlijk ook zien. Ik heb ze beide getest op 3.6Ghz en dan zijn de prestaties vrijwel gelijk (wat ongeveer te verwachten is daar Ryzen en Haswell IPC niet ver uit elkaar liggen). Echter mijn Haswell op 4.6Ghz gaat er uiteraard flink overheen. Gebaseerd op deze kleine test ga ik er nu enigszins vanuit dat mocht een Ryzen 2 op +- 4.4Ghz kunnen clocken met een kleine IPC winst dat ik er t.o.v. mijn Haswell niet op achteruit ga en dat stel dat Ryzen 2 geen IPC winst krijgt het verschil minimaal zal zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

:*)
DaniëlWW2 schreef op zaterdag 20 januari 2018 @ 20:42:
Werkelijk, weer de BF1 discussie? :N

Een beter voorbeeld van de totale onkunde van de meeste "reviewers" is er nauwelijks te geven. Iedereen die sinds minstens 2011 een Battlefield heeft gespeeld en wel eens zijn framerate uit heeft gelezen weet dat de SP mode merkbaar beter draait. De reden daarvoor is ook makkelijk aan te wijzen. De gevechten in de SP zijn behoorlijk lineair en beperkt in schaal. Scripted events, weinig zware CPU loads.

De MP is totaal anders. In elke BF game wordt elke kogel die je vuurt voorzien van realistische parameters. Flight time, zwaartekracht, afwijking etc. Je hebt geen hitbox en scan waar vuren meteen leid tot een hit of mis. Dit systeem is CPU intensief vanwege de physics. Dan heb je nog destruction, andere phycics elementen, de schaal van de mappen, voertuigen, 64 spelers etc. Dit vraagt om heel wat meer CPU.

Ik weet nog heel goed dat de BF4 SP bij mij goed draaide met mijn i5 750. De MP was regelmatig al flinke framedrops en überhaupt mindere framerates. Ik heb toen gedacht over een Haswell i5, maar de game was zo kapot dat ik het snel opgaf en nooit meer terug heb gekeken. Meteen de laatste EA game die ik niet voor een prikkie uit een sale heb gekocht...


Dan benchmarken. Wat een onzin dat dit niet kan zeg...
Dan benchmark je maar meer dan 30 seconden en doe je het eens goed. Ga naar een TDM match en speel een aantal minuten. Herhaal dit een aantal keer en verzamel de resultaten. Dan heb je een duidelijk overzicht wat een combinatie ongeveer zal kunnen. Loop je te muggenziften op een paar procent, dan heb je überhaupt geen idee waar je mee bezig bent. Die paar procent variaties kunnen ook al optreden met een andere driver.

Speelt er nog meer wat de onkunde van de gemiddelde reviewer weer eens fijntjes demonstreert. Zelden, zeer zelden kom je reviews tegen waar de testmethodiek deugt, of er enige kennis van zaken bestaat voorbij het punt van wat getalletjes verzamelen en in een grafiek of tabel zetten.

De "methodiek" van HWI voor die test is bijvoorbeeld lachwekkend slecht. Waarom is het in godsnaam relevant om met een GTX1080Ti te gaan testen bij 1080P, en dan ook nog eens medium settings? Dit bedenk je toch niet als serieuze test. :')

Dan is er nog de CPU bottleneck test in het algemeen. Ook een prachtig staaltje van onwetendheid. Plaats een zeer krachtige GPU naast een CPU, verlaag de resolutie kunstmatig en kijk wat er gebeurd. Zonder die "test" kan ik je nu al vertellen dat de CPU met de hoogste clockspeed en IPC hier gaat winnen.

Waarom kan ik je dit zomaar vertellen zonder zelf te testen? Nou omdat je met een GTX1080Ti een gigantische hoeveelheid draw calls van de CPU gaat vragen om niet tegen een bottleneck aan te lopen. Wil je een voorbeeld wat een GPU doet met een draw call bottleneck? Kijk maar naar RX Vega. Het verschil tussen DX11 of DX12 API in dezelfde game kan zo meer dan 20% zijn. Voor het curieuze RX Vega en DX12/Vulkan ben ik ook al eens op ingegaan. Zie ook:

DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Maar terug naar de CPU’s. Naast maximalisering van draw calls bestaat er nog een parameter die maar weinig mensen zich realiseren. Een CPU is uiteindelijk niks meer dan een veredelde rekenmachine die aansturing nodig heeft vanuit software. Elke CPU heeft zijn eigen microcode. Elk programma heeft zijn eigen programmeertaal die niet zomaar compatibel is met microcode. Daar moet dus een laag tussen, een compiler.

De UE4 engine is een goed voorbeeld van een game engine die een compiler heeft die beduidend beter presteert met Intel CPU’s. Dat is alleen niet het enige voorbeeld. We weten dat Ryzen ongeveer 7 procent aan IPC mist. Natuurlijk is IPC geen constante waarde, maar in dit geval is het een redelijk betrouwbare indicator. Omdat AMD min of meer jaren uit de CPU markt heeft gelegen, zijn veel games niet toegerust met AMD geoptimaliseerde compilers. Dat zie je nog wel eens terug in sub 2017 games. In veel 2017 games is het verschil tussen Intel en Ryzen een paar procent, zoals je zou mogen verwachten gezien de prestaties van de twee architecturen. Dat is bijvoorbeeld waarom een GTA 5 als benchmark zinloos is. De game stamt nog uit 2013, en is in 2015 uitgebracht in opgepoetste vorm voor de PC. Er zit geen compiler optimalisatie in voor Ryzen, en dat lijkt me nogal logisch.

Dan is er nog de vreemde eend in de bijt, CiV 6. Deze game presteert beter op Ryzen dan Intel. Oh maar die game is "AMD Gaming Evolved", natuurlijk draait die dan beter op Ryzen dan Intel. Dat is het punt juist. CiV 6 is de enige game die systematisch betere prestaties laat zien op Ryzen dan Intel CPU's. Dat is echt geen toeval. Ik vermoed nu al een tijdje dat Fireaxis toegang heeft gekregen tot Ryzen code voor de launch, en de CPU compiler voor die game heeft geoptimaliseerd voor Ryzen. Het laat in ieder geval zien wat een compiler kan uitrichten als deze geoptimaliseerd is.


Als laatste is er nog het idee dat je kan “futureproofen”. Nee dit kan niet, volslagen zinloos idee. Zeker anno 2018 is het hopeloos omdat er wat staat te gebeuren in API land. Het moge duidelijk zijn dat een Polaris 10 chip niet afdoende heeft qua draw calls aan wat zelfs een 8700K kan leveren. Dat wordt pijnlijk duidelijk bij elke DX12/Vulkan titel waar een Polaris 10 chip opeens beduidend beter gaat presteren. Over Vega 10 hoef je niet eens te beginnen.

Nvidia heeft met hun drivers een manier gevonden om de barrière waar AMD tegen aanloopt te omzeilen. Een geniale aanpak van Nvidia, maar uiteindelijk ook maar tijdelijk. Er komt een punt waar de ruwweg 2,4 miljoen drawcalls niet meer voldoende zijn voor een nieuwe Nvidia GPU, en dan loopt die ook tegen een bottleneck aan. Enorme sprongen in clockspeed, of IPC hoef je niet te verwachten. Ik verwacht dat eigenlijk niet voor Zen 2, en vanuit Intel verwacht ik de komende jaren al helemaal weinig.

Een volgende generatie Nvidia GPU kan al heel goed bij die limiet terechtkomen. Wat dan? Rest alleen de mogelijkheid nog om de vraag naar draw calls uit te gaan splitsen tussen meerdere CPU cores. Dat doen DX12 en Vulkan dus, DX11 niet. Daar zit je dan met je “futureproof” 5GHz 7700K. Rauwe clockspeeds of iets betere IPC gaan niet lang meer de relevante factor zijn voor GPU prestaties. AMD GPU’s lopen al sinds Fiji tegen de bottleneck aan wat een elke CPU core kan doen. AMD heeft dit ook al jaren geleden voorzien met Mantle, later Vulkan en DX12 pushen, alsmede initiatieven zoals GPUOpen. Alles om low level API's maar te pushen.

Nvidia komt er nu nog omheen met hun eigen oplossing van dit probleem, maar dat gaat ook niet lang meer duren. We weten dat ze er nog niet tegenaan lopen omdat de GTX1080Ti geen grote prestatiesprong laat zien bij DX12/Vulkan titels. Gaat dat met een opvolger wel gebeuren, dan is DX11 als API standaard dood.
Daarom werkt ook Nvidia mee aan Vulkan, ze weten maar al te goed dat ook zij een meer bijdetijdse API nodig hebben om in de toekomst alles uit hun grafische kaarten te halen.

Inderdaad, het wordt nogal onderschat hoe belangrijk de compiler is.
DaniëlWW2 schreef op zaterdag 20 januari 2018 @ 23:20:
[...]

Helemaal niet. Ik kan dit achterhalen in mijn vrije tijd door een beetje interesse te tonen in de materie. Dan kan iemand die hier fulltime mee bezig is dit zeker ook. Is het nu werkelijk zo moeilijk om naar resultaten te kijken en je af te vragen waarom iets gebeurd? Kennelijk wel. :/
Niet om flauw te doen, voor zo ver ik het heb begrepen heb jij ook nog eens geen enkele achtergrond in techniek qua onderwijs en werkervaring maar in geschiedenis (reuze-interessant, daar niet van). Zou je van professionele reviewers mogen verwachten dat die wel enige achtergrond hebben in techniek en dat zij daarom sneller en gemakkelijker de benodigde informatie kunnen vinden en ermee kunnen werken? Vandaar dat ik het voorbeeld gaf van iemand die slecht is in platformspellen maar die wel betaald wordt om een review over een platformspel te schrijven. Er wordt gedacht dat er geen deskundigheid nodig is maar zo blijkt het toch niet te werken, zo ook bij reviews van hardware. Als een historicus in zijn vrije tijd dit soort zaken kan achterhalen dan zou het inderdaad voor een professionele reviewer een fluitje van een cent moeten zijn.
Dennism schreef op zondag 21 januari 2018 @ 12:00:
[...]


Voor zover ik weet test Steve van Techspot / Hardware unboxed BF1 ook niet in multiplayer. In ieder geval de beelden uit hun reviews laten voor zover ik weet single player zien, en wat hij over zijn eigen test methode verteld wijst voor over ik weet ook op single player:


[...]


Bijv. Pubg test hij dan voor zover ik weet wel in "multiplayer" via de soort van replay functie zoals ik hierboven al eerder aangaf. Al zie ik net wel nu ik het even terug kijk dat ie akelig zijn best doet om geen andere spelers tegen te komen in die replay :D
Tech Deals test spellen op de gewone manier, als een speler. Bij spellen zoals GTA5 gaat hij gewoon wat spelen, steeds in dezelfde buurt op hetzelfde tijdstip en dezelfde sooft activiteiten. Uit mijn hoofd deed hij dat voor elke configuratie ongeveer 5 keer een kwartier en nam hij dan de 3 beste scores waarbij bleek dat ze best wel dicht bij elkaar lagen voor dezelfde configuratie omdat de tijdsduur lang genoeg was om regressie naar het gemiddelde te krijgen. Per keer testte hij dan bijv. 3 hardwareconfiguraties, het duurt even maar je krijgt zo wel betrouwbare multiplayer-resultaten. Steve kiest liever voor een groter aantal spellen en een groter aantal hardwareconfiguraties terwijl hij zichzelf een beperkte hoeveelheid tijd geeft.
Maar goed, het punt is dus wederom dat het wel kan, het is een kwestie van hoeveel tijd je beschikbaar wil stellen.
Koop je echter je systemen voor 5+ jaar of je overclocked niet dan was na de Ryzen release de 7700K eigenlijk de aankoop niet meer waard, enkele niche cases daargelaten.
Een kleine aanvulling hierop, voordat de 7700k verkrijgbaar was ook al bekend dat Ryzen rond maart zou uitkomen en wat Ryzen ongeveer zou gaan presteren; 'IPC' on par met Intel, klokfrequentie tot net boven de 4,0 GHz bij hoog klokken. Dat je meer kernen zou krijgen dan bij Intel bij dezelfde prijs kon je zelf gemakkelijk beredeneren: cores for clock frequency plus dat AMD wat reputatieprobleempjes had (ovens en zo). Mensen die de 7700k kochten hebben specifieke usecase-scenario's die deze keuze rechtvaardigt, hebben geen kennis van wat ze kopen of hadden het geduld niet om op Ryzen te wachten. Allemaal best maar ik denk dat het voor de meeste van hen niet een verstandige aankoop was. Het is natuurlijk anders als je al een 6600k of zo had gekocht toen die net uit was, op dat moment was er nog niets bekend over Ryzen. Zoals ik eerder aangaf, een quadcore-CPU hoef je zeker niet weg te gooien en kan prima nog even volstaan, alleen zal het niet de beste performance leveren, ongeacht hoe goed de prestaties per kern zijn.

Dennis, misschien zou jij beter wachten op Zen2 als dit spel zo belangrijk voor jou is. Het zou mij verbazen als Zen2 niet equivalent presteert met een KL/CL op 5,0-5,3 GHz. als jouw stelling (het gaat vooral om de klokfrequentie) klopt, ongeacht wat voor keuzes AMD bij Zen2 maakt voor klokfrequentie en de pipelines (misschien blijft het rond 4 GHz. maar met veel meer performance bij dezelfde klokfrequentie, ook dat is een optie). ;)

[ Voor 27% gewijzigd door Verwijderd op 21-01-2018 17:42 ]


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 21 januari 2018 @ 17:04:
Niet om flauw te doen, voor zo ver ik het heb begrepen heb jij ook nog eens geen enkele achtergrond in techniek qua onderwijs en werkervaring maar in geschiedenis (reuze-interessant, daar niet van). Zou je van professionele reviewers mogen verwachten dat die wel enige achtergrond hebben in techniek en dat zij daarom sneller en gemakkelijker de benodigde informatie kunnen vinden en ermee kunnen werken? Vandaar dat ik het voorbeeld gaf van iemand die slecht is in platformspellen maar die wel betaald wordt om een review over een platformspel te schrijven. Er wordt gedacht dat er geen deskundigheid nodig is maar zo blijkt het toch niet te werken, zo ook bij reviews van hardware. Als een historicus in zijn vrije tijd dit soort zaken kan achterhalen dan zou het inderdaad voor een professionele reviewer een fluitje van een cent moeten zijn.
Die heb ik ook niet. Wat ik wel mee heb zitten is heel goed weten hoe ik informatie kan vinden, op waarde te schatten en te verbinden. Dat is namelijk wat je echt leert, niet zinloze getalletjes onthouden. Eigenlijk zou je de studie geschiedenis, "informatieverwerking" moeten noemen. Dekt de lading eigenlijk beter, en dan vind je ook makkelijker een baan op niveau. :/


@Dennism Maar een upgrade van Haswell naar Ryzen is dan ook vrij zinloos tenzij je alleen maar BF1 en AC Origins speelt. Wachten op Ryzen 2 en hogere clockspeeds lijkt mij hier behoorlijk redelijk. We gaan het wel zien. Persoonlijk hoop ik op ongeveer 4,5GHz, dat zou genoeg moeten zijn naast een kleine IPC sprong. Zeker omdat Intel CPU's na de meltdown (pun intended) toch een paar procent IPC verloren lijken te zijn. Ryzen 1 en Sky/Kaby/Coffee zitten dus nu al bijna in foutmarge terrein. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 21 januari 2018 @ 17:04:


Dennis, misschien zou jij beter wachten op Zen2 als dit spel zo belangrijk voor jou is. Het zou mij verbazen als Zen2 niet equivalent presteert met een KL/CL op 5,0-5,3 GHz. als jouw stelling (het gaat vooral om de klokfrequentie) klopt, ongeacht wat voor keuzes AMD bij Zen2 maakt voor klokfrequentie en de pipelines (misschien blijft het rond 4 GHz. maar met veel meer performance bij dezelfde klokfrequentie, ook dat is een optie). ;)
DaniëlWW2 schreef op zondag 21 januari 2018 @ 17:54:


@Dennism Maar een upgrade van Haswell naar Ryzen is dan ook vrij zinloos tenzij je alleen maar BF1 en AC Origins speelt. Wachten op Ryzen 2 en hogere clockspeeds lijkt mij hier behoorlijk redelijk.
Liever niet, ik wil meer performance voor mijn home labs (VM's), voor gaming wil ik er echter niet echt op achteruit gaan. Alleen voor gaming was ik echt nog niet gaan upgraden, alle games die ik speel draaien in principe prima op wat ik heb :P Het gaat er echt meer om dat ik meer capaciteit heb om VM's te draaien voor testdoeleinden en studie :) Ik was in november al aardig ver met het samenstellen van een build (toen was Coffee Lake eigenlijk de overweging), echter door een groot project van eind november tot de kerst zo druk geweest dat het een beetje is blijven liggen. Toen besloten CES af te wachten, en daarop nu maar besloten tot april te wachten om te kijken wat Ryzen 2 kan. Maar veel langer wil ik niet echt wachten :P

[ Voor 11% gewijzigd door Dennism op 21-01-2018 19:57 ]


Acties:
  • 0 Henk 'm!

  • wimjongil
  • Registratie: Augustus 2006
  • Niet online
Specs van (onder andere) de R5 2400G staan nu online. 14nm dus, zoals verwacht. Ondersteunt geen dual graphics, in tegenstelling tot vorige APU's.

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op zaterdag 20 januari 2018 @ 20:42:
Werkelijk, weer de BF1 discussie? :N

Een beter voorbeeld van de totale onkunde van de meeste "reviewers" is er nauwelijks te geven. Iedereen die sinds minstens 2011 een Battlefield heeft gespeeld en wel eens zijn framerate uit heeft gelezen weet dat de SP mode merkbaar beter draait. De reden daarvoor is ook makkelijk aan te wijzen. De gevechten in de SP zijn behoorlijk lineair en beperkt in schaal. Scripted events, weinig zware CPU loads.

De MP is totaal anders. In elke BF game wordt elke kogel die je vuurt voorzien van realistische parameters. Flight time, zwaartekracht, afwijking etc. Je hebt geen hitbox en scan waar vuren meteen leid tot een hit of mis. Dit systeem is CPU intensief vanwege de physics. Dan heb je nog destruction, andere phycics elementen, de schaal van de mappen, voertuigen, 64 spelers etc. Dit vraagt om heel wat meer CPU.

Ik weet nog heel goed dat de BF4 SP bij mij goed draaide met mijn i5 750. De MP was regelmatig al flinke framedrops en überhaupt mindere framerates. Ik heb toen gedacht over een Haswell i5, maar de game was zo kapot dat ik het snel opgaf en nooit meer terug heb gekeken. Meteen de laatste EA game die ik niet voor een prikkie uit een sale heb gekocht...
De multiplayer is zwaarder, maar met 'bullet physics' heeft dat echt niks te maken... Sterker nog; voor players met meer dan 100ms doet de server het via serverside hit detection.

Dan benchmarken. Wat een onzin dat dit niet kan zeg...
Dan benchmark je maar meer dan 30 seconden en doe je het eens goed. Ga naar een TDM match en speel een aantal minuten. Herhaal dit een aantal keer en verzamel de resultaten. Dan heb je een duidelijk overzicht wat een combinatie ongeveer zal kunnen. Loop je te muggenziften op een paar procent, dan heb je überhaupt geen idee waar je mee bezig bent. Die paar procent variaties kunnen ook al optreden met een andere driver.
Gaat nooit werken. Je standaard deviatie wordt veel te groot . Om een wetenschappelijk verantwoorde test te doen moet hij herhaalbaar zijn en dat is je voorstel niet. Als drs zou je dat toch moeten weten, uit betrouwbare bron weet ik dat ook bij geschiedenis er een stukje statistiek naar voren komt (mijn vriendin is msa history ;) ). Om de MP zinnig te testen is de hierboven geopperde oplossing de enige juiste; logged runs inladen. Als je die dan ook nog bij je review plaatst dan kan iedereen je werk controleren. Het is vooral aan de devs om dit te ondersteunen.
Speelt er nog meer wat de onkunde van de gemiddelde reviewer weer eens fijntjes demonstreert. Zelden, zeer zelden kom je reviews tegen waar de testmethodiek deugt, of er enige kennis van zaken bestaat voorbij het punt van wat getalletjes verzamelen en in een grafiek of tabel zetten.

De "methodiek" van HWI voor die test is bijvoorbeeld lachwekkend slecht. Waarom is het in godsnaam relevant om met een GTX1080Ti te gaan testen bij 1080P, en dan ook nog eens medium settings? Dit bedenk je toch niet als serieuze test. :')
Dat doe je omdat je een test op dag x ontwerpt voor kaart A tm Z. Overigens zag ik dat bij de review van de 11 GBPS full hd al is verdwenen: https://nl.hardware.info/...-benchmarks-battlefield-1 Dus dat lijkt me geen steekhoudende klacht.
Dan is er nog de CPU bottleneck test in het algemeen. Ook een prachtig staaltje van onwetendheid. Plaats een zeer krachtige GPU naast een CPU, verlaag de resolutie kunstmatig en kijk wat er gebeurd. Zonder die "test" kan ik je nu al vertellen dat de CPU met de hoogste clockspeed en IPC hier gaat winnen.
De snelste cpu gaat winnen :o . Alle gekheid op een stokje, het testen met lage resolutie doen we al 20+ jaar omdat dit de enige manier is om een beetje te voorspellen hoe je cpu het doet met een snellere GPU die nu nog niet bestaat.
Dan is er nog de vreemde eend in de bijt, CiV 6. Deze game presteert beter op Ryzen dan Intel. Oh maar die game is "AMD Gaming Evolved", natuurlijk draait die dan beter op Ryzen dan Intel. Dat is het punt juist. CiV 6 is de enige game die systematisch betere prestaties laat zien op Ryzen dan Intel CPU's. Dat is echt geen toeval. Ik vermoed nu al een tijdje dat Fireaxis toegang heeft gekregen tot Ryzen code voor de launch, en de CPU compiler voor die game heeft geoptimaliseerd voor Ryzen. Het laat in ieder geval zien wat een compiler kan uitrichten als deze geoptimaliseerd is.
Civ draait overigens gewoon het beste op Coffee lake
Afbeeldingslocatie: https://img.purch.com/image002-png/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS84LzIvNzE1NjgyL29yaWdpbmFsL2ltYWdlMDAyLnBuZw==
Afbeeldingslocatie: https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS84LzYvNzE1Njg2L29yaWdpbmFsL2ltYWdlMDE0LnBuZw==
Niet gek want de game schaalt niet goed naar meerdere cores.
sdk1985 schreef op zondag 26 november 2017 @ 04:28:
[...]


[...]


Zo ik heb tegenwoordig ook en gigacore/thread cpu en kan dus eindelijk weer eens fact checken.

Dit zijn mijn eerste resultaten met de 8700K. Resultaten zijn nog niet het maximaal haalbare. Zit met mijn oud OS op de nieuwe hardware en aan de hand van mijn test SSD heb ik kunnen vaststellen dat dit mij 300 Mhz en 100 cinebench punten kost.

Hoe dan ook:
6 thread (alleen de even cores): 143 fps 41% load
5 thread (alleen de even cores): 142 fps 36% load
4 thread (alleen de even cores): 135 fps 32% load
3 thread (alleen de even cores): 104 fps, 24% load
2 thread (alleen de even cores): 57 fps, 17% load
1 thread (alleen de even cores): 26 fps, 10% load
12 threads: 141 fps, 60% load
10 threads: 142 fps, 50% load
8 threads: 141 fps, 53% load
6 threads: 141 fps, 43% load
4 threads: 77 fps, 34% load
2 threads:60 fps, 17% load

Zou het nog even met HT kunnen testen maar daar wacht ik even mee tot alles normaal werkt.

Met deze resultaten kunnen een paar denkfouten voorkomen worden:
-Een lage load op je giga core cpu betekent helemaal niet dat je game niet cpu limited is. Het is eerder een teken dat er ergens een bottleneck zit (in aantal threads of op 1 specifieke thread).
-Een hoge load heeft niet te betekenen dat je game slecht draait
-Civilzation is geen voorbeeld van een game die goed schaalt naar meerdere threads. Alleen tijdens het laden, niet tijdens het renderen.

Zoek je een cpu voor Civilization VI dan volstaat alles met wat single threaded power (G4560+). Wil je iets nieuws dan zou ik eens naar een i3 8100 (quad) kijken.

Laadtijden van je eerste beurt zullen wel flink verschillen tegenwoordig (ik zag load op alle 12 threads!). Ben je daar gevoelig voor dan wordt het een i5 8400+. Hoeveel het in seconden scheelt heb ik nog niet getest.
Maar goed, civ is als TBS niet echt interessant op 60+ fps. Dus als benchmark kunnen ze deze game ook wel overslaan.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 14:02
wimjongil schreef op zondag 21 januari 2018 @ 21:42:
Specs van (onder andere) de R5 2400G staan nu online. 14nm dus, zoals verwacht. Ondersteunt geen dual graphics, in tegenstelling tot vorige APU's.
Nogal logisch dat er geen dual graphics wordt ondersteunt, er zijn namelijk geen budget Vega videokaarten met een vergelijkbaar aantal shaders ;)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
Ik zie dat ze de snelheid van het geheugen nu ook officieel op DDR4-2933MT/s specificeren, dat zal dus mogelijk bij Ryzen 2 ook gebeuren gezien dat Interview dat de verbeteringen voor Ryzen 2 ook al in deze APU's zitten.

Acties:
  • 0 Henk 'm!
Dennism schreef op zondag 21 januari 2018 @ 23:07:
Ik zie dat ze de snelheid van het geheugen nu ook officieel op DDR4-2933MT/s specificeren, dat zal dus mogelijk bij Ryzen 2 ook gebeuren gezien dat Interview dat de verbeteringen voor Ryzen 2 ook al in deze APU's zitten.
Als ze dan ook nog dual channel verplicht stellen richting OEM dan wordt het nog wat.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op zondag 21 januari 2018 @ 22:07:

Civ draait overigens gewoon het beste op Coffee lake
[afbeelding]
[afbeelding]
Niet gek want de game schaalt niet goed naar meerdere cores.

Maar goed, civ is als TBS niet echt interessant op 60+ fps. Dus als benchmark kunnen ze deze game ook wel overslaan.
Je ziet gelijk dat quadcores zonder HT het behoorlijk zwaar hebben in CIV. Indien mogelijk is 60fps toch wel fijn om te hebben, ik laat het liever aan dingen zoals Radeon Chill of een framelimiter aan wanneer de fps lager mag zijn.
Als ik over de map beweeg bij CIV moet het wel soepel zijn, nu speel ik geen CIV maar voornamelijk Total War Warhammer. Het verschil tussen mijn i5-4670k en 1700x na bijv. turn 125 als je het merendeel van de map heb verkend is enorm. Dat is een lagfest met de i5 :P.

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op maandag 22 januari 2018 @ 00:19:
[...]


Je ziet gelijk dat quadcores zonder HT het behoorlijk zwaar hebben in CIV. Indien mogelijk is 60fps toch wel fijn om te hebben, ik laat het liever aan dingen zoals Radeon Chill of een framelimiter aan wanneer de fps lager mag zijn.
Als ik over de map beweeg bij CIV moet het wel soepel zijn, nu speel ik geen CIV maar voornamelijk Total War Warhammer. Het verschil tussen mijn i5-4670k en 1700x na bijv. turn 125 als je het merendeel van de map heb verkend is enorm. Dat is een lagfest met de i5 :P.
60 fps is wel lekker ja, ook in Civ/Anno/enz. Maar meer dan 60 fps? Ik zet hem in dat soort games op v-sync.

Als ik me niet vergis kon ik de 60 fps wel halen met de G4560. Helaas zit er geen gpu in momenteel dus kan het lastig testen. Total war is natuurlijk oneindig veel zwaarder.

Ik heb total war bij mijn Intel gehad (of wat dat deel 2?). Als je wil kun je me wel een savegame dmmen en dan maak ik wel een keer wat screenshots van de fps bij 6,4,3,2,1 cores. Weten we ook meteen hoe die game schaalt :).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!
@sdk1985 Fijn om te zien dat je de essentie van de discussie weer eens mist en gaat lopen cherrypicken...

Het gaat om benchmarks, framerates en daar wint Ryzen van Intel in CiV 6. Dat kan niet anders dan te maken hebben met een AMD geoptimaliseerde compiler. Leuk die AI test, maar AI is single threaded, en dat is ook het enige deel van die game dat single threaded is.
-Ik claimde niet dat het puur bullet physics was in BF, maar een combinatie van een aantal physics elementen en de 64 spelers die deze allemaal uit kunnen voeren. Dat moet ook gesynchroniseerd worden. Je kan nota bene een behoorlijke loopgraaf maken met explosieven in een game zoals BF4 of BF1. Dat is op een niveau waar geen enkele shooter maar in de buurt komt, en dat soort zaken zijn erg zwaar voor de CPU.
-Natuurlijk kan een totaal andere review linken die van maanden later is niet ontbreken...
Deze dus:
https://nl.hardware.info/...080-ti-battlefield-1-dx12

Niet:
https://nl.hardware.info/...-benchmarks-battlefield-1

Voor de rest ga ik er niet eens op in want de rest had ik allang weerlegt met inhoudelijke argumentatie...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Alle 4 de dies op een TR-CPU zijn elektrisch verbonden.

Voorspelling, bij de volgende ronde komen er 32k TR CPU's.
Sp3ci3s8472 schreef op maandag 22 januari 2018 @ 00:19:
[...]


Je ziet gelijk dat quadcores zonder HT het behoorlijk zwaar hebben in CIV. Indien mogelijk is 60fps toch wel fijn om te hebben, ik laat het liever aan dingen zoals Radeon Chill of een framelimiter aan wanneer de fps lager mag zijn.
Als ik over de map beweeg bij CIV moet het wel soepel zijn, nu speel ik geen CIV maar voornamelijk Total War Warhammer. Het verschil tussen mijn i5-4670k en 1700x na bijv. turn 125 als je het merendeel van de map heb verkend is enorm. Dat is een lagfest met de i5 :P.
Ook een reden waarom je voor benchmarken obligaat het spel moet spelen in plaats van enkel even een halve minuut een benchmark te draaien. In dit geval moet je het nog lang spelen ook. :)
Less is more, liever minder spellen benchmarken of het voor minder hardwareconfiguraties doen en het goed doen.
sdk1985 schreef op maandag 22 januari 2018 @ 01:27:
[...]

60 fps is wel lekker ja, ook in Civ/Anno/enz. Maar meer dan 60 fps? Ik zet hem in dat soort games op v-sync.
Ik heb geen ervaring met VSync bij RTS-spellen, het kan best dat de extra inputlag daarbij niet zo'n groot probleem is. Alle spellen waarbij je in een 3d-wereld een karakter bestuurt worden voor mij zo goed als onspeelbaar zo gauw VSync aan gaat.

[ Voor 89% gewijzigd door Verwijderd op 22-01-2018 15:38 ]


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 22 januari 2018 @ 10:33:
@sdk1985 Fijn om te zien dat je de essentie van de discussie weer eens mist en gaat lopen cherrypicken...

Het gaat om benchmarks, framerates en daar wint Ryzen van Intel in CiV 6. Dat kan niet anders dan te maken hebben met een AMD geoptimaliseerde compiler. Leuk die AI test, maar AI is single threaded, en dat is ook het enige deel van die game dat single threaded is.
Heb je wel goed gekeken? De tweede grafiek van Toms is de graphics test.
Afbeeldingslocatie: https://img.purch.com/r/600x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS84LzYvNzE1Njg2L29yaWdpbmFsL2ltYWdlMDE0LnBuZw==
Lijkt me eerder dat jij nu cherry picked aangezien je dat aspect even negeert.

De frametimes staan er ook bij en Coffee lake is duidelijk superieur. Niet dat iets hiervan relevant is. Immers 60 fps is meer dan zat en met een aardappel haal je daar al snel 60 fps. Niemand gaat een 6/8 core voor Civilization kopen. We weten allemaal dat het de animaties zijn waardoor endgame turns zo lang duren.

Het zou nog kunnen zijn dat een 1800X iets sneller is bij de eerste load van de map. Maar dat is op dit moment speculatie en zoals altijd wil ik best meewerken aan een test.
-Ik claimde niet dat het puur bullet physics was in BF, maar een combinatie van een aantal physics elementen en de 64 spelers die deze allemaal uit kunnen voeren. Dat moet ook gesynchroniseerd worden. Je kan nota bene een behoorlijke loopgraaf maken met explosieven in een game zoals BF4 of BF1. Dat is op een niveau waar geen enkele shooter maar in de buurt komt, en dat soort zaken zijn erg zwaar voor de CPU.
Ik zal mijn statement even herhalen; bullet physics kunnen en gaan nooit de veroorzaker zijn van hoge load in je multiplayer zijn.
Dit stukje is 100% onzin:
DaniëlWW2 schreef op zaterdag 20 januari 2018 @ 20:42:
De MP is totaal anders. In elke BF game wordt elke kogel die je vuurt voorzien van realistische parameters. Flight time, zwaartekracht, afwijking etc. Je hebt geen hitbox en scan waar vuren meteen leid tot een hit of mis. Dit systeem is CPU intensief vanwege de physics.
Nogmaals; voor het gros van de spelers in een match gebeurd dit zelfs serverside. Bovendien stellen de berekeningen niet veel voor. Dat kan ook niet anders want je moet meteen weten of je raakt of mist. Het is ook niet alsof je voor elke kogel die je afvuurt een dikke framedrop krijgt ;).

Dat het weergeven van de acties van 64 players veel rekenkracht vereist staat niet ter discussie (als jij 300 mines neerlegt en tegelijk af laat gaan en 64 players moet animeren dat wil wel ja. Het event doorkrijgen dat ze de mine neerleggen en dat hij afgaat kost echter niets. Hoeveel meter je sniper kogel dropped stelt ook niets voor, dat is een simpele transformatie op basis van een vaste formule.
-Natuurlijk kan een totaal andere review linken die van maanden later is niet ontbreken...
Deze dus:
https://nl.hardware.info/...080-ti-battlefield-1-dx12

Niet:
https://nl.hardware.info/...-benchmarks-battlefield-1

Voor de rest ga ik er niet eens op in want de rest had ik allang weerlegt met inhoudelijke argumentatie...
Punt blijft hetzelfde, het is dikke prima. Je vroeg je af waarom ze zo zouden testen. Daar heb ik een verklaring voor gegeven; je ontwerpt een test en die blijf je zo uitvoeren tot je een nieuwe test verzint. Dit om compatibel te blijven en een groot overzicht te kunnen genereren. Als je elke 6 maanden een nieuwe test gaat verzinnen dan moet je altijd beschikken over alle hardware. Vaak krijgen reviewers samples die weer terug moeten. Dus dat gaat dan niet.

Los hiervan is 144 Hz gaming aan een flinke opmars bezig en dan is het wel lekker om 160 fps te kunnen halen. Dus dat lijkt me een tweede reden om het te testen.

TLDR:
Civilization benchmarken is triviaal
Persoonlijk vind ik Civilization benchmarken nuttelozer dan de single player van Battlefield (1). Zoals gezegd haal je in die game weinig extra plezier op fps boven de 60 en is er weinig nodig om die 60 fps te halen. Dankzij AVX gaan de turns ook op de entry level hardware vlot.

Battlefield (One) is momenteeel in MP niet te benchmarken
Onderzoek moet altijd herhaalbaar zijn (als het goed is wordt dat er bij elke universitaire studie ingehamerd). Op dit moment is het hierdoor niet mogelijk de je multiplayer van Battlefield te benchmarken. Zonder de aangehaalde replayfunctie uit het verleden gaat dat niet gebeuren. Vervolgens wil je publiek wel weten hoe Battlefield gaat draaien, het is immers populair. De single player benchmarken is dan 'the next best thing'. Zo lang je dit aan je publiek aangeeft is daar niets mis mee. Wetenschappelijk is dat een minder groot probleem dan de multiplayer gaan benchmarken met belachelijke standaard deviaties.

HWI haat
Dan over de 'haat' richting HWI. Geen idee waar dat vandaan komt. Het zijn juist de reviews op tweakers die de laatste jaren enorm achteruit zijn gegaan. Minder reviews, inhoudelijk beperkt, minder deelnemers in de test. In die tijd heeft juist HWI inhoudelijk flinke slagen heeft gemaakt. Ze staan ook best wel open voor kritiek. Jaren geleden nog via DM een discussie gehad met de statistiek man aldaar over hun toenmalige methodiek. Voor SSD komen ze nu ook met dirty state recovery als review aspect. Verder staat het iedereen vrij om het zelf 'beter' te doen.

[ Voor 34% gewijzigd door sdk1985 op 22-01-2018 17:28 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 22 januari 2018 @ 16:53:
[...]

Heb je wel goed gekeken? De tweede grafiek van Toms is de graphics test.
Tenzij hij het had over dezelfde klokfrequentie voor Kaby Lake en Ryzen in welk geval Ryzen het inderdaad wint wat inderdaad zou duiden op beter optimalisatie wat o.a. met de compiler te maken kan hebben.
Los hiervan is de FPS op ziczhelf weinig zeggend, het gaat om de combinatie van FPS en framerendertijd. Liever 80 FPS met geen enkele framerendertijd boven de 16 ms dan 120 FPS met 3 keer per minuut een framerendertijd vna boven de 0,1 s. Reviewers moeten dit echt beter gaan doen en veel meer tijd besteden aan een review zodat die iets waard is. Less is more, doe van mijn part maar een kwart van de CPU's of grafische kaarten maar dan wel fatsoenlijk in plaats van dat zooitje waar je weinig aan hebt.
HWI haat
Dan over de 'haat' richting HWI.
Geen haat, veel mensen hier zien gewoon teveel blunders en teveel vreemde resultaten bij hun gaming-benchmarks. Waarom überhaupt naar reviews van HWI - of Tweakers - kijken als je toegang hebt tot de reviews van websites zoals ComputerBase en Tom's Hardware? Niet dat die perfect zijn, verre van, maar ze zijn minder slecht dan hier, ze hebben waarschijnlijk ook meer middelen om deze reviews te doen. Tweakers en HWI hebben een doelgroep in een klein taalgebiedje. Als je dan op dezelfde manier test als de concurrenten die waarschijnlijk over aanzienlijk meer middelen beschikken...
Maak er nu geen HWI vs. Tweakers spelletje van, daar heeft het afkeuren van de gaming-benchmarks van HWI in mijn ogen niets mee te maken.

Al houdt het kleiner zijn je niet tegen om je positief te onderscheiden, zie MindBlankTech die keurig framerendertimeplots geeft en direct Ryzen testte voor verschillende RAM-klokfrequenties. Juist een kleiner medium doet er verstandig aan om zich te specialiseren in een of andere niche, HWI had 1 mooi voorbeeld hiervan met die Gigabyte revisie, als je zoiets opspoort dan kan je ook als klein medium internationaal hoge ogen gooien. Dat doen ze echter bij dit soort gamingreviews niet, ze doen hetzelfde als wat ze in grotere landen met een grotere bezoekersbase doen maar dan met minder middelen. Als Tweakers of HWI zich positief zou willen onderscheden ondanks dat ze minder middelen hebben dan zouden ze bijv. eens de diepte in kunnen duiken met framerendertimeplots en inputlag, meet dit goed voor Ryzen en Intel en AMD en Nvidia (4 combinaties dus) bij een stuk of 20 spellen en 3 CPU's van CL, 2 CPU's van Ryzen en 2 grafische kaarten van Nvidia en AMD en je zal gegarandeerd interessante resultaten vinden die internationaal worden gedeeld. Het klein zijn speelt een rol maar het mag niet als excuus worden gebruikt.
Voor SSD komen ze nu ook met dirty state recovery als review aspect.
Ik weet niet hoe relevant dit aspect is voor de review van SSD's (ik moet er nog wat in duiken, ik heb slechst sinds november een SSD) maar dat is in ieder geval wel een mooi voorbeeld van de niche induiken waar ik het net over had. Alain Malvantano of zo van PCPerspective geeft ook zo'n mooi voorbeeld, hij heeft zelf code geschreven om voor het kopiëren/verplaatsen van X bestanden met een grootte van Y de tijd te meten. Dat kan vervolgens gemakkelijk worden aangepast om voor verschillende quedepths SSD's te testen. Je hebt slechts 1 medewerker nodig die een beetje kan programmeren en die voldoende begrijpt hoe SSD's werken, dus 1 iemand die een achtergrond in elektrotechniek of informatica heeft, ideaal gesproken iemand die ook goed artikelen kan schrijven of het in ieder geval goed genoeg kan dat iemand anders die kan bewerken tot goede artikelen. Ook prima mogelijk voor een klein medium, alleen is deze niche toevallig al gevuld. Eerder deed PCPerspective dit door het vermogen van Polaris te meten. In beide gevallen kreeg PCPerspective voor dit punt internatinoaal bekendheid en respect voor de test.
en wat kritiek omdat ze iets te veel met de mantel der liefde bedekten dat sommige Nvidia-kaarten eveneens dit 'probleem' hadden
Gratis advies van mij voor zowel HWI als Tweakers. ;)

[ Voor 21% gewijzigd door Verwijderd op 22-01-2018 18:01 ]

Pagina: 1 ... 19 ... 133 Laatste

Let op:
FRS 2.1 discussiëren mag in: CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144

Dit is verder GEEN bestelling/levertijden topic. Posts als 'ik heb besteld!' hebben geen nieuws- of discussiewaarde en zullen voortaan worden verwijderd.