Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op donderdag 27 juli 2017 @ 16:22:
Bedrijven zoals Dell en Mediamarkt zouden gestraft moeten worden voor het meewerken aan deze fraude, helaas is dat niet gebeurd.
Niet vergeten dat als een OEM was overgestapt op zowel AMD als Intel systemen gelijkwaardig te leveren dat dan diens Intel systemen natuurlijk qua prijs niet meer in de buurt komen van de door Intel bevooroordeelde fabrikanten die geen AMD systemen leveren. Een OEM had haast wel volledig moeten overstappen of heel erg minimaal AMD systemen moeten leveren. Iets daar tussen in had een OEM sowieso de kop gekost. Of had een Dell of HP een rechtszaak moeten beginnen omdat alle andere OEMs tegen veel lagere prijzen Intel CPUs krijgen terwijl ze qua volume niet perse hoger zitten 8)7 8)7 Je ziet toch wat er gebeurt? Tegen de tijd dat de rechtszaak "klaar" zou zijn dan ben je al veel marktaandeel kwijt of gewoon failliet.

AMD mocht destijds niet meer dan 20% van zijn productie uitbesteden (x86 licentie). Dan loont het nagenoeg niet eens om dat te doen. Was deze "legale", maar niet rechtvaardige beperking er niet geweest dan hadden OEMs het misschien wel gedurfd omdat AMD dan wel stevig had kunnen leveren. De situatie is wat dat betreft nu ook anders sinds GlobalFoundries en de 1,45 miljard dollar settlement. Intel heeft deze grip nu dus niet meer en OEMs hoeven zich niet meteen bedreigt te voelen. Intel had waarschijnlijk gedacht dat AMD niet meer competitief zou worden. Boom goes the dynamite! Daar was ineens Zen :)

Iedereen heeft gewoon keihard gefaald m.b.t. de machtsmisbruik van Intel. Consumenten, OEMs (bedrijven), wet en regelgeving, handhaving door marktautoriteiten, politiek (globale maatschappij als geheel min of meer) etc. Allemaal hebben ze zo hun aandeel of nalatigheid hierin gehad.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
beetje teleurgesteld in de tweakers review van de nieuwe ryzens. Ondertussen is het behoorlijk duidelijk dat nvidia echt problemen heeft met dx12 + welke cpu dan ook en budget gamers gaan echt geen 1080ti draaien.

Acties:
  • +8 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Pure pauper review, voor fatsoenlijke tests en conclusies moet je niet bij Tweakers.net wezen. HWI is nog beter en dat zegt wel wat want die doen min of meer ook maar gewoon wat populair is i.p.v. wat degelijk en juist is.

Let trouwens goed op. Het betreft hier precies dezelfde samples als HWI heeft gebruikt. Zelfde clubje in hetzelfde gebouw. De benchmark resultaten, en OC, zijn exact hetzelfde. Lekker bezig jongens, geld besparen is goed voor de kwaliteit en diversiteit... Ergo ze testen nu bij HWI en Tweakers maar één keer voor beiden reviews... Wel dubbele clicks vangen he boys... Jezus wat triest eigenlijk.

Acties:
  • +1 Henk 'm!

  • Fleximex
  • Registratie: Juni 2006
  • Laatst online: 14-09 22:48
tomcatha schreef op donderdag 27 juli 2017 @ 21:57:
beetje teleurgesteld in de tweakers review van de nieuwe ryzens. Ondertussen is het behoorlijk duidelijk dat nvidia echt problemen heeft met dx12 + welke cpu dan ook en budget gamers gaan echt geen 1080ti draaien.
Een beetje :P?
Het is een blammage. Op Tweakers vinden ze smartphone reviews belangrijker. Ze geilen helemaal op dat een smartphone een nieuwe feature heeft wat niemand boeit. Door hun onkunde zijn er nu mensen die denken dat de i3-7100 meer waar voor je geld biedt dan een Ryzen 3. Niet eens testen met snel geheugen dat helemaal niet duurder is :')

Acties:
  • 0 Henk 'm!

  • Jamesl
  • Registratie: December 2012
  • Laatst online: 13-09 21:24
lactaxative schreef op donderdag 27 juli 2017 @ 17:40:
Ik vind veel R3 reviews toch wel erg positief. (e.g. Guru3d, Tom's, HWI) Puur op prijs vind ik ze niet direct interessant. Een (na 1 maart gereleasede) H110 uATX bordje heb je al voor 50 euro, waar je bij AMD 60 euro kwijt bent voor een A320. AMD heeft nog steeds baat bij 3 GHz geheugen, wat voor de ongetwijfeld in dit prijssegment gewilde 8 GB snel 80-85 euro kost bij gerenommeerde leveranciers. Voor Intel volstaat 2400 MHz of desnoods 2133 MHz wat rond de 60 euro zit. Het pentium setje komt dan op 80+60+50 = 190 euro uit, het R3 1200 setje op 120+80+60 = 260 euro uit. Dat is nogal een verschil voor budget gaming. (Ik ga er voor het gemak vanuit dat in dit prijssegment vliegtuigen mogen opstijgen :+)

Verder geldt hier net als voor de i5 dat de vraag is hoe lang 4 cores nog voldoende blijven. Ik zou toch heel snel 40 euro bijleggen voor een 1400 of eigenlijk 90 euro voor een 1600. Eerlijk rekenen betaamd betreft dit voor het cpu+ram+mb setje respectievelijk slechts een 15% of 35% prijstoename. De verwachte levensduur, zeker rekening houdend met herverkoopprijs, acht ik fors hoger dan deze schamele procentjes.

Je komt hier uitsluitend op uit wanneer je dit echt niet kunt betalen, en een pentium echt niet goed genoeg is. Voorbeelden? Noemt u maar. Ik kan alleen budget BF1 bak bedenken, maar ik ben bang dat de performance daar zou tegenvallen. Je zit verder al snel in het 1060-6G segment waar een Pentium gaat bottlenecken. In dit prijssegment kan men toch ook wel een betere processor betalen?
Ik zit juist te twijfelen tussen de pentium en een Ryzen 3 1300X.
Ik heb mijn oude PC weer eens tot leven gewekt en daar zit een Phenom II X4 955 en een GTS 250 in, nu heb ik de GTS 250 vervangen door een GTX 780 maar ik merk dat de Phenom me erg tegenhoud.
Nu kan ik de pentium halen, dan ben ik voor 200 euro klaar. Maar ik kan ook Ryzen 3 1300X halen voor 280 euro en dan kan ik die nog overclocken en eventueel over 3 jaar overstappen op een betere processor die nog op AM4 past.

Ik wil het liefst niet veel uitgeven, ook omdat ik veel game op mijn PS4 Pro, maar dan denk ik ook weer bij de Ryzen optie van 'gast geef dan 80 euro meer uit en haal de 1600 en je bent voor 4-5 jaar klaar' 8)7

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
gast heeft een punt, en ik ook. Maar goed, je moet zelf inschatten hoe vaak je van de PC gebruik maakt, hoe vaak je PC-only spellen speelt, en voor welke andere doeleindes je de PC wil gebruiken -- wij kunnen dat niet voor je doen. ;)

[ Voor 4% gewijzigd door foppe-jan op 27-07-2017 22:46 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

@Jamesl
-Intel, goedkoopste upgrade.Maar grote kans dat je op korte termijn(2-3 jaar) wéér een nieuw systeem zal moeten aanschaffen. Mits je systeem dan niet meer voor jou voldoet uiteraard.
-AMD, met AM4, meer futureproof. Nu overstappen naar een Ryzen systeem..kan je later door alleen de processor te vervangen nogmaals upgraden. Je kan zelfs aan de hand van je keuze type CPU; 4/4. 4/8 of 6/12 zelf bepalen op welke termijn dat is.
Maar goed, dat is zoals @foppe-jan al heeft gezegd, groten deels afhankelijk met welk doel jij je PC gebruikt.

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Jamesl
  • Registratie: December 2012
  • Laatst online: 13-09 21:24
foppe-jan schreef op donderdag 27 juli 2017 @ 22:45:
gast heeft een punt, en ik ook. Maar goed, je moet zelf inschatten hoe vaak je van de PC gebruik maakt, hoe vaak je PC-only spellen speelt, en voor welke andere doeleindes je de PC wil gebruiken -- wij kunnen dat niet voor je doen. ;)
Klopt, ik ben nu weer enorm enthousiast omdat ik zo lang geen PC games meer heb gespeeld, echter weet ik ook dat ik over 2 maanden weer vol aan mijn PS4 Pro zit om FIFA 18 en daarna CoD te spelen.

Op dit moment vind ik het leuk om gewoon casual The Witcher 3 (hallelujah Steam family share) enzo te spelen, wellicht dat ik Overwatch of PUBG nog koop.
Xadeon schreef op donderdag 27 juli 2017 @ 23:00:
@Jamesl
-Intel, goedkoopste upgrade.Maar grote kans dat je op korte termijn(2-3 jaar) wéér een nieuw systeem zal moeten aanschaffen. Mits je systeem dan niet meer voor jou voldoet uiteraard.
-AMD, met AM4, meer futureproof. Nu overstappen naar een Ryzen systeem..kan je later door alleen de processor te vervangen nogmaals upgraden. Je kan zelfs aan de hand van je keuze type CPU; 4/4. 4/8 of 6/12 zelf bepalen op welke termijn dat is.
Maar goed, dat is zoals @foppe-jan al heeft gezegd, groten deels afhankelijk met welk doel jij je PC gebruikt.
Vooral het eerste punt is een dingetje, ik game nog wel even op 1080P (die 4K OLED TV komt er voorlopig nog niet, en dat zou mijn GPU toch niet aankunnen) en zolang ik dat speelbaar kan doen vind ik het best. Maar ik twijfel of dat met de G4560 kan. Met de 1300X weet ik dat ik nu nog wel goed zit, ook op DX12 gebied (daar zie je al dat in bv Hitman), en als ik dan echt wil upgraden kan ik met de Zen 2 of 3 generatie nog wel upgraden.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
De prijzen oorlog is pas net sinds een maand ongeveer verklaard, Ryzen was de first strike om de oorlog definitief aan te kondigen, en Epyc is de eerste lucht aanval.

Threadripper kan dan vergeleken worden met de 1e tankbatallions die het intel terrein definitief binnenrollen.

Anyway de prijzen nu zijn waarschijnlijk (als AMD genoeg kan produceren, waar het alle schijn van heeft) ongeveer totaal onrelateerbaar met wat we binnen een jaar of twee gaan zien.

Nu een platform kopen (CPU, MB, MEM) wat maximaal 4 cores aankan is dus 3x zo veel uitgeven voor een CPU als inkopen op een platform wat veel meer cores aankan.

Sta niet gek te kijken als de hele linie CPU`s volgend jaar (en anders het jaar erna) bij zowel Intel als AMD richting de helft of minder gaat kosten dan dit jaar.
Maw binnen een jaar of twee de dubbele hoeveelheid cores voor hetzelfde geld. (6-8 cores gepositioneerd als i3/R3)

AMD is nu de enige waar je dat upgrade traject voor relatief weinig geld kan instappen.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Jamesl
  • Registratie: December 2012
  • Laatst online: 13-09 21:24
enchion schreef op donderdag 27 juli 2017 @ 23:15:

Nu een platform kopen (CPU, MB, MEM) wat maximaal 4 cores aankan is dus 3x zo veel uitgeven voor een CPU als inkopen op een platform wat veel meer cores aankan.

Sta niet gek te kijken als de hele linie CPU`s volgend jaar (en anders het jaar erna) bij zowel Intel als AMD richting de helft of minder gaat kosten dan dit jaar.
Maw binnen een jaar of twee de dubbele hoeveelheid cores voor hetzelfde geld. (6-8 cores gepositioneerd als i3/R3)

AMD is nu de enige waar je dat upgrade traject voor relatief weinig geld kan instappen.
Of dat wel of niet waar is kan natuurlijk alleen de tijd ons leren. Maar ook om die reden klinkt een Ryzen 3 nog niet zo verkeerd, instap CPU die nu alles goed kan draaien en over 2-3 jaar een nieuwe AM4 CPU kopen.

Ik ben benieuwd hoe en wanneer games eindelijk eens gebruik gaan maken van die meerdere cores

Acties:
  • 0 Henk 'm!

Verwijderd

Zoals viel te verwachten, de R3-CPU's maken gehakt van de even dure CPU's van Intel. De 1300X verslaat de i5-7400 en de 1200 verslaat de i3-7100, waarschijnlijk verslaat die ook de i5-7400 indien de gebruiker die CPU overklokt maar daar heb ik nog geen benchmarks van gezien.

Op de rest reageer ik later. ;)

Acties:
  • 0 Henk 'm!

  • Luca
  • Registratie: Februari 2013
  • Laatst online: 12-09 15:17
Ik vraag me nu eigenlijk even af welke nou interessanter is: de R5 1400 of de R3 1300X.. Iemand die dat wellicht kan verduidelijken? :P

Acties:
  • +2 Henk 'm!

Verwijderd

Danny.G schreef op donderdag 27 juli 2017 @ 23:58:
Ik vraag me nu eigenlijk even af welke nou interessanter is: de R5 1400 of de R3 1300X.. Iemand die dat wellicht kan verduidelijken? :P
De 1400 heeft SMT, de 1300X niet, de 1300X heeft een hogere base en boost en een extra boost (XFR, of dat ik het een boost mag noemen weet ik niet maar het komt op hetzelfde neer, voor 1 kern wordt de frequentie nog ietsiepietsie verder verhoogd tot een bepaalde waarde wanneer het kan ;)) en de 1400 moet je handmatig overklokken. Als je zelf overklokt en een ietwat fatsoenlijk B350-moederbord koopt (rond de €100) dan is de 1400 de betere keuze. Koop je een A320-moederbord dan hangt het af van hoe je de CPU gebruikt maar ik zou niet weten waarom je niet minstens een B350 zou kopen voor een 1400, het zou m.i. dom zijn om het niet te doen. Je zou echter ook voor een 1500X en een A320-moederbord kunnen kiezen als je niet overklokt en dan profiteer je van de hogere base en boost en de XFR.

Voor gamers en andere mensen die wat meer eisen stellen aan hun hardware raad ik met klem aan om minstens de 1600 te kopen. Dan krijg je de meeste waar voor je geld en die 6 kernen met SMT gaan nog van pas komen. Recent was er een uitgebreide test waarbij de 1600 gelijk presteerde of won (afhankelijk van hoe je het interpreteert) tegen/van de 7800k (6 kernen en HT).

[ Voor 50% gewijzigd door Verwijderd op 28-07-2017 00:25 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
https://videocardz.com/71...eries-full-specs-revealed
Intel 10core en AMD 16core op 1000 dollar.

Het ding is wel dat de turbo van Intel er voor zorgt dat deze net wat lekkerder meekomt in games dan TR, maar ja, voor de rest van je hobbies heb je dan wel 6 cores meer met TR :P

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
En TR heeft AIO inbegrepen in de prijs.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
tomcatha schreef op donderdag 27 juli 2017 @ 21:57:
beetje teleurgesteld in de tweakers review van de nieuwe ryzens. Ondertussen is het behoorlijk duidelijk dat nvidia echt problemen heeft met dx12 + welke cpu dan ook en budget gamers gaan echt geen 1080ti draaien.
Nvidia's kaarten zijn botweg niet in staat om echt gebruik te maken van een aantal DX12 features. Low level acces is lastig want scheduling gaat softwarematig. Bij Ryzen zie je de prestatieproblemen met DX12 ook nog eens versterkt worden. Ik vermoed nu al een tijdje dat de Nvidia driver in een default safemode gaat als die de CPU (Intel) niet herkent en rendercalls niet zelf meer verdeeld over een paar cores. Dit voor zowel DX12, en in het bijzonder DX12. Dan heb je dus en meer CPU overhead van de driver, en geen verdeling van de CPU load over cores. Dan ga je prestatie verliezen, en flink ook. De theorie zou in principe snel bewezen of ontkracht kunnen worden als bucking RX Vega er eens is. :P

Gezien Nvidia haar inzet op Ryzen als acceptabele CPU, denk ik dat ze dit gaan repareren, maar het zal lastig zijn. Nvidia drivers zijn uitermate complex en vragen veel technisch personeel. Ze zijn ook niet zozeer prestatiegericht, maar gericht op slecht gecodeerde games optimaliseren. Dat ze vervolgens zelf tools aanbieden om games vooral slecht te optimaliseren, en dit dan gaan repareren is ietwat ironisch. :P

Dat is een belangrijke reden waarom Nvidia kaarten beter presteren dan AMD bij DX11 games. AMD driver is puur wat verbeteringen voor prestaties, en loads verdelen. Bij DX12 veranderd het volledig. Drivers hier zijn alleen maar de softwareconnectie tussen een CPU en GPU. GPU wil CPU instructies en CPU verstuurt instructies. Dat is het. Er zijn geen "hacks", fixes of optimalisaties via de driver. Dit is ook waarom AMD dit pushed, want hun GPU's zijn hier gewoon een niveau beter dan de Nvidia tegenhanger. Een RX580 die bij een DX12 titel in de buurt komt van een GTX1070 gebeurd gewoon.


Dan de reviews. Werkelijk elke review die een GTX1080 of hoger pakken voor een 1080P test, en al helemaal met een budget CPU, is per definitie volslagen onzin...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
foppe-jan schreef op vrijdag 28 juli 2017 @ 11:01:
[...]

En TR heeft AIO inbegrepen in de prijs.
Nee, dat lijkt niet zo te zijn, alleen een mount kit voor een bepaald merk AIO's.

Acties:
  • 0 Henk 'm!

  • lactaxative
  • Registratie: Maart 2015
  • Laatst online: 14-09 23:36
DaniëlWW2 schreef op donderdag 27 juli 2017 @ 17:55:

@lactaxative Fijn hé dat Intel zelf heeft besloten om de Pentium de nek om te draaien door de productie behoorlijk te verminderen. :+
Dat was een tweemalig gerucht wat in de zelfde week nog stevig in twijfel getrokken werd. Verder dacht ik dat het überhaupt alleen op de g4560 sloeg, alle pentiums eruit gooien zou wel heel drastisch zijn. Hoe dan ook, een gerucht dat nog geen weerzien heeft in de pricewatch.
DaniëlWW2 schreef op vrijdag 28 juli 2017 @ 11:46:
Dan de reviews. Werkelijk elke review die een GTX1080 of hoger pakken voor een 1080P test, en al helemaal met een budget CPU, is per definitie volslagen onzin...
Hier ben ik het niet mee eens. In dit segment zal je normaal gesproken een 1050 Ti of RX570 gebruiken. Bij het merendeel van de games kom je dan tot de conclusie dat een g4560, R3 1200 of 7700k lood om oud ijzer is. De overhead van je CPU is wel degelijk belangrijk gezien je hier meestal 2 gpu's mee wilt gebruiken. Afhankelijk van hoe snel de verbeteringen gaan is het zomaar realistisch dat over 3.5 jaar een gpu gekocht wordt die steviger is dan een 1070.

Acties:
  • 0 Henk 'm!
lactaxative schreef op vrijdag 28 juli 2017 @ 15:15:
[...]


Dat was een tweemalig gerucht wat in de zelfde week nog stevig in twijfel getrokken werd. Verder dacht ik dat het überhaupt alleen op de g4560 sloeg, alle pentiums eruit gooien zou wel heel drastisch zijn. Hoe dan ook, een gerucht dat nog geen weerzien heeft in de pricewatch.
Het ging erom dat Intel de productie aan het afknijpen zou zijn om meer i3's te verkopen. Natuurlijk was die chip in trek voor mining, maar nu is die nog steeds problematisch terwijl de hype een beetje is afgenomen.
Hier ben ik het niet mee eens. In dit segment zal je normaal gesproken een 1050 Ti of RX570 gebruiken. Bij het merendeel van de games kom je dan tot de conclusie dat een g4560, R3 1200 of 7700k lood om oud ijzer is. De overhead van je CPU is wel degelijk belangrijk gezien je hier meestal 2 gpu's mee wilt gebruiken. Afhankelijk van hoe snel de verbeteringen gaan is het zomaar realistisch dat over 3.5 jaar een gpu gekocht wordt die steviger is dan een 1070.
En hier ben ik het dus niet mee eens. ;)
Je kan op basis van een kaart zoals een GTX1080Ti niet baseren hoe een mid life upgrade van je GPU gaat uitpakken. Zeker niet nu in 2017 nu DX12/Vulkan aan een opmars zijn begonnen. Je kan nu wel inzetten op maximale IPC, maar als over twee a drie jaar de wissel naar DX12/Vulkan er is, inclusief Nvidia die ook echt geschikte hardware levert, dan ligt de nadruk opeens op extra cores/threads, en niet IPC. Zit je dan met je 7700K die 100% load trekt op alle cores en threads en bottlenecked.

Wil je een dergelijke speculatieve test houden, dan moet dit in context. Pak twee of drie zeer zware games, BF1 en nog twee dus, test hier dan met een totale overkill kaart. Vervolgens test je deze games, en de rest met ideaal gezien een RX570 4GB en GTX1060 3GB voor deze Ryzen 3 chips. Voor Ryzen 5 kijk je naar de RX580 8GB/GTX1060 6GB. Krijg je realistische uitslagen waar mensen wat aan hebben, in plaats van de volslagen zinloze GTX1080Ti circle jerk.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Fleximex
  • Registratie: Juni 2006
  • Laatst online: 14-09 22:48
lactaxative schreef op vrijdag 28 juli 2017 @ 15:15:
[...]
Hier ben ik het niet mee eens. In dit segment zal je normaal gesproken een 1050 Ti of RX570 gebruiken. Bij het merendeel van de games kom je dan tot de conclusie dat een g4560, R3 1200 of 7700k lood om oud ijzer is. De overhead van je CPU is wel degelijk belangrijk gezien je hier meestal 2 gpu's mee wilt gebruiken. Afhankelijk van hoe snel de verbeteringen gaan is het zomaar realistisch dat over 3.5 jaar een gpu gekocht wordt die steviger is dan een 1070.
Maar dan moet je over 3 jaar testen met de GTX3050Ti (die dan bijvoorbeeld de prestaties van een 1080Ti heeft). De hele situatie is dan waarschijnlijk anders. Dat heeft de Ryzen 5 1600 al aangetoond door on par te zijn met een i7-7800X en niet heel ver achter te lopen op een i7-7700K.
De 1300X is een quadcore de 7100 is een dual core. De 1300X kan je nog licht overclocken. AM4 is qua future proof een veel beter platform.

Het is inmiddels gebleken dat de manier van testen met enkel en alleen een super dure GPU zodat je de CPU bottleneck blootstelt achterhaald is. Een AMD FX-8350 is bijvoorbeeld bij launch echt een stuk minder dan de 2500K. Maar inmiddels heeft die op veel punt waaronder gaming de 2500K ingehaald.

Wat heb je dan aan die Tweakers test waarin blijkt dat de i3-7100 sneller is dan de Ryzen 3 met een 1080Ti? Tweakers moet als conclusie hebben dat de Ryzen 3 ondanks de mindere performance in games toch een betere optie is voor de toekomst (beter platform, quad-core vs dual-core, optimalisaties in het vooruitzicht).

En dat is nog zonder er rekening te houden met dat Tweakers zowat de enige review is waarin de Ryzen 3 verliest van de Intel i3-7100 (o.a. doordat ze traag geheugen gebruiken).

Bekijk dit maar eens: YouTube: Ryzen - The Tech Press Loses The Plot

Acties:
  • 0 Henk 'm!

  • lactaxative
  • Registratie: Maart 2015
  • Laatst online: 14-09 23:36
DaniëlWW2 schreef op vrijdag 28 juli 2017 @ 15:26:
[...]

Het ging erom dat Intel de productie aan het afknijpen zou zijn om meer i3's te verkopen. Natuurlijk was die chip in trek voor mining, maar nu is die nog steeds problematisch terwijl de hype een beetje is afgenomen.
Ik was toch onder de indruk dat een Celeron a la 39(0/3)0 prima volstaat voor mining en snap eerlijk gezegd niet waar het idee vandaan komt dat de G4560 schaars is dankzij mining. Verder runnen er dacht ik toch veel mining setups op oudere sockets.
En hier ben ik het dus niet mee eens. ;)
Je kan op basis van een kaart zoals een GTX1080Ti niet baseren hoe een mid life upgrade van je GPU gaat uitpakken. Zeker niet nu in 2017 nu DX12/Vulkan aan een opmars zijn begonnen. Je kan nu wel inzetten op maximale IPC, maar als over twee a drie jaar de wissel naar DX12/Vulkan er is, inclusief Nvidia die ook echt geschikte hardware levert, dan ligt de nadruk opeens op extra cores/threads, en niet IPC. Zit je dan met je 7700K die 100% load trekt op alle cores en threads en bottlenecked.
edit: Ik vind de stelling dat over 2 a 3 jaar een 7700k bottleneckt wel heel erg ver gaan.
Wil je een dergelijke speculatieve test houden, dan moet dit in context. Pak twee of drie zeer zware games, BF1 en nog twee dus, test hier dan met een totale overkill kaart. Vervolgens test je deze games, en de rest met ideaal gezien een RX570 4GB en GTX1060 3GB voor deze Ryzen 3 chips. Voor Ryzen 5 kijk je naar de RX580 8GB/GTX1060 6GB. Krijg je realistische uitslagen waar mensen wat aan hebben, in plaats van de volslagen zinloze GTX1080Ti circle jerk.
Ik ben me volledig bewust dat het geen perfecte manier van meten is, echter is het niet mogelijk om nu al DX13 te testen. Laten zien dat een i3 en R3 overal dezelfde fps krijgt doordat je op een gpu bottleneck zit zie ik niet als oplossing. Als men nu eens stopt met gemiddelde fps en frame times gaat binnen, krijg je al een realistischer beeld, maar dat is weer een andere discussie. Dit blijft ook niet eerlijk door het hele kale OS zonder Skype, Spotify en 10 browsertabs verhaal, waar dit natuurlijk een veel grotere invloed heeft. Ook is dat weer niet hetgeen 100+ Hz gamers willen zien.

Overhead aantonen lijkt mij nog steeds de beste optie. Ik hoor graag een betere optie, maar ik zie hem niet. Context is altijd welkom, maar de eisen die doorgaans gesteld worden aan techreviewers vind ik ook wel erg hoog liggen. Met alle respect van de wereld zijn het meestal HBO'ers met erg veel praktische kennis, maar academisch rapporteren is (naar mijn professionele ervaring) niet iets waar HBO'ers in uitblinken. (Excuus mocht dit iemand beledigen, ik probeer het zo genuanceerd mogelijk op te schrijven :+)
Fleximex schreef op vrijdag 28 juli 2017 @ 15:32:
[...]

Maar dan moet je over 3 jaar testen met de GTX3050Ti (die dan bijvoorbeeld de prestaties van een 1080Ti heeft). De hele situatie is dan waarschijnlijk anders. Dat heeft de Ryzen 5 1600 al aangetoond door on par te zijn met een i7-7800X en niet heel ver achter te lopen op een i7-7700K.
De 1300X is een quadcore de 7100 is een dual core. De 1300X kan je nog licht overclocken. AM4 is qua future proof een veel beter platform.
Overklokken kost 15 euro extra voor het moederbord en 30 euro voor een koeler (die je in dit segment meestal zelfs voor Intel niet koopt, zie reviews: Desktop Best Buy Guide - Maart 2017. Het is een stuk goedkoper dan Intel overklokken, maar er wordt momenteel gedaan alsof AMD overklokken gratis is.
Het is inmiddels gebleken dat de manier van testen met enkel en alleen een super dure GPU zodat je de CPU bottleneck blootstelt achterhaald is. Een AMD FX-8350 is bijvoorbeeld bij launch echt een stuk minder dan de 2500K. Maar inmiddels heeft die op veel punt waaronder gaming de 2500K ingehaald.
De 8350 heeft in een aantal games (BF1, WD2) inmiddels inderdaad voorsprong op een 2500K. Hij heeft echter in ongeveer alle titels ouder dan BF1 significant slechtere performance. Deze games worden nog steeds gespeeld, en ik zou persoonlijk nog steeds liever een 2500K hebben. Verder is het uberhaupt oneerlijk want de 2500k is anderhalf jaar ouder dan de 8350.
Wat heb je dan aan die Tweakers test waarin blijkt dat de i3-7100 sneller is dan de Ryzen 3 met een 1080Ti? Tweakers moet als conclusie hebben dat de Ryzen 3 ondanks de mindere performance in games toch een betere optie is voor de toekomst (beter platform, quad-core vs dual-core, optimalisaties in het vooruitzicht).

En dat is nog zonder er rekening te houden met dat Tweakers zowat de enige review is waarin de Ryzen 3 verliest van de Intel i3-7100 (o.a. doordat ze traag geheugen gebruiken).
Hier heb je helemaal niets aan. Ik heb na de RAM specificaties gezien te hebben ook niet verder gelezen en als ik jullie er zo over hoor was dat terecht. Het lezen of bespreken absoluut niet waard.

Verder vind ik het beter platform (lees: socket) verhaal nooit zo sterk. Processoren houden na een jaar of 3-4 nog zo'n 70% van hun oorspronkelijke prijs aan waarde. Het is dus goedkoper om direct een R5 1600 te kopen.
Ik ben heel slecht in het kijken van filmpjes :+. Ik vind het wel ironisch dat de conclusie een FX8350 en 2500K aan een Titan Pascal koppelt. Maar ja, op het punt dat zowel de 8350 als de 2500k niet meer voldoen, lijkt de 8350 zich in de modernste games eindelijk beter staande te houden. Ik zou voor allebei eens aan vervanging gaan denken. Verder is 6 maart van voor de meeste optimalisaties dus m.i. zijn relevantie verloren.

Maar ook aan jou de vraag wat de betere meetmethode is. GPU bottlenecks vertellen niets en 1080 Ti tests is ook niet wat je wilt zien. Wat wil je wel zien?

Acties:
  • 0 Henk 'm!

  • PASware
  • Registratie: Juli 2001
  • Laatst online: 14-09 21:38
Zijn er ook reviews waarin de R3 getest wordt met bijvoorbeeld een GTX1050TI of een RX460/560/570? Gezien de lage prijs van de R3 zullen vooral de budget gamers hiervoor kiezen.

Tesla Model 3 SR+ | 4425wp (Dak) - 1920wp (platdak) - 840wp (gevel 90gr) | Panasonic 5kW warmtepomp | Hewalex WPB 200L boiler


Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 11:03
PASware schreef op vrijdag 28 juli 2017 @ 16:26:
Zijn er ook reviews waarin de R3 getest wordt met bijvoorbeeld een GTX1050TI of een RX460/560/570? Gezien de lage prijs van de R3 zullen vooral de budget gamers hiervoor kiezen.
Bij die kaarten zal de CPU relatief weinig impact hebben gok ik, dus dat zal weinig uitmaken.

[ Voor 3% gewijzigd door 418O2 op 28-07-2017 16:53 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Toettoetdaan schreef op vrijdag 28 juli 2017 @ 10:53:
https://videocardz.com/71...eries-full-specs-revealed
Intel 10core en AMD 16core op 1000 dollar.

Het ding is wel dat de turbo van Intel er voor zorgt dat deze net wat lekkerder meekomt in games dan TR, maar ja, voor de rest van je hobbies heb je dan wel 6 cores meer met TR :P
De FPS is net wat hoger bij die 7900k maar de meeste mensen zullen het verschil niet merken en de kans is groot dat je met een hogere resolutie dan 1080p gamet als je zo'n CPU hebt, al is het maar omdat meer pixels op je monitor erg handig is als je zulke zaken met je computer doet. De bottleneck komt dan veel meer bij de grafische kaart te liggen.

[ Voor 5% gewijzigd door Verwijderd op 28-07-2017 16:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

PASware schreef op vrijdag 28 juli 2017 @ 16:26:
Zijn er ook reviews waarin de R3 getest wordt met bijvoorbeeld een GTX1050TI of een RX460/560/570? Gezien de lage prijs van de R3 zullen vooral de budget gamers hiervoor kiezen.

Een bekend verhaal, een quadcore is prima geschikt voor de meeste spellen maar als je de nieuwste en zwaarst draaiende spellen speelt dan is 8-12 threads het minimum, afhankelijk van hoeveel eisen je stelt. Iets wat in de benchmarks waarbij ze zich blindstaren op de FPS, niet naar voren komt. Speel maar eens Ghost Recon Wildlands met een R3 en een 1080 ti , het zal je waarschijnlijk niet goed bevallen gezien de veelvuldige stutter. Ik weet niet of dat de 7600k het wel net nog redt danzij de iets hogere klokfrequentie.
Als je wil gamen, investeer in de 1600 of hoger, een quadcore kopen moet je nu echt niet meer doen, met of zonder HT/SMT.

Maar goed, in combinatie met die grafische kaart is dat een prima CPU, ik verwacht eveneens dat de CPU niet de grafische kaart zal bottlenecken.

[ Voor 55% gewijzigd door Verwijderd op 28-07-2017 17:04 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
DaniëlWW2 schreef op vrijdag 28 juli 2017 @ 11:46:
Dan de reviews. Werkelijk elke review die een GTX1080 of hoger pakken voor een 1080P test, en al helemaal met een budget CPU, is per definitie volslagen onzin...
DaniëlWW2 schreef op vrijdag 28 juli 2017 @ 15:26:
Voor Ryzen 5 kijk je naar de RX580 8GB/GTX1060 6GB. Krijg je realistische uitslagen waar mensen wat aan hebben, in plaats van de volslagen zinloze GTX1080Ti circle jerk.
Je snapt dan het doel niet van testen voor reviews. Dat is kijken wat de CPU maximaal kan halen, daarom moet je de videokaart als factor zoveel mogelijk verwijderen. Een GTX 1080 Ti kan elke game op 1080p met twee vingers in zijn neus draaien. Wat je dan zal zien is waar de CPU maximaal toe in staat is omdat deze ergens die 1080 Ti gaat afremmen. Alternatief zou je de resolutie naar beneden kunnen zetten om met een mindere kaart meer werk te genereren voor de CPU, maar dan zal jij waarschijnlijk klagen dat niemand op 640x480 games speelt.

Bij videokaart reviews moet je het omdraaien, elke videokaart zit in een systeem met een beest van een CPU. Een RX 560 zit dan ineens gekoppeld aan een Core i7 6950X. Net zo'n vreemd scenario. De druk moet dan volledig op de kaart komen.

Indien je dit niet doet heb je geen idee van wat je nu aan het testen bent en elke uitspraak daarna is zinloos. Het is als in de wetenschap, bij een experiment moet de enige factor zijn degene die je wil testen.

Acties:
  • +1 Henk 'm!

Verwijderd

Daniël snapt dat wel maar hij heeft een ander perspectief dan jij.
Jouw perspectief: als je wil testen hoe goed de CPU functioneert voor spellen dan moet je ervoor zorgen dat de grafische kaart de CPU zoveel mogelijk aan het werkt zet en dus zo'n goed mogelijke grafische kaart nemen. Fair enough maar er is 1 groot probleem: de meeste spellen zetten maar maximaal 4 kernen aan het werk. Bij nieuwere AAA-spellen worden er gelukkig meer dan 4 kernen aan het werk gezet maar de meeste spellen die getest worden zetten niet meer dan 4 kernen aan het werk. Hiermee heb je dus een groot hiaat als je voor een CPU met meer dan 4 kernen test, de toegevoegde waarde van die extra kernen komt niet tot uiting in de testresultaten. Nog los van het feit dat de FPS een zeer slechte graadmeter is voor de gameperformance. Ik noemde net nog het voorbeeld GRW, als je je dom zou blindstaren op de FPS dan zou je denken dat het spel lekker speelt op een i5-7400 maar het is onspeelbaar wegens microstutter doordat de CPU het niet trekt. Het kan wel veel frames genereren maar niet met een goede consistentie, dan weer 100 in 1 seconde en dan weer 0,2 seconde niets, dat principe.
In dit geval gaat het om entrylevel budget-CPU van $109 of $129. Hiermee komen we bij een tweede probleem, werkelijk niemand die deze CPU koopt koopt een high end grafische kaart. Deze mensen kopen een RX 460 of een 1050 ti. Deze mensen gebruiken deze grafische kaart waarschijnlijk een jaar of 4 alvorens ze eens upgraden en dan komen ze 2-3 tiers hoger uit, rond 1070-niveau van nu.

Mijn mening? Test met beide en presenteer al die data. Beide is waardevol. Het is belangrijk dat je ziet in welke mate de R3 of de lage i5-CPU's bottlenecken bij een RX 460 of 1050 ti. Test eveneens met een high end grafische kaart, als je 4 kernen vergelijkt met 4 kernen dan vind ik dat voldoende zinvol al zegt het waarschijnlijk weinig over de longevity. Laten we eerlijk zijn, als je voor alle nieuwe AAA-spellen 6 kernen nodig hebt dan gaat het weinig verschil maken of dat je een R3/i5-7400, een i5-6600k of een i7-7700k hebt, al deze CPU's gaan het niet trekken. De i7-7700k gaat minder frequent en minder langdurige microstutters geven maar voor al deze CPU's zal het spel onspeelbaar zijn. Ik leun dus meer richting het kamp waar ook Daniël toe behoort ondanks dat ik het ermee eens ben dat het testen met een 1080 ti meer zegt over de gamingperformance van de CPU.
Misschien is het meer wetenschappelijk om het op jouw manier te doen maar het is wel schijnwetenschap (je claimt meer dan wat je kan rechtvaardigen). een schijn van controle die er niet is omdat er teveel variabelen zijn die je niet in de hand hebt, zoals de overgang bij software van 4c/4t en 4c/8t naar 6c/12t en 8c/16t.

[ Voor 5% gewijzigd door Verwijderd op 28-07-2017 17:40 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op vrijdag 28 juli 2017 @ 17:38:
Fair enough maar er is 1 groot probleem: de meeste spellen zetten maar maximaal 4 kernen aan het werk. Bij nieuwere AAA-spellen worden er gelukkig meer dan 4 kernen aan het werk gezet maar de meeste spellen die getest worden zetten niet meer dan 4 kernen aan het werk. Hiermee heb je dus een groot hiaat als je voor een CPU met meer dan 4 kernen test, de toegevoegde waarde van die extra kernen komt niet tot uiting in de testresultaten. Nog los van het feit dat de FPS een zeer slechte graadmeter is voor de gameperformance.
Een conclusie kan ook zijn uit zo'n benchmark dat het zinloos is om een CPU met meer dan X kernen te hebben als je enige doel voor je PC is om te gamen. Bovendien bevatten reviews vaak ook synthetische benchmarks waarbij de CPU aan het werk gezet wordt waarbij fps niet de graadmeter zijn.
In dit geval gaat het om entrylevel budget-CPU van $109 of $129. Hiermee komen we bij een tweede probleem, werkelijk niemand die deze CPU koopt koopt een high end grafische kaart. Deze mensen kopen een RX 460 of een 1050 ti. Deze mensen gebruiken deze grafische kaart waarschijnlijk een jaar of 4 alvorens ze eens upgraden en dan komen ze 2-3 tiers hoger uit, rond 1070-niveau van nu.
Nogal wiedes. En niemand die een 6950X heeft haalt het in zijn hoofd om er een GTX 1050 aan te hangen. Maar het idee is een testscenario te hebben waar de resultaten bepaald worden door het onderdeel wat je wil testen.
Misschien is het meer wetenschappelijk om het op jouw manier te doen maar het is wel schijnwetenschap (je claimt meer dan wat je kan rechtvaardigen). een schijn van controle die er niet is omdat er teveel variabelen zijn die je niet in de hand hebt, zoals de overgang bij software van 4c/4t en 4c/8t naar 6c/12t en 8c/16t.
Hoezo schijnwetenschap? Als je de test hardware zoveel mogelijk gelijk houdt en het te testen onderdeel het enige is wat voor beperkingen kan zorgen dan zijn die resultaten zeer veelzeggend. De software heb je dan weinig invloed op, maar indien je dezelfde games blijft gebruiken kan je die getallen ook zinvol inzetten.

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op vrijdag 28 juli 2017 @ 18:02:
[...]


Een conclusie kan ook zijn uit zo'n benchmark dat het zinloos is om een CPU met meer dan X kernen te hebben als je enige doel voor je PC is om te gamen.
Alleen is dat een foute conclusie en kan je bovendien - zoals ik reeds aangaf - dat helemaal niet opmerken uit die benchmark.

Ik moet nu helaas voor de tweede keer in herhaling vallen omdat er slecht wordt gelezen, de FPS geeft vaak een vertekend beeld. Ghost Recon Wildlands haalt op de i5-7400 en de quadcore Ryzen CPU's een voldoende hoge waarde: gemiddelde boven de 60, 1% minimum ruim boven de 40. Toch is het spel onspeelbaar op de meeste quadcore CPU's. Je kan dus helemaal niet concluderen uit die FPS-benchmarks op zichzelf of dat die quadcore CPU volstaat. Hoe kan je het wel beoordelen? Door gewoon het spel te spelen. Door naar de framerenderconsistency te kijken. Door de inputlag te meten.

Stel dat je wel iets zou kunnen concluderen uit die benchmark, wat dus niet zo is, dan zou die conclusie eveneens fout zijn aangezien er slechts wordt gekeken naar de spellen die nu uit zijn en er geen rekening wordt gehouden met dat de komende jaren nog veel meer dan dat nu al het geval is nieuwe AAA-spellen meer dan 4 kernen en 8 threads zullen gaan eisen. Kan je die spellen spellen op een 4c/8t? Natuurlijk. Speelt het optimaal? Verre van. Je zal de nodige microstutter krijgen, misschien bepaalde functionaliteit moeten beperken. De 6c/12t-CPU is zeer betaalbaar geworden met een vraagprijs van slechts rond de €200. Begin 2018 zal Intel waarschijnlijk respectievelijk rond de €200 (locked) en rond de €250 (k) gaan vragen voor een 6c/6t-CPU. Programmeurs en developers zullen hier rekening mee houden.
Hoezo schijnwetenschap?
Verwijderd schreef op vrijdag 28 juli 2017 @ 17:38:
Misschien is het meer wetenschappelijk om het op jouw manier te doen maar het is wel schijnwetenschap (je claimt meer dan wat je kan rechtvaardigen). een schijn van controle die er niet is omdat er teveel variabelen zijn die je niet in de hand hebt, zoals de overgang bij software van 4c/4t en 4c/8t naar 6c/12t en 8c/16t.
Als jij na mijn vorige reactie te hebben gelezen nog niet hebt begrepen dat wij heel erg goed begrijpen wat de ratio is achter het testen met een highend kaart dan heb jij die reactie slecht gelezen. Probeer jij nu eens te begrijpen wat de beperkingen hiervan zijn en waarom het krijgen van hogere FPS met CPU X nu niets zegt over of dat die CPU meer longevity heeft.

[ Voor 18% gewijzigd door Verwijderd op 28-07-2017 18:17 ]


Acties:
  • +3 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Een 'wetenschappelijke' aanpak is pas nuttig als die je meer inzicht geeft in processen/gebeurtenissen/zaken die in de werkelijkheid voorkomen. Om die reden is sociaal-psychologisch onderzoek bijv. grotendeels waardeloos -- het vraagt mensen om zich op een ontzettend onnatuurlijke manier te gedragen terwijl ze meedoen aan bepaalde onderzoekjes, om vervolgens uitspraken te doen over wat dit zegt over 'real-world behavior'. Hetzelfde geldt voor micro-economische theorie: die nemen perfecte informatie en "rationeel gedrag" (gedefinieerd als geldelijk gewin maximaliserend, alsof dat ons alledaags handelen drijft) als uitgangspunten, en stellen vervolgens elke keer dat werkelijk gedrag niet overeenkomt met de theorie dat mensen zich maar beter aan de theorie moeten gaan houden, ipv de conclusie te trekken dat de theorie blijkbaar irrelevant is. Dit heet allemaal hoogst "wetenschappelijk" te zijn, volgens de mensen die hier hun carrière van maken.
Iets vergelijkbaars geldt voor testen met 1080Tis -- er wordt een irrelevante testopstelling gecreëerd, waarna wordt gesuggereerd dat de uitkomsten relevant zijn voor je gedrag onder andere omstandigheden (nl., gebruik icm compleet onvergelijkbare videokaarten. Vandaar de introductie van het woordje 'schijn-'.

[ Voor 10% gewijzigd door foppe-jan op 28-07-2017 18:44 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

@foppe-jan legt het goed uit. d:)b
Joep schreef op woensdag 26 juli 2017 @ 21:54:
Laatst een Pentium G4560, omdat AMD er niks tegenover kon en kan zetten. Raven ridge laat te lang op zich wachten.
Dat is dan tenminste nog een fatsoenlijk product (lees: kwaliteit/prijs) van Intel. ;)
Zolang jij enkel 'simpele' spellen speelt zoals Overwatch, CS:GO en Dota2 zal het prima volstaan voor de komende paar jaar.

Tja, het duurt zolang als dat het duurt. Vega zal eerst helemaal af moeten zijn alvorens ze die graphics kunnen integreren in de CPU en mogelijk is er nog een andere belangrijke reden om te wachten, in een notendop dezelfde reden als waarom de R5 na de R7 komt en de R3 na de R5. Wachten totdat je een voldoende grote stapel hebt met 'gefaalde' CPU-dies die je op R3 of zo'n APU kan stoppen. Zo werkt het immers. De beste dies worden apart gelegd voor de duurste CPU's (denk niet aan R7 maar aan de server-CPU's en misschien ook wel de professionele CPU's), dan komt R7 aan de beurt, dan R5 en de restjes gaan naar R3 en de APU toe die voor relatief weinig geld worden verkocht. Met dien verstande dat je in die segmenten ook weer betere en mindere versies hebt (de 1300X krijgt betere dies dan de 1200, een van de reviewers kreeg de klokfrequentie niet eens op 3,8 GHz, @418O2 kreeg zijn 1600-CPU op 3,8 GHz met 1,28 V). Zo gauw Vega enkele maaanden uit is zullen ze Vega-dies op die APU's gaan stoppen en komt Raven Ridge uit. Reken maar op zijn vroegst op eind 2017 maar ik zou niet verbaasd zijn als het pas in Q1 2018 uitkomt.
DaniëlWW2 schreef op vrijdag 28 juli 2017 @ 15:26:
[...]

Het ging erom dat Intel de productie aan het afknijpen zou zijn om meer i3's te verkopen. Natuurlijk was die chip in trek voor mining, maar nu is die nog steeds problematisch terwijl de hype een beetje is afgenomen.
Ik vertel jou waarschijnlijk niets nieuws, Intel zit in een rare spaghaat. Ze introduceerden deze CPU, net als hyperthreading op de i3 (voor desktops) om de concurrentie met R3 aan te kunnen gaan (voorbereidend op) maar tegelijkertijd zag Intel het aantal verkochte i3-CPU's dalen en maakt Intel veel meer winst met een i3-CPU dan met zo'n Pentium-CPU. Oops. Dan maar de voorraad van de Pentium-CPU's afknijpen, in ieder geval staat het nog leuk in de benchmarks dat je ook een redelijke budget-CPU verkoopt, ook al is dat slechts op papier. ;)

[ Voor 33% gewijzigd door Verwijderd op 28-07-2017 18:36 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op vrijdag 28 juli 2017 @ 18:13:
Ik moet nu helaas voor de tweede keer in herhaling vallen omdat er slecht wordt gelezen, de FPS geeft vaak een vertekend beeld. Ghost Recon Wildlands haalt op de i5-7400 en de quadcore Ryzen CPU's een voldoende hoge waarde: gemiddelde boven de 60, 1% minimum ruim boven de 40. Toch is het spel onspeelbaar op de meeste quadcore CPU's.
Definieer onspeelbaar, gemiddeld 60 fps is prima en wordt algemeen als goed gezien.
Stel dat je wel iets zou kunnen concluderen uit die benchmark, wat dus niet zo is, dan zou die conclusie eveneens fout zijn aangezien er slechts wordt gekeken naar de spellen die nu uit zijn en er geen rekening wordt gehouden met dat de komende jaren nog veel meer dan dat nu al het geval is nieuwe AAA-spellen meer dan 4 kernen en 8 threads zullen gaan eisen. Kan je die spellen spellen op een 4c/8t? Natuurlijk.
Over niet reële scenario's gesproken... We kunnen niet voorspellen wat toekomstige ontwikkelingen zullen worden. Daar kunnen soms aardige verrassingen nog in zitten, wat nu te verwachten lijkt komt niet altijd uit. Je test nieuwe hardware naar de hedendaagse standaarden en niet tegen onbekende toekomstige waarden.
Als jij na mijn vorige reactie te hebben gelezen nog niet hebt begrepen dat wij heel erg goed begrijpen wat de ratio is achter het testen met een highend kaart dan heb jij die reactie slecht gelezen. Probeer jij nu eens te begrijpen wat de beperkingen hiervan zijn en waarom het krijgen van hogere FPS met CPU X nu niets zegt over of dat die CPU meer longevity heeft.
Ik betwijfel of het slecht lezen is. ;) Niemand gaat garanties geven over hoe lang een CPU bruikbaar zal zijn. We kunnen alleen concluderen hoe goed een CPU vandaag is, niet over een jaar of over vijf jaar.

Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09:22

Acties:
  • 0 Henk 'm!

  • MonkeyJohn
  • Registratie: Oktober 2014
  • Laatst online: 19-08 20:11
Duo penotti pins?! :9

Acties:
  • 0 Henk 'm!

  • lactaxative
  • Registratie: Maart 2015
  • Laatst online: 14-09 23:36
foppe-jan schreef op vrijdag 28 juli 2017 @ 18:17:
Een 'wetenschappelijke' aanpak is pas nuttig als die je meer inzicht geeft in processen/gebeurtenissen/zaken die in de werkelijkheid voorkomen. Om die reden is sociaal-psychologisch onderzoek bijv. grotendeels waardeloos -- het vraagt mensen om zich op een ontzettend onnatuurlijke manier te gedragen terwijl ze meedoen aan bepaalde onderzoekjes, om vervolgens uitspraken te doen over wat dit zegt over 'real-world behavior'. Hetzelfde geldt voor micro-economische theorie: die nemen perfecte informatie en "rationeel gedrag" (gedefinieerd als geldelijk gewin maximaliserend, alsof dat ons alledaags handelen drijft) als uitgangspunten, en stellen vervolgens elke keer dat werkelijk gedrag niet overeenkomt met de theorie dat mensen zich maar beter aan de theorie moeten gaan houden, ipv de conclusie te trekken dat de theorie blijkbaar irrelevant is. Dit heet allemaal hoogst "wetenschappelijk" te zijn, volgens de mensen die hier hun carrière van maken.
Iets vergelijkbaars geldt voor testen met 1080Tis -- er wordt een irrelevante testopstelling gecreëerd, waarna wordt gesuggereerd dat de uitkomsten relevant zijn voor je gedrag onder andere omstandigheden (nl., gebruik icm compleet onvergelijkbare videokaarten. Vandaar de introductie van het woordje 'schijn-'.
Beide voorbeelden die je geeft zijn nog steeds de beste manier van onderzoek doen in deze vakgebieden, je hebt altijd te maken met aannames en foutmarges. Dit is de precieze definitie van wetenschap, en het woordje schijn- is dus niet op zijn plaats. Het gaat erom dat de aannames en foutmarges op een goede manier uitgelegd staan. Zoals ik eerder al beargumenteerd heb, is dat misschien wel teveel gevraagd van praktisch ingesteld HBO niveau test-personeel (wederom met alle respect van de wereld).

Hetzelfde geldt - tot iemand met een beter voorstel komt - voor CPU benchmarken m.b.v. een stevige grafische kaart. Tot nu toe zijn de suggesties.
  • Stevige GPU
  • Reele GPU -> GPU bottleneck 95% van de testen -> geen data
  • De suggestie van @Verwijderd: Het spelen van een game en een uiterst subjectieve mening geven over de speelbaarheid.
Wetenschap is het meten op de beste manier voorhanden. Ik zou alsnog kiezen voor een stevige GPU, maar suggesties zijn welkom.

Verder ben ik ernstig verbaasd om dezelfde argumenten tegen te komen als destijds met Bulldozer.
Verwijderd schreef op vrijdag 28 juli 2017 @ 18:13:
Stel dat je wel iets zou kunnen concluderen uit die benchmark, wat dus niet zo is, dan zou die conclusie eveneens fout zijn aangezien er slechts wordt gekeken naar de spellen die nu uit zijn en er geen rekening wordt gehouden met dat de komende jaren nog veel meer dan dat nu al het geval is nieuwe AAA-spellen meer dan 4 kernen en 8 threads zullen gaan eisen. Kan je die spellen spellen op een 4c/8t? Natuurlijk. Speelt het optimaal? Verre van. Je zal de nodige microstutter krijgen, misschien bepaalde functionaliteit moeten beperken. De 6c/12t-CPU is zeer betaalbaar geworden met een vraagprijs van slechts rond de €200. Begin 2018 zal Intel waarschijnlijk respectievelijk rond de €200 (locked) en rond de €250 (k) gaan vragen voor een 6c/6t-CPU. Programmeurs en developers zullen hier rekening mee houden.
Dit had in principe gekopieerd kunnen zijn uit een forumpost uit juni 2011, kort na de release van de FX-8150. Nu snap ik prima dat met DX12 en Vulkan multithreading een veel reelere mogelijkheid is. Er wordt echter wederom de fout gemaakt dat developers als doel hebben het beste product neer te zetten. Nee, developers hebben als doel om een game zoveel mogelijk te verkopen, en dient dus vooralsnog speelbaar te zijn op een i5. De wereld verandert echt niet omdat Ryzen uit is, men blijft conservatief, en een i7 volstaat nog jaren.

Ik vind het stiekem ook spijtig.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
speelbaar op een i3, niet i5. (Of laptop-"i5" -- dwz, 2c/4t). Dat is juist het probleem -- dat intel tot dusver heeft geweigerd 4c beschikbaar te maken op dat prijspunt, omdat ze hun >60% marges wilden houden.

offtopic:
wat betreft onderzoek: het gaat me niet om de foutmarges, het gaat me om de aanname dat onderzoeksresultaten ongeacht alle methodologische aannames toch relevant zijn voor het begrijpen / kunnen duiden van de realiteit, ook als keer op keer blijkt dat ze dat niet zijn, omdat de onderzoekers (wiskundig) modelleren belangrijker achten dan het behouden van een link met de werkelijkheid. Maar goed, dat is een discussie voor een ander topic.

[ Voor 14% gewijzigd door foppe-jan op 28-07-2017 22:35 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 07:31

Damic

Tijd voor Jasmijn thee

Interessant systeem, krijg je een torx bij elk mobo? Zoals Ikea :+

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Trendrippa

Iemand zin om een Ikea case mod te gaan maken ?

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 09:22
Damic schreef op vrijdag 28 juli 2017 @ 22:54:
[...]
Interessant systeem, krijg je een torx bij elk mobo? Zoals Ikea :+
Niet bij het mobo... weet niet of ze bij de CPU zelf zitten, lijkt me wel logisch.

Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
foppe-jan schreef op vrijdag 28 juli 2017 @ 22:22:
speelbaar op een i3, niet i5. (Of laptop-"i5" -- dwz, 2c/4t). Dat is juist het probleem -- dat intel tot dusver heeft geweigerd 4c beschikbaar te maken op dat prijspunt, omdat ze hun >60% marges wilden houden.
Laptops hebben het altijd moeten doen met minder krachtige hardware. Ook AMD CPU's voor laptops zijn niet identiek aan hun desktop tegenhangers. Laptops offeren doorgaans rekenkracht op voor mobiliteit en accuduur.

De GPU's in laptops zijn ook altijd minder krachtig dan de desktop versie wiens naam ze delen. Een GTX 960M is gelijk aan een GT 750 en zeker niet aan de desktop GTX 960.

Overigens heeft Intel sinds Skylake voor laptops HQ-suffix i5 modellen die 4c/4t zijn.
wat betreft onderzoek: het gaat me niet om de foutmarges, het gaat me om de aanname dat onderzoeksresultaten ongeacht alle methodologische aannames toch relevant zijn voor het begrijpen / kunnen duiden van de realiteit, ook als keer op keer blijkt dat ze dat niet zijn, omdat de onderzoekers (wiskundig) modelleren belangrijker achten dan het behouden van een link met de werkelijkheid.
Je veranderd nu steeds van standpunt. Eerst deugt onderzoek niet omwille van foutmarges, nu kan het niet zo zijn dat er modellen gemaakt worden. Dat laatste is zeer zeker wetenschap. Uiteindelijk is een wetenschappelijk hypothese een model of wetmatigheid. Een goed model of wet blijft kloppen met de realiteit. Indien niet dat was de stelling fout of wordt deze ongeldig omdat er nieuwe bewijzen zijn.

In exacte wetenschappen als astronomie en astrofysica is het mogelijk om gebeurtenissen die ver in de toekomst liggen nu te berekenen en welke dan ook uit zullen komen met hoge mate van zekerheid. De modellen die voortkomen uit deze disciplines kunnen het bestaan van bepaalde zaken of fenomenen al aantonen cq. voorspellen zonder dat we ze nog gezien hebben. Denk aan de zwaartekrachtgolven van Einstein (pas recentelijk gemeten, maar al voorspeld aan het begin van de 20e eeuw) of het bestaan van de Higgs Boson. Ook computers zijn onderhevig aan exacte wetenschappen als natuurkunde en wiskunde.

Dat je niet blij bent met een uitkomst of conclusie is een ding, maar dat maakt de conclusie niet minder waar als deze de uitkomst is van gedegen onderbouwd testen.

Acties:
  • +1 Henk 'm!
lactaxative schreef op vrijdag 28 juli 2017 @ 22:12:
[...]


Beide voorbeelden die je geeft zijn nog steeds de beste manier van onderzoek doen in deze vakgebieden, je hebt altijd te maken met aannames en foutmarges. Dit is de precieze definitie van wetenschap, en het woordje schijn- is dus niet op zijn plaats. Het gaat erom dat de aannames en foutmarges op een goede manier uitgelegd staan. Zoals ik eerder al beargumenteerd heb, is dat misschien wel teveel gevraagd van praktisch ingesteld HBO niveau test-personeel (wederom met alle respect van de wereld).

Hetzelfde geldt - tot iemand met een beter voorstel komt - voor CPU benchmarken m.b.v. een stevige grafische kaart. Tot nu toe zijn de suggesties.
  • Stevige GPU
  • Reele GPU -> GPU bottleneck 95% van de testen -> geen data
  • De suggestie van @Verwijderd: Het spelen van een game en een uiterst subjectieve mening geven over de speelbaarheid.
Wetenschap is het meten op de beste manier voorhanden. Ik zou alsnog kiezen voor een stevige GPU, maar suggesties zijn welkom.

Verder ben ik ernstig verbaasd om dezelfde argumenten tegen te komen als destijds met Bulldozer.

Dit had in principe gekopieerd kunnen zijn uit een forumpost uit juni 2011, kort na de release van de FX-8150. Nu snap ik prima dat met DX12 en Vulkan multithreading een veel reelere mogelijkheid is. Er wordt echter wederom de fout gemaakt dat developers als doel hebben het beste product neer te zetten. Nee, developers hebben als doel om een game zoveel mogelijk te verkopen, en dient dus vooralsnog speelbaar te zijn op een i5. De wereld verandert echt niet omdat Ryzen uit is, men blijft conservatief, en een i7 volstaat nog jaren.

Ik vind het stiekem ook spijtig.
Tja, aan de andere kant komen de E8400 vs Q6600 argumenten naar voren, en dat eindigde met de Q6600 die won. Verder is er wel wat veranderd de afgelopen jaren voor zowel hardware als gaming demografie. Consoles zijn beide (Nintendo telt echt niet meer) AMD Jaguarcore en GCN GPU. Geen optimalisatiedrivers, nee low level API. Games ontwikkeld hiervoor moeten speciaal voor de relatief kleine PC markt geoptimaliseerd worden. Andere API, driveoptimalisatie, veel gedoe en extra features. Niet elke game is hiervoor geoptimaliseerd.

Nu zullen de meeste console ports wel redelijk blijven draaien op een hoog geclockte i5, maar voor hoe lang nog? Onderhand zijn we bij het punt dat elke nieuwe titel geprogrammeerd is voor low level API's op de consoles. Dan is het wel heel erg verleidelijk aan het worden voor zeker de luie developers/gierige publishers om DX11 te dumpen en een minimalistische DX12 only weg te kiezen. Is dat schaap eenmaal over de dam, dan zal het ook hard gaan. PC ports van games, beduidend minder geoptimaliseerd dan consoles die bij hoge instellingen tegen een keiharde CPU limitering aan gaan lopen met een i5. BF1 is daar indicatief in. Hoewel zeker geen luie console port, is het wel een game die aangeeft dat de quadcore wel klaar is. Zijn er nog een aantal titels die betere gemiddelde produceren op Ryzen dan de i5.

Als je geen rekening houdt met deze trend, ja dan zijn de GTX1080Ti testen enigszins relevant. Die test is relevant zo lang als een GPU volledig afhankelijk is van clockspeeds en IPC voor rendercalls. Daar is alleen een einde aan het komen. Moore's Law is wel dood, en flinke IPC gain valt ook al jaren enorm tegen. Dan kan je niet anders meer dan maar meerdere cores gaan kijken. DX12 is precies vandaag twee jaar geworden, en dat bekent dat er onderhand een volle developer cyclus is geweest in de gamewereld sinds de introductie. Het kan goed dat dit najaar DX12 door gaat breken. Dan zijn de IPC tests in een klap irrelevant, want een echte DX12 capable GPU, een Radeon zal dan zo veel cores aanspreken als nodig. De limiet aan cores is ver boven wat een GPU mogelijkerwijs kan vragen van een CPU. Vervolgens open je ook enorme mogelijkheden voor de meer op PC gaming gerichte ports, of echt dedicated titels om veel meer uit hardware te halen.

Een ander punt zijn resoluties. Die gaan onderhand ook omhoog van 1080P naar 1440P en 4K komt langzaam ook waardoor de bottleneck weer naar de GPU verschuift nadat de CPU de bottleneck was voor de GTX1080, en zeker de Ti bij 1080P. Die bottleneck maakt eigenlijk ook duidelijk dat DX12/Vulkan nodig zijn. IPC gain staat nu al een paar bijna stil. AMD loopt in, maar of ze nu opeens Intel gigantisch voorbij streven, betwijfel het. Wat moet je dan qua GPU hebben? Een GPU die parallel CPU rendercalls kan opvragen, zonder op een CPU core te hangen. De GPU technologie gaat nog steeds rap door, en gaat eerder versnellen dan afremmen als Navi er eenmaal is, en het echt een multiple die op een interposer blijkt te zijn.

Alles bij elkaar heb ik de nodige redenen om kritisch te zijn op huidige techmethodiek. Het is namelijk alleen toegespitst op het uiterst onrealistische scenario van iemand die €800 neertelt voor een GPU, en dan niet eens een 1440P scherm heeft. Het vertelt ook niks over toekomstige prestaties, tenzij Nvidia graag ten onder gaat omdat ze geen fatsoenlijke DX12 implementatie willen implementeren voor hun GPU's, en liever haar kaarten bottlenecked. :P

AMD haar hogere segment kaarten zoals de Fiji zijn gebottlenecked, en dat zie je. Dat stuivertje wisselt als je opeens een DX12 game pakt en daar gaan de AMD kaarten opeens los, terwijl Nvidia gebottlenecked is. Die situatie gaat alleen maar erger worden voor Nvidia, totdat ze wisselen naar een echt low level API capable GPU, en dan is het ook meteen klaar met de nadruk op clocks en IPC.

[ Voor 3% gewijzigd door DaniëlWW2 op 29-07-2017 00:44 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 11:55

hidde212

Free your mind...

Doet me een beetje hieraan denken: :+


Overigens, wat hier volgens mij nog niet was langsgekomen:
Afbeeldingslocatie: https://ic.tweakimg.net/ext/i/imagenormal/2001584099.jpeg
videocardz.com

Als dit klopt is dit in zo'n beetje alle multithreaded workloads toch een duidelijke win voor Threadripper?
12-core: 3.5GHz baseclock tegenover 2.9GHz (en $400 goedkoper),
16-core: 3.4GHz baseclock tegenover 2.8GHz (en $700 goedkoper).

En dan eventueel ook nog zuiniger en (dus) minder heet?

...and your ass will follow


Acties:
  • 0 Henk 'm!
hidde212 schreef op zaterdag 29 juli 2017 @ 00:42:
[...]


Doet me een beetje hieraan denken: :+
[video]

Overigens, wat hier volgens mij nog niet was langsgekomen:
[afbeelding]
videocardz.com

Als dit klopt is dit in zo'n beetje alle multithreaded workloads toch een duidelijke win voor Threadripper?
12-core: 3.5GHz baseclock tegenover 2.9GHz (en $400 goedkoper),
16-core: 3.4GHz baseclock tegenover 2.8GHz (en $700 goedkoper).

En dan eventueel ook nog zuiniger en (dus) minder heet?
Baseclock moet je bij Intel niet al te veel naar kijken (en ik verwacht bij Ryzen / Threadripper ook niet), bij normale Multithreaded workloads is de "All core turbo" (de waarde waar ze heen kunnen boosten bij load op alle cores) het meest belangrijk. Daar die waarde bij non-OC het meest actief zal zijn bij normale multithreaded workloads. Voor single thread is dat de hoogste boost clock vermeld.

Acties:
  • +2 Henk 'm!

Verwijderd

lactaxative schreef op vrijdag 28 juli 2017 @ 22:12:
[...]


Beide voorbeelden die je geeft zijn nog steeds de beste manier van onderzoek doen in deze vakgebieden, je hebt altijd te maken met aannames en foutmarges. Dit is de precieze definitie van wetenschap, en het woordje schijn- is dus niet op zijn plaats. Het gaat erom dat de aannames en foutmarges op een goede manier uitgelegd staan. Zoals ik eerder al beargumenteerd heb, is dat misschien wel teveel gevraagd van praktisch ingesteld HBO niveau test-personeel (wederom met alle respect van de wereld).

Hetzelfde geldt - tot iemand met een beter voorstel komt - voor CPU benchmarken m.b.v. een stevige grafische kaart. Tot nu toe zijn de suggesties.
  • Stevige GPU
  • Reele GPU -> GPU bottleneck 95% van de testen -> geen data
  • De suggestie van @Verwijderd: Het spelen van een game en een uiterst subjectieve mening geven over de speelbaarheid.
1. Het gaat fout wanneer de natuurwetenschappelijke methode op een verkeerde manier wordt gebruikt. De natuurwetenschappelijke methode werkt wanneer je alle variabelen in de hand hebt en 1 variabele vrij kan variëren met een grote precisie en nauwkeurigheid, dat veronderstelt dat deze variabele zeer nauwkeurig kan worden gemeten en andere variabelen geen invloed hebben op deze variabele. Vaak proberen mensen deze binnen de exacte vakgebieden zeer succesvolle methode te kopiëren naar andere vakgebieden (sociale wetenschap) en daar gaat het verkeerd. Maar goed, dat heeft weinig met het testen van CPU's te maken, echter was de analogie treffend omdat deze mensen bij het testen van de CPU's dezelfde methodische fouten maken. Ze hebben niet alle variabelen in de hand. Een duidelijk voorbeeld is hier het feit dat veel games niet meer dan 4/8 threads gebruiken. Dan zit je dus met het probleem dat het meer frames per seconde kunnen renderen door CPU X in 2017 bij spel Y weinig zegt over de 'gemiddelde' performance in 2020. Er wordt gesuggereerd dat CPU X sterker moet zijn en meer longevity moet hebben omdat die meer frames per seconde kan genereren (een verwaarloosbaaar verschil trouwens als je alle 4 de kernen op 3,8 GHz klokt maar dat terzijde) maar dat is een valse suggestie. Misschien ligt dat meer aan de interpretatie van veel mensen dan aan de mensen die deze testjes uitvoeren maar dit is volgens mij waar o.a. @DaniëlWW2 en ik tegen ageren (maar ook bijvoorbeeld Jim van AdoredTV).

2. Ik denk dat het een fair punt van jou is dat de mensen die deze testen uitvoeren vaak zelf niet wetenschappelijk geschoold zijn, met de kanttekening dat de meeste mensen die een universitaire opleiding hebben afgerond eveneens niet voldoende wetenschappelijk geschoold zijn op deze manier (voldoende ervaring met het gebruiken van de natuurwetenschappelijke methode in een exact vakgebied).

3. Jij rukt nu mijn woorden uit de context. Ik stel voor dat je aanvullend 'subjectief' beoordeelt naast het presenteren van meer objectiveerbare data. Dat gezegd hebbende, niet voor niets staat subjectief tussen apostroffen aangezien het redelijk betrouwbaar waar te nemen is als een spel de hele tijd hapert met microstutter. Ghost Recon Wildlands is een goed voorbeeld hiervan maar bij lange na niet het enige. Ik vermoed dat je hetzelfde zal zien als je BF1 speelt op een i5-7400 of een quadcore Ryzen. Of dat de 7600k het wel nog redt dankzij de hogere klokfrequentie weet ik niet maar gewone quadcore CPU's die niet hoger dan tegen de 4,0 GHz klokken trekken het bij sommige spellen niet terwijl de gemiddelde FPS en de 1% FPS wel suggereren dat die spellen goed gespeeld kunnen worden op deze CPU's. Dat is een illustratie van het klassieke probleem dat je een groot aantal statistische maten nodig hebt alvorens je ook maar enigszins betrouwbaar data kan interpreteren.
In dit geval - en dit heb ik hier veelvuldig bepleit en zou jij dus kunnen weten - zou je die dataset zeer eenvoudig kunnen uitbreiden door als reviewer framerenderplots te maken en de inputlag te meten. Presenteer de ruwe data zodat mensen die statistisch beter zijn onderlegd zich uit kunnen leven. Bereken de standaarddeviatie, geef de maximale framerendertijd en het aantal keren dat de framerendertijd boven een bepaalde waarde (wat dan ook de waarde is die als hinderlijk wordt ervaren, in ieder geval ruim on de 0,1 seconde) etc.
Die inputlag heeft natuurlijk ook nog met andere factoren (verbindingen tussen externe hardware en de chipset) te maken dan enkel hoe snel de grafische kaart frames kan genereren waarbij de CPU wordt betrokken. Meet die inputlag maar zoals bijvoorbeeld Linus (toch niet wetenschappelijk geschoold maar hij kreeg het uitgezocht, dat kunnen andere mensen ook doen) en Wendell (wel wetenschappelijk geschoold in de computer science) deden.
Kortom, ik pleit ervoor om het juist wel GOED aan te pakken en echt wetenschappelijk te werken in plaats van de schijn op te wekken dat je dat doet. Wek geen valse verwachtingen! Ja, het heeft enige relevantie hoe goed een entrylevel CPU functioneert met een highend grafische kaart. Enige! Want tegen de tijd dat een entrylevel grafische kaart (*50 ti) 1080 ti niveau haalt zijn we minstens 4-5 jaar verder en dit is optimistisch ingeschat aangezien het 4-5 tiers hoger zit, gemiddeld per generatie de performance van tier X die van tier X+1 van de vorige generatie wordt en je 1-1,5 jaar per generatie hebt (als ik het mij goed herinner dichter bij de 1,5 jaar).
Ik zou alsnog kiezen voor een stevige GPU, maar suggesties zijn welkom.
Zoals ik reeds aangaf, ik zou kiezen voor alle mogelijke combinaties die je voorhanden hebt: een entry level grafische kaart, een midlevel grafische kaart (580/1060/1070) en een highend grafische kaart (1080 ti). Ik zou daanaast echter veel meer data genereren en de ruwe data presenteren in plaats van een samenvatting waar je weinig aan hebt. Ik zou daarnaast de input lag meten en ik zou dit alles goed kaderen met een goede analyse waarbij ik verschillende scenario's schets (benutten van meer kernen vs. niet benutten van meer kernen) en aangeef van welke ontwikkelingen dit af zou kunnen hangen (prijs voor CPU's met meer dan 4 kernen en 8 threads, remmende invloed van consoles, of dat spellen voor de PC worden ontwikkeld en worden geport naar consoles of andersom...).
Dat is veel moeilijker, het kost veel meer tijd maar dan heb je wat.
Waarmee we volgens mij bij het meer fundamentele probleem uitkomen. Die reivewers - ook hier op Tweakers en HWInfo zie je het - willen allemaal op dag 1 scoren. Op dag 1 moet hun review geplaatst zijn terwijl ze een week van tevoren (laat het 2 weken zijn) de hardware kunnen testen. Als ze op dag 1 iets plaatsen dan krijgen ze meer bezoekers en dus meer reclame-inkomsten. Allemaal kortetermijndenken.
Ik begrijp dat en ik neem het hen niet kwalijk aangezien ze daar nu eenmaal hun geld mee verdienen maar zou is het nu werkelijk teveel gevraagd dat je daarnaast ook investeert in de lange termijn en eens wat meer tijd uittrekt voor goed onderzoek en maanden later een sterk verbeterde review plaatst. Er zijn ook media die daarmee een goede reputatie hebben opgebouwd en die daardoor continue veel bezoekers blijven aantrekken, ook voor oude artikelen.
Er wordt echter wederom de fout gemaakt dat developers als doel hebben het beste product neer te zetten. Nee, developers hebben als doel om een game zoveel mogelijk te verkopen, en dient dus vooralsnog speelbaar te zijn op een i5.
Met alle respect, hoewel hier een kern van waarheid in zit is het dit zo categorisch stellen net zo simplistisch als het categorisch stellen dat het hun doel zou zijn om het beste product neer te zetten. In de praktijk heb je een mix. Ja, veel spellen zijn gericht op de lowest common denominator, denk aan spellen zoals Overwatch, CS:GO, LOL, Dota2, allerlei free to play spellen. Er is ook een categorie AAA-spellen die inzetten op het maximaal benutten van de hardware. Waarom? Omdat het een goed visitekaartje is voor wat een bedrijf kan (veel media-aandacht, gratis reclame hierdoor), omdat ze hiermee technieken ontwikkelen die ook voor simpelere spellen resulteren in een betere performance en misschien ook wel een betere gameplay...
Er zijn zelfs spellen die op bijna geen enkele PC goed gedraaid kunnen worden en niet alleen omdat ze slecht zijn geoptimaliseerd. Dit is nu helaas niet meer zo vaak het geval maar we hadden in het verleden tal van voorbeelden van spellen die nauwelijks te draaien waren op de meeste systemen toen ze uitkwamen, denk aan Crysis, Far Cry en Metro. Ter vergelijking: de consoles in die tijd (PS3, X360) hadden al moeite om ME2 en ME3 op de Unreal3 engine (zonder veel extra's zoals bij Borderlands 2 het geval is ;)) goed te draaien.
De wereld verandert echt niet omdat Ryzen uit is
De wereld verandert sowieso niet omdat er een nieuwe CPU uitkomt, laten we vooral het betrekkelijke van zoiets inzien. :)
Wat wel verandert is dat een 6c/12t CPU nu een midlevel CPU is geworden! Je kan nu voor €2000 zo'n CPU kopen (goed, in Nederland misschien nu €211 of €212), dat is dus vergelijkbaar met wat je voor de 6600 betaalde en wat je nu voor de 7600 betaalt. Wat ook verandert is dat Intel vanaf begin 2018 voor hetzelfde geld een 6c/6t CPU verkoopt als waarvoor Intel nu een 7600(k) verkoopt en voor hetzelfde geld een 6c/12t CPU verkoopt als waarvoor het nu een 7700k verkoopt. Denk even na over hoeveel spellen momenteel beter draaien op een 7700k in plaats van op een 7600k en bedenk hierbij dat die 7700k bijna 75% meer kost dan de 1600 en bijna 75% meer kost dan waarvoor je binnenkort een 6c/6t CPU van Intel kan kopen.
Stellen dat een i7 nog jaren volstaat is natuurlijk juist niet wetenschappelijk.
Ik deel niet jouw inschatting dat een i7 nog jarenlang volstaat als jij daaramee bedoelt dat het volstaat voor premium gameplay: geen microstutter, geen plotselinge veel sterkere dalingen van de FPS in vergelijking met een CPU die meer kernen en threads heeft, geen plotselingen stijgingen van de framerendertijd in vergelijking met...
Je zal er prima nog jarenlang mee kunnen gamen zoals je momenteel nog met een dual core prima kan gamen maar ik neem aan dat jij het met mij eens bent dat een dual core geen premium gaming mogelijk maakt voor alle laatste AAA-spellen. Hetzelfde principe, naar mijn inschatting.
Ik geef echter ruiterlijk toe dat we enkel kunnen speculeren ofdat de developers wel of niet de komende jaren meer dan nu meer dan 4 kernen en 8 threads gebruiken (geen typfout, lees zorgvuldig ;)). Merk op dat nu al en dat ook in 2016 al er spellen waren die de 7700k aan 100% CPU load deden geraken.
Dit is nu! De spellen zijn dermate bekend dat de meeste mensen hier bij minstens 4 van de 5 spellen direct ziet over welk spel het gaat.
Afbeeldingslocatie: https://s2.postimg.org/e3fy1dwjt/image.png
Afbeeldingslocatie: https://s11.postimg.org/tbvu85vkz/image.png
Afbeeldingslocatie: https://s12.postimg.org/enx4cwgh7/image.png
Afbeeldingslocatie: https://s18.postimg.org/op7u4mh7r/image.png
Afbeeldingslocatie: https://s2.postimg.org/t683dkifb/image.png

De screenshots die je hier ziet komen van een 7600k (geen HT) die op 4,6 GHz (realistisch hoog!) is geklokt maar het is bijvoorbeeld van BF1 bekend dat die ook de 7700k op zijn knieën krijgt. Laten we voor de lol even veronderstellen dat de 7700k wel nog jarenlang meegaat zonder ooit aan 100% CPU load te geraken, for the sake of the argument, het feit dat de 7600k het al niet meer trekt terwijl die 7600k toch echt wel ruim boven het niveau van de CPU's in de meeste gamingsystemen zit (om maar te zwijgen over de consoles) geeft aan dat voor premium gaming toch iets meer is vereist dan de grootste gemene deler. Dat heeft natuurlijk gedeeltelijk te maken met de instellingen, zet de instellingen lager en je redt het wel maar daarom spreek ik dan ook over premium gaming.

Tot slot dit, net als jij hoop ik van harte dat we meer kernen nodig gaan hebben. Niet zo zeer voor graphics (dat zit redelijk snor) maar voor gameplay. Ik zou graag betere AI, betere botsingsdetectie (een van de meest onderschatte gebreken in spellen van nu), betere physics etc. willen zien. Dat zou veel meer toevoegen aan de beleving dan enkel het nog verder verbeteren van de graphics (niet dat ik zal klagen als ook dat verder verbetert). De graphics hardware is nog wel redelijk bij de PS4, PS4 Pro en de X1X (Scorpio), je kan van alles bedenken wat ervoor zorgt dat de PC met betere grafische kaarten veel betere graphics krijgen (hogere resolutie textures, betere belichting, hogere resolutie...) zonder dat het uit de hand loopt en niet meer te programmeren is voor zo'n uiteenlopende systemen. Die CPU's in de consoles zijn verhoudingsgewijs veel primitiever en het brekebeentje. Ik vermoed dat de consoles een belangrijke bijdrage hebben geleverd aan het remmen van de vooruitgang van de gameplay.


PS
Deze reactie is een beetje lang geworden, aangezien er gepoogd werd om een serieuze discussie te voeren vond ik het ook een serieus antwoord verdienen.

Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
offtopic:
TL;DR ;)
Het CPU gebruik verhaal was ik al bekend mee. De rek voor Ryzen 7 is er nog lang niet uit, maar het blijft gewoon koffiedik kijken of developers dat in de toekomst beter oppakken:
YouTube: id Software discusses Ryzen

Voor iets meer dan 200 euro haal je nu een CPU met 12 threads waar je voorheen, voor die prijs, niet verder kwam dan en CPU met 4 threads. Dat is een flinke stap voorwaarts in thread/core count. Het bijbehorende prijs segment voor CPUs van rond de 200 euro is midrange dus heel lang hoeft het niet te duren eer developers meer cores/threads als uitgangspunt nemen.

[ Voor 92% gewijzigd door madmaxnl op 29-07-2017 07:54 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
CMD-Snake schreef op vrijdag 28 juli 2017 @ 23:37:
Je veranderd nu steeds van standpunt.

Dat je niet blij bent met een uitkomst of conclusie is een ding, maar dat maakt de conclusie niet minder waar als deze de uitkomst is van gedegen onderbouwd testen.
offtopic:
Dank voor je reactie, maar het wordt me uit de jouwe niet duidelijk hoe ik beter aan je kan uitleggen wat ik wil zeggen, dus ik laat het hier maar bij.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 07:31

Damic

Tijd voor Jasmijn thee

The Source schreef op vrijdag 28 juli 2017 @ 23:28:
[...]

Niet bij het mobo... weet niet of ze bij de CPU zelf zitten, lijkt me wel logisch.
Lijkt me een gemiste kans. Ik verwacht eigenlijk een sleutel meer bij het mobo dan bij de cpu zelf :+

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!
madmaxnl schreef op zaterdag 29 juli 2017 @ 01:20:
offtopic:
TL;DR ;)
Het CPU gebruik verhaal was ik al bekend mee. De rek voor Ryzen 7 is er nog lang niet uit, maar het blijft gewoon koffiedik kijken of developers dat in de toekomst beter oppakken:
YouTube: id Software discusses Ryzen

Voor iets meer dan 200 euro haal je nu een CPU met 12 threads waar je voorheen, voor die prijs, niet verder kwam dan en CPU met 4 threads. Dat is een flinke stap voorwaarts in thread/core count. Het bijbehorende prijs segment voor CPUs van rond de 200 euro is midrange dus heel lang hoeft het niet te duren eer developers meer cores/threads als uitgangspunt nemen.
Toch ben ik zeer benieuwd hoeveel rek de Zen architectuur nog heeft. De schaalbaarheid naar meer cores lijkt zeer goed te zijn, maar bijv. o.a. de slechte overklokbaarheid vind ik toch echt een tegenvaller waardoor ik ook aan de ene kant ook bang ben dat AMD met de IPC winst die ze geboekt hebben die ruim boven hun target lag en de redelijk slechte overklokbaarheid mogelijk direct vrij hoog ingezet heeft en dat we straks bij AMD ook een scenario krijgen als bij Intel met de Core Architectuur waarbij per nieuwe generatie we maar een paar % verbetering gaan zien t.o.v. de vorige generatie in plaats van dat ze grote stappen kunnen blijven maken.

De tijd zal het uiteraard leren.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dennism schreef op zaterdag 29 juli 2017 @ 12:14:
[...]

maar bijv. o.a. de slechte overklokbaarheid vind ik toch echt een tegenvaller
De absolute overklokbaarheid is wellicht niet al te best met kloksnelheden van rond de 4GHz als max ongeacht het exemplaar. Daarentegen is de relatieve overklokbaarheid van sommige modellen juist heel goed. Een AMD Ryzen 7 1700 met een OC van 3,8GHz zit boven zijn maximale XFR kloksnelheid en is t.o.v. de basis kloksnelheid een toenamen van meer dan 25%. Welke Intel CPU kun je makkelijk 25% overklokken? Daarbij is 4GHz voor een Ryzen 7 1700 ook helemaal niet moeilijk en dat komt neer op een toenamen van 33,3%

Acties:
  • 0 Henk 'm!
madmaxnl schreef op zaterdag 29 juli 2017 @ 12:24:
[...]


De absolute overklokbaarheid is wellicht niet al te best met kloksnelheden van rond de 4GHz als max ongeacht het exemplaar. Daarentegen is de relatieve overklokbaarheid van sommige modellen juist heel goed. Een AMD Ryzen 7 1700 met een OC van 3,8GHz zit boven zijn maximale XFR kloksnelheid en is t.o.v. de basis kloksnelheid een toenamen van meer dan 25%. Welke Intel CPU kun je makkelijk 25% overklokken? Daarbij is 4GHz voor een Ryzen 7 1700 ook helemaal niet moeilijk en dat komt neer op een toenamen van 33,3%
De base clock vind ik niet super interessant, daar een huidige cpu (zowel Intel als AMD) daar vrijwel nooit op zal draaien wanneer belast. Interessanter vind ik de OC marge bovenop de "All core Boost" die ze af fabriek hebben meegekregen. Kijk je dan bijv. naar de 1800X (Top Sku) zit de max overklok daar maar zo'n 300Mhz boven de "All core Boost" waarde van 3700Mhz voor die SKU.

de 1700X en 1700 hebben meer marge tussen "All core Boost" en de gemiddelde max overklok van zo'n 4Ghz, maar ik heb het gevoel dat dit enkel komt omdat daar de "All core Boost" af fabriek lager is gezet om te verschillen tussen de SKU's te creëren wat ook logisch is.

Kijk je dan naar een heethoofd als de 7700K (Top Sku in die range) dan ze je dat die CPU vrij gemakkelijk in de regel naar 5Ghz krijgen, toch 600Mhz meer.

Maar ook bijv. de 8 core Skylake-X 7820X zie je in reviews redelijk regelmatig naar 4.8 geklokt worden vanaf een "All core Boost" van 4Ghz (nu is dit niet de top Sku, maar wel vergelijkbaar met de Ryzen Core aantallen van 8C/16T)

Waardoor ik toch het idee krijg dat Intel zelfs op een "bejaarde" architectuur meer OC headroom blijft hebben, waar ik eigenlijk verwacht had dat Ryzen door de nieuwe architectuur het voordeel zou hebben.

[ Voor 5% gewijzigd door Dennism op 29-07-2017 13:02 ]


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 06-09 14:11
Dennism schreef op zaterdag 29 juli 2017 @ 12:58:
[...]
Waardoor ik toch het idee krijg dat Intel zelfs op een "bejaarde" architectuur meer OC headroom blijft hebben, waar ik eigenlijk verwacht had dat Ryzen door de nieuwe architectuur het voordeel zou hebben.
Dat ligt m.i. aan het productieproces, niet zozeer de architectuur. Ryzen wordt gebakken op 14nm LPP (Low Power Plus) en dat is eigenlijk niet bedoeld voor high performance desktop processors. Voor Epyc werkt het natuurlijk fantastisch, op lagere clocks is het gewoon heel efficiënt. Ik geloof gelezen te hebben dat het aanstaande 7nm proces wel richting de 5GHz moet gaan, maar dat valt nog te bezien.

Acties:
  • 0 Henk 'm!

  • lactaxative
  • Registratie: Maart 2015
  • Laatst online: 14-09 23:36
Verwijderd schreef op zaterdag 29 juli 2017 @ 01:10:
[...]

1. Het gaat fout wanneer de natuurwetenschappelijke methode op een verkeerde manier wordt gebruikt. De natuurwetenschappelijke methode werkt wanneer je alle variabelen in de hand hebt en 1 variabele vrij kan variëren met een grote precisie en nauwkeurigheid, dat veronderstelt dat deze variabele zeer nauwkeurig kan worden gemeten en andere variabelen geen invloed hebben op deze variabele. Vaak proberen mensen deze binnen de exacte vakgebieden zeer succesvolle methode te kopiëren naar andere vakgebieden (sociale wetenschap) en daar gaat het verkeerd. Maar goed, dat heeft weinig met het testen van CPU's te maken, echter was de analogie treffend omdat deze mensen bij het testen van de CPU's dezelfde methodische fouten maken. Ze hebben niet alle variabelen in de hand. Een duidelijk voorbeeld is hier het feit dat veel games niet meer dan 4/8 threads gebruiken. Dan zit je dus met het probleem dat het meer frames per seconde kunnen renderen door CPU X in 2017 bij spel Y weinig zegt over de 'gemiddelde' performance in 2020. Er wordt gesuggereerd dat CPU X sterker moet zijn en meer longevity moet hebben omdat die meer frames per seconde kan genereren (een verwaarloosbaaar verschil trouwens als je alle 4 de kernen op 3,8 GHz klokt maar dat terzijde) maar dat is een valse suggestie. Misschien ligt dat meer aan de interpretatie van veel mensen dan aan de mensen die deze testjes uitvoeren maar dit is volgens mij waar o.a. @DaniëlWW2 en ik tegen ageren (maar ook bijvoorbeeld Jim van AdoredTV).
Allereerst overschat je in hoeverre het aantal parameters binnen natuurkundig(-achtig) onderzoek nog onder controle zijn, maar dat lijkt me een tikkeltje off-topic. Er zitten universiteiten en bedrijven vol met mensen die geen betere methode kunnen verzinnen, waardoor dit overblijft. Hierom ongenuanceerd de wetenschap afkraken is momenteel erg populair (de discussie klimaatverandering bijvoorbeeld), maar ik vind dat niet eerlijk.

De vraag hier is 'Wat is het doel van de review?'. Is dat om een processor te reviewen met huidige technieken, of om een koopadvies te geven? Willem de Moor geeft zelf hier aan dat het het eerste betreft.

De conclusie van Tweakers vind ik overigens niet zo zwak, al had het andersom geformuleerd mogen worden.
Het tweede pijnpunt voor AMD, de Ryzen 3-processors incluis, is gaming. Ondanks flinke pr en ook daadwerkelijke verbeteringen dankzij patches is gaming op een Intel-systeem vaak gewoon soepeler dan op een AM4-platform. Met het eerdergenoemde snellere geheugen is daar ten dele een remedie voor beschikbaar, maar daar betaal je dan een meerprijs voor.
vrij vertaald naar
Ryzen 3 presteert binnen de foutmarge even goed als i3's als je kijkt naar gaming. Hier heeft Ryzen echter wel sneller geheugen voor, waarvoor je uitgaande van 8 GB in budgetsystemen gewoon 25 euro meer voor moet betalen. Als je dan ook nog rekening houdt met het bestaan van Pentiums en het prijsverschil van moederborden (10 euro in het voordeel van Intel) lijkt de voorkeur voor budgetgaming vooralsnog Intel.
De conclusie is ongeveer hetzelfde (en m.i. prima verdedigbaar), maar nu positiever geformuleerd richting Ryzen. Ik bepleit hier min of meer hetzelfde en het weerwoord is uitgebleven.
In dit geval - en dit heb ik hier veelvuldig bepleit en zou jij dus kunnen weten - zou je die dataset zeer eenvoudig kunnen uitbreiden door als reviewer framerenderplots te maken en de inputlag te meten. Presenteer de ruwe data zodat mensen die statistisch beter zijn onderlegd zich uit kunnen leven. Bereken de standaarddeviatie, geef de maximale framerendertijd en het aantal keren dat de framerendertijd boven een bepaalde waarde (wat dan ook de waarde is die als hinderlijk wordt ervaren, in ieder geval ruim on de 0,1 seconde) etc.
Dat jij dit al meerdere malen hebt bepleit weet ik, dit is echter niet het discussiepunt. Dit gaat om 'wat' we meten, niet 'hoe' we het meten. Als je frame render plots maakt van een 1300x met RX570 heb je hetzelfde probleem als dat je bij average fps zou hebben: een GPU bottleneck. Welke jumps komen door de CPU en welke door de GPU? Je lost het probleem niet op.

Sowieso heb ik wel mijn twijfels bij frame times. Als ik bij Tom's kijk, kan ik geen extra conclusies trekken uit deze render plots of bin plots. Het is theoretisch correcter, maar verder kan ik er vrij weinig mee. Ook lijkt de foutmarge groter te zijn, gezien je rare dingen ziet zoals een i3-7100 die beter presteert dan een i3-7300. Het komt op mij in alle eerlijkheid altijd een beetje snobby over.
Kortom, ik pleit ervoor om het juist wel GOED aan te pakken en echt wetenschappelijk te werken in plaats van de schijn op te wekken dat je dat doet. Wek geen valse verwachtingen!
Wetenschappelijk werken slaat m.i. op
  • Aannames duidelijk weergeven
  • Significantie van de resultaten onderbouwen
Het eerste punt kan beter, de context van DX12 geven en meenemen in de conclusie zou helpen. Het tweede punt zie ik niet gebeuren, dit kost simpelweg teveel tijd. Je zult dingen minstens 3, en waarschijnlijk 9 keer moeten gaan meten voordat je de foutmarges dermate klein maakt dat niet alles op 1 hoop gegooid wordt. Vergeet niet, we hebben het hier doorgaans over verschillen van rond de 10%. Alleen in meettijd geeft dit al een toename van 800%, en dan reken je de verwerkingstijd nog niet eens mee.
Zoals ik reeds aangaf, ik zou kiezen voor alle mogelijke combinaties die je voorhanden hebt: een entry level grafische kaart, een midlevel grafische kaart (580/1060/1070) en een highend grafische kaart (1080 ti). Ik zou daanaast echter veel meer data genereren en de ruwe data presenteren in plaats van een samenvatting waar je weinig aan hebt. Ik zou daarnaast de input lag meten en ik zou dit alles goed kaderen met een goede analyse waarbij ik verschillende scenario's schets (benutten van meer kernen vs. niet benutten van meer kernen) en aangeef van welke ontwikkelingen dit af zou kunnen hangen (prijs voor CPU's met meer dan 4 kernen en 8 threads, remmende invloed van consoles, of dat spellen voor de PC worden ontwikkeld en worden geport naar consoles of andersom...).
Dat is veel moeilijker, het kost veel meer tijd maar dan heb je wat.
Ja, je kunt met een RX560, RX570, RX580, 1050, 1050 Ti, 1060-3g, 1060-6G en 1080 Ti meten. Dit moet je dan voor een R3 1200, R3 1300, R5 1400, R5 1500X, R5 1600, R7 1700, R7 1700X, R7 1800X, G4560, G4600, i3-7100, i3-7300, i5-7400, i5-7500, i5-7600, i7-7700 doen. Je moet dan ook het RAM nog varieren, nou ja, pak 5 snelheden. Hierna ook nog even het verschil voor alles tussen dual- en single-channel testen? Ja, nu hebben we wat. Een failliet bedrijf, gezien er 2 maanden lang geen review is uitgekomen.

Zullen we de eisen voor reviews tenminste realistisch houden?
Waarmee we volgens mij bij het meer fundamentele probleem uitkomen. Die reivewers - ook hier op Tweakers en HWInfo zie je het - willen allemaal op dag 1 scoren. Op dag 1 moet hun review geplaatst zijn terwijl ze een week van tevoren (laat het 2 weken zijn) de hardware kunnen testen. Als ze op dag 1 iets plaatsen dan krijgen ze meer bezoekers en dus meer reclame-inkomsten. Allemaal kortetermijndenken.
Ik begrijp dat en ik neem het hen niet kwalijk aangezien ze daar nu eenmaal hun geld mee verdienen maar zou is het nu werkelijk teveel gevraagd dat je daarnaast ook investeert in de lange termijn en eens wat meer tijd uittrekt voor goed onderzoek en maanden later een sterk verbeterde review plaatst. Er zijn ook media die daarmee een goede reputatie hebben opgebouwd en die daardoor continue veel bezoekers blijven aantrekken, ook voor oude artikelen.
De suggestie om over 3 maanden een betere review te maken is leuk en aardig, maar vergeet ook niet dat er volgende week gewoon weer een nieuw speeltje is. Uiteindelijk heb je slechts een week aan tijd om een review te schrijven, anders is je throughput te laag. Deze week kun je voor dag 1 of na dag 1 besteden, maar dat is niet relevant.
[...]

Met alle respect, hoewel hier een kern van waarheid in zit is het dit zo categorisch stellen net zo simplistisch als het categorisch stellen dat het hun doel zou zijn om het beste product neer te zetten. In de praktijk heb je een mix. Ja, veel spellen zijn gericht op de lowest common denominator, denk aan spellen zoals Overwatch, CS:GO, LOL, Dota2, allerlei free to play spellen. Er is ook een categorie AAA-spellen die inzetten op het maximaal benutten van de hardware. Waarom? Omdat het een goed visitekaartje is voor wat een bedrijf kan (veel media-aandacht, gratis reclame hierdoor), omdat ze hiermee technieken ontwikkelen die ook voor simpelere spellen resulteren in een betere performance en misschien ook wel een betere gameplay...
Er zijn zelfs spellen die op bijna geen enkele PC goed gedraaid kunnen worden en niet alleen omdat ze slecht zijn geoptimaliseerd. Dit is nu helaas niet meer zo vaak het geval maar we hadden in het verleden tal van voorbeelden van spellen die nauwelijks te draaien waren op de meeste systemen toen ze uitkwamen, denk aan Crysis, Far Cry en Metro. Ter vergelijking: de consoles in die tijd (PS3, X360) hadden al moeite om ME2 en ME3 op de Unreal3 engine (zonder veel extra's zoals bij Borderlands 2 het geval is ;)) goed te draaien.
Zoals je zelf al aangeeft, zie je dit steeds minder. Deze tak van PC gaming is eigenlijk praktisch dood.( :'( )
Ik deel niet jouw inschatting dat een i7 nog jarenlang volstaat als jij daaramee bedoelt dat het volstaat voor premium gameplay: geen microstutter, geen plotselinge veel sterkere dalingen van de FPS in vergelijking met een CPU die meer kernen en threads heeft, geen plotselingen stijgingen van de framerendertijd in vergelijking met...
Je zal er prima nog jarenlang mee kunnen gamen zoals je momenteel nog met een dual core prima kan gamen maar ik neem aan dat jij het met mij eens bent dat een dual core geen premium gaming mogelijk maakt voor alle laatste AAA-spellen. Hetzelfde principe, naar mijn inschatting.
'Jarenlang' is vrij vaag. Daniel gaf aan dat hij verwacht over 2-3 jaar problemen met i7's te gaan zien. Dit vind ik veel te snel. Het blijft koffiedik kijken, maar ik denk toch eerder aan 5-7 jaar, zoals je ook met eerder aangehaalde E8400-Q6600 en FX8150-2500K voorbeelden zag. Ik zie niet in waarom 'de wereld' nu opeens anders zou zijn. Je ziet nu recent dat een 4 core niet meer voldoet. Dit heeft 10 jaar geduurd sinds de introductie van een betaalbare quadcore (Q6600). Hierna twee jaar geven aan 4c/8t (zeg 5.33 cores) vind ik gewoon erg weinig. Als je dat doortrekt, kun je een i5-8600K (6c/6t) ook 3 jaar na introductie afschrijven. Nee, ik blijf dat onrealistisch vinden.
Die CPU's in de consoles zijn verhoudingsgewijs veel primitiever en het brekebeentje. Ik vermoed dat de consoles een belangrijke bijdrage hebben geleverd aan het remmen van de vooruitgang van de gameplay.
De generaties van consoles volgen zich minder snel op, de verbeteringen bij de laatste nieuwe generatie waren op zijn hoogst matig te noemen. Het marktaandeel van consoles t.o.v. PC's is al jaren toenemend richting consoles. Sorry, het remmen wordt alleen maar erger.
PS
Deze reactie is een beetje lang geworden, aangezien er gepoogd werd om een serieuze discussie te voeren vond ik het ook een serieus antwoord verdienen.
Ja... 8)7 Ik heb maar niet overal op gereageerd, anders worden mensen zo moe van ons.

Verder ben ik het punt over ruwe data kwijt, dus doe ik het maar zo. Onderschat ook niet hoeveel werk erin gaat om dit allemaal werkbaar online te zetten. De glijdende schaal zal ook veroorzaken dat alles gepubliceerd moet worden, de een wilt frame times zien, de ander de temperatuur van de GPU. Verder is de afzetmarkt hiervoor heel erg klein, dus snap ik wel dat dit niet de nadruk heeft.

edit: Ook ik schrik weer van de lengte... }:O

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 11:03
That's what she said

Met wat jullie gemeten willen zien, ga je volgens mij ver voorbij wat een gebruiker merkt.

[ Voor 70% gewijzigd door 418O2 op 29-07-2017 14:50 ]


Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

Dennism schreef op zaterdag 29 juli 2017 @ 12:58:
[...]
Waardoor ik toch het idee krijg dat Intel zelfs op een "bejaarde" architectuur meer OC headroom blijft hebben, waar ik eigenlijk verwacht had dat Ryzen door de nieuwe architectuur het voordeel zou hebben.
Omdat je ook een uitontwikkelde architectuur vergelijkt met een nieuwe. Da's echt appelen en peren.

Als je ziet dat AMD dezelfde die gebruikt voor hun low, mid en high end producten dan is dat echt indrukwekkend. Het is natuurlijk ook een deel uit noodzaak (AMD heeft niet de budgetten om apart voor elk marktsegment te ontwikkelen waar Intel dat wel kan), maar toch...

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!
Borromini schreef op zaterdag 29 juli 2017 @ 16:45:
[...]

Omdat je ook een uitontwikkelde architectuur vergelijkt met een nieuwe. Da's echt appelen en peren.
Maar in hoeverre is dat zo, kijk bijv. naar de Intel Core architectuur, vanaf Sandy Bridge zie je al binnen een marge van +- 200Mhz dezelfde max overclocks voor 24/7 gebruik per generatie. Intel heeft wel voortgeborduurd op die architectuur en verbeteringen doorgevoerd en clockspeed bumps doorgevoerd in de latere generaties maar de max overclock van de architectuur is niet echt verbeterd in mijn ogen.

Vandaar dat ik me dus afvraag of bij de Zen architectuur hetzelfde zou kunnen gebeuren of dat dit uitgesloten is en het vaststaat dat AMD nog veel rek heeft qua klokfrequentie bij verdere ontwikkeling door AMD. Nu zou inderdaad zoals Fortyone al aangeeft het toekomstige productie proces daar AMD gunstig gezind is.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dennism schreef op zaterdag 29 juli 2017 @ 12:58:
[...]


De base clock vind ik niet super interessant, daar een huidige cpu (zowel Intel als AMD) daar vrijwel nooit op zal draaien wanneer belast.
Of juist wel. Is maar net wat je aan het doen bent (workload).

Vergeet je de 7700K niet de delidden (weg garantie, delidden kost ook tijd, gereedschap en dus geld). Een 7600K en 7350K hoeven we niet serieus te nemen of wel?

Ja het overclocken met Intel is echt om over naar huis te schrijven.

Goedkoopste socket 2066 moederbord is 220 euro. De 7820X kost z'n 600 euro. Dan heb je nog geen quad channel DDR4 setje. Een Ryzen 7 1700 heb je voor net geen 300 euro een moederbord om hem mee naar 4GHz te tillen heb je al voor 90 a 100 euro. Skylake-X is trouwens nu nog vaak een stap terug vergeleken met een gelijk geklokte 7700K. Ryzen doet het in verhouding (imo) beter tegen socket 2066 dan tegen socket 1151. En dan is Threadripper er nog niet, kun je nagaan :+

[ Voor 29% gewijzigd door madmaxnl op 29-07-2017 17:40 ]


Acties:
  • +2 Henk 'm!

Verwijderd

madmaxnl schreef op zaterdag 29 juli 2017 @ 01:20:
offtopic:
TL;DR ;)
Het CPU gebruik verhaal was ik al bekend mee. De rek voor Ryzen 7 is er nog lang niet uit, maar het blijft gewoon koffiedik kijken of developers dat in de toekomst beter oppakken:
YouTube: id Software discusses Ryzen

Voor iets meer dan 200 euro haal je nu een CPU met 12 threads waar je voorheen, voor die prijs, niet verder kwam dan en CPU met 4 threads. Dat is een flinke stap voorwaarts in thread/core count. Het bijbehorende prijs segment voor CPUs van rond de 200 euro is midrange dus heel lang hoeft het niet te duren eer developers meer cores/threads als uitgangspunt nemen.
Inderdaad. Het wordt snel vergeten door sommige mensen maar 6c/12t is nu gewoon midlevel hardware, het equivalent van de 6600 en de 3570. Hele gewone CPU's voor een gamer, niet highend wat maar een paar gamers kopen.
Dennism schreef op zaterdag 29 juli 2017 @ 12:14:
[...]


Toch ben ik zeer benieuwd hoeveel rek de Zen architectuur nog heeft. De schaalbaarheid naar meer cores lijkt zeer goed te zijn, maar bijv. o.a. de slechte overklokbaarheid vind ik toch echt een tegenvaller waardoor ik ook aan de ene kant ook bang ben dat AMD met de IPC winst die ze geboekt hebben die ruim boven hun target lag en de redelijk slechte overklokbaarheid mogelijk direct vrij hoog ingezet heeft en dat we straks bij AMD ook een scenario krijgen als bij Intel met de Core Architectuur waarbij per nieuwe generatie we maar een paar % verbetering gaan zien t.o.v. de vorige generatie in plaats van dat ze grote stappen kunnen blijven maken.
Dit is iteratie nummer 1, kijk eens naar de vooruitgang die Intel maakte van Nehalem (750 en zo) naar Sandy Bridge (2000-serie), er kan best veel rek in zitten. Het is voor ons onmogelijk te zeggen maar de ingenieurs van AMD gaven zeer duidelijk aan dat ze tijdens het ontwerp en testen (iteratief proces) van alles tegenkwamen wat ze denken te kunnen verbeteren. Dat is natuurlijk ook normaal, je slaat een bepaalde weg in, komt al doende meer te weten en ondervindt dat als je bepaalde tweaks aanbrengt de performance wat verbetert. Daarnaast zou een nodeverkleining natuurlijk al gemakkelijk de klokfrequentie verhogen. Tenslotte kan AMD zeer eenvoudig zogenaamde 'IPC'-winst boeken ten koste van vermogen, AMD heeft hier enige ruimte aangezien de CPU's zuiniger zijn dan die van Intel per kern en bij dezelfde klokfrequentie (op hele grote uitzonderingen na, bij 4,1 GHz verliezen ze het natuurlijk wel maar tot 3,8-3,9 GHz wint AMD het in ieder geval). Chipdesigners hebben een vuistregel dat 1% 'IPC'-winst behaald kan worden met 1% meer vermogen. Uiteraard is het grootste mankement van Ryzen de klokfrequentie, dat heeft voor een deel te maken met dat dit iteratie nr. 1 is maar ook voor een deel met de node die nu eenmaal fors groter is dan die van Intel, mogelijk dat dit nadeel bij de overgang naar 7 nm. FinFET GF wegvalt, bijna niemand weet hoe de 7 nm. FinFet GF is in vergelijking met de volgende node van Intel. Wel is het duidelijk dat de inkomsten van GF fors toe zijn genomen en verder gaan toenemen (R3, TR, Epyc, APU's), dat GF en Samsung samenwerken en dat dit alles ervoor zorgt dat GF meer middelen voor R&D beschikbaar zou moeten kunnen stellen terwijl Intel er ook moeite mee heeft om de stap naar hun volgende node te maken. Het is koffiedik kijken maar dit lijkt zeker, AMD heeft de eerste forse klap uitgedeeld en het is nu eindelijk weer een spannend gevecht geworden tussen Intel en AMD. Gezien de voorgeschiedenis hoop ik dat AMD flinke mokerslagen gaat uitdelen totdat het minstens 50% marktaandeel heeft gehad gedurende enkele jaren.
Dennism schreef op zaterdag 29 juli 2017 @ 12:58:
Kijk je dan naar een heethoofd als de 7700K (Top Sku in die range) dan ze je dat die CPU vrij gemakkelijk in de regel naar 5Ghz krijgen, toch 600Mhz meer.
Bij door Intel cherrypicked samples die zij naar reviewers stuurden! Gewone mensen die er een kopen komen na delidding vaak niet hoger dan 4,8 of misschien 4,9 GHz, als ze geluk hebben. Bovendien moet je dan eerst die CPU delidden. Voor de doorsnee gebruiker is 4,5-4,6 GHz waarschijnlijk veel realistischer. Daarnaast wordt het behoorlijke waanzin qua stroomverbruik en hitte om dat ding tot 5 GHz te overklokken (totaal niet de moeite waard voor dat kleine beetje performance-winst, net als dat ik niet zou aanraden om 4,1 GHz te forceren bij Ryzen) maar dat is een andere discussie.

Ik er niets van dat zulke bedrijven normaal gesproken achterhouden en niet direct vol inzetten, als er geen concurrentie is dan zal dat voorkomen maar AMD kon zich dat nu echt niet permitteren en Intel kon zich dat niet permitteren voor hun eerste Core-generatie. AMD zette vol in bij Ryzen en Intel deed dat bij de eerste stap van hun Core-microarchitectuur.

[ Voor 71% gewijzigd door Verwijderd op 29-07-2017 23:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-

[ Voor 99% gewijzigd door Verwijderd op 29-07-2017 23:02 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@Verwijderd ik denk terug aan de tijd van Ryzen nu met de AMD Athlon XP van toen.
Zeker toen de 64Bit versie beschikbaar kwam voor de ''gewone'' Consument.
Mijn eerste ervaring met 64Bit was bij een goede vriend van mij.

Zijn systeem was een ;
Club3D ATi Radeon 9800 Pro AIW.
Nvidia Nforce 3 Moederbord (als ik mij goed herinner.)
machtige 2GB DDR werkgeheugen op PC 400??
en met veel pijn en moeite Windows XP 64Bit proberen te draaien.

helaas bleef voor de consument de tijd steken voor 64 bit tijdens de overgang naar Vista.
pas met vista kwam de 64bit systemen pas van de grond.

Acties:
  • 0 Henk 'm!

Verwijderd

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2017/07/Intel-Coffee-Lake-Core-i7-8700K-Core-i7-8700.jpg
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2017/07/Intel-Coffee-Lake-Core-i5-8600-Core-i5-8400.jpg
Dat bevestigt wat we al vermoedden: 6 kernen gaat binnenkort ook bij Intel te verkrijgen zijn voor <=$250 , zelfs de 8400 gaat 6 kernen krijgen en die lijkt gepositioneerd te zijn tegenover de 1600, maar dan zonder hyperthreading. Het staaft wat wij hier eerder stelden: 6 kernen is mainstream geworden.

[ Voor 16% gewijzigd door Verwijderd op 30-07-2017 01:01 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
https://nl.hardware.info/...-op-op-processorlijst-amd

8-core treadripper, dat kan een leuk beestje worden, op elke die de helft van de cores ingeschakeld en veel meer TDP ruimte :)

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Toettoetdaan schreef op zondag 30 juli 2017 @ 08:11:
https://nl.hardware.info/...-op-op-processorlijst-amd

8-core treadripper, dat kan een leuk beestje worden, op elke die de helft van de cores ingeschakeld en veel meer TDP ruimte :)
Ach, die tdp-ruimte boeit niet zo, gezien de beperkingen v/h bakproces. Maar ik verwachtte deze wel omdat het gewoon logisch is voor mensen die >24 PCIe wilden, maar niet meer cores 'willen' (ivm licentiekosten oid.).

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 07:31

Damic

Tijd voor Jasmijn thee

Je kan er gewoon een veel grotere koeler op plaatsen :+ *FUCK YEAH*

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 30 juli 2017 @ 00:58:
[afbeelding]
[afbeelding]
Dat bevestigt wat we al vermoedden: 6 kernen gaat binnenkort ook bij Intel te verkrijgen zijn voor <=$250 , zelfs de 8400 gaat 6 kernen krijgen en die lijkt gepositioneerd te zijn tegenover de 1600, maar dan zonder hyperthreading. Het staaft wat wij hier eerder stelden: 6 kernen is mainstream geworden.
Op papier zien die Intels er wel goed uit. Sowieso top dat eindelijk de Turbo's eens duidelijk vermeldt worden.

Alhoewel je volgensmij nog steeds geen garantie hebt dat bijvoorbeeld zo'n Allcore turbo altijd gehaald wordt. Dit blijft toch gewoon afhankelijk van diverse parameters (o.a. temp) die realtime door de hardware gemonitord worden :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op zondag 30 juli 2017 @ 09:02:
[...]

Op papier zien die Intels er wel goed uit. Sowieso top dat eindelijk de Turbo's eens duidelijk vermeldt worden.

Alhoewel je volgensmij nog steeds geen garantie hebt dat bijvoorbeeld zo'n Allcore turbo altijd gehaald wordt. Dit blijft toch gewoon afhankelijk van diverse parameters (o.a. temp) die realtime door de hardware gemonitord worden :?
Ik heb nog nooit gezien (zowel bij Intel als AMD) dat bij normale koeling en realistische real world workloads de all core turbo waardes niet gehaald werden. Ga je heel de dag Prime95 of andere stresstests draaien met een koeler van €5 kan het natuurlijk een ander verhaal worden.
foppe-jan schreef op zondag 30 juli 2017 @ 08:51:
[...]

Ach, die tdp-ruimte boeit niet zo, gezien de beperkingen v/h bakproces. Maar ik verwachtte deze wel omdat het gewoon logisch is voor mensen die >24 PCIe wilden, maar niet meer cores 'willen' (ivm licentiekosten oid.).
Als je bereid bent de premium voor de X399 mobo's te betalen kan dat inderdaad wel een leuke cpu worden als de prijs niet te hoog gaat liggen in vergelijking met de R7's. 64 PCIE lanes kunnen in bepaalde gevallen zeer handig zijn.

Ik heb iig weer wat nieuwe keuzes voor mijn nieuwe build, waar het eerst tussen Ryzen en Skylake-X (7820X) ging, en Skylake-X de overhand leek te hebben vanwege de single core performance die ik voor WoW en wat andere games nodig heb, Ryzen heeft helaas met o.a. WoW wat issues omdat het enige dat de engine prefereert zo hoog mogelijke IPC i.c.m. met kloksnelheid is op een enkele core.

Daar nu echter blijkt dat Skylake-X net als Ryzen bij Launch issues heeft met een boel games vanwege de architecturale wijzigingen en hoogstwaarschijnlijk ook optimalisatie patches nodig heeft waarvan maar de vraag is of deze gaan komen daar Skylake-X niet echt een gaming cpu is ga ik nu deze Threadripper en de 8700K maar eens volgen. Nu zal deze threadripper de issues met WoW niet oplossen, maar de 64 PCIE lanes kunnen me mogelijk overhalen dit voor lief te nemen daar ik voor mijn andere doelstellingen met het systeem een deel van deze lanes goed zou kunnen benutten.

[ Voor 50% gewijzigd door Dennism op 30-07-2017 10:28 ]


Acties:
  • 0 Henk 'm!
^
Tot nu toe waren er volgensmij ook geen allcore turbo's. In ieder geval niet formeel opgegeven door Intel.
Bij bijv de 7700K kan slechts 1 core boosten van 4.2 (base) tot 4.5ghz .

Zou idd wel verwachten dat met een redelijke koeler en zeker als je op alle cores een 100% real world belasting zet de all core turbo zonder throttling gehaald zou moeten worden. Maar eigenlijk ook gewoon stresstests.

Naarmate er meer software komt die meer cores nodig heeft wordt het belangrijker dat de turbo ook meer cores betreft.

[ Voor 12% gewijzigd door Help!!!! op 30-07-2017 10:36 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op zondag 30 juli 2017 @ 10:31:
^
Tot nu toe waren er volgensmij ook geen allcore turbo's. In ieder geval niet formeel opgegeven door Intel.
Bij bijv de 7700K kan slechts 1 core boosten van 4.2 (base) tot 4.5ghz .

Zou idd wel verwachten dat met een redelijke koeler en zeker als je op alle cores een 100% real world belasting zet de all core turbo zonder throttling gehaald zou moeten worden. Maar eigenlijk ook gewoon stresstests.
`
All core turbo's zijn er volgens mij (even uit mijn hoofd) sinds de introductie van Turboboost 2.0, maar zou ook zelfs al Turboboost 1.0 geweest kunnen zijn, echter inderdaad lang niet altijd gedocumenteerd of slecht gedocumenteerd, zo laten diverse tests zien dat de (niet / slecht gedocumenteerde) "all core turbo" voor de 7700k op stock settings 4.4Ghz is (echter veel zo niet alle fabrikanten hebben een bios optie die deze op 4.5Ghz zet).

Met redelijke koeling mag een stresstest inderdaad ook geen issues geven, ik heb nog niet veel gespeeld met 7700K's, maar de exemplaren waar ik ervaring heb hadden geen moeite met "All core turbo" op 4.4 / 4.5 (via de bios optie) met een redelijk standaard koeling als een Corsair AIO.

Acties:
  • 0 Henk 'm!
Het kan in ieder geval duidelijker.

Als je bij 7900X ark kijkt:

Dan zie je:
Base = 3.3
Singlecore Turbo = 4.3
Turbo Boost Max Technology 3.0 Frequency = 4.5
" Intel® Turbo Boost Max Technology 3.0 identifies the best performing core(s) on a processor and provides increased performance on those cores through increasing frequency as needed by taking advantage of power and thermal headroom. Intel® Turbo Boost Max Technology 3.0 frequency is the clock frequency of the CPU when running in this mode."

Als ik het goed herinner is TB3.0 beperkt tot max 3 cores tegelijkertijd.

Als Intel het gaat opgeven zoals bij de gelekte coffee lake specs is dat in ieder geval duidelijker met 1,2,4 en 6 core TB opgave.

AMD geeft het helaas tot nu toe ook onduidelijk aan.

[ Voor 7% gewijzigd door Help!!!! op 30-07-2017 11:24 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op zondag 30 juli 2017 @ 11:23:
Het kan in ieder geval duidelijker.

Als je bij 7900X ark kijkt:

Dan zie je:
Base = 3.3
Singlecore Turbo = 4.3
Turbo Boost Max Technology 3.0 Frequency = 4.5
" Intel® Turbo Boost Max Technology 3.0 identifies the best performing core(s) on a processor and provides increased performance on those cores through increasing frequency as needed by taking advantage of power and thermal headroom. Intel® Turbo Boost Max Technology 3.0 frequency is the clock frequency of the CPU when running in this mode."

Als ik het goed herinner is TB3.0 beperkt tot max 3 cores tegelijkertijd.

Als Intel het gaat opgeven zoals bij de gelekte coffee lake specs is dat in ieder geval duidelijker met 1,2,4 en 6 core TB opgave.

AMD geeft het helaas tot nu toe ook onduidelijk aan.
Duidelijker kan het inderdaad zeker, bij beide fabrikanten. die Coffee lake "info sheets" geven het inderdaad wel mooi aan.

Uit mijn hoofd is Turbo 3.0 trouwens 2 cores i.p.v. 3 (iig op Skylake-X).

Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op zondag 30 juli 2017 @ 09:02:
[...]

Op papier zien die Intels er wel goed uit. Sowieso top dat eindelijk de Turbo's eens duidelijk vermeldt worden.

Alhoewel je volgensmij nog steeds geen garantie hebt dat bijvoorbeeld zo'n Allcore turbo altijd gehaald wordt. Dit blijft toch gewoon afhankelijk van diverse parameters (o.a. temp) die realtime door de hardware gemonitord worden :?
Daar zou ik niet zo bang voor zijn als je een middelgrote kast en en een mooie koeler gebruikt. Ik ben benieuwd hoe AMD hierop gaat reageren. De 7400 is verkrijgbaar voor $170, als die 8400 inderdaad 6 kernen krijgt met een turbo's van 4,0 , 3,9 en 3,8 GHz dan ligt die performance bij spellen nagenoeg op hetzelfde niveau als bij de 1600X, alleen kan je bij de 1600X pech hebben en de 4,0 GHz niet halen. Voor taken die goed gebruik maken van 2 threads voor 1 kern zal de 1600X beter presteren. Het lijkt mij dat AMD de prijzen zal moeten verlagen en dat de prijs van de 1600 met minstens $30-40 verlaagd moet worden. Als dit doorwerkt naar de 1700 en hoger...
Maar goed, het punt hier is vooral dat 6 kernen echt standaard is geworden dankzij Ryzen en dat ook mensen die het nog in hun koppie hebben dat ze een Intel-CPU moeten kopen vanaf uiterlijk begin 2018 voor pak hem beet $!70 een CPU met 6 kernen kunnen kopen. Misschien pakt het wel positief uit voor de mensen die een Ryzen-CPU met 6 of meer kernen hebben dat Intel de 8400 positioneert tegenover de 1600(X). Het zou n.m.m. voor de hand liggen dat programmeurs van spellen 6 kernen met 3,8 GHz als standaard nemen, een 7700k of 6700k die zeer sterk is overklokt kan hier nog enigszins bij in de buurt komen.

Acties:
  • 0 Henk 'm!
Die 8400 heeft alleen geen hyperthreading. Dus dat is een voordeel(tje) voor de 1600(x).

Wel weer typische Intel lineup. 6c/12T krijg je pas bij de 8700. De 7700 kost nu 310 a 320. Daar koop je ook een 1700 voor.

Het is in ieder geval top dat 6c nu eindelijk mainstream is. Met beetje concurrentie zou het wel eens niet lang hoeven duren voordat 8c ook mainstream is op desktop.

ps: Misschien idee om wat witregels / alinea's te gebruiken voor de leesbaarheid :p

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Verwijderd schreef op zondag 30 juli 2017 @ 00:58:
Dat bevestigt wat we al vermoedden: 6 kernen gaat binnenkort ook bij Intel te verkrijgen zijn voor <=$250 , zelfs de 8400 gaat 6 kernen krijgen en die lijkt gepositioneerd te zijn tegenover de 1600, maar dan zonder hyperthreading. Het staaft wat wij hier eerder stelden: 6 kernen is mainstream geworden.
En aangezien de battle pas net gestart is zullen 8 core CPU`s binnen een jaar mainstream worden, en binnen 2 jaar zal 12 core richting high-mainstream gaan.
(8cores was eigenlijk bij een natuurlijk concurrentie verloop tenminste 5 jaar geleden al mainstream geweest (zoals de consoles al lieten zien), nu zouden we dan al een jaar of 2 bezig zijn met 12-16 core en duur/highend zou binnen nu en een jaar of 2 al aan 24+ cores zitten)

Daarom dat nu kopen eigenlijk toch moeilijk is, om 3 of 4 jaar met zekerheid verder te kunnen komen met de setup moet je eigenlijk al een 16 core kopen. (maar dat is prijs/prestatie gewoon nog niet echt interessant.)

Welke CPU ik nu ook koop ik heb op dit moment het grote gevoel dat ik op 1 of andere manier geld aan het weggooien ben.
(terwijl ik met m`n Phenom II x3 op 2800 mhz gecombineerd met DDR2 MEM toch echt een upgrade nodig heb)

Mijn deadline stond op eind Juli maar heb ik toch maar verschoven naar ~20 september. (wanneer Threadripper en Vega na geland te zijn weer teruggekeerd zijn op Aarde.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Dat hoeft echt niet hoor. :) De vraag is wat ze gaan bieden aan de onderkant van de markt, want daar zit het volume (en dus ook een groot deel van de mensen die spellen willen kunnen spelen). Als dat bij beide aanbieders verschuift naar 4/4 of 4/8 zal dat (en betere CPUs in consoles) veel meer betekenen voor gaming dan wat je kunt kopen voor >250-300e.

[ Voor 11% gewijzigd door foppe-jan op 30-07-2017 13:30 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
Met die 8400 die 6c biedt voor waarschijnlijk rond 170 zit je al aardig aan onderkant toch :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

enchion schreef op zondag 30 juli 2017 @ 13:09:
[...]


En aangezien de battle pas net gestart is zullen 8 core CPU`s binnen een jaar mainstream worden, en binnen 2 jaar zal 12 core richting high-mainstream gaan.
(8cores was eigenlijk bij een natuurlijk concurrentie verloop tenminste 5 jaar geleden al mainstream geweest (zoals de consoles al lieten zien), nu zouden we dan al een jaar of 2 bezig zijn met 12-16 core en duur/highend zou binnen nu en een jaar of 2 al aan 24+ cores zitten)

Daarom dat nu kopen eigenlijk toch moeilijk is, om 3 of 4 jaar met zekerheid verder te kunnen komen met de setup moet je eigenlijk al een 16 core kopen. (maar dat is prijs/prestatie gewoon nog niet echt interessant.)

Welke CPU ik nu ook koop ik heb op dit moment het grote gevoel dat ik op 1 of andere manier geld aan het weggooien ben.
(terwijl ik met m`n Phenom II x3 op 2800 mhz gecombineerd met DDR2 MEM toch echt een upgrade nodig heb)
Ik ben goed vertrouwd met dit dilemma. Ik heb een systeem met een i5-750 met enkel een turbo naar 3,3 GHz (OEM rotzooi). Daarnaast betaal je momenteel belachelijk veel voor RAM, hoe graag ik ook de PC zou upgraden, ik hink nog steeds op 2 gedachten en begin 2018 is niet heel erg ver meer, nog maar 4 maanden. De vraag is echter wanneer die nieuwe fabrieken operationeel zijn en hoelang het daarna nog duurt voordat de aanvoer op gang is gekomen en de winkels de prijzen verlagen (dat doen ze niet graag). Naar verluidt zou het jarenlang duren voordat die nieuwe fabrieken @100% capaciteit draaien maar ik heb er geen idee van met welke capaciteit ze starten en hoe dat zich verhoudt tot de huidige schaarste.
en dat omdat er zoveel RAM en SSDs worden verspild voor fucking telefoontjes die zwaar overspecced zijn voor 99,9% van de gebruikers die niets anders doen dan een beetje browsen, chatten en wat video's bekijken met speakertjes van $1. :N
Help!!!! schreef op zondag 30 juli 2017 @ 13:51:
Met die 8400 die 6c biedt voor waarschijnlijk rond 170 zit je al aardig aan onderkant toch :?
Ja (wat betreft de i5) en je kan erop rekenen dat Intel strak vasthoudt aan hun segmentering:
- vanaf i7 hyperthreading
- dezelfde modelnummers voor dezelfe prijs
...

Het enige wat lijkt te veranderen is ze nu 6 kernen geven voor i5, we moeten nog even afwachten wat ze met i3 gaan doen. Zou 4 kernen eindelijk standaard worden voor i3 en laptop-CPU's?
Help!!!! schreef op zondag 30 juli 2017 @ 12:45:
Die 8400 heeft alleen geen hyperthreading. Dus dat is een voordeel(tje) voor de 1600(x).
Ja, maar wel voor ongeveer $170, waarschijnlijk. De 8700k wordt voor gamers mogelijk een hele interessante CPU, in ieder geval als ze niet verder dan een paar jaar vooruit kijken: 2 kernen en 4 threads minder dan de 1700(X) maar wel met een maximale klokfrequentie van 4,8-5,1 GHz, die zal de 1700(X) niet veel ontlopen bij goed geoptimaliseerde software en bij slecht geoptimaliseerde software wint die 8700k het natuurlijk ruimschoots van de 1700(X) als je je blindstaart op de FPS.
Als Intel zo verstandig gaat zijn om de prijs te laten zakken naar ongeveer $300 dan hebben ze een winnaar.
Niet dat het voor mij uitmaakt, ik koop geen Intel meer voor een lange tijd in de toekomst zolang AMD een goed alternatief biedt, in ieder geval totat AMD weer een goed marktaandeel heeft. Ik ben niet vergeten hoe Intel ook mij als gewone klant heeft genaaid.
Wel weer typische Intel lineup. 6c/12T krijg je pas bij de 8700.
Zie mijn vorige reactie, in dezelfde reactie (omdat Tweakers dat zo graag heeft).

[ Voor 31% gewijzigd door Verwijderd op 30-07-2017 14:08 ]


Acties:
  • +2 Henk 'm!

Verwijderd

foppe-jan schreef op zondag 30 juli 2017 @ 13:14:
Dat hoeft echt niet hoor. :) De vraag is wat ze gaan bieden aan de onderkant van de markt, want daar zit het volume (en dus ook een groot deel van de mensen die spellen willen kunnen spelen). Als dat bij beide aanbieders verschuift naar 4/4 of 4/8 zal dat (en betere CPUs in consoles) veel meer betekenen voor gaming dan wat je kunt kopen voor >250-300e.
Reken maar op minstens een hexacore vanaf de PS5 die dan weliswaar zuinig geklokt gaat zijn omdat ze anders probleempjes hebben met de hitte. Het grootste obstakel in mijn ogen zijn nog steeds die consoles die met hen piss-poor CPU's die ook nog eens onderklokt zijn de vooruitgang tegenhouden. Developers weigeren meestal om voor enkel de PC allerlei extra CPU-features toe te voegen ondanks dat die PC een groot deel van de markt heeft (uit mijn hoofd qua omzet ongeveer de helft, geef en neem 10%, qua percentage gamers veel meer)...

Bij het spelen van Deus Ex: Human Revolution werd het pijnlijk duidelijk hoe er voor consoles wordt ontwikkeld, een aantal medewerkers die het spel maakten gaven meerdere keren letterlijk in het commentaar aan hoe ze beperkt werden doordat ze niet meer dan een 0,5 GB aan RAM konden gebruiken of iets wat er dicht bij in de buurt komt. Als je naar de takenbeheer kijkt dan zie je ook dat het RAM-gebruik nooit hoger wordt. Niet goed, want dat betekent dat er veel minder wordt ingeladen en dat de gamewereld veel minder rijk is. Dit hield hen tegen om grotere levels te maken waarbij je betere panorama's hebt en waarbij je delen van de gamewereld ziet waar je ook echt kan komen, het legde beperkingen op voor het aantal NPC's en wat de NPC's kunnen doen etc.
Luister naar hun commentaar tijdens het spelen van het spel en je hoort tal van dit soort verhalen, enkel omdat de consoles enorm achterliepen met hardware. Als je ME3 hebt gespeeld dan heb je ook gezien hoe consoles de vooruitgang tegenhouden: dat licht op de grond in de cockpit van Joker was gewoon een witte vlek op de vloer. Niet netjes berekend door te zien hoe het licht van boven erop valt maar een witte vlek. Het is lelijk en het doorbreekt de illusie want naast dat het er lelijk uitziet valt het ook op dat de positie op de vloer hetzelfde blijft als je de 'camera' draait. Waarom deden ze dat? Omdat anders op consoles niet heel het schip in 1 keer gerenderd zou kunnen worden en je dan laadscenes zou hebben wanneer je van het ene deel van het schip naar het andere deel van het schip gaat.

Dit zijn nog maar de problemen door RAM-beperking, de problemen met de CPU-beperking houden de evolutie van gameplay pas echt tegen (AI, physics, botsingsdetectie). Voor multiplayerspellen passen ze het nog wel een beetje aan (groter aantal medespelers bij de PC dan bij consoles, bij fatsoenlijk gemaakte spellen) maar daar blijft het zo'n beetje bij.
Ook het feit dat bij consoles CPU's en GPU's zo sterk onderklokt moeten worden, omdat er de idiote hype is dat het in een zo'n klein mogelijk doosjes moet worden gepropt, helpt natuurlijk niet voor de performance die consoles halen. Het beste waar PC gamers op kunnen hopen (wat betreft gaming) is dat developers steeds meer eerst voor de PC gaan ontwikkelen en daarna het spel gaan afzwakken om het voor consoles geschikt te maken in plaats van in de omgekeerde richting te werken.

[ Voor 8% gewijzigd door Verwijderd op 30-07-2017 14:21 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Wat ik aan moderne games vooral sneu vind is dat de AI nog steeds om te janken is, en grotendeels scripted.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

foppe-jan schreef op zondag 30 juli 2017 @ 14:21:
Wat ik aan moderne games vooral sneu vind is dat de AI nog steeds om te janken is, en grotendeels scripted.
Ja, en dat is voor een deel te wijten aan de zwakke CPU performance, in het bijzonder bij consoles.
Zo gauw je echte AI ontwikkelt krijg je een gigantische extra load op de CPU. Daarnaast zal het waarschijnlijk ook aan expertise ontbreken maar daar valt gemakkelijk iets aan te doen.

Acties:
  • 0 Henk 'm!

Verwijderd

Nog even een toevoeging m.b.t. de gebrekkig botsingsdetectie. Dit gaf bij ME ook veel problemen.
Bij ME 2 gebeurde het vaak dat je ging zweven (vooral op die extra planeten waarbij een minimissie had) en bij ME3 kwam je regelmatig vast te zitten in de vloer van de cockpit van Joker. Allebei wordt veroorzaakt door een gebrekkige botsingsdetectie (bij ME2 hadden ze dit kunnen 'oplossen' ondanks dat dit gebeurt maar dat is een ander verhaal). Bij Deus Ex: Human Revolution en soortgelijke spellen kan je vaak doorheen een vloer of muur gaan door een object vast te pakken, zoek maar eens een speedrecord op voor Deus Ex: Human Revolution en je ziet hoe het werkt. Ze spreken dan over clipping, wat er gebeurt is dat de algorithmes die gebruikt worden niet met 100% zekerheid kunnen aangeven of dat je aan de ene kant van de muur zit of aan de anderen, in dat geval moet er een kant op worden geclipt (de waarde zetten op een minimale/maximale waarde die erboven/eronder zit). Als dat correct gebeurt dan merk jij als speler niets, als dat niet correct gebeurt dan ga je door een muur of vloer heen. Bij sommige spellen omzeilen ze heel het probleem met een gebrekkig botsingsdetectie door de afstand t.o.v. muren groot te houden.
Meer algemeen zie je natuurlijk in elk spel waarbij dit niet gebeurt dat het haar doorheen het hoofd zweeft, dat een ketting doorheen de nek zweeft, dat een NPC een beetje door de grond zakt etc.
Helaas bestaat er in de Nederlandse taal geen tegengestelde van immersief want dat woord heb ik nodig. Het doorbreekt gigantisch de illusie zo gauw je dat ziet. Bij Assassin's Creed Syndicate zie je het ook, het spel is prachtig getekend maar dan zie je ineens dat, bij Unity gebeurde het nog meer, namelijk ook de hele tijd tijdens het klimmen. Alles wat nodig is om dit te voorkomen is door 1 CPU-kern op te offeren aan het rekenen met veel betere algorithmes, zo gauw 6 kernen standaard wordt dan gaat dit kunnen. Je zou dan een andere kern kunnen opofferen foor physics, 1 voor AI en 3 voor de rest van het spel. In combinatie met Vulkan en DX12 moet dat mogelijk zijn. Voor mensen die nog wat meer CPU-power hebben kan je er nog wat meer in stoppen. In theorie zou je zelfs spelers opties kunnen laten kiezen uit een menuutje.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
foppe-jan schreef op zondag 30 juli 2017 @ 14:21:
Wat ik aan moderne games vooral sneu vind is dat de AI nog steeds om te janken is, en grotendeels scripted.
En de interacties nog steeds zo symplistisch, ook het lichaam is afwezig of Hollywood(bullshit gespeel met wat settings) wat imho storend is omdat het niet overeenkomt met het menselijk lichaam. (reden waarom Mirrors Edge zo`n frustrerend/moeilijk spel was)

In het openingslevel van Doom bv erg veel wind met zandstormen, maar geen enkele loss in visibility, en geen lichaam wat mbt beweging reageert op de wind.
Maar WEL bullshit contrast shifting als je in een donker hoekje kijkt.

Waar zijn de Physische definities mbt de speler, ik hoef nieteens live physics van de bottenstruktuur te hebben, alleen wat rudimentaire limieten/lookuptables zou al een stellaire verbetering zijn.

Ook de simpele buttonclick events zijn zo ontzettend dom, en dat struikelen over hoekjes is ook zo ontzettend old.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Verwijderd

enchion schreef op zondag 30 juli 2017 @ 14:41:
[...]


En de interacties nog steeds zo symplistisch, ook het lichaam is afwezig of Hollywood(bullshit gespeel met wat settings) wat imho storend is omdat het niet overeenkomt met het menselijk lichaam. (reden waarom Mirrors Edge zo`n frustrerend/moeilijk spel was)
...
Waar zijn de Physische definities mbt de speler, ik hoef nieteens live physics van de bottenstruktuur te hebben, alleen wat rudimentaire limieten/lookuptables zou al een stellaire verbetering zijn.
Licht eens toe wat je bij Mirrors Edge zo frustrerend vond?
De beweging is niet zo heel erg onrealistisch (uitvergroot maar de principes kloppen nog wel aardig), kijk voor de grap maar eens hiernaar (gratis te zien zonder enig gedoe zoals bij elk gewoon Youtube-filmpje):

Je kan in het echt ook een beetje tegen muren oplopen en hierbij zelfs hoger komen dan de hoogte waarbij je op de muur stapt. Je kan in het echt de impact van een val sterk verminderen door te 'sliden' en te rollen. Dat is ook best logisch vanuit natuurkundige perspectief maar ik laat het over aan een natuurkundige om dat uit te leggen.
Ik denk trouwens dat als je graag goed bewegende lichamen hebt in een computerspel, en dan vooral vanuit derde persoon perspectief, dat het dan veel meer zoden aan de dijk zet om goed uitgevoerde motion capturing te gebruiken (een hele hoop sensoren op een athleet/acteur plakken die beweegt) dan om dit door de CPU te laten berekenen, niet alleen om de CPU te ontzien maar ook omdat de modellen niet goed genoeg zijn om net zo'n goed resultaat te krijgen als wat motion capturing geeft.
Het probleem met motion capturing is dat het wat duurder is maar voor AAA-spellen is het zeer de moeite waard. Bij Tomb Raider (2013, RotTR) voelt de beweging echt omdat die beweging echt is.
In het openingslevel van Doom bv erg veel wind met zandstormen, maar geen enkele loss in visibility, en geen lichaam wat mbt beweging reageert op de wind.
Inderdaad, dit zijn typische problemen door het gebrekkig benutten van de CPU-kernen.
Botsingssdetectie, physics en AI, het is allemaal even belangrijk en het zijn allemaal stiefkindjes in de huidige spellen. Helaas.
Ook de simpele buttonclick events zijn zo ontzettend dom
Ja, en dat komt doordat die games eerst en vooral voor consoles worden gemaakt. Die kunnen niet goed mikken zoals wij dat met een muis doen maar ze kunnen wel op een knopje duwen.
en dat struikelen over hoekjes is ook zo ontzettend old.
Dat doet me aan Assassins Creed (Brotherhood/Revelations, niet zeker of dat dit bij iI ook zo was) denken. Ezio kan van 100 meter hoog vallen en hij heeft dan enkel zijn bepantsering een beetje beschadigd maar als hij zachtjes oploopt tegen een burger dan valt hij rollend op de grond alsof hij tegen een betonnen muur oploopt. :')


Meer in het algemeen. Ik denk dat de grote studio's met minder spellen uit moeten komen en meer moeten investeren in de spellen die wel uitkomen. Nu zijn er ook veel spellen die floppen, maak liever minder spellen en zorg ervoor dat die spellen die je maakt heel erg goed zijn. Meer zoals TW3 en GTAV, minder zoals CoF100 of BF50. ;)

[ Voor 12% gewijzigd door Verwijderd op 30-07-2017 15:03 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Hm, van ME2 staat me dat niet echt bij, al heb ik dat pas vrij laat gespeeld. Die andere spellen (nog) niet gespeeld -- maar wie weet, als ze over een paar jaar redelijk zijn geprijsd. :)

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Verwijderd schreef op zondag 30 juli 2017 @ 14:57:
[...]

Licht eens toe wat je bij Mirrors Edge zo frustrerend vond?
De beweging is niet zo heel erg onrealistisch (uitvergroot maar de principes kloppen nog wel aardig)
De point zit hem nou juist in de "Wel Aardig". (oftewel niet goed dus)

Jumps die ik in lengte/afstand consequent mis omdat het loopritme en de hoofdbeweging niet overeenstemt met het lichaamsgewicht. (maw mijn hersenen gokken elke keer mis omdat de informatie die gegeven wordt wel genoeg erop lijkt waardoor mijn hersenen het niet gewoon negeren, maar niet goed genoeg is zodat ik intuitief/na leren weet wat ik met die informatie aanmoet)

Iemand heeft gewoon met wat settings zitten spelen om het er "uit te laten zien zoals op een filmpje" zoals jij dat doet met een film voorbeeld te geven. (De Hollywood manier dus, alsin if it looks the same it is the same)

IPV dat de developer door het zelf uit te proberen door het gewoon te spelen er ook achter komt dat het zo niet werkt.

Met fysica van het menselijk lichaam moet je NOOIT je definities baseren op een filmpje, een filmpje kan/mag alleen gebruikt worden als extreem globaal middel of je niet iets heel erg verkeerd doet.
Een filmpje geeft nl geen telemetry data maar alleen renditie.
Als je alleen de renditie overneemt leer je de fysica/oorsprong/modellen niet en leer je ook niet (En Hier Komt Ie) welke factoren van die fysica weg te laten, of te versterken, want je zit niet echt in het spel je zit achter een scherm, maw er moet een deel aangepast worden om de informatie van binnen het spel overeenstemmig/aanvullend/nonconflicting te maken met informatie die van erbuiten afkomt. (copy/paste werkt dus niet)

Als het zo simpel zou zijn als copy/paste hadden we al lang robots gehad die op de volwassen menselijke manier kunnen lopen.

Er is een grote reden dat bv Quake3 geen leercurve heeft (geen lichaamsfysica) en sommige andere games wel (bogus fysica), er zijn ook schaarse games die het wel aardig goed doen (geteste fysica). (chronicles of Riddick bv, maar die spellen zijn overduidelijk ook gespeeld/getest door de developers en Vin Diesel zelf)

Maw wat ik bedoel is doe het niet of doe het goed, maar niet voor de show oftewel de fake versie wat jammergenoeg de meerderheid is.

En als het concept uitgevogeld/uitgepuzzeld is door de developer dan kan die dat gebruiken voor elk volgend spel dus geen reden om het niet 1X (for the greatness of science) op de goede manier te doen.

[ Voor 3% gewijzigd door enchion op 30-07-2017 16:10 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zondag 30 juli 2017 @ 14:57:
Inderdaad, dit zijn typische problemen door het gebrekkig benutten van de CPU-kernen.
Botsingssdetectie, physics en AI, het is allemaal even belangrijk en het zijn allemaal stiefkindjes in de huidige spellen. Helaas.
Het is eerder een engine of ontwerp kwestie dan dat het aan het aantal CPU kernen ligt.

In Call of Duty: Black Ops 3 kan je in een level weggeblazen worden door sterke wind of weggespoeld worden door hoge golven. Je karakter in het spel reageert er ook op, bewegingen worden langzamer of niet mogelijk en zelfs de bruikbaarheid van je wapen lijdt eronder. In Modern Warfare 3 kom je in een zandstorm terecht welke behoorlijk zicht beperkingen met zich meebrengt.

Dat DOOM dit niet heeft lijkt mij dan eerder een ontwerpkeuze dan een beperking van hardware. Immers CoD zijn ook console titels geport naar de PC.

AI in een spel is ook meer dan enkel een CPU core wel of niet hebben. Of schaalt de moeilijkheid straks op basis van je CPU. :P De intelligentie van de tegenstanders staat of valt met het programmeerwerk en niet of dit op een eigen core draait of niet. Ook is er verschil tussen AI in een RTS of een shooter. Je kan een shooter prima heel moeilijk maken doordat elke tegenstander een aimbot heeft en enkel headshots maakt. Maar of het een leuke game is dan...

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op zondag 30 juli 2017 @ 16:15:
[...]


Het is eerder een engine of ontwerp kwestie dan dat het aan het aantal CPU kernen ligt.
De relevante vraag is waarom de developers het niet hebben uitgewerkt, hardwarebeperkingen op de zwakste ondersteunde hardware - vaak consoles zoals bij Deus Ex: Human Revolution ze niet over 0,5 GB ram heen mochten gaan in 2011 :') - is een belangrijke reden waarom ze het niet uitwerken. Niet de enige maar zeker een belangrijke. Een gebrek aan gespecialiseerde medewerkers kan ook een reden zijn. Het onvoldoende belang hechten aan zulke details kan ook een reden zijn. In ieder geval is 6 kernen nu midlevel geworden dus de eerste reden kan wegvallen wanneer ze voor de PC optimaliseren. Daarnaast hebben ze met Vulkan geen excuus meer om de load niet goed te spreiden over de CPU-kernen.
In Call of Duty: Black Ops 3 kan je in een level weggeblazen worden door sterke wind of weggespoeld worden door hoge golven. Je karakter in het spel reageert er ook op, bewegingen worden langzamer of niet mogelijk en zelfs de bruikbaarheid van je wapen lijdt eronder. In Modern Warfare 3 kom je in een zandstorm terecht welke behoorlijk zicht beperkingen met zich meebrengt.
Ja, zolang je de uitwerking simpel genoeg houdt (lagere waarde voor de loopsnelheid) gaat het ook nog wel met de beperkte CPU-power die je als maximum veronderstelt voor je spel maar zo gauw je dit alles wat professioneler wil uitwerken heb je toch echt meer CPU-power nodig.
Let erop dat het hier om een combinatie van factoren gaat:
- maximaal slechts 4 kernen in het beste geval voor 99,9% van de gamers tot maart 2017
- piss-poor CPU's op de consoles
- API's die achterlopen (DX11 en OpenGL) en niet fatsoenlijk de load spreiden over de CPU-kernen.
Dat DOOM dit niet heeft lijkt mij dan eerder een ontwerpkeuze dan een beperking van hardware.
Daar kan ik geen uitspraak over doen. Het is mogelijk dat ze voor arcade kozen, het is mogelijk dat ze geen zin hadden om hier tijd aan te besteden omdat het budget niet hoog genoeg was, het is mogelijk dat ze het niet aandurfden omdat ze voor dit spel een zo'n hoog mogelijke FPS wil hebben omdat het in de kern een FPS spel is (maar dan zonder cover).
Ook is er verschil tussen AI in een RTS of een shooter. Je kan een shooter prima heel moeilijk maken doordat elke tegenstander een aimbot heeft en enkel headshots maakt. Maar of het een leuke game is dan...
Dat is nu juist geen AI, dat is werkelijk het simpelste wat je kan doen. Zelfs bij de meest geflopte FPS-spellen zijn ze professioneler dan dat. Als je daarentegen veronderstelt dat de AI-tegenstander een gemiddelde afwijking van X centimeter heeft, de standaarddeviatie Y centimeter heeft, de afwijking groter wordt wanneer er op die AI-tegenstander wordt gevuurd...de AI-tegenstanders je proberen te flanken, een sniper combineert met een paar agressieve commando's die je van meerdere kanten aanvallen en ingame beslissen hoe ze het doen, hierbij aanpassende op wat de speler doet, dat is AI. En dat is slechts het begin ervan. Je moet namelijk ook rekening houden met de wind, hoe de schutter zich daaraan aanpast, camouflage, reflectie van licht...

Heel het punt hier is niet in welke mate andere beperkingen de AI en andere zeer belangrijke features zoals physics en botsingsdetectie de nek omdraaien, het punt hier is dat ze in ieder geval vanaf nu 6 goede CPU-kernen mogen veronderstellen voor de PC en dat we maar moeten hopen dat de developers hier op een goede manier gebruik van zullen gaan maken. De gamers onder ons moeten beseffen dat wij met onze aankopen de macht hebben om de developers te dwingen om hier op een goede manier gebruik van te maken. Bouw maar features in die enkel op de PC kunnen worden ingeschakeld, net als je voor de graphics doet.


PS
Ik heb nooit een CoD-spel gespeeld, ik begrijp dat die weinig populair zijn onder PC-gamers omdat het in het algemeen slechte ports zijn en omdat er wat beperkingen in de gameplay zijn (meer aangepast op consoles en een controller dan op een PC met een muis en een toetsenbord).

[ Voor 6% gewijzigd door Verwijderd op 30-07-2017 18:29 ]


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zondag 30 juli 2017 @ 18:26:
De relevante vraag is waarom de developers het niet hebben uitgewerkt, hardwarebeperkingen op de zwakste ondersteunde hardware - vaak consoles zoals bij Deus Ex: Human Revolution ze niet over 0,5 GB ram heen mochten gaan in 2011 :') - is een belangrijke reden waarom ze het niet uitwerken. Niet de enige maar zeker een belangrijke. Een gebrek aan gespecialiseerde medewerkers kan ook een reden zijn.
Het is denk ik grotendeels een keuze is en een kwestie van aandacht. Kijk bijvoorbeeld naar de Metal Gear Solid reeks, met name deel 1 tot en met 4. De aandacht voor details is enorm in deze games. En van Playstation 1 tot 3 als hardware wisten de ontwikkelaars het onderste uit de kan te halen.

Indien je heel veel details wil aanbrengen moet je ook de tijd hiervoor hebben om het aan te brengen, maar ook om het te testen voor release. Gezien dat games ook deadlines hebben wanneer ze uit moeten komen worden hier keuzes gemaakt.
In ieder geval is 6 kernen nu midlevel geworden dus de eerste reden kan wegvallen wanneer ze voor de PC optimaliseren.
Het aantal cores maakt weinig uit als je niet de moeite neemt om iets te maken of het aandacht voor detail in te zetten. En dan nog is het twijfelachtig dat je daarvoor zoveel cores nodig hebt.
Ja, zolang je de uitwerking simpel genoeg houdt (lagere waarde voor de loopsnelheid) gaat het ook nog wel met de beperkte CPU-power die je als maximum veronderstelt voor je spel maar zo gauw je dit alles wat professioneler wil uitwerken heb je toch echt meer CPU-power nodig.
Let erop dat het hier om een combinatie van factoren gaat:
- maximaal slechts 4 kernen in het beste geval voor 99,9% van de gamers tot maart 2017
- piss-poor CPU's op de consoles
- API's die achterlopen (DX11 en OpenGL) en niet fatsoenlijk de load spreiden over de CPU-kernen.
Wederom betwijfel ik of CPU rekenkracht de beperkende factor speelt. Ook voordat Ryzen bestond hadden PC's meer rekenkracht dan consoles. Twee cores extra of minder maakt weinig verschil.

Bij het ontwerp van een level heb je ook te maken met ontwerpkeuzes en gameplay keuzes. Gameplay draait uiteindelijk om patronen. X gebeurt speler moet Y doen om Z te doen of voorkomen.
Dat is nu juist geen AI, dat is werkelijk het simpelste wat je kan doen. Zelfs bij de meest geflopte FPS-spellen zijn ze professioneler dan dat. Als je daarentegen veronderstelt dat de AI-tegenstander een gemiddelde afwijking van X centimeter heeft, de standaarddeviatie Y centimeter heeft, de afwijking groter wordt wanneer er op die AI-tegenstander wordt gevuurd...de AI-tegenstanders je proberen te flanken, een sniper combineert met een paar agressieve commando's die je van meerdere kanten aanvallen en ingame beslissen hoe ze het doen, hierbij aanpassende op wat de speler doet, dat is AI. En dat is slechts het begin ervan. Je moet namelijk ook rekening houden met de wind, hoe de schutter zich daaraan aanpast, camouflage, reflectie van licht...

Heel het punt hier is niet in welke mate andere beperkingen de AI en andere zeer belangrijke features zoals physics en botsingsdetectie de nek omdraaien, het punt hier is dat ze in ieder geval vanaf nu 6 goede CPU-kernen mogen veronderstellen voor de PC en dat we maar moeten hopen dat de developers hier op een goede manier gebruik van zullen gaan maken. De gamers onder ons moeten beseffen dat wij met onze aankopen de macht hebben om de developers te dwingen om hier op een goede manier gebruik van te maken. Bouw maar features in die enkel op de PC kunnen worden ingeschakeld, net als je voor de graphics doet.
Wederom, 6, 8 of 10 cores maken niet dat een programmeur betere code maakt. Een goede AI staat of valt daarmee. Slechte code op een eigen core maakt deze niet beter.

Voor wat betreft die macht met aankopen, dat zal tegenvallen. Je hebt nu nog een heel contingent gamers die een oudere PC hebben en daarmee door (willen) gamen. Studio's willen een zo'n groot mogelijk publiek, dus die gamer met zijn oude Sandy Bridge of Bulldozer machine remt jou af. Een Sandy Bride i7 kan nog prima meekomen en als je een Haswell i5 of i7 hebt dan is er weinig reden om meteen iets nieuws te kopen.
Ik heb nooit een CoD-spel gespeeld, ik begrijp dat die weinig populair zijn onder PC-gamers omdat het in het algemeen slechte ports zijn en omdat er wat beperkingen in de gameplay zijn (meer aangepast op consoles en een controller dan op een PC met een muis en een toetsenbord).
Speel eens een CoD game, ik denk dat je nog aangenaam verrast wordt. :) De Black Ops reeks is vermakelijk met een goed verhaal, Infinite Warfare vond ik ook leuk. Het zijn geen baanbrekende games, maar ze zijn wel leuk om te spelen. Het is vooral modieus om CoD games te haten, maar games als Battlefield zijn feitelijk tot hetzelfde verworden.

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op zondag 30 juli 2017 @ 19:10:
Bij het ontwerp van een level heb je ook te maken met ontwerpkeuzes en gameplay keuzes.
Ook met hardware-limitaties zoals volgens de medewerkers van Deus Ex: Human Revolution voor hen sterk het geval was, zij gaven aan dat zij veel beperkingen hadden doordat ze niet over de :') 0,5 GB Ram
:') heen mochten gaan. Voor het ontwerp van de levels, de NPC's en meer zaken. Speel het spel, luister naar het commentaar en oordeel zelf.
MGS ken ik niet, dat heb ik nooit kunnen spelen aangezien het een console-exclusive is. In theorie kan het nu op de PC worden gespeeld maar zolang het enkel via de MS store verkrijgbaar is heb ik geen interesse.
Wederom, 6, 8 of 10 cores maken niet dat een programmeur betere code maakt. Een goede AI staat of valt daarmee. Slechte code op een eigen core maakt deze niet beter.
Het geeft wel meer mogelijkheden. Natuurlijk kan een goede programmeur meer halen uit dezelfde hardware maar je hebt toch ook echt wat goede hardware nodig als je de best mogelijke game-ervaring wil geven. Niet voor alles maar wel voor 3D-spellen die je zo realistisch mogelijk probeert te maken.
Studio's willen een zo'n groot mogelijk publiek
Verwijderd schreef op zaterdag 29 juli 2017 @ 01:10:

Met alle respect, hoewel hier een kern van waarheid in zit is het dit zo categorisch stellen net zo simplistisch als het categorisch stellen dat het hun doel zou zijn om het beste product neer te zetten. In de praktijk heb je een mix. Ja, veel spellen zijn gericht op de lowest common denominator, denk aan spellen zoals Overwatch, CS:GO, LOL, Dota2, allerlei free to play spellen. Er is ook een categorie AAA-spellen die inzetten op het maximaal benutten van de hardware. Waarom? Omdat het een goed visitekaartje is voor wat een bedrijf kan (veel media-aandacht, gratis reclame hierdoor), omdat ze hiermee technieken ontwikkelen die ook voor simpelere spellen resulteren in een betere performance en misschien ook wel een betere gameplay...
Er zijn zelfs spellen die op bijna geen enkele PC goed gedraaid kunnen worden en niet alleen omdat ze slecht zijn geoptimaliseerd. Dit is nu helaas niet meer zo vaak het geval maar we hadden in het verleden tal van voorbeelden van spellen die nauwelijks te draaien waren op de meeste systemen toen ze uitkwamen, denk aan Crysis, Far Cry en Metro. Ter vergelijking: de consoles in die tijd (PS3, X360) hadden al moeite om ME2 en ME3 op de Unreal3 engine (zonder veel extra's zoals bij Borderlands 2 het geval is ;)) goed te draaien.
Verklaar dan eens spellen zoals Far Cry, Metro en Crysis die op 99% van de computers niet fatsoenlijk te draaien waren toen ze uitkwamen.
Verstandige studio's kiezen juist voor een mix! 90% bekende spellen, 10% experimentele spellen (zelfs EA deed dat met Mirror's Edge), 90% spellen voor de massa, 10% spellen voor de cutting edge...
Als je als studio failliet wil gaan dan moet je vooral alles op de grootste gemene deler richten. Geen innovatie, dan red je het niet lang! Wat beproefd is levert op de korte termijn veel geld op, wat op de massa is gericht eveneens, experimentele spellen die je hardware tot het uiterste pushen, dat geeft een developer de middelen om te innoveren.
Speel eens een CoD game, ik denk dat je nog aangenaam verrast wordt. :) De Black Ops reeks is vermakelijk met een goed verhaal, Infinite Warfare vond ik ook leuk. Het zijn geen baanbrekende games, maar ze zijn wel leuk om te spelen. Het is vooral modieus om CoD games te haten, maar games als Battlefield zijn feitelijk tot hetzelfde verworden.
Ik heb ook nooit Battlefield gespeeld en als ik het me goed herinner dan hadden ze voor BF3 niet eens de hitboxes goed uitgewerkt. Misschien geef ik CoD eens een kans als ik het goedkoop genoeg kan krijgen, BF1 lijkt me wel aardig maar staat ook niet heel erg hoog op mijn lijstje. Voor nu staan bovenaan mijn lijstje RotTR, Doom en TW3.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
dishonored (2) lijkt me ook best aardig, die wacht momenteel op mijn rx570 (sinds 3 juni) :p

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zondag 30 juli 2017 @ 19:32:
MGS ken ik niet, dat heb ik nooit kunnen spelen aangezien het een console-exclusive is. In theorie kan het nu op de PC worden gespeeld maar zolang het enkel via de MS store verkrijgbaar is heb ik geen interesse.
Bepaalde MGS games kunnen via Steam gekocht worden voor de PC.
Het geeft wel meer mogelijkheden. Natuurlijk kan een goede programmeur meer halen uit dezelfde hardware maar je hebt toch ook echt wat goede hardware nodig als je de best mogelijke game-ervaring wil geven. Niet voor alles maar wel voor 3D-spellen die je zo realistisch mogelijk probeert te maken.
Laten we eerst eens beginnen met goed programmeren voordat we met resources gaan strooien. Het was niet alsof er in het 386/486 tijdperk geen goede games waren met goede gameplay. Toen werden ontwikkelaars nog echt gedwongen om goed na te denken. Optimalisatie en efficiënte zijn nu een nagedachte. Ze prikken wel wat RAM bij of zo.
Verklaar dan eens spellen zoals Far Cry, Metro en Crysis die op 99% van de computers niet fatsoenlijk te draaien waren toen ze uitkwamen.
Verstandige studio's kiezen juist voor een mix! 90% bekende spellen, 10% experimentele spellen (zelfs EA deed dat met Mirror's Edge), 90% spellen voor de massa, 10% spellen voor de cutting edge...
Als je als studio failliet wil gaan dan moet je vooral alles op de grootste gemene deler richten. Geen innovatie, dan red je het niet lang! Wat beproefd is levert op de korte termijn veel geld op, wat op de massa is gericht eveneens, experimentele spellen die je hardware tot het uiterste pushen, dat geeft een developer de middelen om te innoveren.
Er gaan hier dingen door elkaar heen. Experimenteel wil niet direct zeggen zwaar voor de hardware. Mirror's Edge was experimenteel vooral voor de gameplay en het verhaal. Far Cry en Crysis zijn eigenlijk platte shooters met weinig speciale gameplay, maar ze waren berucht om hoe erg ze waren voor de grafische kaarten toentertijd.

Een game als My Summer Car is ook hartstikke experimenteel, maar qua eisen kan je het praktisch op alles draaien. Het gaat hier vooral om de bijzondere gameplay.

Grote studio's proberen altijd wel iets nieuws uit, maar ook die nieuwe dingen moeten een publiek zien te trekken om rendabel te worden. Als een nieuwe franchise niet genoeg verkoopt trekken ze er ook de stekker uit.
Misschien geef ik CoD eens een kans als ik het goedkoop genoeg kan krijgen, BF1 lijkt me wel aardig maar staat ook niet heel erg hoog op mijn lijstje. Voor nu staan bovenaan mijn lijstje RotTR, Doom en TW3.
Ik had laatst een paar CoD games uit de koopjesbak van een speelgoedwinkel gehaald. Tientje per stuk, best goede prijs. :)

Acties:
  • 0 Henk 'm!

  • Monkeydancer
  • Registratie: November 2005
  • Laatst online: 14-09 21:09
Welk geheugen raden jullie aan icm. Ryzen 1700. Ik lees dat de snelheid van geheugen ook veel verschil uitmaakt. Waar ligt de sweet spot eigenlijk? Welke snelheid is optimaal?

[ Voor 100% gewijzigd door Monkeydancer op 30-07-2017 20:03 ]

Monkey business: pay peanuts, get monkeys


Acties:
  • 0 Henk 'm!

Verwijderd

Monkeydancer schreef op zondag 30 juli 2017 @ 20:00:
Welk geheugen raden jullie aan icm. Ryzen 1700. Ik lees dat de snelheid van geheugen ook veel verschil uitmaakt. Waar ligt de sweet spot eigenlijk? Welke snelheid is optimaal?
Ik zou 3200 mt/s nemen, welk model je het best gebruikt bepaal je op basis van het moederbord, dat moet je zelf even opzoeken. Ik zou ook naar de latency kijken maar voor Ryzen is de snelheid veel belangrijker (onderaan lees je waarom). Sommige mensen raden aan om het veel duurdere Samsung-geheugen te kiezen maar als je twee latjes wil laten werken met 3200 mt/s dan zou ik me daar niet druk om maken, de kans is groter dat het lukt als je Samsung-geheugen hebt maar als je een beetje je huiswerk maakt dan lis de kans groot dat het met Hynix-geheugen ook wel lukt en als je nu nog niet de 3200 mt/s zou halen dan haal je wel de 3000 MT/s (afgerond) en komt het met een volgende update van de UEFI wel goed.
Is 3200 MT/s de sweet spot? Geen idee, waarschijnlijk ligt die op 3000, 2600 of zelfs 2400. Tot 3200 MT/s heb je bij sommige spellen een forse vooruitgang en naar 3600 MT/s maakt het minder uit. Aangezien je jarenlang met die hardware wil doen en Ryzen sneller data verplaats van de ene helft van de kernen naar de andere naarmate je sneller geheugen hebt zou ik niet te gierig zijn m.b.t. het geheugen maar overdrijf ook niet door €250 te betalen voor 16 GB, dat is het ook niet waard, dat geld investeer je beter in iets anders.
foppe-jan schreef op zondag 30 juli 2017 @ 19:45:
dishonored (2) lijkt me ook best aardig, die wacht momenteel op mijn rx570 (sinds 3 juni) :p
Die staat ook op mijn lijstje ondanks dat Bethesda (die maken er vaak een gruwelijke puinhoop van) de publisher is maar die gaat bij de volgende sales-ronde nog niet voldoende zijn afgeprijsd. Die andere 3 waarschijnlijk wel. Ik koop nu bij voorkeur niet via Steam (goede reden voor) en EA Origins deed niet mee tijdens de laatste zomersale, tijdens de wintersale wel. Het lijkt sowieso dat de kortingen in de winterperiode wat beter zijn. GOG houd ik nu ook in de gaten (wegens DRM-vrij zijn wat wel zo prettig is) maar volgens mij is het betalen nog een probleem (ik weet dat ze sinds kort IDEAL toestaan maar er schijnt ook nog een probleempje te zijn wat betreft veilighied als je dat op die manier zou gebruiken zoals je bij GOG zou moeten doen. Ik zou graag Humble Bundle gebruiken maar Humble Bundel (ik heb er sympathie voor en ze hebben regelmatig een goede aanbieding) aanvaardt nog geen IDEAL en PayPal is voor mij te weinig transparant (op hun website lees je een hoop reclamegeleuter maar duidelijk aangegeven regels en contractuele voorwaarden vind je hooguit met veel moeite).. :/
Ik wil ook nog een keertje GTAV kopen, die heb ik wel via het grijze/zwarte circuit gespeeld maar nog niet in mijn bibliotheek. Nu nog te duur voor een spel wat 6 jaar oud is en waarvan de online gameplay al lang dood is.

[ Voor 32% gewijzigd door Verwijderd op 30-07-2017 21:30 ]


Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op zondag 30 juli 2017 @ 19:54:
Laten we eerst eens beginnen met goed programmeren voordat we met resources gaan strooien. Het was niet alsof er in het 386/486 tijdperk geen goede games waren met goede gameplay. Toen werden ontwikkelaars nog echt gedwongen om goed na te denken. Optimalisatie en efficiënte zijn nu een nagedachte. Ze prikken wel wat RAM bij of zo.
Daar zit een kern van waarheid in en dat geldt natuurlijk niet enkel voor de PC maar ook voor consoles. Bij Nintendo waren ze briljant met het optimaal benutten van de hardware die ze wel tot hun beschikkingen hadden, dit zag je bij de vooruitgang van Super Mario Bros 1 naar Super Mario Bros 3 (ik heb ook een zwak voor het buitenbeentje SMB2 al is het geen echt Mario spel <3) maar je zag het ook erg duidelijk bij Ocarina of Time wat slechts 32 MB groot was maar gigantisch veel gameplaywaarde heeft ondanks de vele beperkingen. Je ziet natuurlijk wel dat de textures belachelijk primitief zijn en dat er veel lege ruimte is in de open wereld maar als je kijkt naar wat ze er qua gameplay uit hebben gesleept dan is dat indrukwekkend. Hopelijk komt er ooit eens een remake voor moderne hardware. Nintendo zal het niet toestaan maar zo gauw de copyright vervalt... >:)
Niet enkel programmeerden ze toen efficiënter, ik ben er al jarenlang van overtuigd dat je een betere gamedeveloper kan worden (design gameplay) door voldoende ervaring op te doen met 2D-gamedevelopment, juist die beperking van slechts 2 dimensies (net als voor de beperking van hardware geldt) dwingt je om creatief te zijn.
Experimenteel wil niet direct zeggen zwaar voor de hardware.
Niet noodzakelijk maar het kan wel degelijk ermee samengaan. Los van het experimentele willen ze ook met enkel spellen de grenzen van de hardware pushen omdat dit hun showpieces zijn. Dat deden ze met Metro, Crysis en Far Cry. Bijna niemand kon het spelen, bijna iedere gamer wou het hebben, al was het met 10 frames per seconde in die tijd.
Mirror's Edge was experimenteel vooral voor de gameplay en het verhaal.
Correct, het eiste ook veel van de hardware voor die tijd. Hoewel ik moet zeggen dat het op mijn computer met een i5-750 en een HD 7850 prima draait. Zie, ik pleit niet voor mijn eigen parochie, ik heb op dit moment zelf matige hardware maar dat boeit me niet, als ik een spel nu niet kan draaien (ik pieker niet over TW3 op mijn huidige hardware en Metro hierop draaien vind ik ook een beetje zonde, ik wacht wel totdat ik dat vloeiend kan spelen) dan kan ik het later draaien. Big deal.
Far Cry en Crysis zijn eigenlijk platte shooters met weinig speciale gameplay, maar ze waren berucht om hoe erg ze waren voor de grafische kaarten toentertijd.
Correct, maar dat doet er weinig toe, bijna niemand had grafische kaarten die deze spellen aankonden in die tijd. Jij vergeet Metro te noemen, dat spel draait zelfs zwaarder dan de eerste twee. Ik haal met Crysis 2/3 en Far Cry 3 moeiteloos >50 FPS met hoge instellingen waarbij ik de AA een standje lager zet. Far Cry 4 draait net iets moeizamer, ik moet wat instellingen op medium zetten. Dat hoef ik bij Metro niet te proberen, de FPS tankt naar rond de 30 zo gauw je buiten in de sneeuw komt waar voor het eerst een draak komt, bij de redux-versie wel te verstaan. Dit spel kwam in 2010 uit. Can it play Crysis? Fuck that! Can it play Metro 2033. ;)
Ik kan helaas geen goed voorbeeld geven van een dergelijk spel wat wel het uiterste van de CPU vergt maar dat is nu juist de klacht! Ze zijn er niet. Cities: Skylines krijgt een CPU op haar knieën, zeker als je bepaalde DLC's activeert. Leuk hoor maar mag het alsjeblieft ook bij FPS, stealth, puzzle...?
Nog een spel wat op mijn wensenlijstje staat maar ik weiger het te kopen zolang bepaalde DLC's niet sterk zijn afgeprijsd.
Een game als My Summer Car is ook hartstikke experimenteel, maar qua eisen kan je het praktisch op alles draaien. Het gaat hier vooral om de bijzondere gameplay.
Jij preekt voor je eigen parochie. Ik ben hartstikke een voorstander van dergelijke experimentele spellen en ik ben de laatste die je hoeft te overtuigen dat sommige spellen die wienig aan de hardware vragen bijzondere gameplay bevatten terwijl sommige spellen die veel van de hardware vragen weinig interessante gameplay bevatten. Dat wil niet zeggen dat ik niet graag zie dat ze de gameplay verbeteren door meer van de CPU te vragen. Bij 3D-spellen is het nu eenmaal zo dat de graphics zelf al bijzonder veel van de CPU vragen, zeker als je een goede botsingsdetectie (hiervoor moet je 1 kern volledig opofferen!) en je goede physics (idem) en AI (idem) hebt. Zeker bij ouderwetse API's zoals DX11 die voor elke handeling van de GPU de CPU erbij moeten betrekken, bij moderne API's (Vulkan en dus ook DX12) handelt de GPU meer autonoom. Ook ik heb een hoop oude spellen gespeeld: NES, SNES, N64 en zelfs wat primitiever dan de NES.
Grote studio's proberen altijd wel iets nieuws uit, maar ook die nieuwe dingen moeten een publiek zien te trekken om rendabel te worden.
En toch hebben ze in het verleden tal van spellen uitgegeven waarvan ze wisten dat bijna niemand ze kon draaien. Ik wacht nog steeds op een verklaring van jou waarom ze dat deden. Zoals jij weet kochten veel mensen die spellen ondanks dat ze <20 FPS haalden. Waarom? Ze zagen de toekomst qua graphics. Ze vonden het geweldig om te zien hoe het eruit zag en ze wisten dat ze een paar jaar later wel het spel zouden kunnen spelen zoals het gespeeld hoort te worden. Je moet als developer niet bang zijn om eens de grenzen te verkennen. Hoewel gamers verre van perfect zijn (preorder, DLC-gekte blijven voeden) zijn ze niet achterlijk. Ze begrijpen dat ze een paar jaar later voor hetzelfde geld een twee keer zo'n sterke grafische kaart kunnen kopen.
Ik had laatst een paar CoD games uit de koopjesbak van een speelgoedwinkel gehaald. Tientje per stuk, best goede prijs. :)
Voor de console zeker? Bij mijn weten zijn ze al lang gestopt met spellen voor de PC te verkopen maar ik kan me vergissen aangezien ik zelden in een speelgoedwinkel kom. Consoles zijn een no go voor mij! Nintendo is nog wel aardig maar alleen al omwille van bepaalde principes.
[small]Het is een verkwisting van resources om mensen te dwingen om een tweede computer te kopen enkel omdat je de software lockt voor een bepaalde combinatie van hardware, het is een ouderwets model wat niet meer werkt voor Sony en MS, vandaar dat MS nu ook spellen verkoopt aan PC gamers, Sony zou er verstandig aan doen dat ook te doen gezien het verlies wat ze maakten op elke verkochte PS3 en PS4 maar ik denk dat de hoge heren van Sony nog niet in de gaten hebben hoeveel winst ze kunnen maken door spellen te verkopen aan PC gamers met hun publishing tak.De gruwelijke input lag, het onhandige geprutst met controllers voor 3d-spellen, de verplichte VSync, de lage FPS (vaak 30, bij Red Dead Redemption zakte de FPS zelfs naar rond de 20 op de X360) maken voor mij het spelen met een console een no go, behalve voor sommige spellen van Nintendo aangezien Nintendo in het algemeen wel beseft dat de FPS belangrijk is (bij Zelda: Breath of the Wild hebben ze die helaas wel opgeofferd). Als de hardware stuk gaat dan mag je het opsturen naar Sony en veel geld betalen voor het repareren in plaats van dat je het zelf even kan doen.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Verwijderd schreef op zondag 30 juli 2017 @ 21:22:
Die staat ook op mijn lijstje ondanks dat Bethesda (die maken er vaak een gruwelijke puinhoop van) de publisher is maar die gaat bij de volgende sales-ronde nog niet voldoende zijn afgeprijsd. Die andere 3 waarschijnlijk wel. Ik koop nu bij voorkeur niet via Steam (goede reden voor) en EA Origins deed niet mee tijdens de laatste zomersale, tijdens de wintersale wel. Het lijkt sowieso dat de kortingen in de winterperiode wat beter zijn. GOG houd ik nu ook in de gaten (wegens DRM-vrij zijn wat wel zo prettig is) maar volgens mij is het betalen nog een probleem (ik weet dat ze sinds kort IDEAL toestaan maar er schijnt ook nog een probleempje te zijn wat betreft veilighied als je dat op die manier zou gebruiken zoals je bij GOG zou moeten doen. Ik zou graag Humble Bundle gebruiken maar Humble Bundel (ik heb er sympathie voor en ze hebben regelmatig een goede aanbieding) aanvaardt nog geen IDEAL en PayPal is voor mij te weinig transparant (op hun website lees je een hoop reclamegeleuter maar duidelijk aangegeven regels en contractuele voorwaarden vind je hooguit met veel moeite).. :/
Ik wil ook nog een keertje GTAV kopen, die heb ik wel via het grijze/zwarte circuit gespeeld maar nog niet in mijn bibliotheek. Nu nog te duur voor een spel wat 6 jaar oud is en waarvan de online gameplay al lang dood is.
offtopic:
Ja, ik heb deel 1 net opgepikt tijdens de zomeruitverkoop (6.50e, geloof ik), 2 was me nog te duur, en/want ook nog geen goty versie. Komt over 1-2j wel, heb geen haast. Vind het wel spijtig dat alles zo verhakseld wordt -- maar goed, niet zo nuttig om daar mijn energie in te steken.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

foppe-jan schreef op zondag 30 juli 2017 @ 21:59:
[...]

offtopic:
Ja, ik heb deel 1 net opgepikt tijdens de zomeruitverkoop (6.50e, geloof ik), 2 was me nog te duur, en/want ook nog geen goty versie. Komt over 1-2j wel, heb geen haast. Vind het wel spijtig dat alles zo verhakseld wordt -- maar goed, niet zo nuttig om daar mijn energie in te steken.
offtopic:
Ik had deel 1 0,5-1 een jaar eerder opgepikt. Nog niet gespeeld echter, geen idee waarom. ;)
Ik ben blij dat ze de performance voor deel 2 redelijk fatsoenlijk hebben gekregen want dit is een van die spellen die werd uitgegeven voordat het af was gewerkt.

Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zondag 30 juli 2017 @ 21:57:
Daar zit een kern van waarheid in en dat geldt natuurlijk niet enkel voor de PC maar ook voor consoles. Bij Nintendo waren ze briljant met het optimaal benutten van de hardware die ze wel tot hun beschikkingen hadden, dit zag je bij de vooruitgang van Super Mario Bros 1 naar Super Mario Bros 2 (ik heb ook een zwak voor het buitenbeentje SMB2 al is het geen echt Mario spel <3) maar je zag het ook erg duidelijk bij Ocarina of Time wat slechts 32 MB groot was maar gigantisch veel gameplaywaarde heeft ondanks de vele beperkingen. Je ziet natuurlijk wel dat de textures belachelijk primitief zijn en dat er veel lege ruimte is in de open wereld maar als je kijkt naar wat ze er qua gameplay uit hebben gesleept dan is dat indrukwekkend. Hopelijk komt er ooit eens een remake voor moderne hardware. Nintendo zal het niet toestaan maar zo gauw de copyright vervalt... >:)
De klassiekers blijven leuk. Het initiatief van de NES Classic en binnenkort de SNES classic is daarom ook leuk. Helaas wordt dat dan enigszins verpest door beperkte oplages en mensen die hele partijen opkopen om ze voor woekerprijzen te verkopen. :'(

De creativiteit destijds lag zeer hoog om bepaalde effecten te halen, ook op de PC. Games als Wolfenstein en Doom waren een revolutie.
Niet noodzakelijk maar het kan wel degelijk ermee samengaan. Los van het experimentele willen ze ook met enkel spellen de grenzen van de hardware pushen omdat dit hun showpieces zijn. Dat deden ze met Metro, Crysis en Far Cry. Bijna niemand kon het spelen, bijna iedere gamer wou het hebben, al was het met 10 frames per seconde in die tijd.
Ik heb zowel Far Cry en Crysis gekocht toen ze uitkwamen. Mijn 6800 Ultra had het zwaar met Far Cry, maar ik kon het nog spelen op 1024*768. 1600*1200 was echt een no go. Crysis was heftig voor mijn 7800 GTX. Maar goed, toen ik een upgrade deed naar een 8800 GTX kon ik ze beiden gemakkelijk draaien.
Correct, maar dat doet er weinig toe, bijna niemand had grafische kaarten die deze spellen aankonden in die tijd. Jij vergeet Metro te noemen, dat spel draait zelfs zwaarder dan de eerste twee. Ik haal met Crysis 2/3 en Far Cry 3 moeiteloos >50 FPS met hoge instellingen waarbij ik de AA een standje lager zet. Far Cry 4 draait net iets moeizamer, ik moet wat instellingen op medium zetten. Dat hoef ik bij Metro niet te proberen, de FPS tankt naar rond de 30 zo gauw je buiten in de sneeuw komt waar voor het eerst een draak komt, bij de redux-versie wel te verstaan. Dit spel kwam in 2010 uit. Can it play Crysis? Fuck that! Can it play Metro 2033. ;)
Metro heb ik nooit gespeeld, daar kan ik dan ook weinig zinvols over zeggen.
Ik kan helaas geen goed voorbeeld geven van een dergelijk spel wat wel het uiterste van de CPU vergt maar dat is nu juist de klacht! Ze zijn er niet. Cities: Skylines krijgt een CPU op haar knieën, zeker als je bepaalde DLC's activeert. Leuk hoor maar mag het alsjeblieft ook bij FPS, stealth, puzzle...?
[small]Nog een spel wat op mijn wensenlijstje staat maar ik weiger het te kopen zolang bepaalde DLC's niet sterk zijn afgeprijsd.
Skylines valt mee. Mijn grootste stad is net iets over de 200.000 inwoners en de CPU load valt mee, ik draai ook dlc's/mods. Ik zit dan rond de 35-40% load op 12 logische cores. Daarvoor speelde ik het op een 2600K en die had niet echt moeite ermee.

Als je dlc's wil kopen voor Skylines, After Dark is de belangrijkste en Mass Transit is ook goed. Alle anderen zijn echt optioneel en voegen weinig toe. De sneeuw dlc is een veredelde mod, het enige wat ik eruit gebruik zijn de trams. De Natural Disasters moet je mijden. Voegt niets toe en de rampen zijn niet interessant. Sowieso voel ik er weinig voor om een stad waar ik tig weken aan werk op te blazen.
En toch hebben ze in het verleden tal van spellen uitgegeven waarvan ze wisten dat bijna niemand ze kon draaien. Ik wacht nog steeds op een verklaring van jou waarom ze dat deden. Zoals jij weet kochten veel mensen die spellen ondanks dat ze <20 FPS haalden. Waarom? Ze zagen de toekomst qua graphics. Ze vonden het geweldig om te zien hoe het eruit zag en ze wisten dat ze een paar jaar later wel het spel zouden kunnen spelen zoals het gespeeld hoort te worden. Je moet als developer niet bang zijn om eens de grenzen te verkennen. Hoewel gamers verre van perfect zijn (preorder, DLC-gekte blijven voeden) zijn ze niet achterlijk. Ze begrijpen dat ze een paar jaar later voor hetzelfde geld een twee keer zo'n sterke grafische kaart kunnen kopen.
Far Cry en Crysis waren vanuit Crytek ook bedoeld als demonstraties van hun CryEngine. CryTek wilde vooral de game engine markt betreden. Wat betreft de demonstratie geslaagd, maar helaas is het alleen maar heuvelafwaarts met ze gegaan. De andere delen in de Crysis serie waren beduidend minder en ik geloof dat ze daarna zo'n beetje gestopt zijn met games.
Voor de console zeker?
Nee, PC. PC games worden ook nog verkocht in fysieke winkels. Echt gek... ;)

Acties:
  • 0 Henk 'm!

Verwijderd

CMD-Snake schreef op zondag 30 juli 2017 @ 22:30:
Metro heb ik nooit gespeeld, daar kan ik dan ook weinig zinvols over zeggen.
Koop het tijdens de volgende sale! Het is een geweldig spel en het kost weinig (4 euro voor een van de twee, iets meer voor beide). Speel het met een hoge moeilijkheidsgraad (realistisch). De enige reden dat ik op een gegeven stopte is omdat mijn hardware er te licht voor is en ik dit spel wil spelen met hoge instellingen en een hoge FPS, dit spel is te mooi om de eerste playthrough met lagere graphics of met 30 FPS in de zwaarste stukken te spelen. Het spel is een beetje oud maar zeker niet gedateerd.
Als je dlc's wil kopen voor Skylines, After Dark is de belangrijkste en Mass Transit is ook goed.
Het ging om After Dark. Uiteindelijk is dat een vrij simpele toevoeging maar het is m.i. wel essentieel voor het spel. Als ik de basisversie met die DLC voor <= €10 kan kopen dan haal ik eens de trekker over. Gelukkig dateert dit spel niet snel, ik kan er rustig even mee wachten. Natuurlijk hangt het ook af van wat er nog meer te koop is: TW3, RotTR en Doom staan nu aan de top, CS komt dicht daaronder.
Alle anderen zijn echt optioneel en voegen weinig toe. De sneeuw dlc is een veredelde mod, het enige wat ik eruit gebruik zijn de trams. De Natural Disasters moet je mijden. Voegt niets toe en de rampen zijn niet interessant. Sowieso voel ik er weinig voor om een stad waar ik tig weken aan werk op te blazen.
Sneeuw lijkt me ook wel leuk, van Natural Disasters begrijp ik dat het probleem is dat dit nogal overdreven is. Het risico op een natuurramp is niet erg maar de frequentie moet goed zijn en je moet niet heel je stad kwijt zijn maar slechts schade hebben aan een deel van de stad.
Far Cry en Crysis waren vanuit Crytek ook bedoeld als demonstraties van hun CryEngine. CryTek wilde vooral de game engine markt betreden. Wat betreft de demonstratie geslaagd, maar helaas is het alleen maar heuvelafwaarts met ze gegaan.
Ja, omdat ze anderre dingen gingen doen dan spellen/engines maken en de VR interessanter vonden terwijl geen hond het kan gebruiken omdat je €900 moet betalen voor de VR headset, een redelijk krachtige computer nodig hebt en dan ook nog eens de ruimte in je huis moet hebben om ermee te spelen terwijl je aan een kabel vast zit. Leuk in theorie en ooit wordt het misschien geweldig maar dat gaat nog jaren lang duren.
De andere delen in de Crysis serie waren beduidend minder en ik geloof dat ze daarna zo'n beetje gestopt zijn met games.
Ik vond Crysis 2 en Crysis 3 best wel leuk. Crysis 2 is meer lineair, Crysis 3 weer meer open.

Acties:
  • 0 Henk 'm!

  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op zondag 30 juli 2017 @ 22:55:
Koop het tijdens de volgende sale! Het is een geweldig spel en het kost weinig (4 euro voor een van de twee, iets meer voor beide). Speel het met een hoge moeilijkheidsgraad (realistisch). De enige reden dat ik op een gegeven stopte is omdat mijn hardware er te licht voor is en ik dit spel wil spelen met hoge instellingen en een hoge FPS, dit spel is te mooi om de eerste playthrough met lagere graphics of met 30 FPS in de zwaarste stukken te spelen. Het spel is een beetje oud maar zeker niet gedateerd.
Ik zal de volgende sale eens kijken. Voor onder de vijf euro kan je zeker geen miskoop doen.
Het ging om After Dark. Uiteindelijk is dat een vrij simpele toevoeging maar het is m.i. wel essentieel voor het spel. Als ik de basisversie met die DLC voor <= €10 kan kopen dan haal ik eens de trekker over. Gelukkig dateert dit spel niet snel, ik kan er rustig even mee wachten. Natuurlijk hangt het ook af van wat er nog meer te koop is: TW3, RotTR en Doom staan nu aan de top, CS komt dicht daaronder.
CS met AD kan je in de meeste sales zo rond de 15 euro krijgen. Het is dat geld wel waard, ik heb bijna 200 uur in Skylines zitten.
Sneeuw lijkt me ook wel leuk, van Natural Disasters begrijp ik dat het probleem is dat dit nogal overdreven is. Het risico op een natuurramp is niet erg maar de frequentie moet goed zijn en je moet niet heel je stad kwijt zijn maar slechts schade hebben aan een deel van de stad.
De sneeuw is even leuk, maar de sneeuw kaarten blijven eeuwig bevroren. Het is niet dynamisch.

De natuurrampen vallen wel mee, maar de mechanismes rondom de rampen zijn niet goed uitgewerkt. Je hebt diverse middelen om rampen op te vangen en je inwoners te redden, maar helaas hebben deze alleen het tegenovergestelde effect. Na een ramp ben je heel wat inwoners kwijt omdat de infra van je stad beschadigd is en omdat je inwoners verliest ligt je economie ineens in duigen op een dusdanige manier dat de boel redden lastig is.
Ja, omdat ze anderre dingen gingen doen dan spellen/engines maken en de VR interessanter vonden terwijl geen hond het kan gebruiken omdat je €900 moet betalen voor de VR headset, een redelijk krachtige computer nodig hebt en dan ook nog eens de ruimte in je huis moet hebben om ermee te spelen terwijl je aan een kabel vast zit. Leuk in theorie en ooit wordt het misschien geweldig maar dat gaat nog jaren lang duren.
Het zijn vooral de kosten van de VR headset. VR lijkt mij nu wel leuk om bijvoorbeeld in sims te gebruiken. ETS2, Flight sims of dergelijke spellen moet behoorlijk leuk zijn met VR. Het stil achter je PC zitten is dan minder erg.

Acties:
  • +3 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 11:26

br00ky

Moderator Harde Waren
Modbreak:Hoe wel interessant, zijn de uitgebreide verhandelingen over games hier niet helemaal op hun plaats. Terug naar nieuws dus :).

Acties:
  • +1 Henk 'm!
Toettoetdaan schreef op donderdag 27 juli 2017 @ 17:15:
https://videocardz.com/71...r-reveals-four-ryzen-dies
Eerste Threadrippers hebben gewoon 4 die's ipv de verwachte twee. Niet helemaal duidelijk waarom dat zo is.
Zijn wel twee dies, de andere twee zijn niet meer dan een stukje wafer zonder transistors. Zo kan AMD gewoon gebruik maken van de Epyc layout en behoudt de CPU ook zijn stevigheid en is de IHS in balans. De twee werkende dies zitten overigens diagonaal van elkaar, waarschijnlijk om de beste warmte verdeling te krijgen.

Bron onderaan: https://www.pcper.com/new...vailability-and-Preorders

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Correct.
Pagina: 1 ... 6 ... 133 Laatste

Let op:
FRS 2.1 discussiëren mag in: CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144

Dit is verder GEEN bestelling/levertijden topic. Posts als 'ik heb besteld!' hebben geen nieuws- of discussiewaarde en zullen voortaan worden verwijderd.