The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
[ Voor 5% gewijzigd door The Chosen One op 10-12-2017 13:01 ]
Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc
AMD werkte voor de launch van Ryzen met Zen. Je had Zen en Zen+. Toen werd ergens Zen+ hernoemt naar Zen2, en Zen+ werd de directe opvolger van Ryzen. Nu was al sinds de launch van Ryzen duidelijk dat er in 2018 een nieuwe lijn uitgebracht zou worden, en werd in september duidelijk dat het februari zou zijn. De naam Ryzen 2 was speculatie omdat er geen naam was. Nu is dat dus min of meer bevestigd.
Dan Raven Ridge. AMD lijkt de U suffix te gebruiken voor mobiele chips. Als laatste mobiele highend chips. Uh waarom kan AMD dit zelf niet? Raven Ridge met een quadcore en een APU is al vrij highend. Niks dat AMD tegenhoudt om alsnog Vega 11 uit te brengen als onderdeel van een echte highend mobiele APU chip. Intel heeft maar een Polaris chip gekocht van AMD hoor.
Iets heel anders en veel interessanters. Lisa Su is een beetje in dept gegaan bij een conferentie, en er zijn slides die normale mensen ook begrijpen.
Ik pik er even de meest interessante uit.
Eerst maar eens prestatieverbeteringen.


Nu claimen zowel GF als AMD dat de GF 7nm node, 40% extra prestaties gaat opleveren. Met deze slides geeft AMD eigenlijk ook indirect toe dat ze heel wat meer verwachten te behalen dan puur met een nodeshrink, prestaties verbeteren. Dat stelde Su ook. De trukendoos is nog niet leeg.
Maar deze twee zijn het meest interesant. Node kosten gaan al jaren omhoog, maar 7nm gaat echt duur worden. Dat zag ik ook al aankomen, voor zover ik het begrijp, maar dit is wel erg fors in de kosten voor grotere chips.“In some sense that’s really good because people would say `hey, have the tricks run out?` and I think the answer is the tricks haven’t run out yet.” Su said.


En dit is waarom IF bestaat, en waarom het zo belangrijk is voor AMD dat ze deze technologie hebben, en ook alleen. Natuurlijk korreltje zout want "wij van AMD eend, raden AMD eend aan"
https://fuse.wikichip.org...-for-the-future-of-hpc/2/
[ Voor 53% gewijzigd door DaniëlWW2 op 10-12-2017 14:29 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Over 10 nm Intel, het zou mij niet verbazen als dat in betere staat is dan mensen denken. Mogelijk wil Intel puur uit kostenoverwegingen eerst het 14 nm process volledig uitmelken, aangezien 10 nm flink duurder is (net zoals voor AMD 14 -> 7 nm). Vooralsnog kunnen ze prima de concurrentie aan, dus waarom zouden ze?
Een generatie liepen ze altijd wel achter, oke bijna. Het gat werd groter toen AMD, GF moest afsplitsen omdat ze geen geld meer hadden etc. Toen in 2014, GF 20nm ook nog eens mislukte werd het gat opeens heel groot. Ze lagen toen al een generatie achter want Intel had hun 22nm wel op orde gekregen. De pijn werd iets verminderd omdat Broadwell zo'n enorme mislukking was. De eerste generatie van Intel 14nm was ook bagger. Kregen ze pas op orde met Skylake en 14nm+.FortyOne schreef op maandag 11 december 2017 @ 08:28:
Chiplets zijn denk ik onvermijdelijk, dus wat dat betreft is AMD 'ahead of the curve'. Het is een mooi voorbeeld van hoe ze gedwongen werden tot innovatie door hun belabberde situatie, net zoals ze heel goed power management hebben ontwikkeld in de afgelopen jaren omdat ze een generatie achterliepen op process node t.o.v. Intel.
Tja, Kaby Lake in huidige vorm had nooit moeten bestaan. Dat had al een 10nm chip moeten zijn. Verder heeft Intel al toegegeven dat en zowel 10nm als 10nm+ minder presteren dan 14nm++. Betere prestaties worden verwacht in 2020, met 10nm++. Nee, dat gaat niet lekker.Over 10 nm Intel, het zou mij niet verbazen als dat in betere staat is dan mensen denken. Mogelijk wil Intel puur uit kostenoverwegingen eerst het 14 nm process volledig uitmelken, aangezien 10 nm flink duurder is (net zoals voor AMD 14 -> 7 nm). Vooralsnog kunnen ze prima de concurrentie aan, dus waarom zouden ze?
En aangezien ik toch een verkapte nieuwspost bot ben.
Daar is de HP server van Epyc, en Dell is min of meer ook aangekondigd. Het probleem dat de grote OEM's, AMD chips niet meer kopen is er in ieder geval niet. Microsoft gaat die servers ook echt kopen en ondersteunen. Als er dan meer klanten zijn dan gaat het wel lopen met Epyc.
https://www.forbes.com/si...dl385-again/#7aca346d4775
[ Voor 12% gewijzigd door DaniëlWW2 op 11-12-2017 10:35 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat begrijp ik dus ook niet. De sinterklaas verkopen hebben ze al gemist en de kerstverkopen gaan ze ook missen zoals het er nu voor staat. Nu weet ik niet of veel mensen zo'n kado's kopen maar het is toch jammer.Verwijderd schreef op vrijdag 8 december 2017 @ 17:10:
Kan iemand uitleggen waarom we in Nederland nog geen laptops met Ryzen-CPU's kunnen kopen?
De Intel tegenhangers met ultramobile quadcores zijn inmiddels wel op meerdere plekken gewoon leverbaar. Bij integrated graphics heb je dan minder grafische performance, maar lang niet iedereen heeft dat echt nodig.
Betreft de hele discussie laptop/desktop, ja een desktop is vaak sneller en zonder extra randapparatuur voor een laptop is een desktop comfortabeler werken. Echter sinds SSD's gemeengoed zijn is er weer een reden minder wat mij betreft voor desktops. De 2.5 inch HDD's waren vaak rampzalig traag tegenover de 3.5 inch 7200rpm desktop schijven. Dat verschil was bij vrijwel elk gebruik merkbaar. Nu zijn vaak enkel CPU en GPU nog zwakker bij de laptops, maar voor internet/kantoorwerk is het verschil vaak nauwelijks merkbaar of niet groot genoeg om een logge desktop te verantwoorden. Ik heb zelf ongeveer 3,5 jaar geleden mijn PC met Phenom II in onderdelen verkocht en gebruik sindsdien enkel nog mijn laptop met ultramobile i5. Die is trager dan de Phenom II was, maar voldeed voor mij. Langzaamaan mag er wel een vervanger komen (hint AMD!) maar deze laptop van 5,5 jaar oud kan voor dagelijks gebruik nog prima mee. 8GB ram en een 256GB SSD doen veel. Daarbij heb ik veel randapparatuur van mijn desktop behouden. Het beeldscherm, toetsenbord en muis staan er nog gewoon samen met een notebook stand. Wil ik comfortabel computeren dan sluit ik de laptop hierop aan en gebruik ik het laptop scherm als extra beeldscherm. Ik hoef niet de allernieuwste games te spelen. Ik vind het een voordeel nog maar 1 computer te hebben welke ik bij moet houden met software, updates enz. Computers beheren doe ik op het werk wel. Naast mijn ultrabook heb ik verder alleen een smartphone. Totaal geen behoefte aan een tablet daar tussenin.
http://ranker.sisoftware....bb9df89da090b6c5f8c8&l=en
Een Raven Ridge APU met 28CU iGPU (een halve Vega 56) en 2GB HBM2? Dat is leuke concurrentie voor de Kabe Lake-G
Dit lijkt eerder een super Raven Ridge dan Intel te zijn ja. Vega 11 schijnt 32/28CU te zijn dus. De 2GB zal HMB2 zijn denk ik. Dit moet dan aangevuld worden met RAM indien nodig. Dat kan met Vega. Het is niet de snelste optie, maar goedkoper dan 4GB HBM2 is het zeker.FortyOne schreef op maandag 11 december 2017 @ 16:26:
Ik zag op Reddit deze entry in de SiSoft database voorbij komen:
http://ranker.sisoftware....bb9df89da090b6c5f8c8&l=en
Een Raven Ridge APU met 28CU iGPU (een halve Vega 56) en 2GB HBM2? Dat is leuke concurrentie voor de Kabe Lake-GVraag me wel af hoe prijzig het gaat worden..
Overigens lijkt er het er zo toch op dat we geen desktop Vega 11 gaan zien. Ik zie het punt ook niet echt om Polaris te vervangen, waarschijnlijk een paar maanden voor Navi.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
TadaaaVerwijderd schreef op vrijdag 8 december 2017 @ 17:10:
Kan iemand uitleggen waarom we in Nederland nog geen laptops met Ryzen-CPU's kunnen kopen? ...
pricewatch: Asus ROG Strix GL702ZC-GC104T Ryzen 1700 1x 16GB RAM + 256GB M.2 + 1TB (waarschijnlijk SSHD) voor 1799,-
https://www.alternate.nl/...book/html/product/1355491 Enige webwinkel met 10% korting.
Helaas niet in andere configuratie mogelijk, maar wel bij Amazon Duitsland (helaas alleen Azerty toetsenbord
Ryzen 1700 zonder 256GB M.2, 8GB RAM + 1TB SSHD voor 1499,-
Dit is de configuratie die ik wil, want de M.2 is waarschijnlijk een crappy SanDisk X400 (540/520 MB/s Read/Write, zie Hexus review hieronder). Dan ga ik het upgraden met Samsung 960 Pro + 32GB Ram. HD heb ik niet nodig, haal ik eruit of ik prop een 2.5" SSD erin.
Reviews zijn heel summier (Niet altijd melden wat voor RAM snelheid/latency, SSD merk/type en HD merk/type het zijn en dat noemen ze een review

https://www.ultrabookrevi...asus-rog-gl702zc-reviews/ (Heatpipes v1 en AM4 socket)
http://hexus.net/tech/rev...83-asus-rog-strix-gl702zc
https://www.notebookcheck...ptop-Review.247548.0.html (Heatpipes v2)
Ik heb de neiging om dit te gaan kopen en hoop dat Asus de firmware regelmatig bijwerkt, zodat ik op termijn een Zen 2 of 3 erin kan proppen
of ik ga na kerst een Threadripper samenstellen, maar dan moeten de aftermarket Vega's wel snel beschikbaar zijn, desnoods kan ik een Vega Frontier Edition nemen, die zijn zo in prijs gezakt (+/- 760,- voor de Air en 890,- voor de liquid). Het lijkt goedkoper dan een Vega 64, want 8 GB meer HBM2 is ook +/- 200 Dollar extra
Zelf zat ik met een 2500K en had ik dit jaar voor het eerst echt microstutter en 'moest' ik dus wel upgraden. Maar goed bij de vorige twee klappers (Core 2 Duo en Sandy Bridge) was je ook +- 200 euro aan ram kwijt dus dat zie ik zelf niet als belemmering. Is meer een teken dat je op het goede moment kooptVerwijderd schreef op zaterdag 9 december 2017 @ 22:26:
[...]
Technisch gezien is het niet belangrijk, praktisch gezien remt het sommige mensen natuurlijk wel af om nu in te stappen of te upgraden, €100 vs €230 voor 16 GB RAM, het hakt er nogal in, vooral als je weet wat de prijs was. Ik durf niet in te schatten welk percentage van de mensen om deze reden de aankoop van hardware uitstelt.
Zelf wacht ik waarschijnlijk mede om die reden op Zen2 aangezien Samsung de capaciteit (DDR4) gaat uitbreiden en heeft uitgesproken te verwachten dat in S2 van 2018 de prijzen voor RAM zullen dalen. Als het nu 15% duurder zou zijn geworden, tot daar aan toe maar >€200 voor enkel 16 GB RAM, dat is wel erg slikken, een 1600 kostte 2 weken geleden minder.
Voor mij was het in ieder geval elke euro waard. Rainbow Six Siege draait nu uncapped op 180-220 fps en met fps cap op 120 speelt het echt onwijs soepel. Naast prettiger is het ook veel makkelijker om kills te maken. Mijn k/d is met sprongen vooruit gegaan.
Maar als je kunt wachten dan is dat helemaal zo gek nog niet. Als het mee zit dan krijg je een volwassener platform straks, zowel bij Intel als AMD. Wie ook met PCI Express 4.0.
[ Voor 119% gewijzigd door sdk1985 op 12-12-2017 01:31 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat is een desktop Ryzen processor in een notebook. De grote vraag is wanneer de mobiele versies verschijnenVerwijderd schreef op maandag 11 december 2017 @ 20:47:
[...]
TadaaaAsus ROG Strix GL702ZC 8-core 1700 + Radeon 580
pricewatch: Asus ROG Strix GL702ZC-GC104T Ryzen 1700 1x 16GB RAM + 256GB M.2 + 1TB (waarschijnlijk SSHD) voor 1799,-
Sterker nog, ik was hier een tijdje terug eens ingedoken, en ik vraag me af of we ooit PCI-E 4.0 gaan zien op desktop platformen. De standaard had er al in 2013 moeten zijn, en in 2019 is PCI-E 5.0 er al. Ik vraag me af waarom je nog zou overstappen? De standaard zal pas in 2019 verschijnen, en in 2020 kan 5.0 dus al uitgebracht worden.Werelds schreef op dinsdag 12 december 2017 @ 10:03:
PCI-e 4.0? Daar hoef je voorlopig nog niet op te rekenen. Ik betwijfel of we daar ook maar iets van zien vóór H2'18. Ook bij Intel niet. 4.0 is er pas sinds Juni doorheen. 3.0 werd in november 2010 aangekondigd, eerste moederborden kwamen een maand of 9 later op de markt en Intel's eerste consumenten product met 3.0 was Ivy Bridge - dat was April 2012, anderhalf jaar later dus.
Voor serversystemen is het potentieel een ander verhaal gezien de noodzaak voor extra bandbreedte, maar voor desktops is het zo zinloos om naar 4.0 over te stappen, en de volgende generatie al naar 5.0. Ik gok dus op AM4+ in 2020, met PCI-E 5.0.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Al geeft PCI-SIG 5.0 vrij in Januari 2019, dan wordt het maar net aan 2020 voor 5.0. Ga uit van zomer 2019 en dan wordt 2020 al krap, hooguit eind 2020 dan.
Ik zou eerder op 2021 gokken
Verwijderd
FortyOne schreef op maandag 11 december 2017 @ 16:26:
Een Raven Ridge APU met 28CU iGPU (een halve Vega 56) en 2GB HBM2? Dat is leuke concurrentie voor de Kabe Lake-GVraag me wel af hoe prijzig het gaat worden..

Ryzen7 gaming?
Ik vermoedde naar aanleiding van deze slide al dat er een APU met meer CU's zou komen, waarom anders het verschil tussen Ryzeb mobile CPU, waarvan we kunnen vermoeden dat dit RR is, en Ryzen Gaming?
De RX 580 haalt op Firestrike Extreme 71% van de punten t.o.v. de Vega 56, beide op stock settings. Met 50% van Vega56 zou je dan in theorie op ongeveer 70% van de performance van een 580 uitkomen. Ergens tussen de 560 en de 570? Niet slecht voor geïntegreerde graphics, met 1080p en medium instellingen kom je ver.
Ik had het over Summit Ridge CPU's, niet over Raven Ridge APU's. Waarom zijn er nog geen laptops verkrijgbaar met Summit Ridge CPU's, vooral de 1600-1800X. Op Tweakers staat er welgeteld 1 laptop met een Ryzen CPU in de lijst en die is volgens mij nog niet eens verkrijgbaar. Alsof mensen geen interesse hebben in een laptop met 6/8 Ryzen-kernen voor een zachte prijs. Daar is vraag naar. Stop er een grafische kaart van €100-150, verkoop die voor ongeveer €1000 of meer en je hebt een winnaar. Maak gebruik van het feit dat een Ryzen 1600-1700 nauwelijks duurder is dan een Intel quadcore, zeker voor die system-integrators die forse kortingen krijgen. Zie voor welke prijzen de 1600-1800X werden verkocht op vrijgezellendag en Black Friday. Maanden geleden kon je de Ryzen 1700 al kopen voor $269.GH45T schreef op maandag 11 december 2017 @ 10:52:
[...]
Dat begrijp ik dus ook niet. De sinterklaas verkopen hebben ze al gemist en de kerstverkopen gaan ze ook missen zoals het er nu voor staat. Nu weet ik niet of veel mensen zo'n kado's kopen maar het is toch jammer.
De Intel tegenhangers met ultramobile quadcores zijn inmiddels wel op meerdere plekken gewoon leverbaar. Bij integrated graphics heb je dan minder grafische performance, maar lang niet iedereen heeft dat echt nodig.
[ Voor 97% gewijzigd door Verwijderd op 12-12-2017 14:20 ]
Verwijderd
Die had ik in dezelfde reactie opgemerkt.Verwijderd schreef op maandag 11 december 2017 @ 20:47:
[...]
TadaaaAsus ROG Strix GL702ZC 8-core 1700 + Radeon 580
pricewatch: Asus ROG Strix GL702ZC-GC104T Ryzen 1700 1x 16GB RAM + 256GB M.2 + 1TB (waarschijnlijk SSHD) voor 1799,-
1 en dan ook nog een model voor €1800 terwijl die CPU nauwelijks meer kost dan een Intel quadcore.Verwijderd schreef op vrijdag 8 december 2017 @ 17:10:
...
Echter zou dat nog niet verklaren waarom er 1 model is met 8 kernen en er 0 modellen zijn met 6 kernen.
Waarom heeft niet elke system-integrator een paar modellen met de 1600 en de 1700 in een pricerange van €900-1500, dat is prima te doen en zo gauw er wat concurrentie is dan zakt die prijs snel. Ik kijk nu naar wat de hardware zou kosten en ik baseer het op basis van prijzen van allerlei Intel en Intel/Nvidia-laptops die verkrijgbaar zijn. Het lijkt erop dat de SI's aanzienlijk hogere winstmarges rekenen voor die paar laptops met Ryzen-CPU's omdat er nog weinig concurrentie is en omdat je bij Intel zoveel meer betaalt bij meer kernen, niet omdat het meer kost om de hardware te kopen en het te laten assembleren.
[ Voor 18% gewijzigd door Verwijderd op 12-12-2017 14:28 ]
Oke AM4+ in 2021. Vind het best hoor als ik eventueel nog een Zen3 CPU in mijn bordje kan stoppen.Werelds schreef op dinsdag 12 december 2017 @ 11:25:
Dat is nog steeds te snel
Al geeft PCI-SIG 5.0 vrij in Januari 2019, dan wordt het maar net aan 2020 voor 5.0. Ga uit van zomer 2019 en dan wordt 2020 al krap, hooguit eind 2020 dan.
Ik zou eerder op 2021 gokken
Nee, dat is niet noodzakelijkerwijs met elkaar verbonden, I know.
[ Voor 7% gewijzigd door DaniëlWW2 op 12-12-2017 14:39 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Dat ook.sdk1985 schreef op dinsdag 12 december 2017 @ 01:21:
Al iets bekend over Zen+ en PCI Express 4.0? Wellicht een AM4+ socket?
[...]
Zelf zat ik met een 2500K en had ik dit jaar voor het eerst echt microstutter en 'moest' ik dus wel upgraden. Maar goed bij de vorige twee klappers (Core 2 Duo en Sandy Bridge) was je ook +- 200 euro aan ram kwijt dus dat zie ik zelf niet als belemmering. Is meer een teken dat je op het goede moment koopt.
Voor mij was het in ieder geval elke euro waard. Rainbow Six Siege draait nu uncapped op 180-220 fps en met fps cap op 120 speelt het echt onwijs soepel. Naast prettiger is het ook veel makkelijker om kills te maken. Mijn k/d is met sprongen vooruit gegaan.
Maar als je kunt wachten dan is dat helemaal zo gek nog niet. Als het mee zit dan krijg je een volwassener platform straks, zowel bij Intel als AMD. Wie ook met PCI Express 4.0.
+ de grafische kaarten die op dit moment erg duur en ook behoorlijk gedateerd zijn (deze generatie is alweer 1,5 jaar oud, ook al kwam AMD erg laat op het feest bij de 'high end').
DDR5 komt er ook aan maar dat zal wel niet van het ene op het andere jaar standaard worden zo gauw het beschikbaar wordt.
Voor de CPU was 2017 een mooi jaar, voor de grafische kaarten en het kopen van hardware, helaas niet zo.
Kunnen wachten is natuurlijk nogal betrekkelijk. Ik speel een hoop spellen niet omdat mijn hardware underpowered is maar het is niet een probleem om ze later te spelen, het positieve is dat ik die spellen straks voor weinig kan kopen. Rise of the Tomb Raider, The Witcher 3, Doom...
Voor algemeen computergebruik maakt het natuurlijk weinig uit. Er zit wel een SSD in mijn systeem (i5-750 en HD 7850).
[ Voor 3% gewijzigd door Verwijderd op 12-12-2017 15:21 ]
Verwijderd
De volgende HDMI ondersteunt (eindelijk) 4k met hoge refresh-rates (120 Hz als ik me niet vergis) en de 1080 Ti kan 4k gaming met 60 FPS aan (niet per se altijd bij ultra). Een jaar of 3 voordat 4k echt aan een opmars begint bij gamers?418O2 schreef op dinsdag 12 december 2017 @ 17:12:
games worden natuurlijk ook niet per se 'zwaarder' voor GPUs (wellicht iets lichter door vulkan et al) en 4k monitoren zijn ook nog niet echt gemeengoed.
Maar goed, ik hou er niet van om meer dan het volle pond (de kaarten zijn alleen maar duurder geworden) te betalen voor een generatie kaarten die alweer 1,5 jaar oud is. Ik koop graag hardware als het net uit is (eventueel een paar maanden later als er prijsgouging/schaarste is), dan duurt het het langst voordat je weer moet upgraden en verspil je het minste geld. Bij mij speelt ook mee dat het upgraden van de CPU betrekkelijk weinig zin heeft zonder de grafische kaart te upgraden en etc. , zelfs een RX 580 zou al overkill zijn zijn voor een i5-750 en een Vega56 zou overkill zijn voor een HD 7850, ik was daarom aan het wachten op een moment waarop ongeveer tegelijkertijd (geef en neem een paar maanden) zowel een goede nieuwe CPU als een goede nieuwe grafische uitkomt. Ik wacht daarom maar op Navi en Zen2, die zouden ongeveer tegelijkertijd moeten uitkomen, hopelijk zijn de prijzen van de RAM tegen die tijd weer enigszins richting normaal gegaan. Ik verwacht Zen2 in begin 2019, misschien wel eind 2018, dat kan er ook nog wel bij.
[ Voor 22% gewijzigd door Verwijderd op 12-12-2017 17:34 ]
Dan moet je toch Ghost Recon Wildlands eens installeren.\418O2 schreef op dinsdag 12 december 2017 @ 17:12:
games worden natuurlijk ook niet per se 'zwaarder' voor GPUs (wellicht iets lichter door vulkan et al) en 4k monitoren zijn ook nog niet echt gemeengoed.
Klopt maar niemand verplicht je natuurlijk de gpu tegelijk met je nieuwe systeem te kopen. De optimale koop was wat mij betreft de 1070 net na launch, 465 heb ik zelf betaald in de zomer van 2016. De 1080 was toen nog te duur en wie toen een jaar heeft gewacht heeft daar niets mee gewonnen. Als je nu nog een GTX 970 / RX 380 etc hebt dan zou ik persoonlijk die gewoon mee nemen naar mijn Ryzen/Coffee lake systeem.Verwijderd schreef op dinsdag 12 december 2017 @ 15:20:
[...]
Dat ook.
+ de grafische kaarten die op dit moment erg duur en ook behoorlijk gedateerd zijn (deze generatie is alweer 1,5 jaar oud, ook al kwam AMD erg laat op het feest bij de 'high end').
DDR5 komt er ook aan maar dat zal wel niet van het ene op het andere jaar standaard worden zo gauw het beschikbaar wordt.
Voor de CPU was 2017 een mooi jaar, voor de grafische kaarten en het kopen van hardware, helaas niet zo.
Kunnen wachten is natuurlijk nogal betrekkelijk. Ik speel een hoop spellen niet omdat mijn hardware underpowered is maar het is niet een probleem om ze later te spelen, het positieve is dat ik die spellen straks voor weinig kan kopen. Rise of the Tomb Raider, The Witcher 3, Doom...
Voor algemeen computergebruik maakt het natuurlijk weinig uit. Er zit wel een SSD in mijn systeem (i5-750 en HD 7850).
[ Voor 67% gewijzigd door sdk1985 op 12-12-2017 17:42 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Inb4 gimpworkssdk1985 schreef op dinsdag 12 december 2017 @ 17:39:
[...]
Dan moet je toch Ghost Recon Wildlands eens installeren.
Draait hier overigens prima
Verwijderd
Ik verwacht dat ze nieuwe moederborden uitbrengen zo gauw ze PCIe4.0 of PCIe5.0 gaan toevoegen, mogelijk slaan ze PCIe4.0 over omdat PCIe5.0 snel (1 jaar later is gepland) hierop volgt. Een beetje raar naar mijn mening, zolang dat niet upgraden en dan ineens twee keer in een jaar.tomcatha schreef op dinsdag 12 december 2017 @ 17:05:
ik verwacht eigenlijk stiekem dat we iets zoals een am4+ gaan zien in 2018 of 2019, er zat ook niet zo veel tijd tussen am3 en am3+. Alleen zal de stap wat kleiner zijn gezien ddr5 ook pas in 2020 uitkomt lijkt het.
Ja, met Gimpworks kan je elk systeem op de knieën krijgen. Dat is dan ook het doel van Gimpworks, inefficiënte code gebruiken die de performance van de grafische kaarten doet dalen maar bij de nieuwste generatie van Nvidia minder dan bij de kaarten van de concurrent en dan bij de oudere kaarten van Nvidia. Developers zouden beter moeten weten.

Voor de volledigheid, soms krijg je wel een visuele verbetering met code die uit Gimpworks komt maar de code is verre van efficiënt.
HD 7850sdk1985 schreef op dinsdag 12 december 2017 @ 17:39: Als je nu nog een GTX 970 / RX 380 etc hebt dan zou ik persoonlijk die gewoon mee nemen naar mijn Ryzen/Coffee lake systeem.
Ik had de RX 480 overwogen als ik op dat moment niet al had besloten dat ik met de volgende kaart @1440p wil kunnen gamen.
[ Voor 48% gewijzigd door Verwijderd op 12-12-2017 17:56 ]
Dan zal je de settings flink verlaagd hebben. Op Guru3d staat de 480 als 55 fps gemiddeld op 1080p en very high. Om die game prettig op ultra te spelen moet je echt aan een 1080ti denken. Op very high is een 1070 / Vega 64 het minimum en dan ben je alsnog gpu limited wat inhoud dat je dus baat hebt bij een snellere gpu.
Er zijn vast wel non-gameworks games te vinden die ook een slokje gpu lusten maar dit is even de meest opvallende titel die ik speel en die op mijn cpu uit 2010 ook al gpu limited was. Ik zou zelf een 40% snellere kaart voor 450 euro onderhand al wel weer overwegen. Altijd meer, meer, meer
[ Voor 22% gewijzigd door sdk1985 op 12-12-2017 17:51 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Er zijn meer voorbeelden en niet altijd gaat het om Gimpworks, het kan ook liggen aan slechte optimalisatie door de developer en een single core CPU bottleneck, zoals bij PUBG het geval lijkt te zijn. Van mij mag een spel een lage FPS hebben, als het een hoog niveau van graphics haalt (Metro, Crysis), niet door slechte optimalisatie al was daar bij Crysis ook gedeeltelijk sprake van.sdk1985 schreef op dinsdag 12 december 2017 @ 17:49:
Er zijn vast wel non-gameworks games te vinden die ook een slokje gpu lusten maar dit is even de meest opvallende titel die ik speel en die op mijn cpu uit 2010 ook al gpu limited was. Ik zou zelf een 40% snellere kaart voor 450 euro onderhand al wel weer overwegen. Altijd meer, meer, meer.
Ubisoft heeft de slechte gewoonte om spellen slecht te optimaliseren, zie bijvoorbeeld ook de FPS-limiter van 62 FPS bij AC2 (en AC3?), bij AC2 gebruikten ze ook al Gimpworks. Mijn GPU komt daar niet boven de 50% belasting uit, mijn CPU niet op 25% (single core spel) en toch krijg ik flinke microstutter bij AC2R zo gauw er wat rook/mist wordt gerenderd in Constantinopel. Gimpworks, alleen noemde Nvidia het toen nog niet zo. Far Cry 4 is berucht bij het Nvidia-kamp, gigantische microstutter. En dan heb je nog PhysX wat zelfs voor oude spellen (AC4) een 980 ti en 1070 op hun knieën krijgt, zoek maar eens eventjes met een zoekmachine.
Maar goed, je merkt wel dat het niveau van graphics er het laatste jaar weer op vooruit is gegaan en dat de 1070 langzaam aan meer een 1080p-kaart wordt als je ultra-instellingen als uitgangspunt neemt terwijl de 580/1060 nog prima 1080p aankunnen maar je dan wel de instellingen moet verlagen naar zeer hoog. Zoals het hoort.
Binnenkort komt er een nieuwe Metro die weer geweldige graphics heeft.
Ik vermoed dat de upgrades van de consoles heeft geholpen, spijtig alleen dat er nog steeds een zeer zwakke CPU in die kastjes zit, als ze daar nu ook meteen even een Ryzen-CPU in hadden gestopt...

De kosten zijn zo sterk gestegen omdat ze nog geen UEV kunnen gebruiken, ze hebben UEV-lampen nodig die een hoger vermogen halen (250W uit mijn hoofd) on voldoende snel te produceren, ze moeten nu met veel meer lagen werken dan dat met UEV nodig zou zijn. Eigenlijk is hun '7 nm.' net wat te klein om dat nog met immersielithografie te doen voor een redelijke kostprijs.DaniëlWW2 schreef op zondag 10 december 2017 @ 14:03:
Maar deze twee zijn het meest interesant. Node kosten gaan al jaren omhoog, maar 7nm gaat echt duur worden. Dat zag ik ook al aankomen, voor zover ik het begrijp, maar dit is wel erg fors in de kosten voor grotere chips.
Los daarvan zijn er natuurlijk meer redenen waarom de kosten stijgen bij een kleinere node maar dit komt er nog eens bovenop.
Ja, IF is verschrikkelijk belangrijk, zonder dat zouden de eerste CPU's op '7 nm.' flink duurder worden.
[ Voor 45% gewijzigd door Verwijderd op 12-12-2017 18:28 ]
Verwijderd
Ach ja notebook = notebookGH45T schreef op dinsdag 12 december 2017 @ 10:47:
[...]
Dat is een desktop Ryzen processor in een notebook. De grote vraag is wanneer de mobiele versies verschijnen. Dit zijn de raven-ridge APU's zoals Ryzen 5 2500u en Ryzen 7 2700u.

http://store.hp.com/Nethe...d=2PH19EA&opt=ABH&sel=NTB
Binnen 48 uur leverbaar. Bij andere webshops zoals Coolblue is de levertijd onbekend.
Ik heb nog steeds het gevoel dat AMD onderdrukt wordt, maar op een andere manier. Ook al heeft AMD goede processoren, maar als de mobo of laptop fabrikant slechte producten maken dan "heb je er alsnog niets aan". Als ik naar de designs kijk van AMD laptops, dan zijn ze vrijwel altijd spuuglelijk. Het lijkt net alsof Intel de OEMS de opdracht geven om lelijke laptops met waardeloze features te maken. Zodat AMD langzaam in een budget merk verandert zoals Sweex, Trust enz.Verwijderd schreef op dinsdag 12 december 2017 @ 14:24:
[...]
Die had ik in dezelfde reactie opgemerkt.
[...]
1 en dan ook nog een model voor €1800 terwijl die CPU nauwelijks meer kost dan een Intel quadcore.
Waarom heeft niet elke system-integrator een paar modellen met de 1600 en de 1700 in een pricerange van €900-1500, dat is prima te doen en zo gauw er wat concurrentie is dan zakt die prijs snel. Ik kijk nu naar wat de hardware zou kosten en ik baseer het op basis van prijzen van allerlei Intel en Intel/Nvidia-laptops die verkrijgbaar zijn. Het lijkt erop dat de SI's aanzienlijk hogere winstmarges rekenen voor die paar laptops met Ryzen-CPU's omdat er nog weinig concurrentie is en omdat je bij Intel zoveel meer betaalt bij meer kernen, niet omdat het meer kost om de hardware te kopen en het te laten assembleren.
Kijk maar naar de specs van Raven Ridge laptops. Sommige hebben single channel, dat is geen probleem mits het geheugen uitbreidbaar is naar dual channel, maar dat is bij sommige niet het geval. Bijvoorbeeld, ik heb liever 1x 8GB dan 2x 4GB, maar als er maar 1 slot aanwezig is of helemaal geen slot, tja dan denk ik serieus dat het opzettelijk is gedaan om AMD slechter te laten scoren in reviews.
Daarnaast hebben sommige laptops USB-C Gen 1 (= USB3.0), maar niet Gen 2 (= USB3.1)

Ik ben niet de enige die argwaan krijgt van OEMS. Kijk maar
http://forum.notebookrevi...ers-lounge.809882/page-14
...
I still like the laptop for what it is, but that doesn't mean I'm going to be ignoring how Asus made critical (and probably easily corrected) errors for what is essentially a 'poster child' of mobile computing for AMD using latest technologies.
They could have and SHOULD have done better (for the same price).
Why do reviewers still see the RX 580 as too power hungry?
This mobile version is limited to 68W... its more efficient than the mobile GTX 1060 which is limited to 80W and performs pretty much the same in games.
If Asus worked to limit the RX 580 to 80W as well in mobile space (and implemented proper cooling for it like they did for the GTX 1060, 1070 and 1080, not to mention 1080 SLI), it would likely be able to stretch itself further performance-wise (still, it's good to see that benchmarks are misleading and that actual gaming performance is well on-par even with lower clocks - but somehow no one is mentioning this).
It seems very odd to me that Asus would intentionally ruin what could have been a perfectly GREAT laptop with these issues (main ones being the inferior/integrated battery, and of course really noisy fans).
I wouldn't mind a bulkier laptop if it meant better cooling and superior battery (for the same price - no reason to overcharge on these things).
Or, they could have done so intentionally to prevent the laptop from outselling their Intel+Nvidia counterparts - not sure if this can be substantiated at all, but it wouldn't surprise me.
They still seem to be bending over to Nvidia and Intel as those laptops seem to have better overall cooling implementations (with higher TDP's to boot when you take into account the higher end GPU's like the 1070 and 1080) that are quieter.
I'm sick of OEM's shafting AMD like this repeatedly (Ryzen at least changed things around and we have more AMD options at least), but options alone are not enough. Quality is important. AMD's components are not to blame here. They are efficient... it's the OEM's fault for high noise and less efficient cooling.
They have no issues putting high TDP Intel and Nvidia components or cooling them with acceptable noise levels, but will completely ruin the AMD system in turn.
...
Een OEM heeft er toch totaal geen belang bij om een product op de markt te zetten wat je vervolgens zelf bewust tegen gaat werken.
Je ram argument werkt overigens juist omgekeerd. Met 1 reepje ga je de processor op geheugen bandbreedte bottlenecken, je hebt dan immers geen dual channel en dus effectief maar 50% van de normale bandbreedte. Voor je igp gaat dat ook snel erg veel pijn doen. Het leveren van 2x 4 werkt dus juist in het voordeel van AMD, in ieder geval in de benchmarks.
Verder zie ik hier in de pricewatch maar 1 Zen model en dat is een ASUS ROG van 1700 euro. Van de Kaby lake refresh (de i5 quadcores etc) zijn er nu 125. Het model dat ik op het oog had is wel 20 euro duurder geworden. Zelf wacht ik even tot de btw dagen en hoop ik dat er tegen die tijd wat meer keuze is.
[ Voor 23% gewijzigd door sdk1985 op 12-12-2017 20:32 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ik denk het ook. Eerst dacht ik dat de die te groot zou worden, maar het wordt vast gebakken op 12 nm. Dat scheelt toch weer zo'n 15% geloof ik.Verwijderd schreef op dinsdag 12 december 2017 @ 13:52:
Ryzen7 gaming?
Ik vermoedde naar aanleiding van deze slide al dat er een APU met meer CU's zou komen, waarom anders het verschil tussen Ryzeb mobile CPU, waarvan we kunnen vermoeden dat dit RR is, en Ryzen Gaming?
Het lijkt me echt hilarisch als ze Intel een Polaris chip verkopen en dan vervolgens zelf een beter product maken met dit product. Ben benieuwd hoe het allemaal uitpakt, over een aantal maanden weten we het.
Verwijderd
Het zou me niets verbazen, het is van de ratten besnuffeld dat er niet een flink aanbod is aan aantrekkelijke laptops met 6/8 CPU-kernen bij elke SI (Dell/HP...). We weten dat deze bedrijven in het verleden vele miljarden $ aan smeergeld hebben aangenomen om geen systemen met AMD-CPU's te verkopen, ze staan hier dus in ieder geval niet boven. Hoe ze reageren op de RR-APU's zal het uitwijzen.Verwijderd schreef op dinsdag 12 december 2017 @ 20:19:
Ik heb nog steeds het gevoel dat AMD onderdrukt wordt, maar op een andere manier. Ook al heeft AMD goede processoren, maar als de mobo of laptop fabrikant slechte producten maken dan "heb je er alsnog niets aan". Als ik naar de designs kijk van AMD laptops, dan zijn ze vrijwel altijd spuuglelijk. Het lijkt net alsof Intel de OEMS de opdracht geven om lelijke laptops met waardeloze features te maken. Zodat AMD langzaam in een budget merk verandert zoals Sweex, Trust enz.
Ik kan me voorstellen dat de quadcore Ryzen-CPU's niet popuair zijn bij de SI's voor laptops, hoewel het vermogen van Ryzen laag ligt ligt het vermogen van de quadcore Ryzen-CPU's verhoudingsgewijs hoger doordat de 4 kernen over 2 CCX'en zijn verspreid. Dan nog is het de vraag of dat het vermogen van die quadcore Ryzen-CPU's wel hoger ligt. We weten wat het vermogen van de quadcore-CPU's ongeveer is. Ze zouden meer laptops met 6/8 Ryzen-kernen moeten verkopen, ik ga nu uiteraard uit van laptops die ook discrete grafische kaarten hebben. Ik kan 1 technische reden bedenken waarom de OEM's dat liever niet doen: als de basis van de laptops die ook een discrete grafische kaart hebben eveneens wordt gebruikt voor laptops die geen discrete grafische kaart hebben en het kosten oplevert om speciaal voor de laptops met een discrete grafische kaart een andere configuratie te gebruiken. Hiermee geef ik hen meer het voordeel van de twijfel dan dat ze verdienen.

Ik weet echter niet wat een typische laptop-CPU van Intel gebruikt bij dezelfde klokfrequenties.
Dat klopt, bij Ryzen is het erg belangrijk om de beide kanalen te gebruiken.Kijk maar naar de specs van Raven Ridge laptops. Sommige hebben single channel, dat is geen probleem mits het geheugen uitbreidbaar is naar dual channel, maar dat is bij sommige niet het geval.
Dat is inderdaad vreemd. Zoveel meer kost het toch niet om er zo'n poort op te zetten?Daarnaast hebben sommige laptops USB-C Gen 1 (= USB3.0), maar niet Gen 2 (= USB3.1)
Raven Ridge zal het uitwijzen, als het dan nog niet op gang klopt dan weten we genoeg.
[ Voor 21% gewijzigd door Verwijderd op 12-12-2017 21:07 ]
Verwijderd
Uit mijn hoofd 16%.FortyOne schreef op dinsdag 12 december 2017 @ 20:38:
[...]
Ik denk het ook. Eerst dacht ik dat de die te groot zou worden, maar het wordt vast gebakken op 12 nm. Dat scheelt toch weer zo'n 15% geloof ik.
Ik teken ervoor, ik wil dan graag live-beelden van de gezichten van hoge Intel-medewerkers wanneer ze het nieuws vernemen.Het lijkt me echt hilarisch als ze Intel een Polaris chip verkopen en dan vervolgens zelf een beter product maken met dit product.
Ik vermoed dat Apple de geheime hand achter die pragmatische samenwerking tussen AMD en Intel is. Apple wil voor nu per se Intel-CPU's (omdat ze een hogere klokfrequentie halen) en AMD-graphics. Ik ben benieuwd hoe snel Apple schakelt als bij Zen2 of Zen3 Ryzen de betere single-core performance zou halen, met of zonder een hogere klokfrequentie. Niet dat ik voorspel dat dat gaat gebeuren maar ik sluit het zeker ook niet uit, het valt en staat met de GF 7nm. FinFET node en de Intel 10 nm.++ node.
De argwaan bij hem en anderen wordt natuurlijk gevoed door het feit dat diezelfde OEM's dat in het verleden al hebben gedaan. Ze namen vele miljarden $ aan smeergeld aan van Intel om geen systemen met AMD-CPU's te verkopen. Als Intel hen genoeg betaalt om de schade te compenseren...sdk1985 schreef op dinsdag 12 december 2017 @ 20:27:
@Verwijderd
Een OEM heeft er toch totaal geen belang bij om een product op de markt te zetten wat je vervolgens zelf bewust tegen gaat werken.
Ja, er zijn alternatieve verklaringen voor het schaarse aanbod aan systemen met Ryzen-CPU's, zowel bij de desktop als de laptop.
"De OEM's geloven niet dat de vraag naar meer dan 4 kernen groot genoeg is."
"De OEM's besparen op kosten en bieden daarom slechts 1 latje RAM aan ondanks dat dit de performance verslechtert."
"De doorsnee persoon kent Intel wel en AMD niet en de OEM's zijn bang dat de desktop prebuilds met Ryzen-CPU's minder goed verkopen."
Het is echter wel genoeg om met de kennis over de fraude in het verleden in het achterhoofd met de nodige argwaan dit te volgen. We zullen het bij Raven Ridge wel gaan merken. Dat de mensen het nu met een gezonde dosis argwaan volgen is alleen maar goed, als Intel en de OEM's weer de boel belazeren dan komen we er sneller achter en zullen hopelijk ook de autoriteiten sneller gaan reageren dan dat ze de laatste keer deden.
Het klopt dat 2*4 GB voor Ryzen logischer is dan 1*8 GB maar je moet je afvragen of dat je überhaupt nog systemen met 8 GB aan RAM moet verkopen maar dat is een andere discussie.
[ Voor 76% gewijzigd door Verwijderd op 12-12-2017 21:11 ]
Verwijderd
Dat hangt er van af hoeveel geld OEMS krijgen van Intel. Als ze flinke kortingen krijgen op Intel Mobile processoren of andere producten, dan wegen de baten op tegen de kosten, dus waarom niet.
Daarnaast creeer je nog een smoes: "Zie je nou wel, we maken verlies met AMD daarom verkopen we geen AMD". Intel kan dit als argument in de rechtzaak zeggen dat OEMS niet gedwongen zijn om geen AMD te verkopen, maar omdat het verlies geeft.
Wat geheugen betreft. Dat is alleen het geval als je niet aan geheugen uitbreiding doet. Ik breid het geheugen vrijwel altijd naar het maximum. Tweedehands levert 2x 4GB nauwelijks iets op. Ik gebruik zo'n configuratie toch niet. Als ik het toch ga vervangen dan is het zonde van de resources, zowel slecht voor het milieu als voor mijn portemonnee. Ik gebruik 2x 8GB sinds 2012. Als ik van plan ben om er een te kopen dan ga ik 5 jr later geen nieuwe laptop kopen om flink te downgraden naar 2x 4GB.
@Verwijderd
Er is zeker behoefte aan "zware" laptops. Ik had jaren geleden de ambitie om een webbased videosurveillance applicatie te maken. Maar de consumenten hardware zijn zo traag dat het ontwikkkelen van zoiets demotiverend is, dus heb ik die ambitie links laten liggen. Als ik een Virtual Machine aanzet en het kost me gemiddeld 2 minuten om dat op te starten en ik moet het regelmatig opstarten om allerlei verschillende configuraties te testen dan weet je dat het mij erg veel tijd kost. Helaas is een BladeCenter voor thuis geen optie
[ Voor 8% gewijzigd door Verwijderd op 12-12-2017 21:41 ]
Verwijderd
Denk bijv. ook aan studenten en mensen die werkzaam zijn in een technisch/wetenschappelijk vakgebied: werktuigkunde, informatica, natuurkunde, geologie, electrotechniek, bio-informatica, biochemie...Verwijderd schreef op dinsdag 12 december 2017 @ 21:15:
Er is zeker behoefte aan "zware" laptops. Ik had jaren geleden de ambitie om een webbased videosurveillance applicatie te maken. Maar de consumenten hardware zijn zo traag dat het ontwikkkelen van zoiets demotiverend is, dus heb ik die ambitie links laten liggen. Als ik een Virtual Machine aanzet en het kost me gemiddeld 2 minuten om dat op te starten en ik moet het regelmatig opstarten om allerlei verschillende configuraties te testen dan weet je dat het mij erg veel tijd kost. Helaas is een BladeCenter voor thuis geen optie
Het is dan best handig om extra CPU-kernen te hebben. Het vermogen zal iets hoger liggen, bij het parkeren van kernen is er nog steeds wat vermogenverlies, maar dat kan je sterk beperken en deze mensen gebruiken de laptop meestal bij een stopcontact in de buurt en die laptops kan je ook wat groter maken zodat je er een grotere batterij in kan stoppen als dat handig zou zijn voor de gebruikers.
Voor mensen die veel aan filmpjes werken is het ook verdomd fijn om extra kernen te hebben. Realistisch gezien gaat het om hooguit zo'n 10% van de laptopgebruikers maar de vraag is er zeker en deze mensen zitten met smacht op zulke laptops die ook nog eens betaalbaar zijn (Een Ryzen 1700 kan al gekocht worden voor $269 door de gewone gebruiker bij een korting, HP zal er minder voor betalen). Zo'n laptop hoeft echt geen €1800 te kosten. Zo'n systeem kan je prima maken voor minder dan €1000. Goed, misschien nu net erboven met dank aan de RAM, in zo'n systeem moet je wel 16 GB RAM stoppen. Ik heb het dan over een laptop met een 15'' 1440p IPS-monitor, een 256 GB SSD, een 1 TB harde schijf...
[ Voor 33% gewijzigd door Verwijderd op 12-12-2017 21:50 ]
[ Voor 55% gewijzigd door Help!!!! op 13-12-2017 18:09 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
https://www.techpowerup.c...ssors-to-debut-in-q1-2018
Gewoon een heel grote verzameling snoertjes
Verwijderd
At a press event, AMD confirmed that its 2nd generation Ryzen desktop processors will debut in Q1-2018 (before April). It also clarified that "2nd Generation" does not equal "Zen2" (a micro-architecture that succeeds "Zen"). 2nd Generation Ryzen processors are based on two silicons, the 12 nm "Pinnacle Ridge," which is a GPU-devoid silicon with up to eight CPU cores; and "Raven Ridge," which is an APU combining up to 4 CPU cores with an iGPU based on the "Vega" graphics architecture. The core CPU micro-architecture is still "Zen." The "Pinnacle Ridge" silicon takes advantage of the optical shrink to 12 nm to increase clock speeds, with minimal impact on power-draw.
AMD is also launching a new generation of chipset, under the AMD 400-series. There's not much known about these chipsets. Hopefully they feature PCIe gen 3.0 general purpose lanes. The second-generation Ryzen processors and APUs will carry the 2000-series model numbering, with clear differentiation between chips with iGPU and those without. Both product lines will work on socket AM4 motherboards, including existing ones based on AMD 300-series chipset (requiring a BIOS update). AMD is reserving "Zen2," the IPC-increasing successor of "Zen" for 2019. The "Mattise" silicon will drive the multi-core CPU product-line, while the "Picasso" silicon will drive the APU line. Both these chips will run on existing AM4 motherboards, as AMD plans to keep AM4 as its mainstream-desktop socket till 2020.
1. Weinig extra vermogen.
2. De serie gaat een 2000 nummer krijgen, net als de APU's.
Achteraf gezien had AMD toch net zo goed die HDMI-aansluiting op het moederbord kunnen weglaten? De APU komt ongeveer tegelijkertijd uit met de nieuwe chipset en nieuwe moederborden.
Kom op, AMD, maak het moeilijk voor mij om de verleiding te weerstaan om er een te kopen.
[ Voor 92% gewijzigd door Verwijderd op 13-12-2017 20:13 ]
Waarom? Als je nu een moederbord hebt en om wat voor reden dan ook een APU erin wilt gooien dan kan dat dus prima, alleen maar beter.Verwijderd schreef op woensdag 13 december 2017 @ 20:04:
Achteraf gezien had AMD toch net zo goed die HDMI-aansluiting op het moederbord kunnen weglaten? De APU komt ongeveer tegelijkertijd uit met de nieuwe chipset en nieuwe moederborden.
Wat ik liever had gezien is dat het DP was ipv HDMI. Die nieuwe chipset gaat waarschijnlijk niet heel veel veranderen aan de situatie, de meeste dingen die vroeger op de south- en northbridge zaten zitten nu op die cpu ondie.
Verwijderd
Kostenbesparing, misschien waren ze dan wat minder krenterig geweest met MOSFET's en condensators en zo. Of anders in ieder geval €5 minder aan kosten of wat het ook is.
Ik vind het alleen een best wel vergezocht use-case-scenario tenzij je tweedehands zo'n moederbord koopt voor dat doeleinde. Je zou immers dat moederbord gekocht hebben op het moment dat er geen APU verkrijgbaar was, anders dan de APU's die geen zinnig mens aanraadde sinds de komst van Ryzen.Als je nu een moederbord hebt en om wat voor reden dan ook een APU erin wilt gooien dan kan dat dus prima, alleen maar beter.
Precies het feit dat sommige mensen ook tweede hands borden kopen.Verwijderd schreef op woensdag 13 december 2017 @ 21:57:
[...]
Kostenbesparing, misschien waren ze dan wat minder krenterig geweest met MOSFET's en condensators en zo. Of anders in ieder geval €5 minder aan kosten of wat het ook is.
[...]
Ik vind het alleen een best wel vergezocht use-case-scenario tenzij je tweedehands zo'n moederbord koopt voor dat doeleinde. Je zou immers dat moederbord gekocht hebben op het moment dat er geen APU verkrijgbaar was, anders dan de APU's die geen zinnig mens aanraadde sinds de komst van Ryzen.
Minder gebruikelijke use case is, indien ik een nieuwe bord een een Raven Ridge APU koop en deze niet lijkt te werken. Kan ik mooi op mijn andere bord even testen.
Toen APU's net uitkwamen waren ze zeker een aanrader. Intel kon AMD en Nvidia in het begin niet bijbenen wat betreft video acceleratie (features etc), mijn E-350 werkt nog perfect en heeft DXVA2 versnelling. Dit houdt in dat hij de zwaarste 1080p films nog prima kan afspelen (in Linux met Kodi).
Ik had geen behoefte aan een systeem met losse videokaart.
Voor mijn nieuwe media pc ga ik dus zeker weten weer voor een APU.
Om even terug te komen op eerdere discussie: Achteraf lijkt het er inderdaad op dat AMD een tijdelijke inkoop actie heeft gehouden.
1800x:
1700x:
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Er zijn toch gewoon al APU's voor AM4 beschikbaar die al die HDMI-aansluiting gebruiken? Vooruit, het is Bristol Ridge en dus nog geen Zen, maar het zijn wel vriendelijk geprijsde dingen. Als je zoiets nu hebt draaien kan je dus later vrolijk naar Raven Ridge overstappen zonder nieuw mobo te hoeven, of later alsnog naar volle Zen + dGPU. Prima traject als je systeem poef heeft gedaan en je nog niet direct 700-800+ wilde investeren in Ryzen + dGPU, lijkt me.Verwijderd schreef op woensdag 13 december 2017 @ 20:04:
Achteraf gezien had AMD toch net zo goed die HDMI-aansluiting op het moederbord kunnen weglaten? De APU komt ongeveer tegelijkertijd uit met de nieuwe chipset en nieuwe moederborden.
Verwijderd
Twam schreef op donderdag 14 december 2017 @ 15:08:
[...]
Er zijn toch gewoon al APU's voor AM4 beschikbaar die al die HDMI-aansluiting gebruiken? Vooruit, het is Bristol Ridge en dus nog geen Zen, maar het zijn wel vriendelijk geprijsde dingen.
Zelfs om ermee te starten, ik zou het sterk afraden. Het levert gewoon te weinig waarde op waardoor je min of meer dat geld weggooit aangezien je toch snel weer zal upgraden. Dan beter desnoods een paar maanden later een PC kopen en er direct een 1600 in stoppen.Verwijderd schreef op woensdag 13 december 2017 @ 21:57:
Je zou immers dat moederbord gekocht hebben op het moment dat er geen APU verkrijgbaar was, anders dan de APU's die geen zinnig mens aanraadde sinds de komst van Ryzen.
Die RR-APU's zijn er uitstekend geschikt voor. Ik weet niet of dat de oude APU's van AMD zouden volstaan om MPC-HC (of MPB-BE) met madVR video's te laten afspelen.Sp3ci3s8472 schreef op donderdag 14 december 2017 @ 12:31:
Toen APU's net uitkwamen waren ze zeker een aanrader. Intel kon AMD en Nvidia in het begin niet bijbenen wat betreft video acceleratie (features etc), mijn E-350 werkt nog perfect en heeft DXVA2 versnelling. Dit houdt in dat hij de zwaarste 1080p films nog prima kan afspelen (in Linux met Kodi).
Ik had geen behoefte aan een systeem met losse videokaart.
Voor mijn nieuwe media pc ga ik dus zeker weten weer voor een APU.
[ Voor 29% gewijzigd door Verwijderd op 14-12-2017 18:56 ]
Hangt af van de filters die je gebruikt, indien ze softwarematig zijn of gebruik maken van de shading units dan zal hij het zwaar krijgen en frames droppen.Verwijderd schreef op donderdag 14 december 2017 @ 18:54:
[...]
[...]
Zelfs om ermee te starten, ik zou het sterk afraden. Het levert gewoon te weinig waarde op waardoor je min of meer dat geld weggooit aangezien je toch snel weer zal upgraden. Dan beter desnoods een paar maanden later een PC kopen en er direct een 1600 in stoppen.
[...]
Die RR-APU's zijn er uitstekend geschikt voor. Ik weet niet of dat de oude APU's van AMD zouden volstaan om MPC-HC (of MPB-BE) met madVR video's te laten afspelen.
Daarom gebruik ik ook gewoon Kodi zonder andere gekkigheid. Ik zou niet veel meer verwachten van een APU die ondertussen 7 jaar oud (-1 maand
Verwijderd
Sportief van je dat je nog even terugkomt op de idd tijdelijke prijsverlaging.
Destijds gaf ik aan dat ik er weinig vertrouwen in had dat deze bedragen blijvend zouden zijn omdat ze niet logisch waren tov o.a. de andere prijzen van Ryzen. Sommige (niet nader te noemen) collega tweakers wisten op dat moment zeker dat dit er al aan zat te komen en blijvend zou zijn. Altijd makkelijk praten wanneer er iets gebeurd dat je dat al had zien komen, meldt dat dan vtv dan maak je op mij iig meer indruk dan met de kennis van nu.....

Net als met de Ryzen aanbieding zie ik de Raven Ridge APU nog niet in de shops liggen voor 450 euro. Pure logica zegt dat ze daarmee zo goed als onverkoopbaar zullen zijn. Bij een dergelijk bedrag prijst AMD zich compleet uit de markt.
Voordat de eerste prijzen bekend waren van Ryzen was er bij de buren (HWI) veel discussie over de prijs van de 1800X. Er werd toen met forse stelligheid geclaimed dat deze voor ongeveer 900 euro te koop zou zijn. Waarop ik aangaf dat dit niet het geval zou zijn omdat AMD zichzelf daarmee compleet uit de markt zou prijzen. Zelf hield ik een bedrag aan van 600 euro als maximum. Ik werd compleet voor gek verklaard maar bleek wederom achteraf een heel stuk dichter bij de realiteit te zitten dan werd verwacht.
Het is niet dat ik een glazen bol heb oid of een bron bij AMD, ik kijk gewoon puur naar wat er nog meer te koop is (intel) en waar AMD prijzen dus ruim onder moeten blijven. Makkelijker kan niet en het klopt echt altijd.
Verwijderd
Maar goed, laten we maar onthouden voor de toekomst dat er op vrijgezellendag en op Black Friday leuke aanbiedingen kunnen zijn, hoe beperkt dat ook is in dit landje.
Ik ging uit van €500-600, om dezelfde reden. Lagere klokfrequentie, minder naamsbekendheid, beschadigd imago ("heethoofden"). Dat heb ik hierallemaal opgemerkt voordat Ryzen uitkwam, ik voorpelde toen ook dat de hexacore van Ryzen niet meer zou gaan kosten dan de 7700k: extra kernen in ruil voor een lagere klokfrequentie. Het is inderdaad logisch. Inderdaad, je werd desalniettemin voor gek verklaard, want mensen waren gehersenspoeld door de zeer hoge prijzen van Intel.Verwijderd schreef op donderdag 14 december 2017 @ 19:14:
@sdk1985
Voordat de eerste prijzen bekend waren van Ryzen was er bij de buren (HWI) veel discussie over de prijs van de 1800X. Er werd toen met forse stelligheid geclaimed dat deze voor ongeveer 900 euro te koop zou zijn. Waarop ik aangaf dat dit niet het geval zou zijn omdat AMD zichzelf daarmee compleet uit de markt zou prijzen. Zelf hield ik een bedrag aan van 600 euro als maximum.
Voor APU's vind ik het moeilijker in te schatten dan voor de CPU's, maar als ik het probeer dan is dit mijn redenatie, kijk naar wat een quadcore Ryzen-CPU kost (1400 of 1500X dus), tel hierbij op de kosten van de zwakkere laptop-variant van de GTX 1030 en je hebt een bovengrens, voor mij heeft een APU minder waarde dan wanneer je de componenten apart koopt en installeert omdat je niet kan upgraden maar ik weet niet of dat dat ook voor andere mensen geldt, misschien vinden sommige mensen een lager vermogen belangrijk.
[ Voor 75% gewijzigd door Verwijderd op 14-12-2017 19:59 ]
Verwijderd
Instap Raven Ridge vanaf ongeveer 100 euro.
Top model Raven Ridge tot aan maximaal 300 euro.
Een kanttekening wil ik daar nog wel bij maken. Wanneer Bristol Ridge evt tzt compleet word vervangen door Raven Ridge zullen er ook nog voordeliger versies uit moeten komen dan 100 euro omdat AMD anders helemaal geen aanbod meer heeft qua APU onder de 100 euro.......
Een 450 euro kostende APU chip voor consumenten zie ik dus echt niet gebeuren.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Verwijderd
Ik hoop met je mee voor AMD maar zie zelf zeker geen 450 euro kostende APU, meer dan 300 euro wellicht door woekerende webshops bij schaarste maar niet als adviesprijs. Ook denk ik niet dat het zinvol is om 2 losse chips (GPU en CPU) bij elkaar op te tellen en dat dan als uitgangspunt te nemen voor een APU.....NitroX infinity schreef op donderdag 14 december 2017 @ 22:46:
Ik denk dat we wel een duurdere APU dan €300 kunnen zien verschijnen; ~€170 quadcore met SMT (R5 1500X) en ~€170 iGPU (~RX 470) voor een €350 kostende APU.
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Je rekensom is potentieel wat pessimistisch.NitroX infinity schreef op donderdag 14 december 2017 @ 22:46:
Ik denk dat we wel een duurdere APU dan €300 kunnen zien verschijnen; ~€170 quadcore met SMT (R5 1500X) en ~€170 iGPU (~RX 470) voor een €350 kostende APU.
Ten eerste betekent een APU ook dat er geen PCB gemaakt hoeft te worden, of een koeler. Dat scheelt behoorlijk in de kosten. Vervolgens worden de chips ook niet voor relatief weinig verkocht aan een AIB, die zelf nog moet investeren in een custom ontwerp, marge pakt en doorverkoop aan een groothandel. Die verkoopt weer door aan een kleine handelaar, of direct aan grote winkels. Allemaal maken ze kosten, en willen ze winst maken. Voor die RX580 8GB die je nu voor €300 kan kopen in de winkel, heeft AMD bij lange na geen €300 gekregen, waarschijnlijk niet eens €150.
Wordt een dergelijke chip gebruikt met een APU, dan verkoopt AMD direct aan een importeur, dan groothandel etc. Verder leveren ze alleen een goedkope, maar in AMD haar geval nog steeds goede koeler. Ze kunnen dus veel lager gaan zitten dan met een losse aanpak.
Aan de andere kant gaat meespelen dat een 28CU Vega chip, niet zo goed gaat presteren als en RX570. Daar is een heel goede reden voor, verbruik. De meeste AM4 bordjes kunnen niet eens 100W leveren voor SoC, waar ook de GPU afhankelijk van zal zijn. Gaat een beetje GPU dus niet op draaien. Nee, als er echt een 28CU chip gaat komen, dan gaat dat met fors lagere clocks zijn. Dat zal ook een lagere prijs betekenen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De mobo makers hadden beter die 2 legacy beeld uitgangen weggelaten (kuch VGA en DVIVerwijderd schreef op woensdag 13 december 2017 @ 20:04:
Achteraf gezien had AMD toch net zo goed die HDMI-aansluiting op het moederbord kunnen weglaten? De APU komt ongeveer tegelijkertijd uit met de nieuwe chipset en nieuwe moederborden.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Verwijderd
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Verwijderd
Sommigen hier rekenen AMD rijk met een 450 Euro opleverende AM4 R.R. APU die dik meer dan 200 Watt zou mogen verstoken. Dit is idd compleet onrealistisch.
Het moet immers binnen een te behappen totaal TDP blijven waarbij de eindgebruiker bovendien geen 450 euro wenst te betalen voor een APU die niet high-end kan Gamen.
200Watt? Kom nou.Verwijderd schreef op zaterdag 16 december 2017 @ 13:39:
@DaniëlWW2
Sommigen hier rekenen AMD rijk met een 450 Euro opleverende AM4 R.R. APU die dik meer dan 200 Watt zou mogen verstoken. Dit is idd compleet onrealistisch.
Het moet immers binnen een te behappen totaal TDP blijven waarbij de eindgebruiker bovendien geen 450 euro wenst te betalen voor een APU die niet high-end kan Gamen.
Een RX 470 (2048 shaders, 32CU) videokaart verbruikt iets van 140Watt op ~1200MHz. En dat is met die standaard voltages van AMD die eigenlijk onnodig hoog liggen. Op 1000MHz zal zo'n kaart dicht in de buurt van de 100Watt of minder zitten. En dat is inclusief GDDR5.
Nou hebben we het over Vega, die zal waarschijnlijk nog wat zuiniger zijn op 1000MHz.
Ik kan me wel voorstellen dat alleen een VEGA gpu met 2048 shaders op 1000MHz zo'n 60Watt verstookt. Dan heb je nog 35Watt voor het cpu gedeelte en daar heeft een quadcore Ryzen geen moeite mee volgens mij. En 95Watt is met gemak mogelijk op socket AM4.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Verwijderd
Ook de verwachtingen tav de RR APU prijzen zijn @ 450 euro totaal onrealistisch.
Zelf verwacht ik een totaal TDP dat ver onder de 150 Watt moet liggen* en een maximale shopprijs @ 300e.
* wellicht dat 125 Watt totaal TDP nog net haalbaar is ?
Verwijderd
125 W lijkt me net te weinig maar 140-150 W is zeker te doen. Prijs? Realistisch gezien is €300 het maximum als je kijkt naar wat die componenten normaal gesproken zouden kosten als je ze los koopt, m.i. moet de prijs bij een APU altijd lager liggen.Verwijderd schreef op zaterdag 16 december 2017 @ 14:13:
Zelf verwacht ik een totaal TDP dat ver onder de 150 Watt moet liggen* en een maximale shopprijs @ 300e.
* wellicht dat 125 Watt totaal TDP nog net haalbaar is ?
In theorie kom je met 28 CU's tussen de RX 560 en RX 570 uit, qua GPU veel dichter bij de RX 570 maar wel met slechts 2 GB RAM.
De RX 560 trekt ongeveer 75 W (afhankelijk van of dat het wel of niet meer vermogen via de PCIe trekt dan wat 'mag'), de RX 570 trekt ongeveer 150 W uit de voeding. Echter is het bekend dat je met het goed aanpassen van de spanning en klokfrequentie met 50% van het vermogen 80-90% van de prestaties haalt.
Ik zou daarom schatten dat ze voor de GPU maximaal 75-100 W beschikbaar stellen (iets minder dan 75 W kan ook nog) en dat de prestatie ongeveer halverwege tussen de RX 560 en RX 570 valt, qua GPU zou het hoger moeten kunnen uitkomen maar ik weet niet hoe het uit pakt dat het slechts 2 GB RAM heeft.
De CPU heeft aan 65 W genoeg, tenzij je overklokt. Dan kom je dus uit op 65+75-100 = 140-165 W. Ik schat dus minimaal 140 W wat nog altijd prima is voor een CPU + GPU, je kan dat gemakkelijk koelen met een fatsoenlijke CPU-koeler, 165 W gaat waarschijnlijk ook nog maar veel hoger wil je niet gaan.
Het hangt natuurlijk af van hoe AMD de afweging maakt tussen vermogen en performance.
[ Voor 21% gewijzigd door Verwijderd op 16-12-2017 15:26 ]
Verwijderd
Alhoewel ik prima begrijp dat je bij hogere / betere clocks ook op een hoger TDP gaat komen vraag ik me dan wel af hoe dat moet passen binnen de vele AM4 bordjes die typisch maar tot 95 Watt ondersteunen ?
(budget bordjes gaan zelfs maar tot 65 Watt....)
Daar zit ws nog wel iets van marge in maar van 95 Watt per CPU naar 165 Watt per APU is echt ENORM.
Denk dat men niet te veel waarde moet hechten aan de naam vega en beter vanuit de 2500U kan redeneren dan vanuit de desktop vega56.Verwijderd schreef op zaterdag 16 december 2017 @ 14:13:
Kuch, er zijn mensen die in het FP nieuws een volwaardige Ryzen 5 verwachten @ topsnelheid + een 28 CU Vega @ topsnelheid, dan kom je met gemak boven de 200 Watt uit. En dat past dus niet binnen het TDP.
Ook de verwachtingen tav de RR APU prijzen zijn @ 450 euro totaal onrealistisch.
Zelf verwacht ik een totaal TDP dat ver onder de 150 Watt moet liggen* en een maximale shopprijs @ 300e.
* wellicht dat 125 Watt totaal TDP nog net haalbaar is ?
De 2500U heeft een TDP van 15W met 8 van die compute units. Laat dat eens 5W zijn voor de 8 CU's. Als je dezelfde units 28 stuks van pakt dan kom je op 28/8=3,5 * 5=17,5W + Ryzen 5 zelf 65W = 82,5W. Dan mag het bij desktop nog wel wat meer worden maar 95W lijkt me niet onhaalbaar.
Of dat nu precies 5W is weet natuurlijk niemand maar zelfs als je 10W pakt dan komt uit die rekensom 35W+65W=100W. Veel hogere inschattingen lijken mij om diverse (door anderen benoemde) redenen niet reëel.
[ Voor 16% gewijzigd door sdk1985 op 16-12-2017 19:12 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
165 Watt valt buiten iedere AM4 norm en zal dus heel veel problemen opleveren.
Vandaar dat ik 165 Watt echt niet zie gebeuren......(net als een verkoop prijs van 450 euro)
Verwijderd
Geldt dit probleem specifiek voor A320 moederborden of zijn er ook B350-moederborden waarbij dit een probleem is?Verwijderd schreef op zaterdag 16 december 2017 @ 17:32:
@Verwijderd
Alhoewel ik prima begrijp dat je bij hogere / betere clocks ook op een hoger TDP gaat komen vraag ik me dan wel af hoe dat moet passen binnen de vele AM4 bordjes die typisch maar tot 95 Watt ondersteunen ?
(budget bordjes gaan zelfs maar tot 65 Watt....)
Daar zit ws nog wel iets van marge in maar van 95 Watt per CPU naar 165 Watt per APU is echt ENORM.
Het is lastig om dit te vinden, de websites van de fabrikanten zijn tegenwoordig zo verschikkelijk onoverzichtelijk (allerlei marketingonzin waarbij je oneindig lang moet zoeken/scrollen/klikken om de specs te vinden in plaats van dat ze die netjes bij elkaar zetten in 1 overzichtelijk en tabelletje) dat ik geen zin heb om daarop te zoeken. Bij Tweakers kan je dat niet het vermogen als parameter gebruiken. Bij PCPartpicker eveneens niet.
Ik weet dat Ryzen bij 3,7 GHz rond de 67 Watt zit voor 8 kernen en dat in die fase het vermogen sneller oploopt, ik weet niet hoe hoog dat vermogen precies wordt bij 4,0 GHz en 1,4 V.
Indien het bij de B350-moederborden (toch behoorlijk budget?) geen probleem is om er 150 W uit te trekken dan is het een non-issue, de mensen die een APU met 28 Vega-CU's gebruiken moeten sowieso m.i. een B350-moederbord gebruiken. Misschien is dat een gedachtengang bij AMD: een APU met slechts 11 CU's voor de A320 en een met 28 CU's voor de B350. Dan heb je een echte budgetoptie (de simpelste APU zal waarschijnlijk maximaal €150 kosten, voor €200 heb je dan een moederbord en een APU) en een optie die ertussen in zit. Ik ben benieuwd in welke mate die duurdere APU met 28 CU's gaat worden verkocht voor desktops. Het lijkt me meer leuk voor laptops maar niet zo interessant voor desktops. Zo'n instap-APU kan een gat in de markt vullen voor mensen die een dirtcheap systeem willen kopen maar als je daarboven gaat dan lijkt het mij handiger om een aparte discrete grafische kaart te gebruiken.
Dat lijkt mij te zwartwit, het is maar net waarvoor die APU wordt gebruikt: desktop vs. laptop en ultrabook vs. 'gaming'-laptop of 'werk'laptop (die dikker en zwaarder mag zijn). Dezelfde APU met een verschillend budget voor vermogen. Ik zie er in ieder geval geen nut in als AMD dat zou locken.sdk1985 schreef op zaterdag 16 december 2017 @ 19:05:
[...]
Denk dat men niet te veel waarde moet hechten aan de naam vega en beter vanuit de 2500U kan redeneren dan vanuit de desktop vega56.
[ Voor 37% gewijzigd door Verwijderd op 16-12-2017 19:31 ]
Verwijderd
A320 is in ieder geval voor veel bordjes beperkt tot 65 Watt (mogelijk zelfs allemaal ?).
Deze chipset is ook meer bedoeld voor de Bristol Ridge APU's die eigenlijk al meer verbruiken dan je zou verwachten, non OC boven de 100 Watt @ max. afhankelijk van de uefi versie (bij intro veel te veel).
Of Raven Ridge ook typisch bedoeld is voor deze budget chipset is mij niet bekend.
Zo ja dan moet je zelfs rekening houden met 65 Watt maximaal ipv 95 Watt maximaal.
Verwijderd
JIj weet dus ook niet wat het maximale vermogen is voor veel B350-moederborden? Dit hangt mogelijk net zo sterk af van de uitvoering als van de vereisten die AMD stelt aan B350.

De CPU op 3-3,3 GHz klokken en 30-35 Watt beschikbaar stellen voor de graphics voor de APU met 11 CU's? Dat lijkt me goed te doen. Bij een ultrabook een base van iets boven de 2 GHz en de graphics ondervolten en lager klokken?
[ Voor 93% gewijzigd door Verwijderd op 16-12-2017 19:38 ]
Verwijderd
SLC: Waarom Kiala/UPS P2P post anno 2017 compleet faalt.....
Verwacht ze inmiddels ook nooit meer te ontvangen......
Van A320 wel meer kennis van zaken, dat is meestal beperkt tot slechts 65 Watt per APU/CPU.
Maar komt in de praktijk dus ook makkelijk op ruim het dubbele uit (135+ Watt)......

Theorie en praktijk liggen hier dus mijlenver uit elkaar.
Verwijderd
Verwijderd
https://nl.hardware.info/...dge-apu-socket-am4-review
Op het oog verschillen de VRM's ook niet veel van B350 dus dat zegt ook vrij weinig.
Net als sommige B350 bordjes een betere stroomvoorziening hebben dan X370 varianten.
Er zit blijkbaar nogal wat vrijheid in datgene wat de fabrikanten mogen ontwerpen binnen de AM4 chipsets.
Mijn B350 kopen, koop ik wel iets andersVerwijderd schreef op zaterdag 16 december 2017 @ 19:39:
Helaas niet, heb er 2 gekocht, die zijn beiden al 3 maanden zoek in de "fijne service" van UPS:
SLC: Waarom Kiala/UPS P2P post anno 2017 compleet faalt.....
Verwacht ze inmiddels ook nooit meer te ontvangen......
Van A320 wel meer kennis van zaken, dat is meestal beperkt tot slechts 65 Watt per APU/CPU.
Maar komt in de praktijk dus ook makkelijk op ruim het dubbele uit (135+ Watt)......
Theorie en praktijk liggen hier dus mijlenver uit elkaar.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Verwijderd
Ja, maar dan gaat het om de beste B350 bordjes vs. de slechtste X370 bordjes. Een fatsoenlijk X370 bordje, daar komt geen enkele B350 ook maar bij in de buurt. Maar ja, dan betaal je wel minstens €149 bij Asus en ongeveer €200 bij de andere merken. Maar inderdaad, ze hebben veel vrijheid bij het invullen. Kregen ze die vrijheid maar met de SLI wat zelfs Nvidia niet meer ondersteunt buiten de benchmarks.Verwijderd schreef op zaterdag 16 december 2017 @ 20:13:
Net als sommige B350 bordjes een betere stroomvoorziening hebben dan X370 varianten.
[ Voor 15% gewijzigd door Verwijderd op 16-12-2017 23:40 ]
Verwijderd
Maar het gekke is dan wel dat dit überhaupt mogelijk is.....

Eigenlijk is dat dus geen goede ontwikkeling.
Verwijderd
Eens. AMD had meer eisen moeten stellen aan de gebruikte componenten voor zowel B350 als X370, het totale vermogen wat geleverd kan worden, de maximale temperaturen bij die componenenten etc.Verwijderd schreef op zaterdag 16 december 2017 @ 23:59:
Het gaat idd dan om de budget X370 bordjes vs de beste B350 borden.
Maar het gekke is dan wel dat dit überhaupt mogelijk is.....
Eigenlijk is dat dus geen goede ontwikkeling.
Ik zou voorschrijven dat je op elk B350-moederbord de 1700 1,4 V moet kunnen geven voor langdurig gebruik zonder dat componenten voortijdig beschadigd (kunnen) geraken (bij condensators bijvoorbeeld een probleem bij veel modellen) en voor elk X370-moederbord zou ik de lat zo hoog leggen dat gegarandeerd elke CPU die AMD uitbrengt op dit platform maximaal overklokt kan worden als je met luchtkoelers of AIO's de CPU koelt.
Daarnaast was het m.i. onnodig om SLI te verplichten voor X370. Ik weet niet in welke mate de bedrijven nog steeds licentiekosten betaalden en betalen nu Nvidia stopte met zelf SLI te ondersteunen (behalve voor benchmarks

Laat de mensen die zo nodig SLI willen gebruiken dat maar zelf kopen.
Ze zullen er vast een korting voor krijgen maar om nu 100% van de klanten hiervoor te laten betalen terwijl 1% van de klanten het ooit gebruikt en Nvidia SLI volledig heeft stopgezet voor nieuwe spellen, dat zit bij mij niet lekker. Ook met de kennis dat die SLI brug enkel wordt gebruikt om weer extra geld uit de zakken te kloppen, niet omdat het voor de performance nodig is, dat kan prima via het PCIe-slot.
[ Voor 17% gewijzigd door Verwijderd op 17-12-2017 14:27 ]
This is the first time Vega 11 makes an appearance in a leaked slide. A new mobile Ryzen series with higher TDP will receive more powerful integrated Vega graphics. The Ryzen 5 2400G, which is a quad-core and 8-thread APU, will feature Vega 11 Graphics. The whole package will be available in 65 and 35W variants. Another ‘confirmed’ part is Ryzen 3 2200G which is allegedly featuring Vega 8 Graphics while being a 4-thread APU.
The U-series will also receive a new SKU. The Ryzen 3 2300U will be the slowest mobile APU featuring 6 Compute Units designed in Vega architecture.
[ Voor 78% gewijzigd door foppe-jan op 17-12-2017 21:08 ]
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Dat zijn dus "marketing" Vega 11 chips met 11CU's. Daar gaat het zeer waarschijnlijk om het Vega 12 GPU ontwerp. Dan is er nog de interne codenaam voor een Vega 11 GPU ontwerp waar het om maximaal 32CU's chip zou gaan.
Ja, dit is allemaal hartstikke onduidelijk.
De vraag is of AMD die 32CU chip uit gaat brengen, en zo ja als APU? Als discrete chip zou ik maximaal 10% boven een RX580 verwachten, puur door hogere clocks. Dan is het maar de vraag wat voor geheugen er gebruikt zou worden. In theorie zou een 4GB HBM2, Vega 11 GPU, die dankzij de nieuwe GF 12nm node, naar bijvoorbeeld 1600MHz clocked, een flinke stap kunnen zijn. Meer dan 10% over een RX580 in ieder geval omdat GCN GPU's altijd van meer geheugen bandbreedte houden. De vraag is dan hoe je aan de HBM2 chips komt? Daar zijn forse tekorten van, en ze zijn heel erg duur omdat alle partijen, ook AMD, bereid zijn om forse premiums te betalen.
Een andere vraag is waarom AMD, Vega 11 uit zou brengen? Navi lijkt dichterbij te zijn dan de meeste denken, maar aan de andere kant heb ik er ook al eens op gewezen dat er kennelijk al contracten lagen voor de productie van de Vega 11 GPU. Ik zie niet wat AMD ermee wint als Navi in de zomer van 2018 uitgebracht zal worden, waar het toch naar uit ziet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
We hebben al een tijdje niets gehoord van de Vega Nano, ik denk dat ze op 12nm wachten.DaniëlWW2 schreef op zondag 17 december 2017 @ 21:45:
...
De vraag is of AMD die 32CU chip uit gaat brengen, en zo ja als APU?
...
https://www.techpowerup.c...s-the-radeon-rx-vega-nano
Ik denk eerder dat het prototype gewoon is gesmolten en dat het was.Verwijderd schreef op zondag 17 december 2017 @ 22:51:
[...]
We hebben al een tijdje niets gehoord van de Vega Nano, ik denk dat ze op 12nm wachten.
https://www.techpowerup.c...s-the-radeon-rx-vega-nano
Maar waar komen de 12nm refresh geruchten voor Vega 10 vandaan? Dit is een verhaal zonder enige basis of logica, en ik zie het ook niet gebeuren...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waar haal je dat van Navi?DaniëlWW2 schreef op zondag 17 december 2017 @ 21:45:
Een andere vraag is waarom AMD, Vega 11 uit zou brengen? Navi lijkt dichterbij te zijn dan de meeste denken, maar aan de andere kant heb ik er ook al eens op gewezen dat er kennelijk al contracten lagen voor de productie van de Vega 11 GPU. Ik zie niet wat AMD ermee wint als Navi in de zomer van 2018 uitgebracht zal worden, waar het toch naar uit ziet.
Combinatie van roadmaps en een onderbouwde gok.
De TSMC 7nm roadmap geeft volumeproductie voor H1/2018 aan. Risicoproductie is er allang. Verder zou Navi haar tape-out hebben gehad ergens in het afgelopen halfjaar. Dat bekent nog een jaar erop en dan release. Nu heeft AMD kennelijk een contract met TSMC getekend voor GPU's. Dat mogen ze ook doen gezien de nieuwe afspraken met Global Foundries. Dat artikel van Digitimes lijkt helaas weer achter een inlogmuur te zitten.

Maar TSMC 7nm zou vanaf mei in volle productie moeten zijn. Drie maanden later kan je dan een launch zien waar je daadwerkelijk een kaart kan kopen in de winkel. De vraag is wanneer AMD met Navi komt, maar ik zou enigszins verbaast zijn als het later dan september is. Rond die tijd verwacht ik ook pas Nvidia. Ik zou het wederom verbazend vinden als Nvidia niet heeft besloten te wachten op 7nm, en een volledige line-up op TSMC 12nm doet. Dat zal de chips goedkoper maken, want 7nm gaat duur zijn, maar het zal ook heel wat prestaties kosten. Zo zou Nvidia, AMD de kans geven om flink in te lopen, en Nvidia maakt over het algemeen niet zulke fouten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Laat die SLI bridge maar lekker achterwegen inderdaad, genoeg SLI bruggen aan te schaffen als je dan toch SLI wilt draaien.Verwijderd schreef op zondag 17 december 2017 @ 14:23:
[...]
Eens. AMD had meer eisen moeten stellen aan de gebruikte componenten voor zowel B350 als X370, het totale vermogen wat geleverd kan worden, de maximale temperaturen bij die componenenten etc.
Ik zou voorschrijven dat je op elk B350-moederbord de 1700 1,4 V moet kunnen geven voor langdurig gebruik zonder dat componenten voortijdig beschadigd (kunnen) geraken (bij condensators bijvoorbeeld een probleem bij veel modellen) en voor elk X370-moederbord zou ik de lat zo hoog leggen dat gegarandeerd elke CPU die AMD uitbrengt op dit platform maximaal overklokt kan worden als je met luchtkoelers of AIO's de CPU koelt.
Daarnaast was het m.i. onnodig om SLI te verplichten voor X370. Ik weet niet in welke mate de bedrijven nog steeds licentiekosten betaalden en betalen nu Nvidia stopte met zelf SLI te ondersteunen (behalve voor benchmarks) maar vaak wordt er een SLI-brug bij gedaan en in het slechte geval ook nog eens een high-bandwidth SLI brug.
![]()
Laat de mensen die zo nodig SLI willen gebruiken dat maar zelf kopen.
Ze zullen er vast een korting voor krijgen maar om nu 100% van de klanten hiervoor te laten betalen terwijl 1% van de klanten het ooit gebruikt en Nvidia SLI volledig heeft stopgezet voor nieuwe spellen, dat zit bij mij niet lekker. Ook met de kennis dat die SLI brug enkel wordt gebruikt om weer extra geld uit de zakken te kloppen, niet omdat het voor de performance nodig is, dat kan prima via het PCIe-slot.
Daarnaast ben ik het oneens met je dat SLI volledig wordt/is stop gezet, 4x Gtx1080 SLI werkt gewoon goed. (Afhankelijk van de game en gebruikte SLI instellingen) Eigen filmpje:
Het probleem wat ik zie is dat mensen 2 videokaarten kopen, in hun pc "plepen" met 1 flex bruggetje verbinden, en dan het SLI vinkje aanzetten en er dan van uit gaan dat het feilloos werkt in elke game.
Dat je dan zelf SLI profielen kan aanmaken en per game kan "optimaliseren" (SFR/AFR/AFR2) etc is dan totaal onbekend voor ze.
Inderdaad eens met je dat Nvidia dit makkelijk via de PCIe slot kan laten lopen. Met de amd kaartjes waarbij dit als eerst kon (R9 serie) 295x2 (2 kaarten in Crossfire) heb ik dit een tijd gedaan en werkte dit zeer goed. Filmpje van toen GTA5 net uit was:
Deze? https://www.digitimes.com/news/a20171023PD201.htmlDaniëlWW2 schreef op maandag 18 december 2017 @ 10:58:
[...]
Nu heeft AMD kennelijk een contract met TSMC getekend voor GPU's. Dat mogen ze ook doen gezien de nieuwe afspraken met Global Foundries. Dat artikel van Digitimes lijkt helaas weer achter een inlogmuur te zitten.
Als je het artikel via google vindt, kan je om de een-of-andere-reden de paywall ontwijken.
Die ja. Google werkt ook weer eens haar mysterieuze magie.FortyOne schreef op maandag 18 december 2017 @ 17:12:
[...]
Deze? https://www.digitimes.com/news/a20171023PD201.html
Als je het artikel via google vindt, kan je om de een-of-andere-reden de paywall ontwijken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Een goede start maar je zit dan mogelijk altijd nog met die licentieafzetterij van Nvidia. Weinig duidelijkheid over, het is bekend dat Nvidia hier flink voor liet betalen (naar verluidt ongeveer $10 per moederbord in het verleden) en dat de moederbordbedrijven daarom veel modellen uitbrachten zonder SLI, wat weer gezeur opleverde van reviewers die het niet goed begrepen (punten aftrekken terwijl er niets mis mee is als bepaalde features niet zitten op 'budget'modellen).dylan111111 schreef op maandag 18 december 2017 @ 11:09:
[...]
Laat die SLI bridge maar lekker achterwegen inderdaad, genoeg SLI bruggen aan te schaffen als je dan toch SLI wilt draaien.
Het punt is dat Nvidia zelf heeft aangegeven dat het geen SLI meer ondersteunt voor nieuwe spellen. Alleen al omdat Nvidia enkel SLI niet via de PCIe laat verlopen om extra geld uit de zakken te kloppen met licenties en SLI-brugjes is voor mij voldoende reden dat ik vind dat het in beginsel niet ondersteund zou moeten worden op AM4, met uitzondering van enkele van de duurdere X370-moederborden waarbij er ook een SLI-loze variant is voor een lagere prijs. Echter, nu Nvidia heeft aangegeven het niet meer te ondersteunen vind ik dat het helemaal niet meer ondersteund zou moeten worden door de moederbordfabrikanten, op een uitzondering na (niche-markt).Daarnaast ben ik het oneens met je dat SLI volledig wordt/is stop gezet, 4x Gtx1080 SLI werkt gewoon goed.
Los hiervan, is met twee grafische kaarten spelen in het algemeen niet een hele slechte investering? Voor sommige spellen werkt het maar minstens net zo vaak gaat de hogere FPS ten koste van de 0,1% en 1% framerendertijd (dus microstutter). Als je dat afzet tegen de extra kosten en het extra energieverbruik...
Waarom dan niet 1 betere grafische kaart gebruiken? Misschien speel jij net dat ene spel graag waarvoor elke grafische kaart tekort schiet of kon jij een tweedehands kaart goedkoop kopen en heb jij het daarom maar gedaan?
Koos jij in het verleden voor AMD wegens multi-monitor setup? Dat had AMD wat eerder onder de knie.
[ Voor 7% gewijzigd door Verwijderd op 18-12-2017 19:33 ]
Verwijderd
Daar is een gerucht van geweest in de media maar het zal ook gevoed worden doordat mensen het logisch vinden, als je toch een kleinere node hebt en bijna gratis (met weinig werk) een betere kaart krijgt, waarom dan niet?DaniëlWW2 schreef op maandag 18 december 2017 @ 09:40:
[...]
Ik denk eerder dat het prototype gewoon is gesmolten en dat het was.![]()
Maar waar komen de 12nm refresh geruchten voor Vega 10 vandaan? Dit is een verhaal zonder enige basis of logica, en ik zie het ook niet gebeuren...
Dat is gebruikelijk, dat zie je bij veel nieuwssites. Ik speculeer dat ze dat met opzet doen omdat ze graag willen dat mensen via een zoekmachine hun krantje vinden (mensen die het nog niet kennen).FortyOne schreef op maandag 18 december 2017 @ 17:12:
[...]
Deze? https://www.digitimes.com/news/a20171023PD201.html
Als je het artikel via google vindt, kan je om de een-of-andere-reden de paywall ontwijken.
Ofwel dat ofwel zijn het enorme prutsers die de crawlers van Google de links laten ophalen, het lijkt me sterk dat ze zo amateuristisch zijn, zelf al gaat het om dodebomen-media.
Ik heb al vaak zo een artikel gekregen door gewoon de titel of een stuk tekst in te typen in de zoekmachine terwijl het achter een betaalmuur zit als je vanaf de website klikt.
Hopelijk klopt Daniël zijn speculatie. Dan wordt het voor mij begin 2019 Zen2 + Navi en dit hopelijk met RAM-prijzen die weer enigszins richting normaal niveau zijn gegaan (verwacht er niet te veel van maar het zal lager zijn dan dat het nu is, maar waarschijnlijk niet lager dan in afgelopen maart) en met een ineengestorte 'mining'-zeepbel.
[ Voor 64% gewijzigd door Verwijderd op 18-12-2017 19:58 ]
Verwijderd
Ik hoop het nietDaniëlWW2 schreef op maandag 18 december 2017 @ 09:40:
[...]
Ik denk eerder dat het prototype gewoon is gesmolten en dat het was.![]()
Maar waar komen de 12nm refresh geruchten voor Vega 10 vandaan? Dit is een verhaal zonder enige basis of logica, en ik zie het ook niet gebeuren...
Desktop RR wordt volgens 12nm gemaakt. Dan is het ook logisch dat Vega 10 ook onder 12nm gemaakt worden. Als het onder 14nm gemaakt worden dan roepen de tegenstanders meteen van: "Ja hoor, 12nm is inmiddels beschikbaar en toch kiezen ze voor global warming" pffff.
Daarnaast, iets moet de RX 580 prijs segment opvolgen en 3x 14nm achter elkaar en vervolgens weer 14nm? Gaan ze Intel achterna? Dat is ook niet echt vooruitstrevend.

Verwijderd
2 caveats: beschikbaarheid en prijs. Als er een beperkte capaciteit is voor 12 nm. , te weinig om voor beide aan de vraag te voldoen, dan zet AMD vol in op de CPU, want dat levert veel meer winst per stuk op (4 miljard transistoren op 8 kernen voor de 3/4 jaar oude Ryzen, een 1,5 jaar oude RX 480 5,7 miljard, dat geeft wel enigszins een idee).Verwijderd schreef op maandag 18 december 2017 @ 19:57:
[...]
Ik hoop het niet![]()
Desktop RR wordt volgens 12nm gemaakt. Dan is het ook logisch dat Vega 10 ook onder 12nm gemaakt worden.
Wat betreft de 7 nm. , ze gaan nog niet direct vol op 7 nm.
Los van het feit dat niet alle componenten verkleind hoeven te worden (I/O bijvoorbeeld, hoewel het leuk zou zijn voor het vermogen als dat wel gebeurt maar het blijkt dat het voor sommige delen van de chip moeilijker is om te verkleinen) is het nog erg duur om dit te doen omdat ze met een flink aantal extra maskers moeten werken. Voor wie niet weet hoe zo'n CPU/GPU wordt gemaakt, ze maken een masker waarop een plaatje is 'getekend' en zodoende wordt selectief licht doorgelaten, afhankelijk van of dat er wel of niet licht is doorgelaten op het deel van het oppervlakte reageert het met een etsende stof en zodoende wordt laag voor laag de vorm aangemaakt. Hetzelfde principe als bij een foto waarbij je licht laat invallen op een fotogevoelige laag en vervolgens stofjes laat reageren met die laag. Nu ja, een analoge foto in ieder geval.
De resolutie van de huidige belichtingstoestellen is te klein voor 7 nm., ze gebruiken als truc om het lichtjes te verschuiven bij een volgende laag en zodoende via overlapping kleinere afmetingen te krijgen dan wat mogelijk is met de belichting zelf. Een hele dure grap want elke laag extra levert veel kosten op, vooral door de manuren die nodig zijn en de ruimte die het in belag neemt in de fabriek (het blijft langer in de fabriek voordat het afgehandeld wordt, dus een lagere afzet per tijdseenheid en dus vastere lasten verdeeld over een kleiner aantal CPU's en GPU's).
Pas voor Zen3 verwachten ze UEV te gebruiken. Het verschil tussen UEV en de huidige lithografie is dat het licht wat ze gaan gebruiken een kleinere golflengte heeft. Het grootste obstakel voor deze techniek is dat ze lampen nodig hebben die een hoger vermogen hebben (bij die golflengte), uit mijn hoofd hebben ze ongeveer 250 W nodig terwijl ze nu rond de 100 W zouden zitten.
Tot zo ver de uitleg voor dummies voor zo ver ik het begrijp.
Nee, AMD komt niet met een nieuwe RX 580 tenzij het naar 12 nm. gaat. Navi gaat voor alle segmenten dienen, niet enkel voor 'lowend' of enkel voor 'highend' zoals respectievelijk Polaris en Vega.Daarnaast, iets moet de RX 580 prijs segment opvolgen en 3x 14nm achter elkaar en vervolgens weer 14nm? Gaan ze Intel achterna? Dat is ook niet echt vooruitstrevend.
Dat Intel dit deed was natuurlijk louter het gevolg van stagnatie bij Intel, ze krijgen maar niet hun 10 nm. node onder controle. Het lijkt erop dat de eerste twee generaties van de 10 nm. het slechter gaat presteren dan de huidige 14 nm. ++ van hen. Dit geeft GF/Samsung/IBM en TSMC een mooie kans om in te lopen.
De laatste node is niet of nauwelijks (1%?
[ Voor 4% gewijzigd door Verwijderd op 18-12-2017 20:14 ]
Waar haal je precies vandaan dat Raven Ridge op 12nm komt? Raven Ridge staat ook gewoon als 14nm in AMD roadmaps, voor 2018 en daar zijn we nu twee weken vandaan.Verwijderd schreef op maandag 18 december 2017 @ 19:57:
[...]
Ik hoop het niet![]()
Desktop RR wordt volgens 12nm gemaakt. Dan is het ook logisch dat Vega 10 ook onder 12nm gemaakt worden. Als het onder 14nm gemaakt worden dan roepen de tegenstanders meteen van: "Ja hoor, 12nm is inmiddels beschikbaar en toch kiezen ze voor global warming" pffff.
Daarnaast, iets moet de RX 580 prijs segment opvolgen en 3x 14nm achter elkaar en vervolgens weer 14nm? Gaan ze Intel achterna? Dat is ook niet echt vooruitstrevend.
Verder is 12nm ook van GF en speelt er heel wat anders. Global Foundries Fab 7 in New York State is effectief een AMD faciliteit. Ze hebben daar twee cleanrooms en kunnen dus twee nodes produceren. Een tijdje geleden heb ik het allemaal uitgezocht en hier geplaatst. GF heeft de 14nm capaciteit uitgebreid, en schakelt over naar 12nm voor de tweede cleanroom. Dit proces moet nu al een paar maanden geleden voltooid zijn.
Op 12nm maakt AMD nu Pinnacle Ridge en waarschijnlijk Vega 11. Op die 14nm capaciteit zal AMD in ieder geval Raven Ridge maken, en waarschijnlijk ook Vega 10. RX Vega is voor AMD helemaal geen prioriteit. Nee dat zijn de Instinct MI25, WX9100, Radeon Pro SSG en het Apple contract. Wat overblijft gaat naar RX Vega.
Verder is het niet gratis, een overstap voor Vega 10 naar 12nm. Nee, dat zal al snel een paar honderd miljoen dollar kosten, en voor wat? Je zal wat betere clocks krijgen, en iets minder verbruik, maar waarom zou AMD dit doen? Kosten-baten verhouding zal alles behalve goed zijn.
Dan Polaris. Mij is nog steeds niet duidelijk wat er gaat gebeuren met Vega 11. Het kan zo zijn dat deze komt als Polaris 10 vervanger, of het is alleen een highend APU chip. De echte vervanger zal alleen Navi zijn, en zoals ik eerder vandaag al aangaf, zit er aan te komen. Die chip zou puur op clockspeeds al een stuk sneller moeten zijn.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Al die jaren heb ik zo hard gelachen met die stumperds die zich door Apple laten beroven, het lachen is mij vergaan nu we mede geen Vega-kaarten kunnen kopen en RAM nog duurder omdat Apple ze opkoopt.
[ Voor 49% gewijzigd door Verwijderd op 18-12-2017 23:07 ]
Waarom denk je dat de overstap van Vega naar 12 nm honderden miljoenen dollar kost? 12 nm is eigenlijk gewoon 14 nm+ en GF heeft ook gezegd dat design rework tot een minimum is beperkt. Ik geloof dat Lisa Su ook zoiets dergelijks heeft gezegd. Ik denk dat we een Vega refresh gaan zien, want Navi komt pas op 7 nm dus waarschijnlijk begin 2019. Er zijn ook geruchten dat bepaalde features in Vega 10 simpelweg niet aan de praat te krijgen zijn omdat het hardwarematig niet goed zit.
Het probleem is dat er geen enkele videokaart die 7680x1440 op 144fps met een beetje kwaliteit kan doen.Waarom dan niet 1 betere grafische kaart gebruiken?
Misschien speel jij net dat ene spel graag waarvoor elke grafische kaart tekort schiet of kon jij een tweedehands kaart goedkoop kopen en heb jij het daarom maar gedaan?
Die 4x Gtx1080 had ik omdat dat toen de snelste op dat moment waren.
Die 2x r9 295X2 had ik omdat dat toen de snelste waren.
Nu heb ik 2x Gtx1080ti omdat deze de snelste zijn, nog 2 is een serieuze optie maar ik kijk nog even de kat uit de boom tot dat er consumenten kaarten komen met meer Vram. Die 11Gb van de Gtx1080Ti zit zo bijna vol met de Oculus rift.
High-end kaarten zijn als ze net uit zijn niet 2dehands te koop helaas...
De meningen over de kosten zijn per persoon verschillend, hetzelfde met het energieverbruik.Als je dat afzet tegen de extra kosten en het extra energieverbruik...
De warmte voer je gewoon met een fatsoenlijke waterkoeling af.
Nee, ik keek (toen) puur naar prijs/prestatie toevallig dat de R9 290x daar toen mooi op zat.Koos jij in het verleden voor AMD wegens multi-monitor setup? Dat had AMD wat eerder onder de knie.
Daarnaast had AMD wat meer issues met multi monitoren, bijvoorbeeld dat de Gpu het Vram mhz te laag terug zetten waardoor je strepen krijgt op je bureaublad.
True, altijd mooi gevonden dat vrijwel elk moederbord met meerdere PCIe x16 sloten gewoon Amd Crossfire ondersteund al was dat soms niet altijd even handig op een PCIe x4 bedraad slot.Een goede start maar je zit dan mogelijk altijd nog met die licentieafzetterij van Nvidia. Weinig duidelijkheid over, het is bekend dat Nvidia hier flink voor liet betalen (naar verluidt ongeveer $10 per moederbord in het verleden) en dat de moederbordbedrijven daarom veel modellen uitbrachten zonder SLI, wat weer gezeur opleverde van reviewers die het niet goed begrepen (punten aftrekken terwijl er niets mis mee is als bepaalde features niet zitten op 'budget'modellen).
Het zelfde nu met Freesync, je hebt nu 41 G-sync schermen en 177 Freesync schermen als ik zo even in de pricewatch kijk, als G-sync nou eens geen +120euro bij een scherm op telde dan hadden wellicht meer schermen G-sync gehad. Maar alles voor de "EZ moneys" toch
Verwijderd
Dat ik heb ik hier vandaan gehaald.DaniëlWW2 schreef op maandag 18 december 2017 @ 21:48:
[...]
Waar haal je precies vandaan dat Raven Ridge op 12nm komt? Raven Ridge staat ook gewoon als 14nm in AMD roadmaps, voor 2018 en daar zijn we nu twee weken vandaan.![]()
...
https://nl.hardware.info/...e-komt-nog-in-zelfde-jaar
Ok, ik praat nu alsof het bevestigd, my bad. Het is een refresh gerucht dat evt. erna komt, maar AMD kan 14nm RR nog steeds overslaan.
Ik zal het geen vreemde keus vinden om meteen voor 12nm te gaan, want ze kunnen de minder presterende Ryzen refresh, omzetten naar quad core R5 of R3, maar ook voor RR.
Er is genoeg vraag naar een zuiniger Vega, dus waarom niet.Verder is het niet gratis, een overstap voor Vega 10 naar 12nm. Nee, dat zal al snel een paar honderd miljoen dollar kosten, en voor wat? Je zal wat betere clocks krijgen, en iets minder verbruik, maar waarom zou AMD dit doen? Kosten-baten verhouding zal alles behalve goed zijn.
Zelfs wanneer Navi op de markt is, is er in het begin toch overlap met Vega. Navi zal in het begin richten op high end voor degene met een grote portemonnee. Ik denk niet dat Navi direct vanaf het begin ook de low en mid end gaat vervangen. Daar is de Vega "refresh" geschikt voor.Dan Polaris. Mij is nog steeds niet duidelijk wat er gaat gebeuren met Vega 11. Het kan zo zijn dat deze komt als Polaris 10 vervanger, of het is alleen een highend APU chip. De echte vervanger zal alleen Navi zijn, en zoals ik eerder vandaag al aangaf, zit er aan te komen. Die chip zou puur op clockspeeds al een stuk sneller moeten zijn.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Omdat je nog steeds werkt met een verkleining van transistoren. Een kleine ja, maar die moeten allemaal getest worden of ze wel werken, en daarna moet er een productieproces op gang worden gebracht. Zit veel tijd en geld in.FortyOne schreef op maandag 18 december 2017 @ 23:22:
Ik heb een enigszins betrouwbare bron (als in: heeft eerder het e.e.a. juist gehad) horen zeggen dat Vega 11 helemaal niet bestaat als een los product/chip. Er zou wel een Vega 12 zijn trouwens.
Waarom denk je dat de overstap van Vega naar 12 nm honderden miljoenen dollar kost? 12 nm is eigenlijk gewoon 14 nm+ en GF heeft ook gezegd dat design rework tot een minimum is beperkt. Ik geloof dat Lisa Su ook zoiets dergelijks heeft gezegd. Ik denk dat we een Vega refresh gaan zien, want Navi komt pas op 7 nm dus waarschijnlijk begin 2019. Er zijn ook geruchten dat bepaalde features in Vega 10 simpelweg niet aan de praat te krijgen zijn omdat het hardwarematig niet goed zit.
Waarom denk ik dat ze het niet gaan doen? Wederom Navi. Ik heb al aangegeven dat AMD teruggaat naar TSMC voor 7nm GPU's. Die wafers zullen in mei 2018 in volle productie zijn. Navi heeft ergens het afgelopen halfjaar haar tape-out gehad, en een jaar later is de release dan. Ik vermoed dat Navi haar tape-out al in september of eerder is geweest, voordat Koduri vertrok. Jaar erbij en dan ligt je product in de winkel. Een tijdje terug ben ik ook een filmpje tegengekomen dat ik ook niet meer terug kan vinden van AMD, waar ze het proces van wafer naar product uitlegde. Duurt drie maanden. Met productie die begint in mei, kan je tegen augustus dus een launch voorraad hebben.
Dan speelt mee wat Navi waarschijnlijk is. Er zijn sterke vermoedens/geruchten dan Navi niet meer een monolithische chip is zoals Vega, maar een heterogene alla Threadripper/Epyc. Dat schijnt makkelijker te zijn dan voor CPU's omdat een GPU toch al een parallelle rekeneenheid is die een redelijke mate van schaalbaarheid met zich meebrengt.
Wat AMD dan kan doen is een chip maken die zo 50% meer rekeneenheden heeft dan een Vega 10, en deze is dan ook nog eens goedkoper om te maken omdat de yields per wafer veel beter zullen zijn. Heb je meer chips, goedkoper, en je kan opschalen, of juist naar beneden schalen per segment.
Ik ga uit van een die met twee pipelines. Kan je dus een lowend chip met twee pipelines, eentje op een interposer met twee chips, en dan kan je nog drie doen, maar waarschijnlijk vier. Cut down varianten kan ook. Pak je dan bijvoorbeeld een 10CU chip met 12 ROPS, betere verhouding voor grafisch werk dan vrijwel elke GCN chip ooit dan krijg je:
20CU/24ROPS lowend
40CU/48ROPS midrange
80CU/96ROPS highend
Zeker die laatste zou een gigantische sprong moeten zijn in prestaties. Dit zijn natuurlijk maar voorbeelden, en AMD zal hun eigen balans hebben gezocht met veel meer kennis dan deze Alpha, maar de implicaties zijn enorm als ze het doen. Nvidia werkt in ieder geval aan deze aanpak, daar kwamen ze opeens mee vlak nadat Epyc werd aangekondigd. Toeval natuurlijk.
Maar dit gaat weer veel te veel richting GPU. Echt AMD, stop eens met twee aparte dingen te doen die in twee aparte topics lopen, zeer irritant.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Okee, ik ging uit van GF 7 nm. TSMC ligt inderdaad voor op GF dus dan zou het eerder kunnen.DaniëlWW2 schreef op dinsdag 19 december 2017 @ 09:50:
[...]
Waarom denk ik dat ze het niet gaan doen? Wederom Navi. Ik heb al aangegeven dat AMD teruggaat naar TSMC voor 7nm GPU's. Die wafers zullen in mei 2018 in volle productie zijn.
Zelf denk ik overigens niet dat Navi een chiplet design is, maar ze zullen het vast aan het onderzoeken zijn (nVidia ook).
Ik denk het dus wel, omdat AMD deze technologie al sinds 2012 heeft. Tijd genoeg voor een volledige cyclus en een chip er speciaal voor ontwerpen. Maar dit gaat nu te offtopic.FortyOne schreef op dinsdag 19 december 2017 @ 15:09:
[...]
Okee, ik ging uit van GF 7 nm. TSMC ligt inderdaad voor op GF dus dan zou het eerder kunnen.
Zelf denk ik overigens niet dat Navi een chiplet design is, maar ze zullen het vast aan het onderzoeken zijn (nVidia ook).
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De tape-out van 7nm chips is inderdaad door meerdere bronnen bevestigd in September 2017. Wanneer de werkelijke tape-out geweest is onduidelijk, waarschijnlijk eerder. Ik citeer semiwiki:DaniëlWW2 schreef op dinsdag 19 december 2017 @ 09:50:
[...]
Omdat je nog steeds werkt met een verkleining van transistoren. Een kleine ja, maar die moeten allemaal getest worden of ze wel werken, en daarna moet er een productieproces op gang worden gebracht. Zit veel tijd en geld in.
Waarom denk ik dat ze het niet gaan doen? Wederom Navi. Ik heb al aangegeven dat AMD teruggaat naar TSMC voor 7nm GPU's. Die wafers zullen in mei 2018 in volle productie zijn. Navi heeft ergens het afgelopen halfjaar haar tape-out gehad, en een jaar later is de release dan. Ik vermoed dat Navi haar tape-out al in september of eerder is geweest, voordat Koduri vertrok. Jaar erbij en dan ligt je product in de winkel. Een tijdje terug ben ik ook een filmpje tegengekomen dat ik ook niet meer terug kan vinden van AMD, waar ze het proces van wafer naar product uitlegde. Duurt drie maanden. Met productie die begint in mei, kan je tegen augustus dus een launch voorraad hebben.
Dan speelt mee wat Navi waarschijnlijk is. Er zijn sterke vermoedens/geruchten dan Navi niet meer een monolithische chip is zoals Vega, maar een heterogene alla Threadripper/Epyc. Dat schijnt makkelijker te zijn dan voor CPU's omdat een GPU toch al een parallelle rekeneenheid is die een redelijke mate van schaalbaarheid met zich meebrengt.
Wat AMD dan kan doen is een chip maken die zo 50% meer rekeneenheden heeft dan een Vega 10, en deze is dan ook nog eens goedkoper om te maken omdat de yields per wafer veel beter zullen zijn. Heb je meer chips, goedkoper, en je kan opschalen, of juist naar beneden schalen per segment.
Ik ga uit van een die met twee pipelines. Kan je dus een lowend chip met twee pipelines, eentje op een interposer met twee chips, en dan kan je nog drie doen, maar waarschijnlijk vier. Cut down varianten kan ook. Pak je dan bijvoorbeeld een 10CU chip met 12 ROPS, betere verhouding voor grafisch werk dan vrijwel elke GCN chip ooit dan krijg je:![]()
20CU/24ROPS lowend
40CU/48ROPS midrange
80CU/96ROPS highend
Zeker die laatste zou een gigantische sprong moeten zijn in prestaties. Dit zijn natuurlijk maar voorbeelden, en AMD zal hun eigen balans hebben gezocht met veel meer kennis dan deze Alpha, maar de implicaties zijn enorm als ze het doen. Nvidia werkt in ieder geval aan deze aanpak, daar kwamen ze opeens mee vlak nadat Epyc werd aangekondigd. Toeval natuurlijk.![]()
Maar dit gaat weer veel te veel richting GPU. Echt AMD, stop eens met twee aparte dingen te doen die in twee aparte topics lopen, zeer irritant.
Looking forward at the future desktop and server roadmaps from AMD, we believe 2H/18 will bring the introduction of 7nm products followed by a full year of 7nm products across the portfolio in 2019. By taking the roadmap from 14nm down to 7nm in the next generation, we believe AMD's products can have much higher performance and performance/watt versus today's 14nm Ryzen and EPYC roadmaps. Further, we anticipate these new 7nm products will compete with the 10nm roadmap from Intel. Given our view – shared by Mark Papermaster in our recent discussions – that 7nm foundry silicon is roughly equivalent to Intel's 10nm node in terms of realized performance/density/power, we believe another significant shift in the competitiveness of AMD's products versus Intel's will take place in 2018/19, leaving AMD at process node parity with Intel for the first time in well over a decade. We continue to believe investors underestimate the importance of this roadmap development for AMD's second-generation Zen-based products and primarily focus only on nearer-term results. Should AMD execute the 7nm roadmaps in 2018/19, we believe more substantial share gains could result. In addition, industry contacts indicate datacenter customers watch 7nm developments closely under NDAs and we believe AMD has already "taped out" multiple 7nm chips with positive early indications.
https://www.barrons.com/a...rrons&ru=yahoo&yptr=yahoo
Ik vermoedde het vanwege Koduri zijn sabbatical/vertrek. Hij kwam echt niet terug naar AMD voor het geld ofzo. Nee, hij kwam echt terug naar zijn oude stek om er nog wat van te maken. Dat is een beetje een trend bij AMD. Ik vermoed dus dat Navi klaar was, en dat hij toen vertrok.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Voor wie liever leest: https://www.techspot.com/review/1545-amd-ryzen-5-2500u/
Civ VI en Tomb Raider (1080p, medium settings) zijn prima te spelen op de laagste modellen van Raven Ridge. Niet slecht voor de mensen die misschien ook eens een spelletje willen spelen. Het geeft een goede indicator van wat nog meer mogelijk is, zolang je het niet erg vindt om vooral oudere spellen uit te kiezen (inclusief spellen zoals Far Cry 3 en Crysis 2/3, spellen zoals Deus Ex Human Revolution en Dishonored zullen dan zeker prima draaien) heb je nog best veel mogelijkheden.



Zelf zou ik GTAV en Metro nog links laten liggen met deze laptop maar er blijft genoeg over. Het is zeker geen gaming-laptop maar voor de casual gamer is het nog best aardig en die mensen die wat meer willen kunnen binnenkort een APU met 28/8 zoveel Vega kopen. Ik had iets minder verwacht met 8 CU's op basis van wat PCPerspective publiceerde. Deze 8 CU's draaien trouwens op 1100 MHz.
https://www.amd.com/en/products/apu/amd-ryzen-5-2500u
Mijn indruk op basis van sommige testresultaten van deze HP Envy is dat het niet een al te goede koeling heeft in vergelijking met sommige Intel-modellen waarmee vergeleken werd. Waarom? Bij Cinebench wint die RR het ruimschoots van alle i5's in deze vergelijking maar bij sommige testen die langer duren en alle threads gebruiken (Handbrake) verliest die het.
Verder is er natuurlijk nog het RAM-verhaal: slechts 2400 MT/s. Wel 16 GB en dual channel.
[ Voor 110% gewijzigd door Verwijderd op 21-12-2017 12:42 . Reden: Verwijzing naar Techspot toegevoegd. ]
https://fuse.wikichip.org...s-7nm-process-cobalt-euv/
Nee, ik ga niet eens pretenderen dat ik het allemaal begrijp. Ik begrijp een redelijk deel, en dat is al heel wat.
Meest opvallende is dat de high performance variant uit maar liefst achttien lagen gaat bestaan met quad patterning. Dat gaan geen goedkope wafers worden, verre van. Aan de andere kant zit er wel een flinke sprong in prestaties aan te komen. GF 7nm lijkt erg sterk te zijn in grote hoeveelheden cache op een die te krijgen, waar Zen wel raad mee kan. Verder betekent een chip met zoveel lagen ook extra IPC omdat er optimalisaties in de verticale as aangebracht kunnen worden met bedrading. Dat is ook waar de winst gehaald moet worden, want simpele oplossingen zoals een verkleining van de transistoren levert minder op dan een paar jaar geleden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Ja, dat wordt niet goedkoop, des te beter dat AMD nu dat modulaire concept gebruikt want anders zou het niet te betalen zijn. Een generatie later (Zen3) gaan ze hopelijk enkel nog EUV gebruiken, dat zal de kostprijs mogelijk drukken, quad-patterning is noodzaklijk omdat de resolutie van het licht wat ze nu voor immersie-lithografie gebruiken te grof is.
Zie hier trouwens waarom ik zo moet lachen met mensen die nu al beweren dat het onmogelijk is dat AMD voor Zen2 op gelijke hoogte komt te liggen met Intel qua IPC.

40% hogere frequentie, als je dat wil (slechts 25% gat tussen Ryzen en Intel en het is bekend dat die 10 nm.-node van Intel in eerste instantie niet beter gaat presteren dan de huidige verfijnde 14 nm. van hen). Beter zou natuurlijk zijn als de programmeurs code multithreadvriendelijker zouden ontwerpen, dan heb je minder vermogen nodig voor hetzelfde werk.

2.8x routed logic density
4 keer zo'n klein power grid als voor de huidige node
Een interessant kijkje in de keuken, een competitief nadeel van GF t.o.v. Intel waar wij normaal gesproken niet bij stilstaan.
Er werd aangegeven dat er minstens 3 enhanced nodes van die 7 nm. node zouden komen. Voor de eerste generatie van hun 7 nm. gaan ze slechts voor een heel klein deel van de fabricage EUV gebruiken.GlobalFoundries introduced cobalt for the trench metal contacts. This actually plays out in two different way. For small layouts, the vertical resistance dominates. In those cases GF reported an improvement of over 40%. When those contacts are used for the local interconnects, the horizontal resistance becomes important. In those cases GF reported an improvement of around 80% when switching to cobalt. All this flexibility is lost had they shrunk the pitches further. Unfortunately this decision left them with less than ideal interconnect in many situations. Those types of sacrifices are required for a foundry that needs to provide customers with flexibility whereas a company such as Intel can achieve superior routing by allowing itself to be more aggressive at the cost of higher restrictions and higher complexity.
Hier hun speculatie over hoe de Intel 10 nm. en GF 7 nm. zich tot elkaar verhouden. Samenvatting: ze zijn aan elkaar gewaagd, het is maar net wat voor type CPU je maakt (veel cache is in het voordeel van de GF-node). Het wordt ook weer eens duidelijk dat GF, IBM en Samsung samenwerken. De 14 nm.-node kwam van Samsung, een groot deel van wat ze voor hun 7 nm.-node gebruiken komt van IBM. Ik weet niet wat voor financiële afspraken er zijn gemaakt (betaalt AMD er goed voor of wisselen ze kennis uit om elkaar sterker te maken en tegenwicht te bieden aan de reuzen op chipvlak?) maar het is duidelijk GF, AMD, Samsung en IBM vs. TSMC en Intel die het in hun uppie doen. Het viel me trouwens dat de GDDR6-controller bij AMD nu wordt ontworpen door iemand die voor Samsung werkte, toeval of niet.
Op zich niet verrassend aangezien Samsung nogal groot is op het vlak van geheugen maar toch interessant.
With all of this in mind, there is no clear winner here. Both technologies can certainly exchange punches. For chips that make use of large caches, GF can have a significant lead over Intel. Back in October Canard PC Hardware made the bold claim that AMD’s 7nm-based Zen 2 will feature 64 cores and a whopping 256 MiB of L3 cache (or 16 cores and 64 MiB of L3 per die if they still use quad-chiplets). For this kind of application AMD will have significantly denser chips. However, Intel’s higher mix-logic density, superior local interconnects, and higher performance cells over GF 7nm 6-track cells do have their own distinctive advantages. GF did not detail anything about their own high-performance cells but we expect them do very well and able to push IBM’s next generation z15 to at least 5 GHz to not regress in single-core performance.
Final Thoughts
A while back, when GlobalFoundries initially announced they had developed a 14nm process, they ended up really struggling with their first generation FinFET. In fact, things went so badly that they eventually gave up on their own process, ending up licensing Samsung’s 14nm process. What we are seeing today is a very different company with a very impressive leading edge process they can offer to customers. It’s worth noting that a good chunk of the credit should be attributed to IBM whom patent portfolio and expertise GF acquired back in 2015 helped make this process a reality.
[ Voor 125% gewijzigd door Verwijderd op 22-12-2017 02:47 ]
FRS 2.1 discussiëren mag in: CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144
Dit is verder GEEN bestelling/levertijden topic. Posts als 'ik heb besteld!' hebben geen nieuws- of discussiewaarde en zullen voortaan worden verwijderd.