[Algemeen] AMD Nieuwsdiscussietopic - deel 34 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 41 ... 55 Laatste
Acties:
  • 342.353 views

Acties:
  • 0 Henk 'm!

Verwijderd

APU is een ander verhaal dan server en High-End desktop CPU.

De ZEN keuzes kunnen per marktsegment heel anders uitpakken.

Er zitten zowel voordelen als nadelen aan het her-gebruik van de Bulldozer architectuur.
Wanneer AMD het slim aanpakt meer voordelen.

In FX worden de Bulldozer instructies uiteraard vaak gebruikt. Bij evt opvolgers zal dat niet anders zijn.

De marketing babbel dat ZEN helemaal vanaf de grond opnieuw is opgebouwd, houdt in de echte wereld natuurlijk geen stand. Denk alleen al aan alle X86 legacy wat backwards compatible moet blijven.
Dat alleen al word per nieuwe generatie echt niet iedere keer helemaal opnieuw ontworpen......

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Is een APU met alle toeters en bellen, zoals HSA en meer interessante dingen van AMD + 6 of 8 cores juist niet heel interessant voor de high end markt?

Als je kijkt wat een schattige A10 doet met een i5 indeze revieww, zou je toch denken dat het [juist] interessant is voor high-end? Een dikke hexa of octo met een krachtige GPU erin, volgens mij kun je dan een consumenten-i7 killer maken.

Probleempje is natuurlijk wel dat 6 of 8 cores veel ruimte innemen, en die iGPU neemt natuurlijk ook veel ruimte in.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

Dat AMD al 8 core APU's in grote aantallen succesvol en kosten effectief kan maken blijkt uit de PS4/XB1.

Het is een kwestie van tijd totdat deze 8 core APU variant in enige vorm zijn intrede zal doen voor desktops.
Echter zullen Sony en MS waarschijnlijk bedongen hebben dat dit pas mag na een X aantal jaren......

Bedenk ook dat een dure A10 4 core nu rond de 130/140 euro kost.
Terwijl er voor een "A20 8 core" voor +/- 250 euro ws nu nog geen markt is.......

AMD bakt + verkoopt de 8 core jaguar APU's nu voor een bedrag tussen de 60 en 90 dollar per stuk.
Er valt dus voor AMD in de high-end desktop markt goed aan te verdienen.
Dat dit nog niet gebeurd ligt vermoed ik aan de gemaakte afspraken met Sony en MS.

Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 11-08 17:20
Verwijderd schreef op vrijdag 15 mei 2015 @ 07:33:
Dat AMD al 8 core APU's in grote aantallen succesvol en kosten effectief kan maken blijkt uit de PS4/XB1.

Het is een kwestie van tijd totdat deze 8 core APU variant in enige vorm zijn intrede zal doen voor desktops.
Echter zullen Sony en MS waarschijnlijk bedongen hebben dat dit pas mag na een X aantal jaren......

Bedenk ook dat een dure A10 4 core nu rond de 130/140 euro kost.
Terwijl er voor een "A20 8 core" voor +/- 250 euro ws nu nog geen markt is.......

AMD bakt + verkoopt de 8 core jaguar APU's nu voor een bedrag tussen de 60 en 90 dollar per stuk.
Er valt dus voor AMD in de high-end desktop markt goed aan te verdienen.
Dat dit nog niet gebeurd ligt vermoed ik aan de gemaakte afspraken met Sony en MS.
Je vergeet even dat de cpu in PS4/X1 werkt aan 1,6 en 1,75Ghz. Dat geraak je aan de straatstenen nog niet kwijt in PC land.
Vermoedelijk kan de cpu ook wel op 3 of 4Ghz werken, maar de vraag is:
- is er interesse in een snelle octacore-APU (vermoedelijk valt dit tegen)
- wat is het tdp bij dergelijk verhoging van de kloksnelheid (zou wel eens kunnen tegenvallen)

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
8 Jaguar cores op 1.6 GHz, daar word je inderdaad niet bepaald vrolijk van. Bovendien is de PS4/X1 APU een gigantische chip (300+ mm2), die zal in de PC markt duur verkocht moeten worden, en de vraag is of er tegen hoge prijzen uberhaupt nog een markt is voor zo'n grote APU met zo weinig cpu power. Bij de PS4 heb je de garantie dat je die chip nog jarenlang steeds goedkoper kan bakken, dus dan kan je het als AMD nog wel veroorloven om in de begintijd tegen nul/negatieve marges de chips te bakken, de PC markt stapt zodra er iets beters is direct over.

Intel krijgt de GT3e Haswells (260 mm2) inderdaad nog wel aardig verkocht, maar in die chips is de verhouding cpu-gpu toch heel anders dan bij de PS4 APU. Ook in de Apple A8, een zeer laaggeklokte joekel van 2 miljard transistors, zit nog een verrassend complexe (hoge IPC) cpu.

[ Voor 7% gewijzigd door Dreamvoid op 15-05-2015 12:33 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op donderdag 14 mei 2015 @ 18:28:
@WES:
Backwards compatible is toch echt een voordeel en geen nadeel.
Dat het toch goed uitpakt zonder wil niet zeggen dat sommige klanten er niet pissig over zijn......
Plus dat als de tegen partij wel goede backwards compatabiliteit biedt, je serieus klanten gaat mislopen. Zeker als de backwards compatabiliteit is met een console die in zijn tijd populair was.

Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op vrijdag 15 mei 2015 @ 12:30:
8 Jaguar cores op 1.6 GHz, daar word je inderdaad niet bepaald vrolijk van. Bovendien is de PS4/X1 APU een gigantische chip (300+ mm2), die zal in de PC markt duur verkocht moeten worden, en de vraag is of er tegen hoge prijzen uberhaupt nog een markt is voor zo'n grote APU met zo weinig cpu power. Bij de PS4 heb je de garantie dat je die chip nog jarenlang steeds goedkoper kan bakken, dus dan kan je het als AMD nog wel veroorloven om in de begintijd tegen nul/negatieve marges de chips te bakken, de PC markt stapt zodra er iets beters is direct over.

Intel krijgt de GT3e Haswells (260 mm2) inderdaad nog wel aardig verkocht, maar in die chips is de verhouding cpu-gpu toch heel anders dan bij de PS4 APU. Ook in de Apple A8, een zeer laaggeklokte joekel van 2 miljard transistors, zit nog een verrassend complexe (hoge IPC) cpu.
De Octa 8 core APU's voor de Xbox1 en PS4 worden door AMD nu verkocht voor een bedrag tussen de 60 en 90 dollar, dus wanneer ze voor de Desktops zouden worden aangeboden voor ieder bedrag boven de 100 euro maakt AMD daar al meer winst op dan voor de consoles. ;)

De frequenties is een kwestie van keuze, zeker met 14nm op komst is er dan veel meer mogelijk.

De consoles zullen waarschijnlijk een beperkte hoogte hebben met daaraan gekoppeld een beperkte koeler hoogte. Voor High-End desktops is er veel meer ruimte voor betere & hogere koelers, tot 20cm.

Is er een markt voor 8 core Apu's op 3 ghz met een tdp tot 100 Watt ?
Zeker weten ! Doe mij er maar 2 :9
Voor welke prijs is nog even de vraag........

Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 11-08 17:20
vermogen gaat helaas niet lineair omhoog met de kloksnelheid
ik vrees dat de PS4 apu niet eens zoveel sneller zou zijn met een tdp tot 100W

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Je gaat Jaguar cores niet zo maar even op 3GHz laten draaien. Daar zijn ze niet op ontworpen. Het gevolg zou zijn dat het voltage dusdanig omhoog moet dat het ten eerste al gevaarlijk zal worden voor de chip en ten tweede het stroomverbruik gigantisch omhoog zal duwen. Niet echt wat je wil voor een stukje consumenten hardware.

8-core APU's voor de consumentenmarkt zullen pas komen wanneer de Zen APU's verschijnen. Met het 14nm process zouden de cores waarschijnlijk (behoorlijk) beneden de 10mm2 per core moeten blijven, met als gevolg dat je een redelijk klein deel van een chip voor de CPU kwijt bent. Daar zou je gemakkelijk een Curacao XT- achtige GPU bij kunnen plakken (~1200 SPU's), zonder dat de chip voorbij de 300mm2 zou hoeven gaan. Misschien zou zelfs Tahiti ( ~2000SPU's) nog haalbaar zijn. Hoe dan ook, dat zal allemaal pas 2017 of later worden.

Hoe dan ook, uiteindelijk staat of valt alles APU-technisch met HBM. Pas als genoeg bandbreedte geleverd kan worden voor CPU en GPU, heeft het allemaal nut en HBM zal dit jaar en waarschijnlijk volgend jaar ook nog vooral voor GPU's gebruikt worden, met de nu nog beperkte productie capaciteit.

Acties:
  • 0 Henk 'm!

Verwijderd

Er komt volgend jaar nog zoiets als 14nm.......(tpd's kun je dan niet meer vergelijken, staat ook in mijn post....)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Maar er komt nog geen 14nm Xbone of PS4 APU en AMD heeft in zijn Financial Analyst Call duidelijk gemaakt geen kleine cores meer te maken. Dus de eerste 8-core APU die we op 14nm tegen zullen komen zal waarschijnlijk de Zen-APU zijn.

Bovendien, 14nm mag misschien zuiniger zijn dan 28nm, de Jaguar core is nog steeds niet gebouwd om op hoge kloksnelheden te draaien. Dat zou ook een behoorlijke aanpassing aan de core gaan vereisen, om dit enigsinds zuinig te kunnen doen.

Acties:
  • 0 Henk 'm!

Verwijderd

Consoles zijn niet zo lang nog op de markt...

En volgens mij verbruiken ze niet zo bijster veel (de PS4 / Xbox) dat shrinken noodzakelijk maakt.

Het was de PS3 van IBM (Fat one) die met een verbruik van bekant 206W vs de PS3 slim (96W) de kroon spande...

Overigens las ik ergens dat de APU's van AMD superieur zijn t.o.v de I3's/I5's/I7's van intel met hun IGP. Op alle fronten kan de AMD APU gewoon dubbel meer aantal Draw calls verwerken dan die van Intel in DX12.

Het zegt natuurlijk niets over performance maar het ziet er met DX12 in ieder geval gezond uit voor AMD. Je kunt ook wel stellen dat de APU's hun tijd ver vooruit waren.

Acties:
  • 0 Henk 'm!

Verwijderd

Quadcore Jaguars draaiden anno 2013 met een TDP van slechts 25 Watt prima op 2 ghz:

nieuws: AMD introduceert embedded socs op basis van Jaguar-architectuur

5350 Jaguar Quadcore APU boven de 2 ghz. tdp 25 Watt Sub 5 tientjes:

pricewatch: AMD Athlon 5350 Boxed

Dan moet met een forse schaalverkleining een 50 procent hogere klok makkelijk haalbaar zijn binnen 100 W.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik ben volledig bekend met de SKU's van de Jaguar core APU's. Maar, als het 'zo gemakkelijk' zou zijn om het richting de 3GHz te brengen, dat we dan niet al 2.5GHz Jaguar APU's hadden gezien? Er is een grens waar het verbruik opeens gigantisch omhoog gaat voor relatief kleine snelheidsverhogingen. Kijk bijvoorbeeld maar eens voor de lol naar de FX-9xxx CPU's.

Een 14nm process kan dan wel voordelen brengen, die vaak worden uitgedrukt in 'zoveel zuiniger bij zelfde kloksnelheid of zoveel sneller bij een gelijk verbruik', maar die claims houden geen rekening met het ontwerp en als het ontwerp simpelweg niet meeschaalt op snelheid, dan hou je alleen de 'zoveel zuiniger bij zelfde kloksnelheid' over. Simpel gesteld zou een Jaguar APU op 2.0GHz met 600MHz GPU bijvoorbeeld nog maar 10 Watt verbruiken en zou je daardoor misschien een 2.2GHz CPU-variant eruit kunnen persen, maar het ontwerp zal nog altijd een laag plafond hebben ten opzichte van een CPU die is ontworpen met hogere kloksnelheden in gedachten.

Verder, zoals ik al aangaf, heeft AMD gesteld de kleine core verder niet door te ontwikkelen. Dus hou je Zen en K12 over. Het zal bovendien nog wel wat jare duren eer Sony en Microsoft hun APU's op kleiner process willen hebben. Deels om wat Jism al aangaf, het verbruik valt reuze mee. Deels ook omdat shrinks normaalgesproken vooral een economisch oogmerk hebben. Als het goedkoper kan, gaat men over. 14nm zal echter nog wel een behoorlijke tijd veel duurder zijn dan 28nm. Zelfs 20nm zal nog wel een tijdje duurder zijn dan 28nm. Er is dus geen enkele reden om snel over te gaan naar 14nm met de PS4 en Xbone APU's.

Acties:
  • 0 Henk 'm!

Verwijderd

@dahakon:

De FX 9 duizend serie is een typisch voorbeeld van cpu's die al exponentieel zijn gegaan qua verbruik.
Zelf zie ik dit duo als een showcase van kijk we hebben toch de 5ghz gehaald (zoals FX bedoeld was).

Echter zijn dat geen standaard cpu's meer en er zou ook sprake van standaard instant waterkoeling zijn.
Het geeft wel aan dat een 3,5ghz. Octacore de 5 ghz aan kan tikken (met wat kunst en vliegwerk).

In die context zou een 2ghz. 8 core jaguar dus ook de 3 ghz moeten kunnen halen onder de 100w.

Makkelijk word het so wie so niet want er zal opnieuw ontworpen moeten worden.
Sony en MS zullen nooit hun APU's 1 op 1 accepteren in desktops, maar haalbaar is het zeker.

Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 20-09 20:43
Belangrijk onderscheid is dat het design van Bulldozer gericht is op hoge clocks. Het was van het begin al de bedoeling om die 5 GHz te halen designwise. Dat is wat dahakon ook reeds schreef. Je kan de vergelijking dus niet doortrekken en de clocks zo even met 50% te verhogen wanneer deze mogelijk al tegen hun limiet zitten. Niet alleen qua efficiëntie maar ook technisch. De Jaguar(+) cores zijn hiervoor niet ontworpen.

Acties:
  • 0 Henk 'm!

Verwijderd

Die-shrinks worden bij consoles over het algemeen alleen uit kostenoogpunt gedaan, kleinere chips zijn goedkoper te bakken en een lagere tdp maakt een kleiner koelblok mogelijk. Dat maakt dan ook weer een kleinere console mogelijk ("slim" versie). Door de productiekosten te verlagen kan de prijs van de console omlaagt waardoor een ander deel van de markt aangeboord kan worden en zodoende de verkopen op peil kunnen blijven.

Dat werkt uiteraard alleen als het nieuwe productieprocedé niet heel duur is. Je ziet dan ook dat consoles niet meteen naar een nieuw procedé springen zodra dat beschikbaar komt. Deze generatie is net anderhalf jaar oud, voorlopig is een die-shrink nog niet aan de orde.

Verder zijn de chips in de PS4 en Xbone specifiek voor die consoles ontworpen, incl. RAM-indeling e.d. Dat zet je niet zomaar even over naar PC. Dat hoeft ook helemaal niet, AMD is prima in staat chips voor de PC te ontwerpen, en als er onderdelen van deze chip zijn die goed werken komt dat vast wel terug. Dat hebben we eerder gezien bij de GPU van de Xbox 360.

[ Voor 20% gewijzigd door Verwijderd op 16-05-2015 00:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@ WES ik bedoel octa core APU's zoals bv Jaguar en dan juist niet voor consoles maar voor desktops.

@ lambo "de bedoeling om die 5 GHz te halen designwise" = de 5ghz gehaald (zoals FX bedoeld was)

Iedere CPU / APU heeft een "window" waarbinnen hij kan worden verkocht als zuinig of snelheidsmonster.
Het is kwestie van marketing en technische keuzes waarbinnen iedere cpu kan worden verkocht.

Binnen een "window" van slechts 25 watt tdp passen alleen de zuinigste chips terwijl bij 100W. er meer kan.
Dat jaguar binnen 25 Watt moet passen is geen toeval denk aan embedded en mobiele chips.

Maak je dat 25 watt "window" 4 keer zo ruim (100W.) dan gaat er een wereld van mogelijkheden open.
Dus ook voor chips die oorspronkelijk bedoeld waren als max. Quadcore (consoles al naar octa) op 2 ghz. naar veel hogere frequenties 3ghz.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik zie eerlijk gezegd eerder een hexa of octo core Carrizo(+) APU op 14nm dan een octo core Puma+ APU.

M.b.t. het hele die shrink verhaal van consoles. Bedenk wel dat men nu al een halvering van het productie procedé kan realiseren. Dat kan men zo snel na de lancering van de Xbox 360 of PS3 niet.

Het verhaal dat de consoles nu al qua hardware achterhaald zijn is waar, maar de sprong die men van de PS2 en Xbox naar de PS3 en Xbox 360 heeft gemaakt was wel reusachtig. Dat heeft er ook voor gezorgd dat die consoles z'n lange levens duur hebben gekend. De eerste Playstation 2 verbruikte veel minder stroom dan de eerste Playstation 3. Idem dito geldt voor de Xbox en Xbox 360. De Xbox One en Playstation 4 daarentegen zijn weer zuiniger. Dus is logisch dat sprong deze keer kleiner zou zijn als in de tijd van PS2 naar PS3. Om het over de prijs nog maar niet te hebben.

Ik denk dat de PS4 en Xbox One een aanzienlijk korter leven is beschonken dan hun respectievelijke voorloper.
Verwijderd schreef op vrijdag 15 mei 2015 @ 16:08:
[...]

De Octa 8 core APU's voor de Xbox1 en PS4 worden door AMD nu verkocht voor een bedrag tussen de 60 en 90 dollar, dus wanneer ze voor de Desktops zouden worden aangeboden voor ieder bedrag boven de 100 euro maakt AMD daar al meer winst op dan voor de consoles. ;)
Zo simpel liggen de kosten niet. Wat AMD precies heeft afgesproken is onduidelijk. Immers zit er ook technologie van andere bedrijven in de SoC en AMD draait echt niet alleen op voor de ruwe productie kosten. Dat zijn echt geen chips van 60 a 90 euro. >350mm2 op 28nm.

Dat we die chips niet op de consumenten markt zien is omdat er dus ook hardware van derden aanwezig is waar AMD geen verkooprecht op heeft.
catfish schreef op vrijdag 15 mei 2015 @ 17:25:
vermogen gaat helaas niet lineair omhoog met de kloksnelheid
ik vrees dat de PS4 apu niet eens zoveel sneller zou zijn met een tdp tot 100W
Een PS4 en Xbox One verstoken dusdanig veel energie dat je wel kunt stellen dat daar chips in zitten die een TDP hebben ommenabij de 100 watt.
dahakon schreef op vrijdag 15 mei 2015 @ 19:02:
Ik ben volledig bekend met de SKU's van de Jaguar core APU's. Maar, als het 'zo gemakkelijk' zou zijn om het richting de 3GHz te brengen, dat we dan niet al 2.5GHz Jaguar APU's hadden gezien? Er is een grens waar het verbruik opeens gigantisch omhoog gaat voor relatief kleine snelheidsverhogingen. Kijk bijvoorbeeld maar eens voor de lol naar de FX-9xxx CPU's.
Het verbruik loopt linear op met de frequentie en kwadratisch met voltage. Een 2GHz 1,1V CPU met een verbruik van 100 watt zou met een zelfde voltage bij 3GHz in theorie dus 150 watt verbruiken. Probleem in de praktijk is dat bij een hogere frequentie er een hoger voltage nodig is om het stabiel te houden. In het voorbeeld kan het dus goed mogelijk zijn dat er voor 3GHz een voltage van 1,4V nodig is en dan zou het verbruik in theorie meer dan 240 watt zijn. Op een gegeven moment is er inderdaad een omslag punt waarop een chip te veel voltage nodig heeft om nog hoger geclockt te kunnen worden.

Daarom vermeld AMD ook heel trots dat ze met Carrizo zo een dikke efficientie slag hebben geslagen t.o.v. Kaveri. Hierbij vermelden ze ook specifiek dat de meeste winst behaald wordt bij Carrizo APUs met een TDP waarden van 15 watt. Beetje sarcasme moet kunnen ;)

[ Voor 69% gewijzigd door madmaxnl op 16-05-2015 05:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Bij Socket A overclocken was het zo dat je een tijd lang een min of meer linear verband had tussen voltages en frequenties. Echter ging op een gegeven moment het voltage + verbruik dusdanig "ballistic" dat er geen redden meer aan was.

Mijn punt is dat de FX 9 duizend serie al over dat punt is, zie de tdp's van 200+ Watt en waterkoeling.
Ondanks alle tegenslagen heeft AMD daarmee de 5ghz. wel weten te slechten.

Verder ben ik van mening dat de octa cores voor de consoles nog niet achterhaald zijn qua prestaties en techniek. Het zal echter niet lang meer duren voor dat wel het geval is, waarschijnlijk zijn daar ook afspraken over gemaakt met Sony & MS.

Zoals ruim een jaar geleden besproken is de kostprijs voor de cosole octacores gewoon bekend tussen de 60 en 90 dollar. Er was toen heel veel discussie dat het allemaal onmogelijk was maar later bleek toch dat het binnen die marges lag. Ja dus zelfs voor zo'n grote chip.

En nee AMD mag natuurlijk niet de exacte Sony en MS chips gaan verkopen voor desktops.
Ik vermoed zelfs dat er afspraken zijn dat AMD een periode van 2+ jaar geen (ander ontwerp) octa core APU's mag verkopen voor consumenten. Mogelijk wel eerder voor defensie en luchtvaart etc.

Acties:
  • 0 Henk 'm!

Verwijderd

In de chip die in de console van de PS4 zit zit ook een stukje van sony's hun eigen registers in de CPU gebakken. Het is dus niet helemaal een AMD x86 cpu alleen.

Die registers zorgen ook voor vendor lock, dat je bijv geen windows kunt draaien op een PS4 als ik me niet vergis (uitgaande van standaard firmware)

Acties:
  • 0 Henk 'm!

Verwijderd

Zowel de Xbox1 als de PS4 zijn gesloten systemen wat ergens vandaan moet komen, dat kan iedere combinatie van hardware en software zijn. Het verkoop model van consoles ligt vnl bij de winstmarges op de software (games etc.). Sony en MS zullen er dus alles aan doen om hun gesloten systemen dichtgetimmert te houden.

Wat er exact in de APU's voor de laatste consoles zit ingebakken weet ik niet. Maar zelfs wanneer er geen Sony of MS onderdelen zitten ingebakken zullen er nog bindende afspraken zijn gemaakt dat hun chips niet zo maar op de desktop markt mogen komen. Verder vermoed ik dus ook een algemeen verkoop verbod voor een periode van 2+ jaar voor octacore APU's door AMD.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Een verkoopverbod van octacore APU's lijkt mij zeer onwaarschijnlijk, en wel om twee redenen.
De eerste is dat zowel de PS als de XBOX er één hebben. Een verkoopverbod in het contract voor de een zou de ander uitsluiten.
De tweede reden is meer praktisch: een octacore vreet stroom, en een GPU ook. Dat samen in een package stoppen levert een APU op die een TDP van meer dan 100 watt nodig heeft om beiden nog wat fatsoenlijke prestaties te laten vertonen (want als je al eenmaal een octacore APU maakt, mag er ook wel een soort van 'vlaggenschip' van zijn). De huidige moederborden zijn ook niet echt ingericht op het ondersteunen van een APU met een TDP hoger dan 100W.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 18-09 16:26

Kuusj

Ofwel varken in 't Limburgs

Nou, we kunnen van de ene kant zeggen dat de huidige consoles qua rekenkracht alweer achterhaald is, maar er zit toch eventjes een APU op met GPU kracht á la HD7850/HD7870. Die 8 core mogen ze van mij in de container gooien, en gewoon 4 (2x zo grote) cores op 3,5Ghz en we kunnen aardig vooruit.

Verkoopverbod lijkt me ook onwaarschijnlijk, maar het zullen inderdaad de redenen zijn die dcm360 aandraagt. Hier de octa vervangen door quad lijkt me dan wel weer haalbaar. Sowieso, wat is in godsnaam het nut van een octacore op een lage clocksnelheid? Hoe graag ik ook zou willen dat je meer aan 8 cores op 2Ghz hebt dan 4 op 4Ghz, is het helaas nog steeds zo dat games heel graag enkele snelle cores hebben dan 8 "langzame" cores.

Zo heeft het voor mij soms meer nut om 4 cores uit te zetten en de andere 4 op 5.2Ghz te clocken dan 8 cores op 4.6Ghz hebben draaien.

Maar ja, buiten al dit gepraat, AMD heeft gewoon het permanente nadeel dat hun naamsbekendheid gewoonweg niet zo groot is. Vraag een random iemand wat "Intel" is en ze weten 9/10 keer wat het is, maar met AMD moet je al echt gaan zoeken naar volk als wij op GoT.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Oh, octacores op lage (of niet erg hoge) clocksnelheid hebben best wel hun nut. Ik heb er niet voor niets voor gekozen om CPU's uit de Opteron 3300-serie in mijn servers te stoppen. Recentelijk zie ik overigens ook meer games gebruik gaan maken van 3 of meer cores. Het duurt misschien nog even, maar in de toekomst denk ik dat ook voor gamen 8 cores meer nut gaan hebben dan 4 cores. En juist omdat een hoge clocksnelheid inefficiënt is gaat een octacore met hetzelfde tpd als een quadcore het dan winnen.

Acties:
  • 0 Henk 'm!

Verwijderd

Een consolefabrikant produceert de hardware over het algemeen zelf, al zal zeker Microsoft het bakken van de chips ongetwijfeld aan een fab uitbesteed hebben. Hoe dan ook, die APU wordt dus niet door AMD geproduceerd. AMD levert het ontwerp, that's it. In het contract zal ongetwijfeld een exclusiviteitsclausule staan, maar zoals ik al eerder poste is dat niet zo interessant aangezien AMD dit ontwerp helemaal niet nodig heeft om een goede APU voor in PCs te maken.

Acties:
  • 0 Henk 'm!

Verwijderd

dcm360 schreef op zaterdag 16 mei 2015 @ 23:17:
Een verkoopverbod van octacore APU's lijkt mij zeer onwaarschijnlijk, en wel om twee redenen.
De eerste is dat zowel de PS als de XBOX er één hebben. Een verkoopverbod in het contract voor de een zou de ander uitsluiten.
Nee joh, daar heb je gewoon juristen voor die even omschrijven dat er geen octacores los verkocht mogen worden voor een periode van een X aantal jaar.

Ik verwacht ook niet dat die octacores uit de consoles onder de 2ghz, een tdp hebben van meer dan 100W.
Dat past dus prima in een standaard moederbord.
kuusj98 schreef op zaterdag 16 mei 2015 @ 23:35:
Nou, we kunnen van de ene kant zeggen dat de huidige consoles qua rekenkracht alweer achterhaald is, maar er zit toch eventjes een APU op met GPU kracht á la HD7850/HD7870.

Sowieso, wat is in godsnaam het nut van een octacore op een lage clocksnelheid? Hoe graag ik ook zou willen dat je meer aan 8 cores op 2Ghz hebt dan 4 op 4Ghz, is het helaas nog steeds zo dat games heel graag enkele snelle cores hebben dan 8 "langzame" cores.

Zo heeft het voor mij soms meer nut om 4 cores uit te zetten en de andere 4 op 5.2Ghz te clocken dan 8 cores op 4.6Ghz hebben draaien.
Het voordeel van die octa core is juist het grafische GPU gedeelte. Halveer de hoeveelheid cores naar 4 en je hebt ook slechts de helft van de grafische cores..........
Verwijderd schreef op zondag 17 mei 2015 @ 00:01:
Een consolefabrikant produceert de hardware over het algemeen zelf, al zal zeker Microsoft het bakken van de chips ongetwijfeld aan een fab uitbesteed hebben. Hoe dan ook, die APU wordt dus niet door AMD geproduceerd. AMD levert het ontwerp, that's it. In het contract zal ongetwijfeld een exclusiviteitsclausule staan, maar zoals ik al eerder poste is dat niet zo interessant aangezien AMD dit ontwerp helemaal niet nodig heeft om een goede APU voor in PCs te maken.
Heb je hier een linkje van ?
Dit gezien die console octacores gewoon door GBF worden gebakken en door AMD verkocht...... :)

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Verwijderd schreef op zondag 17 mei 2015 @ 00:47:
[...]

Nee joh, daar heb je gewoon juristen voor die even omschrijven dat er geen octacores los verkocht mogen worden voor een periode van een X aantal jaar.

Ik verwacht ook niet dat die octacores uit de consoles onder de 2ghz, een tdp hebben van meer dan 100W.
Dat past dus prima in een standaard moederbord.
Het zou alsnog een merkwaardige clausule zijn. AMD zou geen octacore-APU's los mogen verkopen terwijl dat nauwelijks concurreert met de consoles, terwijl de console van de concurrent wel bijna dezelfde chip mag gebruiken.

Ik denk overigens inderdaad ook niet dat de tpd van de chips in de consoles ver boven de 100W uitkomt, maar wel dicht bij de 100W zit. De consoles verbruiken zo ongeveer 110 tot 140 watt, waarbij de SOC als het goed is het grootste deel daarvan verbruikt.
[...]

Het voordeel van die octa core is juist het grafische GPU gedeelte. Halveer de hoeveelheid cores naar 4 en je hebt ook slechts de helft van de grafische cores..........
Ehm, nee? Het staat AMD vrij (met wat beperkingen uiteraard) om naar eigen inzicht een bepaalde hoeveelheid grafische cores te combineren met een bepaalde hoeveelheid CPU-cores. Heel erg grof gezegd komt het er op neer dat het een kwestie is van onderdelen aan een bus (geheugen, PCIe, HT) hangen, en AMD zelf kan kiezen wat en hoeveel.

Acties:
  • 0 Henk 'm!

Verwijderd

dcm360 schreef op zondag 17 mei 2015 @ 01:07:
[...]
Het zou alsnog een merkwaardige clausule zijn. AMD zou geen octacore-APU's los mogen verkopen terwijl dat nauwelijks concurreert met de consoles, terwijl de console van de concurrent wel bijna dezelfde chip mag gebruiken.
Het gaat erom dat Sony en MS het alleenrecht voor de nieuwste techniek een tijdje kunnen claimen.
Ik denk overigens inderdaad ook niet dat de tpd van de chips in de consoles ver boven de 100W uitkomt, maar wel dicht bij de 100W zit. De consoles verbruiken zo ongeveer 110 tot 140 watt, waarbij de SOC als het goed is het grootste deel daarvan verbruikt.
100 tot 140 Watt total system power is heel erg netjes mits onder load. APU verbruikt uiteraard het meest.
Ehm, nee? Het staat AMD vrij (met wat beperkingen uiteraard) om naar eigen inzicht een bepaalde hoeveelheid grafische cores te combineren met een bepaalde hoeveelheid CPU-cores. Heel erg grof gezegd komt het er op neer dat het een kwestie is van onderdelen aan een bus (geheugen, PCIe, HT) hangen, en AMD zelf kan kiezen wat en hoeveel.
AMD had natuurlijk compleet nieuwe APU's kunnen ontwerpen. Dan is idd alles mogelijk.
Alleen dan niet meer binnen een redelijke termijn, denk aan enkele jaren.

Nu is het een bestaand ontwerp geworden met een verdubbeling aan (bestaande) cores.
Dat is veel makkelijker en sneller dan helemaal opnieuw beginnen.
Binnen dit bestaande ontwerp passen nu eenmaal een maximale hoeveelheid grafische kernen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er zijn genoeg haken en ogen aan het gebruiken van de Console APU's voor 'normale' pc's, die niets te maken hebben met de juridische kant.

Een Xbone APU komt met een quad-channel DDR3 geheugencontroller. Wil je dat op moederborden toepassen, heb je dus nieuwe moederborden nodig, die duur zullen worden door die quad-channel DDR3 configuratie. Dan hebben we het nog niet eens over het stukje eDRAM wat de chip erg duur maakt en in PC-land een heel erg vreemde eend in de bijt is.

Een PS4 APU maakt het allemaal nog ingewikkelder. Daar heb je ook een quad-channel geheugenconfiguratie, maar die moet gDDR5 aansturen. Hoe wil je daar een fatsoenlijk eco-systeem voor creeren? Losse gDDR5 modules in de verkoop? Vastgesoldeerd op het moederbord? Het eerste zal lastig van de grond te krijgen zijn. Het tweede maakt een moederbord erg duur en niet al te flexibel.

Nee, de eerste octo-core APU zal waarschijnlijk nog altijd Zen zijn in 2017 of zo.

Acties:
  • 0 Henk 'm!

Verwijderd

@ dahakon:

Helaas dringt niet echt lekker door dat ik juist GEEN console octacore bedoel........ :X

Ik verwacht dat AMD een standaard octacore zal uitbrengen na een met Sony/MS afgesproken periode.

Acties:
  • 0 Henk 'm!

Verwijderd

AMD brengt die al uit (als ik me niet vergis) alleen een identieke chip aan die van MS of Sony gaat niet gebeuren omdat daar exclusieve registers van beide bedrijven in zitten. Vooral Sony, die heeft dat met de IBM Cell ook gehad. Die registers zullen contractueel ook vastgelegd zijn. Zonder dat is de kans goed mogelijk dat je met een firmware hack windows ofzo installeren kunt op je PS4 of xbox.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Jism: het gaat in dit specifieke geval wel over octacore APU's, normale octacores heeft AMD inderdaad best al een tijdje in de schappen liggen.

Maargoed, ik ben benieuwd of met 14nm ook octacore APU's naar de consumentenmarkt gaan komen. In theorie lost het kleinere procedé het grootste knelpunt op: het verbruik bij een verkoopbare clocksnelheid. Met een lagere clocksnelheid dan 2GHz is de vraag er denk ik nauwelijks, en 14nm biedt de mogelijkheden om de clocksnelheid wat op te schroeven.

Acties:
  • 0 Henk 'm!

Verwijderd

Het gaat uiteraard om octacore APU's van AMD inclusief een grafisch gedeelte..........(voor desktop)
Verder is mijn punt (nu tig keer omschreven) dat dit NOOIT identieke console APU's kunnen worden.
(dat zullen MS en Sony nl nooit accepteren)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:56
Meh, dat zal ze echt een zorg zijn.

Er is gewoon geen echt nut voor 8 donders trage cores met een vrij krachtige gpu. Als je gaat gamen ben je de hele tijd cpu limited, en als je niet gaat gamen heb je waarschijnlijk niets aan zo'n krachtige gpu.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ehm, wacht eens even, deze discussie ging toch niet over het op de markt brengen van chips identiek aan die in de xbox en ps? Het ging over überhaupt uitbrengen van een APU met 8 CPU-cores.

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

En dat lijkt mij zeker wel nuttig, kijk eens wat een A10 met HSA al doet. Het kan zeker interessant zijn.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 20-09 20:43
VasZaitsev schreef op zondag 17 mei 2015 @ 20:04:
En dat lijkt mij zeker wel nuttig, kijk eens wat een A10 met HSA al doet. Het kan zeker interessant zijn.
Ik zie niet direct de doelgroep voor een 8-core APU met evenwaardige GPU (280X niveau ofzo). De standaard gebruiker heeft voldoende aan een stevige quadcore met een degelijke GPU. De Highend user zal eerder (winkelend bij AMD) een FX 8-core op de kop tikken en daar zelf een highend GPU bij zetten.

Dit combineren op 1 die (Highend APU - 8-core/280 of 290) zou een immense chip worden met een geheugen bottleneck en standaard geleverd moeten worden met waterkoeling. Bovendien moeten de moederborden dan ook stevig uitgerust worden. Een 4+1 bordje gaat dat niet trekken...

De balans lijkt me dus persoonlijk niet helemaal te kloppen met de beoogde doelgroep van een APU.

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Voor HSA heb je ook geen monster van een GPU nodig, wat in een A10 zit is al meer dan voldoende om een flinke boost te geven wanneer HSA bruikbaar is.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bandbreedte is dan nog altijd een probleem. Voor dit moment is het niet economisch om een octo-core APU te maken met dikke GPU. Te grote die, te weinig geheugenbandbreedte en bovendien een gebrek aan games die werkelijk goed gebruik maken van meer dan een paar cores. Dat begint nu langzaamaan te veranderen, met Mantle (DX12/Vulkan) en consoles die met 8 CPU-cores zijn uitgerust, maar dat lost dus de eerste twee problemen niet op.

Simpel gezegd, hoeft er dus helemaal geen overeenkomst te zijn tussen AMD enerzijds en Microsoft of Sony anderzijds met betrekking tot het mogen/kunnen uitbrengen van APU's met 8 cores. Op 14nm zal er genoeg ruimte zijn en 14nm begint langzaamaan beschikbaar te komen. Maar dan moet er wel eerst een core zijn die is ontworpen voor 14nm. Vooralsnog is alleen bekend dat Zen (en K12?) voor 14nm zijn ontworpen. Op GPU gebied is het duidelijk dat men al voor 14nm aan het ontwerpen is, met de claim dat het twee(?) keer zo efficient is als de huidige 28nm GCN producten. Dat geeft dus al een redelijke indicatie over wat er qua APU mogenlijk moet zijn wanneer ze in een ~100Watt TDP willen blijven zitten.

Blijft over het probleem van geheugenbandbreedte. Quad-channel oplossingen zijn duur en niet het meest klantvriendelijk (je dwingt feitenlijk de klant tot het kopen van 4 of 8 repen geheugen om optimaal van je product gebruik te kunnen maken). DDR4 heeft dan wel wat bandbreedte voordelen, tegen de tijd dat de sneller geklokte varianten beschikbaar komen, maar dat is ook nog relatief duur. Bovendien zal zelfs het snelste DDR4 geheugen met dual-channel oplossing bandbreedte tekort komen, wanneer de APU ~20 CU's gaat krijgen. Blijft dus over HBM, welke zijn feitenlijke introductie gaat krijgen met Fiji, zoals het er nu naar uit ziet. Maar HBM is nu nog duur, relatief in ieder geval, ten opzichte van gangbaar DDR* geheugen. Voor 2015/2016 lijkt het dan ook vooral een techniek te zijn die voornamelijk bij discrete videokaarten terug te vinden zal zijn.

In het kort, techniek en software lijken met een jaar of twee (2017 dus) zo ver te zijn dat een octo-core APU echt zin heeft voor de massa.

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Games is niet het enige waarvoor pc's gebruikt worden, denk aan meer professionele dingen, voor best veel dingen is HSA prima geschikt. En ze kunnen natuurlijk ook GPU-loze CPU's verkopen, al dan niet met uitgeschakeld grafisch deel, een beetje zoals de 860k nu verkocht wordt.

Maar, je hebt natuurlijk zeker gelijk dat bandbreedte een probleem blijft. quadchannel is inderdaad vrij prijzig, al begint 8GB+ ram langzaamaan nuttig te worden, grote kans dat mijn volgende bak 16GB gaat krijgen, en HBM is zeker nog niet los te koop.

Al met al misschien inderdaad iets voor later, voor een refresh van Zen/K12 misschien wel. Punt is wel dat als AMD inderdaad FM en AM gaat samenvoegen het misschien een teken is dat ze nog meer gaan aansturen op APU's, ook met veel cores.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Om praktische overwegingen zou een Opteron-APU ook wel handig zijn: Scheelt weer klooien met een riser en een losse videokaart in een budgetservertje :)

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Een echte server draait headless!

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Een seriele console kan best handig zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

dcm360 schreef op zondag 17 mei 2015 @ 21:52:
Om praktische overwegingen zou een Opteron-APU ook wel handig zijn: Scheelt weer klooien met een riser en een losse videokaart in een budgetservertje :)
Heb je op serverbordjes geen geintegreerde IGP in de NB ofzo dan ? :P Meestal zit zo'n console interface aan de voorzijde van een 1/2/4U kast ofzo... Prik je je monitor, keyboard in en gaan. De rest doe je via SSH.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 18-09 16:26

Kuusj

Ofwel varken in 't Limburgs

Ik durf te beweren dat we sowieso het komende jaar nog geen significante verbeteringen aan performance gaan zien bij octacores ten opzichte van quadcores. DX12 is een leuk argument maar de realiteit is dat voor dat de ontwikkelaars eens goed en wel door hebben hoe het zit dat je alweer een jaar verder bent.

Buiten dat ga ik toch weer naar de historie kijken, waar AMD 64Bit op de markt kwam en niemand het noodzakelijk achtte om software voor die hardware te maken totdat Intel een hele poos later pas kwam met de eerste 64Bit CPU.

Zelfde idee heb ik nu ook, zolang Intel geen mainstream octacores in het assortiment heeft liggen heeft AMD dikke pech, want laten we realistisch blijven: zo dondersgroot is het marktaandeel op de high-end CPU markt van AMD nu ook weer niet. En als een ontwikkelaar een week en 10.000 euro van zijn dev-kosten kan afsnoepen door maar een engine te maken die fatsoenlijk op 3-4 cores loopt dan doet ie dat ook.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

Verwijderd

@lambo:

Een combinatie van FX 8 core en High-end (290X) GPU hangt een prijskaartje aan van +/- 400 euro.
Zelfs bij AMD :F Net niet helemaal vergelijkbaar dus.......

Acties:
  • 0 Henk 'm!

Verwijderd

@kuusj98, Intel moet volgens mij AMD licenties betalen voor gebruik van X86-64. Daarnaast, 64 bits was alleen interessant als je bijvoorbeeld meer dan 4GB geheugen gebruiken wou. Terug in die tijd werkte men prima op 32bits OS (2000 / XP) en was de AMD 64 bits CPU gewoon sneller dan de tegenhanger van Intel (de pentium 4) in 32 bits modus. Nu met 64 bits kan je veel meer geheugen bijvoorbeeld in een systeem proppen en dat daadwerkelijk ook gebruiken.

Ik zou me niet zo'n zorgen maken om het niet-utilitizen van meerdere cores. Dat gebeurd op het moment al voor een hele belangrijke markt: consoles. Beide dragen AMD cpu's & gpu's en het optimaliseren moet gewoon voor meerdere cores.

De uiteindelijke ports naar PC zullen voordeel hebben, want by design kan al rekening worden gehouden met een systeem met meerdere cores. Dus ja, het DX12 / OpenGL 'era' kan zeker positiefs teweeg brengen. Ik denk dat als gameboeren nu ook actief zullen gaan zijn met DX12, en dit ook promoten, games ook beter zullen verkopen.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Verwijderd schreef op zondag 17 mei 2015 @ 23:50:
[...]


Heb je op serverbordjes geen geintegreerde IGP in de NB ofzo dan ? :P Meestal zit zo'n console interface aan de voorzijde van een 1/2/4U kast ofzo... Prik je je monitor, keyboard in en gaan. De rest doe je via SSH.
Ik zei budgetservertje :P Opteron 3300, moederbord met 970 chipset, wat ECC-RAM er in en gaan maar :) En inderdaad, gewoon met SSH werken na de installatie.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op zondag 17 mei 2015 @ 20:51:
Blijft over het probleem van geheugenbandbreedte. Quad-channel oplossingen zijn duur en niet het meest klantvriendelijk (je dwingt feitenlijk de klant tot het kopen van 4 of 8 repen geheugen om optimaal van je product gebruik te kunnen maken). DDR4 heeft dan wel wat bandbreedte voordelen, tegen de tijd dat de sneller geklokte varianten beschikbaar komen, maar dat is ook nog relatief duur. Bovendien zal zelfs het snelste DDR4 geheugen met dual-channel oplossing bandbreedte tekort komen, wanneer de APU ~20 CU's gaat krijgen. Blijft dus over HBM, welke zijn feitenlijke introductie gaat krijgen met Fiji, zoals het er nu naar uit ziet. Maar HBM is nu nog duur, relatief in ieder geval, ten opzichte van gangbaar DDR* geheugen. Voor 2015/2016 lijkt het dan ook vooral een techniek te zijn die voornamelijk bij discrete videokaarten terug te vinden zal zijn.

In het kort, techniek en software lijken met een jaar of twee (2017 dus) zo ver te zijn dat een octo-core APU echt zin heeft voor de massa.
HBM is het enige wat het bandbreedte probleem op kan lossen. Met Carrizo hebben ze d.m.v. Delta Color Compresion het probleem wat verder de kop in gedrukt en hieraan is dan ook de grootste prestatie winst van de GPU te wijten.

HBM hoeft niet heel erg duur te zijn. Ze kunnen diezelfde HBM geschikte APU ook uitbrengen zonder HBM erbij. Gewoon een dualchannel geheugen controller erbij. Vervolgens kunnen ze APUs uitbrengen met 1, 2, 3 of 4 stacks welke respectievelijk bij HBM1 1GB, 2GB, 3GB en 4GB. En met HBM2 verdubbelt de hoeveelheid die elke stack heeft.

Een 14nm, 3M/6C Carrizo+ met daarbij 1024 GCN 2.0 cores moet makkelijk mogelijk zijn. En dan kunnen ze er 1GB, 2GB, 3GB of 4GB HBM1 bij plakken afhankelijk van hoeveel GCN cores er aangezet worden. Vervolgens kun je er bijvoorbeeld nog 2x4GB DDR3 of DDR4 bij zetten. Met HBM2 zouden ze er zelf 2GB, 4GB, 6GB en zelf 8GB erop kunnen zetten. Dan zou je de APU zelfs zonder extra DDR3 of DDR4 geheugen goed kunnen laten functioneren.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op maandag 18 mei 2015 @ 01:48:
HBM is het enige wat het bandbreedte probleem op kan lossen. Met Carrizo hebben ze d.m.v. Delta Color Compresion het probleem wat verder de kop in gedrukt en hieraan is dan ook de grootste prestatie winst van de GPU te wijten.
Natuurlijk zijn er altijd nieuwe technieken die bandbreedte honger weten te reduceren, maar de GPU in de huidige APU's (512 SPU) hebben grofweg maar de helft van de bandbreedte die ze werkelijk vol kunnen krijgen. Er is dus nog veel te halen, zeker wanneer de GPU op APU's verder gaan groeien.
HBM hoeft niet heel erg duur te zijn. Ze kunnen diezelfde HBM geschikte APU ook uitbrengen zonder HBM erbij. Gewoon een dualchannel geheugen controller erbij. Vervolgens kunnen ze APUs uitbrengen met 1, 2, 3 of 4 stacks welke respectievelijk bij HBM1 1GB, 2GB, 3GB en 4GB. En met HBM2 verdubbelt de hoeveelheid die elke stack heeft.
HBM per GB zal misschien niet heel veel duurder zijn dan gDDR5. Dat is echter nog altijd een (redelijk) stukje duurder dan gewoon DDR. Bovendien is het een kostenpost die de klant direct terugziet in de prijs van het eindproduct, de APU. Probleem is echter als je voor een en/en oplossing kiest, een voordeel van HBM (het niet meer hoeven ondersteunen van de ouderwetse geheugenaansturing) verliest, waarmee je dus ook een kostenreductie verliest. In basis heeft een 512SPU (8CU) APU waarschijnlijk genoeg aan 1 chip HBM, wanneer het om bandbreedte gaat. Maar wanneer het om hoeveelheid geheugen gaat, is 1GB natuurlijk nooit genoeg om een normaal windows-systeem te draaien. Er is dus een keuze te maken aangaande kosten/baten. Er zal vast ook een reden zijn waarom Intel Iris Pro alleen in de allerduurste producten toepast.
Een 14nm, 3M/6C Carrizo+ met daarbij 1024 GCN 2.0 cores moet makkelijk mogelijk zijn. En dan kunnen ze er 1GB, 2GB, 3GB of 4GB HBM1 bij plakken afhankelijk van hoeveel GCN cores er aangezet worden. Vervolgens kun je er bijvoorbeeld nog 2x4GB DDR3 of DDR4 bij zetten. Met HBM2 zouden ze er zelf 2GB, 4GB, 6GB en zelf 8GB erop kunnen zetten. Dan zou je de APU zelfs zonder extra DDR3 of DDR4 geheugen goed kunnen laten functioneren.
Je APU voorstel zal zeker mogenlijk zijn. De vraag is echter of AMD de moeite zou willen doen om Carrizo een shrink te geven naar 14nm, wanneer hun focus geheel op Zen ligt. Zen is de toekomst en Zen is ontworpen met 14nm in gedachte. Carrizo is ontworpen voor 28nm en of het financieel uit kan om dan ook nog een shrink te geven, betwijfel ik een beetje. Hoe dan ook, een 6-8 CPU-core APU met ~2048 SPU's en 4 stacks of HBM2 in 2017 zou mogenlijk moeten zijn. Tahiti met 2048 SPU's is zo'n 350mm2 op 28nm. Een shrink naar 14nm en het weghalen van die dikke geheugeninterface zou een chip opleveren van misschien nog geen 150mm2 (wellicht zelfs nog geen 100mm2, maar dat hangt ook af van wat ze eventueel toevoegen en veranderen in de nieuwe generatie GCN). Doe daar een octo-core Zen CPU bij zonder lvl3 Cache en als het goed is heb je een chip die niet (veel) groter is dan Kaveri/Carrizo. Misschien kan men tegen die tijd ook fatsoenlijk clamshell HBM2 maken, waardoor je 16GB APU's kunt maken.

Helaas is het nog geen 2017...

Acties:
  • 0 Henk 'm!

Verwijderd

Het moet eerst nog even 2016 worden, het jaar waarin wonderproduct ZEN uitkomt voor consumenten.
Graag 1 stapje tegelijk.........

16GB HBM ? Het mag blijkbaar wat kosten ?

Op dit moment kost 16GB DDR3 al rond de 100 euro.
HBM zal duurder zijn waardoor de geheugen prijs alleen rond de max. prijs zit van de duurste APU's nu.
Jouw voorstel zou neerkomen op een totale prijs van 250+ euro voor een snelle 16GB HBM APU.
Ik denk niet dat ze erg lekker verkopen voor dergelijke bedragen........ :X
(zelfs ik zou hem niet kopen voor zo veel geld terwijl ik een AMD fanboy ben....)

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op woensdag 20 mei 2015 @ 09:37:
Het moet eerst nog even 2016 worden, het jaar waarin wonderproduct ZEN uitkomt voor consumenten.
Graag 1 stapje tegelijk.........

16GB HBM ? Het mag blijkbaar wat kosten ?

Op dit moment kost 16GB DDR3 al rond de 100 euro.
HBM zal duurder zijn waardoor de geheugen prijs alleen rond de max. prijs zit van de duurste APU's nu.
Jouw voorstel zou neerkomen op een totale prijs van 250+ euro voor een snelle 16GB HBM APU.
Ik denk niet dat ze erg lekker verkopen voor dergelijke bedragen........ :X
(zelfs ik zou hem niet kopen voor zo veel geld terwijl ik een AMD fanboy ben....)
Dat is dus wel RAM, CPU en GPU in-één, voor €250! Hoezo duur?

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 21:20

hidde212

Free your mind...

Verwijderd schreef op woensdag 20 mei 2015 @ 09:37:
Het moet eerst nog even 2016 worden, het jaar waarin wonderproduct ZEN uitkomt voor consumenten.
Graag 1 stapje tegelijk.........

16GB HBM ? Het mag blijkbaar wat kosten ?

Op dit moment kost 16GB DDR3 al rond de 100 euro.
HBM zal duurder zijn waardoor de geheugen prijs alleen rond de max. prijs zit van de duurste APU's nu.
Jouw voorstel zou neerkomen op een totale prijs van 250+ euro voor een snelle 16GB HBM APU.
Ik denk niet dat ze erg lekker verkopen voor dergelijke bedragen........ :X
(zelfs ik zou hem niet kopen voor zo veel geld terwijl ik een AMD fanboy ben....)
Zen heeft op dit moment prioriteit voor AMD. Hun andere projecten zijn al naar achter geschoven, zoals de nieuwe opteron en de K12 ARM core. Daarbij zit echter ook een "High Performance Server APU", wat natuurlijk heel vaag is maar een product in zou kunnen houden vergelijkbaar met wat dahakon beschrijft.
Afbeeldingslocatie: http://techreport.com/r.x/amd-fad-2015/slide-datacenter.jpg

Stel dat het inderdaad 6-8 Zen cores (tot 40% hogere ipc, SMT toegevoegd) betreft met een krachtige GPU (bijv. Tonga, 1792 SPU's), verondersteld dat het naar de consumentenmarkt komt en (4-8GB?) HBM bevat, zou ik eerder naar een prijs van boven de €300 kijken.

In 2017 wel te verstaan.

...and your ass will follow


Acties:
  • 0 Henk 'm!

Verwijderd

@devilsprophet en hidde212:

Het gaat er niet zozeer om of de APU het waard is maar meer of de gemiddelde klant bij Maedelmarkt er 250 of wellicht zelfs 300 euro voor over heeft. Dwz: voor alleen de APU + mem.

Ik denk namelijk dat dit niet erg hard gaat lopen......
CPU's en APU's horen te dalen in prijs en niet fors te stijgen (bij 300 euro zelfs ruim te verdubbelen).
Zelfs met 16GB mem erbij zal er niet veel markt voor zijn, tenzij AMD een marketing guru inhuurt.

Acties:
  • 0 Henk 'm!

  • Countess
  • Registratie: April 2003
  • Laatst online: 09-07 15:41
Verwijderd schreef op woensdag 20 mei 2015 @ 10:43:
@devilsprophet en hidde212:

Het gaat er niet zozeer om of de APU het waard is maar meer of de gemiddelde klant bij Maedelmarkt er 250 of wellicht zelfs 300 euro voor over heeft. Dwz: voor alleen de APU + mem.
maar die klanten kopen niet een losse APU maar een geheel systeem dan wel laptop. en die zien dus niks van de hoge prijs van dat ene onderdeel (wat eigenlijk alles kan.)

als het voor OEM's wel interessant is dan komt het vanzelf in de winkel.

[ Voor 7% gewijzigd door Countess op 20-05-2015 10:48 ]

mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Als je nu een high-end APU wil kopen met 16GB RAM, ben je ook 250 euro kwijt. Verschil is wel dat als je die APU met 16GB HBM hebt en een iGPU die 4 (of waarschijnlijker 6-8 keer wegens ontbreken bandbreedte probleem), keer zo snel is als de huidige iGPU, je voor 1080P echt geen discrete kaart meer nodig hebt en alleen maar naar een relatief goedkoop moederbord hoeft te kijken, daar de rest al op de APU zit.

AMD zou ook een 8GB versie uit kunnen brengen voor de meer financieel beperkte consumenten en zelfs een 4GB variant, mochten ze dat willen.

Verder vraag ik me af waarom iemand wel 200 euro zou willen lappen voor een discrete GPU, maar geen 250 euro voor een APU met 6-8 CPU-cores, 16GB HBM RAM en een iGPU met dezelfde prestaties als een 200 euro kostende discrete GPU.

Acties:
  • 0 Henk 'm!

Verwijderd

Een gemiddelde AMD PC kost bij Maedelmarkt eerder 400 euro totaal dan 300 voor alleen het geheugen en de APU. Met een 300 euro kostende combi van APU en mem kunnen Maedel en de fabrikanten gewoon geen winst meer maken en daar draait het gewoon onder de streep om.

Uberhaupt zijn 16GB mem en 200 euro kostende discrete videokaarten niet mainstream.

Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 20-09 20:43
Verwijderd schreef op woensdag 20 mei 2015 @ 11:19:
Een gemiddelde AMD PC kost bij Maedelmarkt eerder 400 euro totaal dan 300 voor alleen het geheugen en de APU. Met een 300 euro kostende combi van APU en mem kunnen Maedel en de fabrikanten gewoon geen winst meer maken en daar draait het gewoon onder de streep om.

Uberhaupt zijn 16GB mem en 200 euro kostende discrete videokaarten niet mainstream.
We hebben het hier dan ook niet voor een instap pc of iets dergelijks, maar over een gamepc. De gewone pc gebruiker (Office, Browsen en Media) heeft al meer dan genoeg aan bijvoorbeeld een A4-4000 van €30 met een enkel latje ram en cheap mobo.

Een potente APU zoals eerder omschreven mag dus wel gerust €300 kosten als er 8 cores inzitten, RAM en een snelle GPU. Met een dergelijk systeem zal je dan lekker 1080p60fps kunnen gamen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Een 8-core CPU en 16GB RAM zijn ook niet mainstream. Ik praat hier ook niet over mainstream, ik praat over wat mogenlijk moet kunnen zijn voor de top SKU APU. Logischerwijze zullen van een dergelijke APU ook mindere SKU's gemaakt worden van de dice die fouten bevatten, waardoor je bijvoorbeeld een 4-core CPU/1024SPU GPU en 4-8GB HBM RAM krijgt, om maar een voorbeeld te geven.

Acties:
  • 0 Henk 'm!

Verwijderd

De vraag is dan: wie koopt voor welk bedrag dan dergelijke systemen ?

Een goede discrete videokaart kost nu bv rond de 200 euro: R285
De warmte daarvan kun je nooit kwijt bij een APU, ook niet met HBM.
Samen met een FX6300 voor 100 euro heb je vrijwel zeker een sneller systeem, wel met meer warmte.
Alleen het geheugen komt daar dan nog bovenop, maar daar heb je wel vrije keuze in.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Een 200/300W verbruikende CPU kan wel, maar dat zorgt alleen voor een dure koeler en duur moederbord. Dan heb je gewoon een high-end socket nodig, want dezelfde socket zul je niet gebruiken voor zuinige en goedkope CPU's. Een moederbord wat dan ook een high-end CPU aan kan wordt dan veel te duur, dan heb je een moederbord wat minimaal zo'n 100 euro kost met een CPU van 30 euro.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

dahakon schreef op woensdag 20 mei 2015 @ 07:05:
Hoe dan ook, een 6-8 CPU-core APU met ~2048 SPU's en 4 stacks of HBM2 in 2017 zou mogenlijk moeten zijn. Tahiti met 2048 SPU's is zo'n 350mm2 op 28nm. Een shrink naar 14nm en het weghalen van die dikke geheugeninterface zou een chip opleveren van misschien nog geen 150mm2 (wellicht zelfs nog geen 100mm2, maar dat hangt ook af van wat ze eventueel toevoegen en veranderen in de nieuwe generatie GCN).
Hoe kom je aan 350->100/150 gezien de shrink van de 28 naar de 14 node ca. 2.2x kleiner is. En sowieso is een mm² van 14nm-silicium minstens 30% duurder dan 28nm, dus dan kom je equivalent op 210mm².

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 23:29
Verwijderd schreef op woensdag 20 mei 2015 @ 11:33:
De vraag is dan: wie koopt voor welk bedrag dan dergelijke systemen ?

Een goede discrete videokaart kost nu bv rond de 200 euro: R285
De warmte daarvan kun je nooit kwijt bij een APU, ook niet met HBM.
Samen met een FX6300 voor 100 euro heb je vrijwel zeker een sneller systeem, wel met meer warmte.
Alleen het geheugen komt daar dan nog bovenop, maar daar heb je wel vrije keuze in.
Ik weet niet of je die warmte niet kwijt komt. Zoals The_Mask al aangeeft zul je wel een degelijke koeler moeten hebben, maar het lijkt mij zeker wel haalbaar. Als ik kijk naar het verschil tussen hoe mijn CPU en GPU reageren op waterkoeling, dan is het verschil tussen een highend CPU luchtkoeler (b.v. een Noctua NH-D14) en mijn custom loop niet extreem groot. Natuurlijk presteert mijn custom loop een flink stuk beter, maar het halveert niet ineens de temperaturen.

Kijk ik dan naar mijn GPU, een GTX670 AMP! Edition overclocked naar meer dan 1340Mhz core clock, dan is het verschil wel enorm. Standaard, zonder overclock op zo'n 1170Mhz), schijnt hij met zn normale luchtkoeler ongeveer 70 graden te worden, met een overclock van boven de 1300Mhz gok ik dat ie makkelijk richting de 90 graden gaat. Onder waterkoeling: max 43 graden na een paar uur Furmark, bij gaming met moeite 40 graden.

Kortom, GPU's komen hun warmte veel beter kwijt, ondanks dat ze veelal flink meer stroom verbruiken. Zolang de warmte overdracht tussen de CPU/GPU en de IHS goed is (en dus niet die bagger die Intel sinds de Ivy Bridge CPU's voor elkaar krijgt), dan kan je best wel die warmte kwijt kunnen. Maar wil je een CPU krijgen die qua CPU kracht gelijk is aan b.v. een 4690K en daarbij een ingebakken GPU van het kaliber R9 285, ja dan zul je daar flink wat koeling tegenaan moeten gooien. Wellicht dat, mochten dergelijke APU's er komen, AMD deze dan uitlevert met standaard een closed-loop waterkoeler, wat Intel meen ik ook al doet/deed met bepaalde s2011 CPU's.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
-The_Mask- schreef op woensdag 20 mei 2015 @ 11:40:
Een 200/300W verbruikende CPU kan wel, maar dat zorgt alleen voor een dure koeler en duur moederbord. Dan heb je gewoon een high-end socket nodig, want dezelfde socket zul je niet gebruiken voor zuinige en goedkope CPU's. Een moederbord wat dan ook een high-end CPU aan kan wordt dan veel te duur, dan heb je een moederbord wat minimaal zo'n 100 euro kost met een CPU van 30 euro.
Dat heeft toch niet zoveel met het gebruikte socket te maken, maar toch eerder met het aantal fase stroom e.d.?

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Het socket moet wel voldoende stroom kunnen leveren, en dat zijn vrij veel van die dunne pinnetjes, terwijl je bij een zuinige cpu misschien maar de helft van de voedingspinnen nodig hebt.

En inderdaad het mobo, krijg je weer gedonder dat mensen hun 200w APU op een plankje van 30 euro zitten en het vreemd vinden dat hun APU vervolgens naar de ICU moet :+

Oplossing: CPU met een 6+2 PCI aansluiting erop!

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Brent
  • Registratie: September 2001
  • Laatst online: 19-09 10:55
Verwijderd schreef op woensdag 20 mei 2015 @ 11:33:
De vraag is dan: wie koopt voor welk bedrag dan dergelijke systemen ?
Zodra die te koop is ;) Maar 200W afvoeren is toch ook niet zo'n probleem? En dat is max verbruik, je kunt best de helft van de cpus afzetten wanneer de gpu op volle toeren gaat draaien oid.

Misschien moeten we ook het moederbord minder als centraal element gaan zien: het is simpelweg een manier om wat randapparatuur op de APU aan de sluiten. Met HBM al helemaal. Kwa oppervlak is een ITX zat, uitbereidingskaarten zijn voor servers/specialisten. We prikken dan het mobo op de CPU ipv andersom ;) Denk meer kubus dan plank met her en der een dingetje erop.

Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Bij AM1 is dat al zo, er zitten "nauwelijks" chips op die plankjes, Tuurlijk nog wel audio en een paar andere dingen, maar het stelt weinig voor vergeleken met mijn "oude" AM3+ welke nog een southbridge heeft.

[ Voor 8% gewijzigd door RobinHood op 20-05-2015 16:14 ]

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 23:29
VasZaitsev schreef op woensdag 20 mei 2015 @ 15:58:
En inderdaad het mobo, krijg je weer gedonder dat mensen hun 200w APU op een plankje van 30 euro zitten en het vreemd vinden dat hun APU vervolgens naar de ICU moet :+
Dat zul je altijd wel blijven hebben, tenzij AMD een beetje duidelijker en strikter wordt. Ik ga ervan uit dat er bij een nieuwe reeks APU's van AMD er een uitgebreid spectrum komt van instap/basis pc APU's tot aan wellicht flinke gaming APU's. Als fabrikanten van moederborden gewoon wat strenger zijn en op een plankje van 50 euro gewoon die zware APU niet ondersteunen in het bios/UEFI, dan ben je al van een hoop gezeur af. Het gebeurt nog regelmatig dat hier op Tweakers een topic wordt geopend met iets van "ik heb problemen met mijn FX-8xxx" en dan blijkt dat ze een budget 970 chipset bord hebben met te weinig VRM's en slechte koeling, maar de CPU wordt door de fabrikant wel doodleuk als "compatible" bestempeld.

Intel heeft dit langs 2 kanten enigszins begrensd; enerzijds zijn de laatste reeks CPU's niet zo'n energieslurpers en zit er niet gigantisch veel verschil in verbruik (op stock snelheden) tussen een Pentium of Core i3 en een Core i7. Aan de andere kant hanteren zij verschillende chipsets waarbij (uitzonderingen daargelaten) je alleen echt kunt overclocken met de Z-serie, het overclocken waardoor een forse stijging in stroomverbruik kan plaatsvinden. Een goedkoop Z97 bordje kost al wat meer en zit iets beter in elkaar dan een instap H81 plank.
Bij AMD kan je zowel met de 970 als 990FX chipsets overclocken, maar wordt de 970 chipset wel ook gebruikt op budget bordjes bedoelt voor de FX-4xxx en FX-6xxx CPU's en worden de FX-8xxx wel in het bios ondersteunt. Als AMD gewoon had gezegd dat alleen de 990FX chipset de FX-8xxx CPU's ondersteunt dan waren die problemen er helemaal niet.
De consument kun je dit niet kwalijk nemen. Zij hadden wellicht ook dat goedkope 970 bord gekocht in combinatie met een FX-4100, ze willen upgraden en een FX-8350 blijkt compatible, ze proppen het ding erin en de ellende begint.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Er moet inderdaad wel wat tegen komen, maar ik vind de oplossing van Intel zeker niet de meest nette, er zijn B85 bordjes waarop een overclock prima op moet lukken, zoals de Sniper B5 en B6, en Z87 en Z97 plankjes welke niet echt geschikt zijn voor een overclock, maar je betaald er wel meer voor.

Misschien dat AMD een chipset, of varianten van chipsets, moet uitbrengen met het Black Edition kenmerk, die dus alleen op planken gezet mogen worden welke voldoen aan enkele criteria, zoals heatsinks op de VRM's, en minimaal 4+1 erg goede fases of 8+2 "normale" fases. Dat je dan met alleen BE chipsets kan overclocken, en die planken ook geschikt zijn voor stevige CPU's.

Want chipset zegt eigenlijk ook helemaal niets bij AMD. Er zijn goedkope oude 760 planken die beter zijn dan duurdere 970 planken Sterker nog, die goedkope Gigabyte zal weinig slechter zijn dan een pricewatch: ASRock 990FX Extreme3 terwijl de goedkopere en met 970 chipset pricewatch: Gigabyte GA-970A-UD3P een van de betere planken is die je kan kopen.

Ja, zo'n BE systeem lijkt mij heel handig werken, in dit geval zou alleen die UD3P dan BE achter de chipset mogen voeren, de andere Gigabyte en de Asrock gewoon als normale planken, en AMD mag van MSI wel eens op de vingers tikken dat zie zulke troep verkopen op het AM3+ platform.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
witeken schreef op woensdag 20 mei 2015 @ 12:14:
[...]

Hoe kom je aan 350->100/150 gezien de shrink van de 28 naar de 14 node ca. 2.2x kleiner is. En sowieso is een mm² van 14nm-silicium minstens 30% duurder dan 28nm, dus dan kom je equivalent op 210mm².
Laat ik beginnen met de opmerking dat ik het tamelijk curieus vind dat je met een diesize aan komt zetten die niets te maken heeft met de werkelijke grootte, maar is gebasseerd op wat die zou kosten ten opzichte van een 28nm die. Dat is een tamelijk beroerd trucje om net te doen alsof de die groter zal zijn dan deze werkelijk is op 14nm. Prijs voor 14nm doet weinig terzake, omdat de prijs van 14nm nu een andere is dan de prijs van 14nm in 2017. Het 'equivalent' is dus ook totale onzin.

Hoe ik vervolgens bij een die-size kom van 100-150mm2 voor een ~2048 SPU's iGPU kom, volgt hieronder.

Tahiti is 350mm2 groot op 28nm. Een deel van de die is de geheugencontroller. Die geheugencontroller is niet klein, of beter, best wel groot. Maar die geheugencontroller is niet nodig bij een APU, dus die snijdt je van de die af. Ik heb een ~300mm2 die genomen als referentie voor de die zonder geheugen controller (die van Tahiti was nog aardig wat groter dan de 59mm2, als ik de die-shot zo bekijk). Enfin, met een ~2.2 factor dichtheid van 14nm ten opzichte van 28nm, kom je ergens op 135mm2 uit. Misschien is een uiteindelijke iGPU van 2048SPU iets groter, misschien wel kleiner, maar je zult normaalgesproken niet bepaald ver over de 150mm2 uit komen.


Kijkende naar de discussie over hitte ontwikkeling en afvoer, moet je bedenken dat een 2048SPU iGPU op 14nm niet bepaald hetzelfde verbruikt als een 28nm 2048SPU GPU. Laten we Tonga hier als referentie nemen als laatste GCN kaart. TDP ligt op 190 Watt voor de kaart, zij het met iets minder SPU's actief dan de gestelde 2048. Een deel van dat verbruik zit echter in het geheugen, VRM en andere zaken en niet direct in de GPU zelf. 2 GB gDDR5 bijvoorbeeld zit al op zo'n 15 Watt minimaal op max verbruik. Neem nog een paar Watt voor de VRM's en bedenk dat de geheugencontroller ook aardig wat stroom verbruikt in een dergelijke kaart, een geheugencontroller die niet terug komt op de iGPU (niet in die vorm in ieder geval). Stel dat wat over blijft hypothetisch 160 Watt verbruikt. AMD claimt dat GCN op 14nm 2 keer zo efficient is. Kortweg, het verbruik zou dalen richting de 80Watt. snij nog een beetje in de kloksnelheid en voor je het weet zit je op 65-70 Watt. Nu zal een 8-core CPU ook wel wat verbruiken, maar de CPU in een APU zal niet op dezelfde hoge basissnelheden hoeven draaien als een top of the line SKU CPU alleen. Iets lagere basisklok voor multi-core load en hoge turbo voor single thread of een paar threads zou het verbruik aan de CPU kant ook moeten kunnen beperken tot ~50Watt.

Al met al zou je dus een APU moeten kunnen maken binnen een 125Watt TDP.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Je moet dan wel rekening houden met extra functies. Uitgaan van Tahiti lijkt me sowieso niet zo heel correct aangezien hier features in missen. Zelfs in Kaveri zit True Audio al in gebouwd. Daarnaast mis je ook de DCC van Tonga.

Denk dus dat je beter kan uit gaan van Tonga.

De 386 bits GDDR5 geheugen bus kun je idd weg laten, maar hiervoor komt een 1024 bits HBM bus voor terug. Omwille van inzetbaarheid van de chip zullen ze er ook een dualchannel DDR3 of 4 controller inbouwen.

Vervolgens kunnen ze d.m.v. binning alle kanten uit met één chip. GPU: 512, 768, 1024, 1280, 1536 of 2048GCN cores met respectievelijk alleen dualchannel DDR3 of 4, 1GB HBM, 1GB HBM, 2GB HBM, 3GB HBM en 4GB HBM.

Bedenk hierbij trouwens dat het HBM geheugen niet maximaal geklokt hoeft te zijn. Zeker niet als je kijkt naar één HBM2 stack (vanaf 2GB per stack) of twee HBM1 stacks (vanaf 1GB per stack). Zeker als ze deze APU ook in een notebook zouden willen plaatsen is al die hitten op één punt moeilijk te dispenseren.

Is het voor AMD mogelijk twee APU's in één package samen te brengen of op één interposer? Dan zoude ze relatief kleine APU's kunnen bouwen op 14nm. Quad cores met 1024GCN cores? Dan kunnen ze z'n APU veel makkelijker toepassen in laptops. En twee van die APU's samen gebruiken voor de desktop chips. Mogelijke problemen zoals crossfire en overbodige onderdelen (dubbel uitgevoerd) in je chip maken dit dan weer een probleem. Met dit laatste komt dan wel weer het voordeel dat je nu zelfs met chips waar éénmalige onderdelen kapot van kunnen zijn, zoals UVD en TrueAudio, dat die alsnog kan samenwerken met een chip waar deze onderdelen wel functioneel zijn. Voorheen zou z'n chip dus gewoon niet verkocht kunnen worden. Behalve als het een defect aan een SMU of cores/module betreft. Dan schakelen ze deze uit.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 20 mei 2015 @ 21:16:
......Is het voor AMD mogelijk twee APU's in één package samen te brengen of op één interposer? Dan zoude ze relatief kleine APU's kunnen bouwen op 14nm. Quad cores met 1024GCN cores? Dan kunnen ze z'n APU veel makkelijker toepassen in laptops. En twee van die APU's samen gebruiken voor de desktop chips. Mogelijke problemen zoals crossfire en overbodige onderdelen (dubbel uitgevoerd) in je chip maken dit dan weer een probleem.....
Is dat niet min of meer wat al in consoles draait, twee gecombineerde quadcore APU's ?

Ondanks al het bovenstaande zie ik AMD nog steeds geen 300 euro kostende APU''s verkopen.
Zelfs niet inclusief 16GB HBM........

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op woensdag 20 mei 2015 @ 21:16:
Je moet dan wel rekening houden met extra functies. Uitgaan van Tahiti lijkt me sowieso niet zo heel correct aangezien hier features in missen. Zelfs in Kaveri zit True Audio al in gebouwd. Daarnaast mis je ook de DCC van Tonga.

Denk dus dat je beter kan uit gaan van Tonga.
Ik nam Tahiti als basis omdat daar een die-shot van de vinden is. Ik weet niet of er duidelijkheid is of Tonga's geheugen interface niet groter is dan 256-bit, maar zelfs dan komt de die zonder geheugeninterface uit op amper meer dan 300mm2.
De 386 bits GDDR5 geheugen bus kun je idd weg laten, maar hiervoor komt een 1024 bits HBM bus voor terug. Omwille van inzetbaarheid van de chip zullen ze er ook een dualchannel DDR3 of 4 controller inbouwen.
Ik was vooral benieuwd naar wat mogenlijk is als je de standaard DDR geheugeninterface weg laat. Hoe het precies zal verworden met de interface die nodig is met HBM is me nog enigsinds onduidelijk, maar het zal niet zo groot zijn als de 'oude' oplossing. De 1024-bit van een stack HBM is in ieder geval niet 1 op 1 te vergelijken.
Bedenk hierbij trouwens dat het HBM geheugen niet maximaal geklokt hoeft te zijn. Zeker niet als je kijkt naar één HBM2 stack (vanaf 2GB per stack) of twee HBM1 stacks (vanaf 1GB per stack). Zeker als ze deze APU ook in een notebook zouden willen plaatsen is al die hitten op één punt moeilijk te dispenseren.
In het artikel van SemiAccurate over AMD's HBM persverhaal werd duidelijk gemaakt dat op 500MHz (1GHz effectief) de chip slechts op de helft van de maximale snelheid draait. Nog langzamer zal vast ook wel mogenlijk zijn, als de bandbreedte niet nodig is.
Is het voor AMD mogelijk twee APU's in één package samen te brengen of op één interposer? Dan zoude ze relatief kleine APU's kunnen bouwen op 14nm. Quad cores met 1024GCN cores? Dan kunnen ze z'n APU veel makkelijker toepassen in laptops. En twee van die APU's samen gebruiken voor de desktop chips. Mogelijke problemen zoals crossfire en overbodige onderdelen (dubbel uitgevoerd) in je chip maken dit dan weer een probleem. Met dit laatste komt dan wel weer het voordeel dat je nu zelfs met chips waar éénmalige onderdelen kapot van kunnen zijn, zoals UVD en TrueAudio, dat die alsnog kan samenwerken met een chip waar deze onderdelen wel functioneel zijn. Voorheen zou z'n chip dus gewoon niet verkocht kunnen worden. Behalve als het een defect aan een SMU of cores/module betreft. Dan schakelen ze deze uit.
Waarschijnlijk zal het in de toekomst wel gaan gebeuren, meerdere verschillende dice op 1 passieve interposer. Alleen denk ik dat de eerste APU's op een interposer nog een gewone enkele chip zullen zijn. Dan zou je waarschijnlijk zelfs zo ver kunnen gaan als een CPU die naast een aparte GPU die plaatsen en afhankelijk van de SKU bepalen hoeveel cores de CPU en de GPU hebben die geplaatst worden. Maar vooralsnog mogen we denk ik vooral blij zijn wanneer een APU met HBM beschikbaar komt, ongeacht zijn omvang.
Verwijderd schreef op woensdag 20 mei 2015 @ 22:11:
[...]

Is dat niet min of meer wat al in consoles draait, twee gecombineerde quadcore APU's ?
De console APU's hebben een enkele die waarin de CPU bestaat uit twee quad-cores die aan elkaar geknoopt zijn en een enkele 'grote' GPU.
Ondanks al het bovenstaande zie ik AMD nog steeds geen 300 euro kostende APU''s verkopen.
Zelfs niet inclusief 16GB HBM........
Uiteindelijk zal veel ook af hangen van prestaties/reviews en preciese prijsstelling.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
16GB is sowieso overkill, zeker gezien de bandbreedte. Zelfs in 2017 is dat nog overkill.

De hele SoC gebruik laten maken van het HBM geheugen is gewoon reten inefficiënt. Wat moet een CPU met zoveel bandbreedte? Daarnaast bemoeilijk je daarmee onnodig de warmte afvoer. HBM geheugen zal hoe dan ook gekoeld moeten worden door dezelfde IHS als de APU.

Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2015/01/HMC-Power-640x201.png

Dat gaat dus niet om veel warmte en je zou het HBM geheugen kunnen terug klokken, maar dan kom je wellicht bandbreedte te kort voor de GPU in de APU. Enfin, in een dergelijke oplossing zul je voor consumenten vrijwel altijd een hybride oplossing zien. HBM voornamelijk voor het GPU gedeelte van de APU en DDR4 voornamelijk voor het CPU gedeelte in de APU. Ze kunnen bij elkaars geheugen, maar omwille van efficiëntie zal hier wat prioritering aan voorafgaan denk ik. Is nogal lullig als Windows in je HBM geheugen geladen staat en Crysis vervolgens doodleuk in je DDR4 geheugen geladen wordt door de GPU omdat je HBM geheugen vol zit. Of is dit te simpel gedacht?

Wellicht dat ze HBM als cache (LLC, Last Level Cache, L3/L4) kunnen gaan gebruiken (iets dat voor AMD bij HBM 2.0 opeens wel heel interessant is omdat ze er momenteel geen meisjes plasser van kunnen). Ik weet niet in hoever dit mogelijk is i.v.m. latency.

Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2014/02/L1-Cache.png
Afbeeldingslocatie: http://www.extremetech.com/wp-content/uploads/2014/02/L2-Cache1.png

Bron - http://www.extremetech.co...into-amds-next-gen-core/2

Afbeeldingslocatie: http://media.bestofmicro.com/I/5/386861/original/cache-bandwidth.png

Bron - http://www.tomshardware.c...swell-review,3521-12.html

[ Voor 6% gewijzigd door madmaxnl op 21-05-2015 12:24 ]


Acties:
  • 0 Henk 'm!

  • devil-strike
  • Registratie: Augustus 2003
  • Laatst online: 03-09 17:54
Iemand eenig idee hoe het kan dat me pc met oude videokaart(radeon 6750) sneller werkt dan met nieuwe kaart(r9 280x) vooral video encoden is met 10fps gezak, dit alles met zowel opencl als zonder.

Gigabyte GA-970A-UD3 met fx 8350 en 8GB 1866Mhz.
win 8.1 getest met laatste ati beta als officele drivers.

Voorheen bleef encoded fps op +- 30 staan, nu begint het met 30 en zakt terug naar 20fps.

hmm dacht dat ik in vidkaart topic zat, kan modje zo vriendelijk zijn om die daar heen temoven.

[ Voor 24% gewijzigd door devil-strike op 21-05-2015 12:30 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
offtopic:
Verkeerde topic, maar begin maar eens met een schone installatie ;) en gooi er dan de laatste OpenCL drivers enzovoort er op.

Acties:
  • 0 Henk 'm!

  • Brent
  • Registratie: September 2001
  • Laatst online: 19-09 10:55
madmaxnl schreef op donderdag 21 mei 2015 @ 12:21:
16GB is sowieso overkill, zeker gezien de bandbreedte. Zelfs in 2017 is dat nog overkill.
Spreek voor jezelf.
De hele SoC gebruik laten maken van het HBM geheugen is gewoon reten inefficiënt.
Want?
Wat moet een CPU met zoveel bandbreedte? Daarnaast bemoeilijk je daarmee onnodig de warmte afvoer. HBM geheugen zal hoe dan ook gekoeld moeten worden door dezelfde IHS als de APU.
Is hitte-ontwikkeling dan zo'n probleem? Je data toont aan dat het juist het efficienst is. We zouden moeten weten hoe de proximiteit tot APU de afvoer beinvloed, maar ik vind het er op eerste gezicht goed uitzien.

Betere vraag: waarom niet? Ik koop hem iig direct ;)

Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 19:23
Dit is misschien hoopvol als er slechte tijden komen voor AMD.
http://www.kitguru.net/co...ur-merger-or-acquisition/

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Brent schreef op donderdag 21 mei 2015 @ 15:53:
[...]

Spreek voor jezelf.

[...]

Want?

[...]

Is hitte-ontwikkeling dan zo'n probleem? Je data toont aan dat het juist het efficienst is. We zouden moeten weten hoe de proximiteit tot APU de afvoer beinvloed, maar ik vind het er op eerste gezicht goed uitzien.

Betere vraag: waarom niet? Ik koop hem iig direct ;)
4GB GDDR5 gebruikt ongeveer 20 a 30 watt? Op eenzelfde doorvoersnelheid als GDDR5 verbruikt HBM ongeveer 1/3 van wat GDDR5 verbruikt. Met HBM1 kunnen ze per stack 1GB onderbrengen met een maximum van 4 stacks per pakketje. Een pakketje kan dus tussen de 1-4GB bevatten. Vervolgens kunnen ze meerdere van deze pakketjes onderbrengen op één interposer.

Een CPU kan niet zo heel erg veel met al die geheugenbandbreedte:

productreview: Corsair Vengeance CML16GX3M4X1600C8 review door TERW_DAN

Single channel, dual channel, triple channel en quad channel benchmarks. Van single channel naar dual channel heeft nog nut, maar daarna is de performance toenamen, in mijn ogen, niet significant. En dat met een Intel Core i7 3960X...

Een hele APU vol duwen met HBM omdat je je CPU en GPU er beide gebruik van wil laten maken zonder dat ze te kort komen is gewoon niet zinnig.

Kijk anders een naar de CPU's met Intel Iris Pro GPU en dus 128MB embeded DRAM. Zowel de CPU als GPU kunnen gebruik maken van dit eDRAM (50GB/s ). Het functioneert als een soort van L4 cache. Dit komt vooral door de lage toegangstijden. Zelfs deze CPU's met 128MB L4 cache schieten er niet heel erg veel me op. Kijkende naar de kosten is het ronduit belachelijk. De GPU daarentegen kan op eens met een GT650M mee (128 bits GDDR5, 80.3 GB/s). Een Intel Iris Pro GPU heeft 128MB eDRAM met 50GB/s + 25,6 GB/s van dual channel DDR3 1600 geheugen.

Ze halen een zelfde score in 3DMark Fire Strike - Bron: Notebookcheck.

Waar het dus op neer komt is dat HBM in 2017 zeker nog niet goedkoop genoeg is om een DDR4 controller te besparen en CPU dus volledig afhankelijk te maken HBM. Een CPU schiet hier zoals hopelijk aangetoond niet zo heel erg veel mee op. Het GPU gedeelte in een APU daarentegen schreeuwt momenteel om meer bandbreedte. Kijk voor de lol eens naar de marginale prestatie verbeteringen van de GPU in AMD APUs: Llano, Trinity, Richland en Kaveri:

AMD APUs

Zoals je ziet zijn de grafische prestaties niet bepaald veel toegenomen van generatie op generatie. Logisch ook want Llano was DDR3-1866 en Kaveri kan officieel maximaal DDR3-2133.

[ Voor 34% gewijzigd door madmaxnl op 21-05-2015 17:01 ]


Acties:
  • 0 Henk 'm!

  • Brent
  • Registratie: September 2001
  • Laatst online: 19-09 10:55
madmaxnl schreef op donderdag 21 mei 2015 @ 16:26:
[...]


4GB GDDR5 gebruikt ongeveer 20 a 30 watt? Op eenzelfde doorvoersnelheid als GDDR5 verbruikt HBM ongeveer 1/3 van wat GDDR5 verbruikt. Met HBM1 kunnen ze per stack 1GB onderbrengen met een maximum van 4 stacks per pakketje. Een pakketje kan dus tussen de 1-4GB bevatten. Vervolgens kunnen ze meerdere van deze pakketjes onderbrengen op één interposer.
Dank voor je cijfers.
Een CPU kan niet zo heel erg veel met al die geheugenbandbreedte:

productreview: Corsair Vengeance CML16GX3M4X1600C8 review door TERW_DAN
Dat hangt natuurlijk helemaal van de toepassing af. Er zijn zat niches waarin bandbreedte alles is, en in die niches zijn zat klanten met centen. Sparc en IBM Power leven nog, en wel precies hier om. Bovendien is, als prijs en warmte het probleem niet meer zijn, het natuurlijk kostenbesparend alles dicht bij elkaar te plakken. Maar, die warmte is dus nog wel een puntje, en over prijzen is mij nog niets bekend.

Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja ik had het hier dan ook specifiek over de consumenten versie van dergelijke, wellicht toekomstige, APU's. Hierbij is vooral de meer prijs en voor de CPU overkill de reden waarom ze zoiets dus niet zoude doen. Voor de zakelijke klanten kunnen ze prima vier HBM2 pakketjes op één interposer kunnen plaatsen. Dan zou je dus 32GB HBM2 geheugen hebben. Dat kan nuttig zijn voor FirePro APUs en Opteron APUs.

[ Voor 4% gewijzigd door madmaxnl op 21-05-2015 17:12 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Bij CPU's is het zo dat geheugenbandbreedte het tegenwoordig wint t.o.v latencies. Vroeger had je met DDR1 en CAS latencies een wereld van verschil als je bijv van Cas 2 naar Cas 1 zou gaan. Maar dat is de laatste jaren veranderd, waar bandbreedte (Dus bijv 1333MHz vs 1600MHz enz) het wint van strakkere timings.

Vroegere S939 CPU's profiteerde extreem hard van DDR2 geheugen met 3/3/3/9 latencies, maar dat soort chips waren vrij hard te vinden terug in die tijd. Ik heb zo'n setje gehad, en of het rockethard ging :o

Zet je HBM geheugen op een CPU dat gebruikt kan worden als gewoon geheugen, dan heb je een killer in huis. Extern geheugen zou zelfs bij extreme cpu's overbodig kunnen worden (SOC bijv) maar je zit als downside wel altijd vast aan limited waardes, en kunt zoiets ook niet upgraden verder.

HBM zou zich moeten richten op GPU's en APU's alleen. Laat high-end CPU's met rust.. Ik wil in de toekomst zelf mijn set kunnen samenstellen met moederbord, CPU, geheugen enz enz... :+

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Zelfs voor CPU's kan het leuk zijn als L3 of L4 cache, maar ik weet niet hoe de toegangstijden zich verhouden tot L3 cache on die. HBM2 kunnen ze ook on die kunnen aanbrengen, maar 2GB als cache is misschien wat te veel van het goede. Terwijl voor die 2GB cache ze wel een HBM geheugen controller moeten inbouwen.

Acties:
  • 0 Henk 'm!

  • Brent
  • Registratie: September 2001
  • Laatst online: 19-09 10:55
De vraag is helemaal, wat kost het en wat zijn de nadelen (warmte?). Je bespaart op printplaat, connectoren, ingewikkelder ontwerp van mobo, en bovendien, ruimte. Bij gelijk chip-prijs, is het dus automatisch al interessanter dan DDR3. Maak een 4GB en een 8GB model, en boem, een prachtige oplossing die makkelijk te integreren is in laptops, compacte desktops, etc.

Gratis een gigantische bandbreedte erbij.

[ Voor 5% gewijzigd door Brent op 21-05-2015 17:38 ]

Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op donderdag 21 mei 2015 @ 16:26:
Een hele APU vol duwen met HBM omdat je je CPU en GPU er beide gebruik van wil laten maken zonder dat ze te kort komen is gewoon niet zinnig.
Maar ze komen aanzienlijk te kort. Een 8CU Kaveri presteert ongeveer gelijk met een 512 HD7750, wanneer deze met DDR3 is uitgerust. Een HD7750 met gDDR5 rent daar lachend rondjes om heen.
Kijk anders een naar de CPU's met Intel Iris Pro GPU en dus 128MB embeded DRAM. Zowel de CPU als GPU kunnen gebruik maken van dit eDRAM (50GB/s ). Het functioneert als een soort van L4 cache. Dit komt vooral door de lage toegangstijden. Zelfs deze CPU's met 128MB L4 cache schieten er niet heel erg veel me op. Kijkende naar de kosten is het ronduit belachelijk. De GPU daarentegen kan op eens met een GT650M mee (128 bits GDDR5, 80.3 GB/s). Een Intel Iris Pro GPU heeft 128MB eDRAM met 50GB/s + 25,6 GB/s van dual channel DDR3 1600 geheugen.

Ze halen een zelfde score in 3DMark Fire Strike - Bron: Notebookcheck.
Iris Pro is een slecht voorbeeld. Als je bedenkt dat de Iris Pro op 22nm een groter oppervlak heeft dan de GPU van Kaveri op 28nm en dat, ondanks dat Kaveri dus zwaar gebottlenecked wordt door gebrek aan geheugenbandbreedte, Kaveri nog altijd aanzienlijk beter presteert, ondanks dat Iris Pro ook nog eens een extra chip van ~80mm2 nodig heeft voor zijn prestaties, zul je dat ook moeten in zien. (een 650m heeft zelfs maar 384 SPU's en zal met gDDR5 zeker geen geheugen bottleneck hebben)
Waar het dus op neer komt is dat HBM in 2017 zeker nog niet goedkoop genoeg is om een DDR4 controller te besparen en CPU dus volledig afhankelijk te maken HBM. Een CPU schiet hier zoals hopelijk aangetoond niet zo heel erg veel mee op. Het GPU gedeelte in een APU daarentegen schreeuwt momenteel om meer bandbreedte. Kijk voor de lol eens naar de marginale prestatie verbeteringen van de GPU in AMD APUs: Llano, Trinity, Richland en Kaveri:

[afbeelding]

Zoals je ziet zijn de grafische prestaties niet bepaald veel toegenomen van generatie op generatie. Logisch ook want Llano was DDR3-1866 en Kaveri kan officieel maximaal DDR3-2133.
Maar dat is het hem dus. Bij een APU kijk je niet alleen naar de CPU. De bandbreedte die je creeert, creeer je niet alleen voor de CPU, maar voor de hele chip, dus ook de GPU. Dan zullen 4 stacks HBM nog steeds overkil zijn voor een 2048SPU GPU, maar het probleem is op dit moment dat je heel erg gebonden bent aan het aantal chip voor een bepaalde hoeveelheid RAM.

Kijkende naar SemiAccurate's artikel over HBM lijken zaken als memory controller aanzienlijk kleiner te zijn voor een 4096-bit (4 stacks) bus, vergeleken met een gDDR5 controller die in de buurt moet komen qua bandbreedte. De kostprijs zal vooralsnog een beetje koffiedik kijken zijn. Bij het SemiAccurate artikel wordt een duidelijk verhaal uit de doeken gedaan aangaande de kosten verhogende en kosten verlagende zaken, waarmee HBM op dit moment al amper duurder lijkt te zijn dan een 'gelijkwaardige' gDDR5 oplossing. Over 2 jaar zou de prijs nog een aanzienlijk stukje lager moeten kunnen liggen. Of het genoeg is om DDR4 te negeren voor een APU, weet ik niet, maar DDR4 is vooral meer van het oude en langzaam oplopende verbeteringen, waar HBM vooral het gDDR5 van de HD4870 lijkt te zijn.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als het klopt dan wordt volgend jaar in ieder geval voor GPU's de volgende versie van HBM gelaunched.
2.5D vs 3D. Interposer is dan niet nodig en geheugen zit bovenop GPU.

http://cdn2.wccftech.com/...high-bandwidth-memory.jpg

Hier plaatje icm CPU
http://cdn2.wccftech.com/...08/AMD-3D-Integration.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/595/546/8.jpg

HBM is belangrijk voor GPU's maar volgensmij is de belangrijkste reden voor AMD dat het hun APU's vooruit kan helpen.

[ Voor 33% gewijzigd door Help!!!! op 21-05-2015 21:37 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Is het niet zo dat gestapeld 3D hbm geheugen nog wel eens problemen kan krijgen met o.a koeling?

Als je die chips zo ziet dan lijkt het mij dat de CPU een bepaalde waarde nooit mag overschrijden, anders frituur je letterlijk je HBM chips.

Een cpu kan volgens mij een stuk meer hebben qua belasting dan een geheugenchip.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat laatste weet ik nog niet zo zeker. Soms is GDDR geheugen op een PCB niet gekoeld? Het klopt wel dat de koeling moeilijker wordt omdat er meer warmte per vierkante milliemeter gedispenseerd moet worden.

[ Voor 41% gewijzigd door madmaxnl op 21-05-2015 22:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geleiding moet er tussen zitten tussen CPU en HBM, anders heb je een probleempje ben ik bang. Mischien dat de eerste generatie HBM juist een aqedate koeling nodig heeft zoals je ziet bij de 390X met een custom waterkoeling. Mogelijk omdat de max limit van de chip(s) gewoon niet zo hoog meer mag zijn.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 19:23
Godavari komt eraan. (Nog geen officiële release)
http://www.cpu-world.com/...APU_is_available_now.html

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:56
madmaxnl schreef op donderdag 21 mei 2015 @ 22:23:
Dat laatste weet ik nog niet zo zeker. Soms is GDDR geheugen op een PCB niet gekoeld? Het klopt wel dat de koeling moeilijker wordt omdat er meer warmte per vierkante milliemeter gedispenseerd moet worden.
Maar het verbruik van hbm schijnt ook veel lager te zijn.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 20-09 12:08
AMD clarifies cross-license with Intel: change of control terminates agreement for both:

Advanced Micro Devices has clarified terms of the cross-license agreement with Intel Corp. on Thursday. As it appears, if either AMD or Intel change their control (i.e., gets acquired), the cross-license agreement between the two companies is automatically terminated for both parties.

AMD and Intel have a cross-licensing agreement, which guarantees that the companies will not pursue litigation for any potential patent infringements. The agreement covers entire patent portfolio for both companies, which includes general-purpose processors, graphics adapters and other intellectual property. For example, AMD can design and sell microprocessors compatible with Intel’s x86 instruction set architecture and featuring a variety of extensions, whereas Intel can develop and ship central processing units that utilize IP and extensions initially created by AMD . The cross-licensing agreement has a number of terms and limitations. For example, the chip designers are not allowed to build processors that are compatible with competitor’s infrastructure (e.g., sockets, mainboards, etc.). Besides, if AMD and Intel change their ownership , the agreement terminated.

Under the terms of the agreement between the x86 chip developers, if the two companies merge with other companies on certain terms, enter into certain kind of joint-venture agreements that effectively change their ownership or get acquired, the cross-licensing agreement is terminated. On Wednesday, it was reported that the agreement is terminated only for the party that changes its control. However, according to Drew Prairie, director of corporate communications at AMD, once ownership of either AMD or Intel changes, the whole agreement is terminated for both parties. As a result, after a transaction happens, the companies need to negotiate a new cross-licensing agreement.

Actually, the agreement is pretty clear – if there is a change of control for either company the agreement is terminated,” said Mr. Prairie. “That does not mean a new agreement could not be reached, but in a change of control the agreement is terminated.”

Many analysts believe that multiple companies and strategic investors hold off from acquiring AMD because without a cross-license agreement with Intel, the company can be sued by Intel for patent infringement, which could ultimately result in inability to sell x86-compatible processors . Moreover, without the cross-license agreement, AMD can sue Intel for patent infringement too. If AMD gets acquired and the agreement is terminated, Intel will have to either find a way to not use AMD’s IP (which is a rather hard thing to do) or ink a new deal.

The only scenario under which the cross-license agreement is terminated for only one party is upon a breach of contract.

All-in-all, while possible complications with cross-license agreement between AMD and Intel might be a problem for potential AMD investors, Intel is not immune from similar complications.

http://www.kitguru.net/co...ur-merger-or-acquisition/

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 19:23
Mijn post is inderdaad wat verloren gegaan tussen de discussies :'(
[EDIT]
http://www.kitguru.net/co...nates-agreement-for-both/

Als AMD zou worden overgenomen, eindigt de overeenkomst tussen Intel en AMD voor beide kampen. Oftewel, Intel mag dan bijvoorbeeld de x86-64 technologie niet meer gebruiken. Dit gebeurt hoogstwaarschijnlijk niet, want er zou vast een nieuwe overeenkomst worden gemaakt.

[ Voor 24% gewijzigd door LongBowNL op 23-05-2015 11:16 . Reden: Extra artikel ]


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
LongBowNL schreef op vrijdag 22 mei 2015 @ 21:02:
Als AMD zou worden overgenomen, eindigt de overeenkomst tussen Intel en AMD voor beide kampen. Oftewel, Intel mag dan bijvoorbeeld de x86-64 technologie niet meer gebruiken. Dit gebeurt hoogstwaarschijnlijk niet, want er zou vast een nieuwe overeenkomst worden gemaakt.
We hadden het er al over in het andere AMD draadje. XanderDrake in "CJ's Radeon Info & Nieuwsdiscussie - Deel 129" & enchion in "CJ's Radeon Info & Nieuwsdiscussie - Deel 129"
(van mij mogen de 2 draadjes wel eens een keer gewoon samengevoegd worden, met CJ in de naam als daar nog behoefte aan is)

Zowiezo moet Intel wel een deal maken als AMD wordt overgenomen, anders worden ze nl impliciet een monopolie.

Tenzij Intel zichzelf bewust/expres gaat opsplitsen in twee bedrijven natuurlijk, bv Intel-bv en Atom-bv (dummy bv dus) om er onder uit te komen.

Anyway een overname zal niet zo snel en zonder slag of stoot gebeuren, het zal in ieder geval logisch zijn dat Intel dat zo stroef als mogelijk wil laten verlopen.

[ Voor 3% gewijzigd door enchion op 23-05-2015 20:54 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 20-09 12:08
Samsung toont 10nm-FinFET-wafer en start massaproductie eind 2016

Samsung heeft op een evenement in San Francisco de eerste 10nm-FinFET-wafer getoond. Een topman van de halfgeleiderdivisie vertelde daar met trots dat zijn bedrijf de concurrentie terug had gebracht in de markt en stevig zal doorstomen, met massaproductie op het 10nm-procedé in de planning voor eind 2016.

Verder werd bekendgemaakt dat het 14LPP-proces, waarbij LPP staat voor low-power plus, 14% zuiniger zal zijn of 14% meer prestaties zal bieden bij een gelijk stroomverbruik dan het 14LPE-productieprocedé, Samsungs eerste generatie FinFET. 14LPE wordt bijvoorbeeld gebruikt voor de Exynos-SoC in de Galaxy S6, terwijl het 14LPP-proces waarschijnlijk aan de basis zal staan van onder andere AMD's Zen-processors en zijn 2016-generatie videokaarten. Een maand geleden werd de eerste tape-out van een high-performance chip op dat proces gemeld.

Concurrent TSMC gaat de komende tijd 14 miljard euro investeren in 10nm-productiefaciliteiten, waarbij waarschijnlijk ook de overstap naar 450mm-wafers wordt gemaakt. Hoewel de Taiwanezen nu achterlopen door het missen van de 14/16nm-boot, kunnen dergelijke gloednieuwe, vanaf de grond opgebouwde fabrieken over een aantal jaar weer een voordeel worden voor TSMC.


http://nl.hardware.info/n...-massaproductie-eind-2016

Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

450mm eind 2016 is erg optimistisch.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 18-09 16:26

Kuusj

Ofwel varken in 't Limburgs

Nou, das toch weer erg mooi, of niet dan?
14% minder stroom, das toch even een verschil.

Maar, ze beginnen dus met 10nm-FinFET over zeg ruim 1,5 jaar, wat betekend dat AMD eerst gebruik kan maken van het (verbeterde) 14nm proces eind dit jaar of begin volgend jaar en dan meteen kan beginnen aan een nieuwe generatie op 10nm. Als Zen echt 40% "sneller" is als FX zouden we toch misschien wel iets boven Intel zitten, zeker aangezien we bij Intel een krappe 5% per jaar sneller worden en dit kan grotendeels verklaard worden door hogere stock clocks.

Laten we het hopen, het is voor AMD in ieder geval een gouden kans om weer high end CPU's te maken die er ook echt toe doen.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

Verwijderd

LongBowNL schreef op vrijdag 22 mei 2015 @ 21:02:
[...]
Mijn post is inderdaad wat verloren gegaan tussen de discussies :'(
[...]
[EDIT]
http://www.kitguru.net/co...nates-agreement-for-both/

Als AMD zou worden overgenomen, eindigt de overeenkomst tussen Intel en AMD voor beide kampen. Oftewel, Intel mag dan bijvoorbeeld de x86-64 technologie niet meer gebruiken. Dit gebeurt hoogstwaarschijnlijk niet, want er zou vast een nieuwe overeenkomst worden gemaakt.
Daar zit hem vnl de crux bij een evt overname van AMD.

Wanneer AMD zou worden overgenomen door bv Samsung dan moeten Samsung en AMD dus aankloppen bij Intel voor nieuwe afspraken. N.B. dit is altijd een zwakke onderhandelingspositie.
Dit alles ondanks dat AMD en Intel afhankelijk van elkaar zijn vanwege gebruikte technieken en patenten.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
witeken schreef op zaterdag 23 mei 2015 @ 22:43:
450mm eind 2016 is erg optimistisch.
Nergens staat dat 450mm voor eind 2016 is. Wat er wel staat dat door 450mm, TSMC over een aantal jaar wel competitief kan zijn. Een aantal jaar vanaf nu is op zijn vroegst ergens mid 2017, maar doorgaans wordt een dergelijke term gebruikt voor meer dan 2 jaar, waarmee je moet denken 2018-2019 (voor massaproductie).

Maar goed, Ik denk niet dat AMD eind 2016 direct naar 10nm over stapt, tenzij de kosten verbonden aan dat process niet absurd hoog zijn.
Pagina: 1 ... 41 ... 55 Laatste

Dit topic is gesloten.