[Algemeen] AMD Nieuwsdiscussietopic - deel 34 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 21 ... 55 Laatste
Acties:
  • 342.323 views

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Vengeful schreef op donderdag 15 augustus 2013 @ 07:31:
Laatste artikeltje wat ik er over gelezen heb is dat Intel zelf claimt dat de IPC 50% verbeterd is. Dat is al de helft minder. Aangezien ik Intel er niet voor aanzie om 50% te zeggen wanneer het meer richting 100% is, lijkt dat me onwaarschijnlijk. Bron: http://www.tomshardware.c...-architecture,3499-2.html
Sorry, hier heb ik inderdaad een slordigheidsfoutje gemaakt. De IPC is inderdaad 50%, maar door de 22nm-transistors kan de kloksnelheid omhoog zonder een groter verbruik wat een totaal voordeel van ~83% oplevert. Ik wist die 83% niet uit mijn hoofd dus ik heb afgerond naar 100%.
En Intel levert inderdaad degelijk werk af met z'n HD-reeks, maar ik ben er erg sceptisch over of ze een HD4000 erin gaan stoppen. Als je bijvoorbeeld ziet dat de Iris-pro reeks alleen voorkomt in CPU's die om en nabij de 400 dollar beginnen, lijkt het me niet vergezocht om te denken dat juist de GPU's een groot deel van de kosten van productie voor hun rekening nemen. Als ze de Atoms goedkoop willen houden, zullen ze dus de kosten moeten drukken. Zelfs in de wat oudere optimistische schattingen word er gesproken over 3x de huidige performance van Atom graphics met bay trail. Dat zou, als we even de grafiekjes van Anandtech bekijken, bijvoorbeeld neerkomen op een score van om en nabij de 8000 op 3DMark Graphics, tegenover de ruim 26000 van de A4-5000. Om op grafisch niveau dus beter te zijn dan AMD zouden ze de performance met 1400% moeten verhogen. Onmogelijk? Vast niet. Onwaarschijnlijk? Uitermate.

Edit: Hier nog een artikeltje van Anand waarin gemeld word dat Bay Trail 1/4e van de EU's van de HD4000 gaat krijgen. In het meest ideale scenario zal dat dus iets meer dan 50% van de performance van de a4-5000 hebben. http://www.anandtech.com/...ng-serious-about-mobile/6
Hier heb ik me blijkbaar ook een beetje vergist, aangezien het een afgeslankte versie van Intel HD graphics is. Hoe dan ook, volgens Anand kunnen de prestaties in de buurt van de iPad 4 liggen. Verder denk ik niet dat we hier accurate voorspellingen over kunnen doen aangezien we de kloksnelheden niet kennen.

De grafische performance van de iPad 4 ligt tevens wat hoger dan 8.000 punten.

Daarnaast heb ik denk ik ook niet gezegd dat ze er een HD 4000 zullen instoppen. Ik was me aan het afvragen waaruit een soc met Silvermont zou kunnen bestaan zodat die 15W zou verstoken en hoe dat tegen Kabini zou opgaan.

Je moet zeker niet vergeten dat Bay Trail rond de 4W zit, waar Kabini ~15W verbruikt. Dan moet je ook geen gelijke graphics-performance verwachten, zeker gezien AMD ook veel ervaring met gpu's heeft en die gpu waarschijnlijk een redelijk groot deel van die 15W in beslag neemt.
Edit 2: Waarom ik de graphics van Intel erbij haal? Omdat die belangrijk zijn voor een console. Ze moeten plaatjes op je scherm toveren. Intel kan dat niet leveren zoals AMD dat kan. 8 Jaguar cores op 1.6 ghz plus gpu in de buurt van de 7790 voor 30 watt voor de Xbox One? Dat lukt intel al niet met haar laptop chips. (Iris PRO procs zitten allemaal boven de 40 watt)
Vanwaar haal jij die 30W? De processor, die gebruikt naar verwachting 30W. De gpu zal bij de Ps4 eerder tegen de 100W verbruiken, en bij de Xbox ook ~70W (ruwe schatting!). Als je de review van Iris Pro leest zal je zien dat het verbruik van Iris net wordt aangeprezen.
Het lijkt erop dat je onderbouwing toch nog het meest gestoeld is op, relatief optimistische, speculatie.
Op een paar schoonheidsfoutjes blijft de kern van mijn standpunt nog steeds valide: Silvermont zal op elk vlak de snelste processor zijn, zowel voor smartphones als voor tablets. Zowel op verbruik, performance als op performance/watt. Zowel tegen AMD, Qualcomm als ARM. De gpu lijkt ook niet slecht te worden, maar ik denk dat het duidelijk is dat Silvermont vooral op de processor en het verbruik gericht was.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Astennu schreef op donderdag 15 augustus 2013 @ 09:51:
Het kan aan mij liggen maar. Je komt mij erg fanboy achtig over en heb dus moeite om je posts te geloven. AMD wordt zo erg afgekraakt zonder met bewijs te komen waarom dat dat zo is.
Als je alleen naar de desktopmarkt kijkt zie je al dat de performance/watt van AMD niet om over naar huis te schrijven is. De achterstand in productieproces maakt het nog erger. Om dan te denken dat AMD wel kan concurreren in een markt waar het verbruik van je socs nog belangrijker is, vind ik een beetje naïef. en alleen al daarom zou je kunnen voorspellen dat Intel superieur zal zijn tegenover Jaguar, maar dat doe ik niet

Met veel bewijs kan ik nog niet komen. Echter heb ik wel de verscheidene artikels van AnandTech gelezen over ARM vs. x86, Silvermont, enz. De grafiekjes die Intel toont spreken ook boekdelen

I know, die zijn waarschijnlijk niet de meest betrouwbare grafiekjes, maar zelfs als je dat meeneemt in je oordeel kom je nog steeds tot de conclusie dat dualcore Silvermont de quadcore ARM-concurrentie verslaat, bij hetzelfde verbruik.

Je hebt natuurlijk wel wat achtergrond voor nodig om dat de begrijpen. Intels x86 mobiele processor is op dit moment (Saltwell) al ongeveer even zuinig en heeft een gelijkwaardige performance/watt als de competitie (A9, Krait, A15).
Met de verbeteringen die Silvermont brengt in het achterhoofd worden de grafiekjes dus al een hoop geloofwaardiger.
Ik snap best dat je enthousiast bent voor intel CPU's dat zijn wij bij AMD CPU's. En ik wil ook graag met je discussiëren maar dan wel graag met wat feiten er bij.
Uiteraard, ik ook.
Ik denk ook wel dat Silvermont sneller gaat worden. Zou niet goed zijn als het niet zo is... Jaguar is immers al uit Silvermont moet nog komen.
Over de performance van Silvermont weten we nog niets.
We weten de architecturale verbeteringen, de verbeteringen van het productieproces en we hebben grafiekjes van Intel gekregen. Natuurlijk kan je daar geen definitieve conclusie uit trekken, maar de potentie is er.
De architectuur van Silvermont is mooi. Maar dat was die van Hasswell ook. En die viel qua performance echt tegen. Ik had veel meer verwacht gezien de veranderingen. Dus eerst maar eens zien wat hij doet en dan kun je pas gaan vergelijken met wat AMD heeft. Daarnaast komt AMD volgend jaar wellicht ook met een update van Jaguar waarbij de turbo verbeterd gaat worden en wellicht de clocks ook iets. Dat zo iets er aan zit te komen is bekend. Het is alleen de vraag of dat nog op 28nm gaat gebeuren of dat dat pas bij 20nm zal zijn.
Ik verwacht hier geen wonderen qua performance aanzien het alleen om hogere clocks gaat. Maar 10% moet wel haalbaar zijn.
Haswell :D. Ja, als je enkel de review van de i7 4770 leest, en de performance-scores vergelijkt met de i7 3770, zal je tot de conclusie komen dat Haswell er niet zoveel in kracht op vooruit gegaan is. Ja, dat is inderdaad spijtig, maar de pure kracht verbeteren was niet het doel van Intel.

Haswell stond in het teken van de batterijduur. Als ik er de review van de Macbook Air 2013 van AnandTech bijhaal, en naar de pagina over de accuduur blader, zie je de titel:

The 2013 MacBook Air Review (13-inch) -- Absolutely Insane Battery Life.

Intel heeft zich met Haswell puur op de accuduur gericht. De prestaties van deze mobiele processors zijn zelfs een klein beetje gedaald. Maar wat krijg je ervoor in de plaats? Een accuduur die tot 65% langer is dan de Macbook Air van 2012, zelfs als je de verhoogde accucapaciteit van het 2013-model niet meetelt.

Maar inderdaad, Haswell valt zwaar tegen :(.


Dat elk bedrijf elk jaar met nieuwe producten komt is geen nieuws meer. Silvermont krijgt een die shrink naar 14nm, en, voor AMD waarschijnlijk nog slechter, hoogstwaarschijnlijk ook de nieuwe gpu-architectuur die je in Broadwell zal vinden.
En ik wil de stelling van Anandtech er even bij halen die hier toepasselijk is: Er zijn geen slechte producten. Wel slecht geprijsde producten.
De prijs zal voor fabrikanten zeker meespelen, maar het is niet de enige factor die meespeelt in de keuze van een processor/soc bij het maken van een product.
Elk product kan goed zijn mits de prijs goed is voor het geen wat je krijgt. AMD en Intel maken beide mooie CPU's. Als ik naar de desktops kijk zijn Intel cpu's veel sneller maar je betaalt er wel veel meer voor. Heb je weinig nodig en wil je minder besteden is een AMD APU een prima alternatief.
Voor ons tweakers is dat natuurlijk anders. Wij zijn "power users" en willen dus graag extra betalen voor wat meer. Ik heb zelf sinds een aantal jaar ook Intel cpu's om deze rede.
Als je weinig nodig hebt kan je ook prima een Intel-processor voor 40 euro kopen. Er zijn ook mensen (mux bijv.) die graag een zuinige processor hebben.

Om een keuze te maken stel je zoals bij elk product je eisen op en je zoekt het product dat daar het beste bijpast.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Astennu schreef op donderdag 15 augustus 2013 @ 10:41:
Ja dat vraag ik me ook af. Maar ik dacht dat Intel aan gaf dat de IPC 50% omhoog ging tov ATOM en dan heb je toch goede performance. Maar het kan ook zijn dat ik dat verkeerd begrepen heb en dat het 50% sneller was dus clocks mee gerekend zijn. En dan kan het tegen vallen.
Zoals ik hierboven al heb uitgelegd moest het dus 50% verbetering in IPC zijn + nog het voordeel van de 3D-transistors.
Haswell vind ik wel tegen vallen. Maar ik kijk dan vooral naar de desktops. 4770K verbruikt meer dan de voorganger is wel iets sneller (5-15% meestal rond de 6-9%). Maar als je ziet wat ze allemaal aangepast hebben had ik eerder iets verwacht zoals bij Nehalem naar Sandy Bridge. Maar dat viel vies tegen. Het is meer een Tick ipv een Tock. Qua GPU is het wel een Tock. maar CPU gedeelte niet.
Qua GPU is het helemaal geen tock :D. HD4xxx is gewoon een HD4000 met meer EU's (van 16 naar 20) en wat andere kloksnelheden. De prestaties zijn inderdaad weer redelijk wat verbeterd zodat je zou denken dat het een tock is, maar de tock komt pas volgend jaar met Broadwell.

Waarschijnlijk zal Intel het weer een Tick+ noemen. In feite krijg je dus een betere architectuur van de igp tijdens de tick in plaats van de tock.
Qua idle power is het wel beter geworden maar load zeker niet. En wat betreft notebooks. Het kan zijn dat hij daar beter werkt. Maar als ik de 4700QM zie die heeft ook meer dan 35watt TDP. Dus load zal ook meer verbruiken dan Ivy Bridge maar daar win je het vooral op idle verbruik? En situaties waar je de cpu niet 100% belast? Maar hier heb ik me niet echt goed in verdiept.
Volgens mij is het ook qua verbruik onder load wat vooruit gegaan. Maar dat hangt af van het feit of je van de architecturale verbeteringen gebruikmaakt, of terugklokt voor een lager verbruik bij dezelfde perfomance.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
witeken schreef op donderdag 15 augustus 2013 @ 11:21:
[...]

Je moet zeker niet vergeten dat Bay Trail rond de 4W zit, waar Kabini ~15W verbruikt. Dan moet je ook geen gelijke graphics-performance verwachten, zeker gezien AMD ook veel ervaring met gpu's heeft en die gpu waarschijnlijk een redelijk groot deel van die 15W in beslag neemt.
Zit er in Bay Trail ook een complete South Bridge? Of PCH (volgens mij noemt intel het tegenwoordig zo)
Want die moet je er ook bij op tellen als die er niet bij zit. AMD heeft dit namelijk allemaal ingebouwd zitten in Kabini. Bij Brazos was dat niet het geval.
witeken schreef op donderdag 15 augustus 2013 @ 12:08:
[...]

Als je alleen naar de desktopmarkt kijkt zie je al dat de performance/watt van AMD niet om over naar huis te schrijven is. De achterstand in productieproces maakt het nog erger. Om dan te denken dat AMD wel kan concurreren in een markt waar het verbruik van je socs nog belangrijker is, vind ik een beetje naïef. en alleen al daarom zou je kunnen voorspellen dat Intel superieur zal zijn tegenover Jaguar, maar dat doe ik niet

Met veel bewijs kan ik nog niet komen. Echter heb ik wel de verscheidene artikels van AnandTech gelezen over ARM vs. x86, Silvermont, enz. De grafiekjes die Intel toont spreken ook boekdelen

I know, die zijn waarschijnlijk niet de meest betrouwbare grafiekjes, maar zelfs als je dat meeneemt in je oordeel kom je nog steeds tot de conclusie dat dualcore Silvermont de quadcore ARM-concurrentie verslaat, bij hetzelfde verbruik.

Je hebt natuurlijk wel wat achtergrond voor nodig om dat de begrijpen. Intels x86 mobiele processor is op dit moment (Saltwell) al ongeveer even zuinig en heeft een gelijkwaardige performance/watt als de competitie (A9, Krait, A15).
Met de verbeteringen die Silvermont brengt in het achterhoofd worden de grafiekjes dus al een hoop geloofwaardiger.
Sorry maar daar ga je al weer. Je gaat Bulldozer of zelfs de oude K8 architectuur over een kam scheren met Jaguar wat van de grond af aan ontworpen is om juist goede performance per watt te hebben.
Omdat AMD's bulldozer architectuur geen performance per watt heeft hoef dat niet te betekenen dat Jaguar slechte performance per watt heeft. En ook niet te betekenen dat Intel meteen superieur is met een CPU die nog niet uit is.

Het is heel aannemelijk gezien de ambities van Intel dat deze zuiniger is dan de huidige ATOM en ook sneller is. Maar met jou reactie bevestig je mijn standpunt alleen maar. Zonder goed bewijs dingen beweren die simpelweg niet waar zijn.

En Intel die mooie grafiekjes laat zien.... ooit gehoord van Wij van WC eend?
Eerst zien dan geloven. Veel bedrijven waaronder AMD,ATi, nVidia en ook Intel hebben een marketing afdeling die nog al eens iets wat mooier wil laten lijken dan het is.
We weten de architecturale verbeteringen, de verbeteringen van het productieproces en we hebben grafiekjes van Intel gekregen. Natuurlijk kan je daar geen definitieve conclusie uit trekken, maar de potentie is er.
Dat was met Haswell inderdaad ook. En dat viel relatief tegen in praktijk. Dit zijn grote claims. 87% performance is niet niets. Zeker vandaag de dag. Vroeg kon je makkelijker 40% vooruit gaan maar de afgelopen jaren moet je blij zijn met 5%-20%.
Haswell :D. Ja, als je enkel de review van de i7 4770 leest, en de performance-scores vergelijkt met de i7 3770, zal je tot de conclusie komen dat Haswell er niet zoveel in kracht op vooruit gegaan is. Ja, dat is inderdaad spijtig, maar de pure kracht verbeteren was niet het doel van Intel.
Dit is in mijn ogen pressies waar het om gaat. De beste Haswell vs IB op gelijke clocks. De architectuur van Haswell zou veel beter zijn. Dit valt dus wel mee. Is vergelijkbaar met de stap van SB naar IB en dat was maar een Tick. Dus ik had meer verwacht. En dat mag ook het is immers een Tock.

En een review. Alle reviews zijn unaniem. Je ziet overal hetzelfde beeld. Haswell is qua CPU amper sneller. En max load verbruikt hij meer. Idle is hij wel zuiniger.
Haswell stond in het teken van de batterijduur. Als ik er de review van de Macbook Air 2013 van AnandTech bijhaal, en naar de pagina over de accuduur blader, zie je de titel:

The 2013 MacBook Air Review (13-inch) -- Absolutely Insane Battery Life.

Intel heeft zich met Haswell puur op de accuduur gericht. De prestaties van deze mobiele processors zijn zelfs een klein beetje gedaald. Maar wat krijg je ervoor in de plaats? Een accuduur die tot 65% langer is dan de Macbook Air van 2012, zelfs als je de verhoogde accucapaciteit van het 2013-model niet meetelt.

Maar inderdaad, Haswell valt zwaar tegen :(.
Idle werkt het goed ja. Maar load performance valt me zwaar tegen. Het is zeker een verbetering. Maar lang niet zo geweldig als intel je wil laten geloven. Als je een SB of IB laptop hebt zou ik echt niet gaan upgraden.
En die Macbooks vergelijken is appels met peren vergelijken. Alle hardware in die dingen is verandert. En er zijn veel componenten die veel stroom verbruiken. Alleen het scherm kan al voor een grote verlaging van het verbruik zorgen.

Een deel zal vast door de CPU komen maar lang niet alles. Je moet gelijke hardware testen. Moederbord en cpu moeten wel verschillen. Maar scherm geheugen SSD enz moeten dan wel identiek zijn. Anders is het niet eerlijk. En ik denk dat de verschillen dan wel kleiner zijn. En je idle / lage load zuiniger bent maar met hoge belasting wel meer verbruikt.
Dat elk bedrijf elk jaar met nieuwe producten komt is geen nieuws meer. Silvermont krijgt een die shrink naar 14nm, en, voor AMD waarschijnlijk nog slechter, hoogstwaarschijnlijk ook de nieuwe gpu-architectuur die je in Broadwell zal vinden.
Ik vraag me af of intel volgend jaar al 14nm LP heeft. Ze gaan eerst de opvolger van Haswell op 14nm maken. Maar dat is dan "high Performance". Intel stapt ook nu pas over naar 22nm LP voor Silvermonth. IB en HW maken gebruik van 22nm HP
De prijs zal voor fabrikanten zeker meespelen, maar het is niet de enige factor die meespeelt in de keuze van een processor/soc bij het maken van een product.

[...]

Als je weinig nodig hebt kan je ook prima een Intel-processor voor 40 euro kopen. Er zijn ook mensen (mux bijv.) die graag een zuinige processor hebben.

Om een keuze te maken stel je zoals bij elk product je eisen op en je zoekt het product dat daar het beste bijpast.
Klopt dat kan zeker. Maar de mensen die ik ken willen een beetje een all rounder. En dan heb je voordeel bij de APU van AMD als je toch een spelletje wilt kunnen spelen.

Maar volgens mij zie je helemaal niet wat ik allemaal schrijf over er is geen slecht product alleen een slechte prijs. Ik hoor alleen maar Intel dit Intel dat. AMD slecht Intel beter. Ik kan je op die manier gewoon niet serieus nemen. Je hoort mij helemaal niet zeggen dat AMD altijd beter is. In tegen deel. Maar jij claimt dat Intel met alles beter is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
witeken schreef op donderdag 15 augustus 2013 @ 12:20:

Qua GPU is het helemaal geen tock :D. HD4xxx is gewoon een HD4000 met meer EU's (van 16 naar 20) en wat andere kloksnelheden. De prestaties zijn inderdaad weer redelijk wat verbeterd zodat je zou denken dat het een tock is, maar de tock komt pas volgend jaar met Broadwell.

Waarschijnlijk zal Intel het weer een Tick+ noemen. In feite krijg je dus een betere architectuur van de igp tijdens de tick in plaats van de tock.
Ik bedoelde ook qua performance. Niet qua architectuur. Intel Beloofde met een Tock grote verbeteringen. Sorry maar 5-10% vind ik geen grote verbeteringen. Dat vind ik een Tick. De GPU gaat daar wel dik over heen.
Volgens mij is het ook qua verbruik onder load wat vooruit gegaan. Maar dat hangt af van het feit of je van de architecturale verbeteringen gebruikmaakt, of terugklokt voor een lager verbruik bij dezelfde perfomance.
Kom dan met bewijs ipv dingen lopen roepen!

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7003/55329.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7003/55330.png

Zoals ik al zij.... Idle zuiniger ja. Load 12% hoger verbruik dan een 3770K.

En om te bewijzen dat het niet een review is:

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/core-i7-4770k/power-1.png

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/core-i7-4770k/power-2.png

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/core-i7-4770k/power-3.png

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/core-i7-4770k/power-4.png


En qua performance is het ongeveer dit beeld:

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/core-i7-4770k/metro.png

Dus wel iets van 6% sneller maar verbruikt ook meer. De stap van SB naar IB bracht vergelijkbare performance en wel een lager verbruik.

[ Voor 19% gewijzigd door Astennu op 15-08-2013 13:57 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Vengeful
  • Registratie: Maart 2010
  • Laatst online: 04-04-2024
Dat is dus ook mijn hele probleem met de benadering die hier gebruikt word. "Intel heeft wat slides, dus het is prachtig." "Intel zegt dat blabla, dus hij is wel 83% sneller." Geen kanttekeningen, niks.

Newsflash, marketing! Als AMD met bulldozer had waargemaakt wat ze geclaimd hadden, zaten ze hier nu ook niet. Bulldozer had namelijk een betere IPC en een hogere kloksnelheid moeten halen. Beiden niet gelukt.

In sommige situaties zal Silvermont inderdaad wel 50% sneller zijn, tegen precies hetzelfde verbruik als de huidige Atomprocs. Of hij zal 20% sneller zijn tegen een stuk lager gebruik. 83% sneller en ook nog zuiniger? Dat kun je gewoon op je buik schrijven, dat gaat namelijk niet gebeuren.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Bulldozer heeft in specifieke gevallen die 50% ook wel gehaald. Mja daar hebben wij niets aan dat dat het meeste van de tijd niet zo is.

Het is wel zo dat Silvermonth OoO is. Dus hij zal wel een stuk sneller gaan worden dan de huidige ATOM. Systemen met Silvermonth gaan in ieder geval soepeler aanvoelen. Iets wat je al zag bij Brazos vs ATOM. Volgens benshes was ATOM sneller. Maar een Brazos systeem liep wel soepeler.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Astennu schreef op donderdag 15 augustus 2013 @ 13:45:
Zit er in Bay Trail ook een complete South Bridge? Of PCH (volgens mij noemt intel het tegenwoordig zo)
Want die moet je er ook bij op tellen als die er niet bij zit. AMD heeft dit namelijk allemaal ingebouwd zitten in Kabini. Bij Brazos was dat niet het geval.
Atom is al enkele jaren een soc. Zelfs de Haswell U en Y-processors gaan die richting in.
Sorry maar daar ga je al weer. Je gaat Bulldozer of zelfs de oude K8 architectuur over een kam scheren met Jaguar wat van de grond af aan ontworpen is om juist goede performance per watt te hebben.
Omdat AMD's bulldozer architectuur geen performance per watt heeft hoef dat niet te betekenen dat Jaguar slechte performance per watt heeft. En ook niet te betekenen dat Intel meteen superieur is met een CPU die nog niet uit is.
Heb je wel gelezen wat ik heb gezegd? Ik heb nergens geclaimd dat Kabini onzuinig is omdat de Bulldozer-processors een slechte performance/watt hebben. Integendeel.

Maar het is niet onlogisch dat een bedrijf dat veel achterloopt op performance/watt, ook achterloopt op een ander platform. AMD heeft ook niet het budget dat Intel heeft.

Ik vraag me trouwens af hoe een 4 of 8W-Jaguar het doet tegen een ARM-soc met A15-cores o.i.d.
Het is heel aannemelijk gezien de ambities van Intel dat deze zuiniger is dan de huidige ATOM en ook sneller is. Maar met jou reactie bevestig je mijn standpunt alleen maar. Zonder goed bewijs dingen beweren die simpelweg niet waar zijn.
Wat is er onwaar?
En Intel die mooie grafiekjes laat zien.... ooit gehoord van Wij van WC eend?
Eerst zien dan geloven. Veel bedrijven waaronder AMD,ATi, nVidia en ook Intel hebben een marketing afdeling die nog al eens iets wat mooier wil laten lijken dan het is.
Die alinea heb je blijkbaar ook niet goed gelezen. Ik zeg letterlijk dat deze grafiekjes niet de meest betrouwbare zijn, en leg dan uit waarom ze wel aannemelijk zijn. Daarnaast gaat Intel ook niet liegen. Ze hebben die benchmarks echt gedraaid. Wat ze met de cpu's gedaan hebben, weten we echter niet.
Dit is in mijn ogen pressies waar het om gaat. De beste Haswell vs IB op gelijke clocks. De architectuur van Haswell zou veel beter zijn. Dit valt dus wel mee. Is vergelijkbaar met de stap van SB naar IB en dat was maar een Tick. Dus ik had meer verwacht. En dat mag ook het is immers een Tock.

Idle werkt het goed ja. Maar load performance valt me zwaar tegen. Het is zeker een verbetering. Maar lang niet zo geweldig als intel je wil laten geloven. Als je een SB of IB laptop hebt zou ik echt niet gaan upgraden.
En die Macbooks vergelijken is appels met peren vergelijken. Alle hardware in die dingen is verandert. En er zijn veel componenten die veel stroom verbruiken. Alleen het scherm kan al voor een grote verlaging van het verbruik zorgen.
De desktop heeft niet zoveel aan een lange accuduur, maar voor de laptopmarkt is dit echt een grote update. Smartphones en tablets hebben al tijden een goede accuduur, maar die van laptops valt vaak nog tegen. Haswell moest dit oplossen en is daarin geslaagd.

De review van de MBA is ook maar een voorbeeld. Als je kijkt naar de Sony Vaio Duo 13, heeft die ook een superieure accuduur. Dit is echt geen toeval.

Het scherm van de MBA 2013 is ook niet veel veranderd. Je twijfelt hier blijkbaar een iemand (Anand) die (nofi) waarschijnlijk veel meer kennis van hardware heeft dan jou...
Een deel zal vast door de CPU komen maar lang niet alles. Je moet gelijke hardware testen. Moederbord en cpu moeten wel verschillen. Maar scherm geheugen SSD enz moeten dan wel identiek zijn. Anders is het niet eerlijk. En ik denk dat de verschillen dan wel kleiner zijn. En je idle / lage load zuiniger bent maar met hoge belasting wel meer verbruikt.
Wat heeft er volgens jou dan voor gezorgd dat de MBA 2013 een tot 65% langere accuduur heeft? Er is niks anders dat zoveel energie verbruikt, buiten het scherm misschien, maar dat is onveranderd en wordt voor de review op 200 nits ingesteld.

Je zegt hier trouwens geheugen. Dit is één van de verbeteringen van Haswell: support voor LPDDR3. Je moet niet enkel naar de cpu-cores kijken. Je moet naar het hele platform kijken.

Vanwaar haal je trouwens dat deze ULT-processors meer verbruiken? Het TDP is verlaagd naar 15W en de cores moeten dat trouwens delen met nog meer onderdelen. Het is zelfs bij de zwaarste test van AnandTech dat de MBA 2013 de grootste verbetering in accuduur vertoont...
Ik vraag me af of intel volgend jaar al 14nm LP heeft. Ze gaan eerst de opvolger van Haswell op 14nm maken. Maar dat is dan "high Performance". Intel stapt ook nu pas over naar 22nm LP voor Silvermonth. IB en HW maken gebruik van 22nm HP
Atom krijgt vanaf Silvermont hetzelfde tick/tock-principe als Core. Atom krijgt zelfs dezelfde prioriteit als Core. Dus een jaar na Silvermont komt Airmont op 14nm. Misschien Airmont na langere tijd dan een jaar uit, misschien niet. We zullen zien. Voorlopig eerst maar kijken hoe Silvermont en Temash het doen.
Maar volgens mij zie je helemaal niet wat ik allemaal schrijf over er is geen slecht product alleen een slechte prijs. Ik hoor alleen maar Intel dit Intel dat. AMD slecht Intel beter. Ik kan je op die manier gewoon niet serieus nemen. Je hoort mij helemaal niet zeggen dat AMD altijd beter is. In tegen deel. Maar jij claimt dat Intel met alles beter is.
Voorlopig lijkt het erop dat de graphics van AMD beter zullen zijn (bij hetzelfde TDP), dus daar kijk ik wel naar uit.

Neem je het me kwalijk dat ik me informeer en tot de conclusie kom dat Intel beter is :)?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Astennu schreef op donderdag 15 augustus 2013 @ 13:52:
Ik bedoelde ook qua performance. Niet qua architectuur. Intel Beloofde met een Tock grote verbeteringen. Sorry maar 5-10% vind ik geen grote verbeteringen. Dat vind ik een Tick. De GPU gaat daar wel dik over heen.
Ik weet niet of Intel echt grote verbetering qua prestaties beloofde (bron?), maar Intel heeft wel gezegd dat de accuduur drastisch zou verhogen.
[afbeelding]
[afbeelding]

Zoals ik al zij.... Idle zuiniger ja. Load 12% hoger verbruik dan een 3770K.

En om te bewijzen dat het niet een review is:

[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]

En qua performance is het ongeveer dit beeld:

[afbeelding]

Dus wel iets van 6% sneller maar verbruikt ook meer. De stap van SB naar IB bracht vergelijkbare performance en wel een lager verbruik.
Inderdaad spijtig van de kleine verbeteringen in performance. Het verbruik onder load zal het idle-verbruik, afhankelijk van hoe intensief je je systeem gebruikt, denk ik wel compenseren voor de meeste mensen. Een deel van het verbruik hangt ook van het moederbord af.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Vengeful schreef op donderdag 15 augustus 2013 @ 14:24:
Dat is dus ook mijn hele probleem met de benadering die hier gebruikt word. "Intel heeft wat slides, dus het is prachtig." "Intel zegt dat blabla, dus hij is wel 83% sneller." Geen kanttekeningen, niks.
Geen kanttekeningen? Serieus?
Newsflash, marketing! Als AMD met bulldozer had waargemaakt wat ze geclaimd hadden, zaten ze hier nu ook niet. Bulldozer had namelijk een betere IPC en een hogere kloksnelheid moeten halen. Beiden niet gelukt.
Intel is niet AMD ;).
In sommige situaties zal Silvermont inderdaad wel 50% sneller zijn, tegen precies hetzelfde verbruik als de huidige Atomprocs. Of hij zal 20% sneller zijn tegen een stuk lager gebruik. 83% sneller en ook nog zuiniger? Dat kun je gewoon op je buik schrijven, dat gaat namelijk niet gebeuren.
Buiten dat je, vooral bij je laatste zin, zelf geen kanttekeningen plaatst, geef ik een quote van Anand:
In terms of absolute performance, Silvermont’s peak single threaded performance is 2x that of Saltwell. This 2x gain includes IPC and clock frequency gains (only 50% is from IPC, the rest is due to IDI, system agent and frequency). Given that Saltwell is competitive with existing architectures from ARM and Qualcomm (except for the Cortex A15), a 2x increase in single threaded performance should put Silvermont in a leadership position when it arrives later this year.
Het is dus niet 83%, maar zelfs 100% (pic) :D.

Nog een quote nodig?
That’s the end of the Intel data, but I have some thoughts to add. First of all, based on what I’ve seen and heard from third parties working on Baytrail designs - the performance claims of being 2x the speed of Clovertrail are valid. Compared to the two Cortex A15 designs I’ve tested (Exynos 5250, dual-core A15 @ 1.7GHz and Exynos 5410 quad-core A15 @ 1.6GHz), quad-core Silvermont also comes out way ahead. Intel’s claims of a 60% performance advantage, at minimum, compared to the quad-core competition seems spot on based on the numbers I’ve seen. Power is the only area that I can’t validate based on what I’ve seen already (no one has given me a Baytrail tablet to measure power on). Given what we know about Silvermont’s architecture and the gains offered by Intel’s 22nm process, I do expect this core to do better on power than what we’ve seen thus far from ARM’s Cortex A15.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
witeken schreef op donderdag 15 augustus 2013 @ 14:33:
[...]

Atom is al enkele jaren een soc. Zelfs de Haswell U en Y-processors gaan die richting in.

[...]

Heb je wel gelezen wat ik heb gezegd? Ik heb nergens geclaimd dat Kabini onzuinig is omdat de Bulldozer-processors een slechte performance/watt hebben. Integendeel.

Maar het is niet onlogisch dat een bedrijf dat veel achterloopt op performance/watt, ook achterloopt op een ander platform. AMD heeft ook niet het budget dat Intel heeft.

Ik vraag me trouwens af hoe een 4 of 8W-Jaguar het doet tegen een ARM-soc met A15-cores o.i.d.

[...]

Wat is er onwaar?
--->
Als je alleen naar de desktopmarkt kijkt zie je al dat de performance/watt van AMD niet om over naar huis te schrijven is. De achterstand in productieproces maakt het nog erger. Om dan te denken dat AMD wel kan concurreren in een markt waar het verbruik van je socs nog belangrijker is, vind ik een beetje naïef. en alleen al daarom zou je kunnen voorspellen dat Intel superieur zal zijn tegenover Jaguar, maar dat doe ik niet
Daar stel je inderdaad niet dat het ook om Kabini gaat. Maar daar was ik van uit gegaan omdat deze daar wel gebruikt gaat worden. Maar als dat niet zo is neem ik dat terug.
Die alinea heb je blijkbaar ook niet goed gelezen. Ik zeg letterlijk dat deze grafiekjes niet de meest betrouwbare zijn, en leg dan uit waarom ze wel aannemelijk zijn. Daarnaast gaat Intel ook niet liegen. Ze hebben die benchmarks echt gedraaid. Wat ze met de cpu's gedaan hebben, weten we echter niet.
Ik ken dat soort grafiekjes ook van nVidia en AMD vaak genoeg zijn er dingen niet waar. Dus ik zou er maar voorzichtig van zijn en niet te snel blij worden.
De desktop heeft niet zoveel aan een lange accuduur, maar voor de laptopmarkt is dit echt een grote update. Smartphones en tablets hebben al tijden een goede accuduur, maar die van laptops valt vaak nog tegen. Haswell moest dit oplossen en is daarin geslaagd.

De review van de MBA is ook maar een voorbeeld. Als je kijkt naar de Sony Vaio Duo 13, heeft die ook een superieure accuduur. Dit is echt geen toeval.

Het scherm van de MBA 2013 is ook niet veel veranderd. Je twijfelt hier blijkbaar een iemand (Anand) die (nofi) waarschijnlijk veel meer kennis van hardware heeft dan jou...
Nee maar het is wel belangrijker aan het worden. Hoger verbruik = hogere kosten. En dezelfde chips worden gebruikt voor de laptops. TDP's van Haswell zijn ook hoger dan die van IB. Dat zegt niet altijd iets maar geeft soms wel een indicatie.

Daarnaast heb ik helemaal niet gezegd dat het niet door Haswell komt. Goed lezen. Ik zeg alleen dat het ook aan andere componenten kan liggen. In die MBA is heel veel verandert bijna dat hele ding is nieuw van binnen. Dus dan kun je een MBA 2013 niet vergelijken met een 2013. Er zit volgens mij ook een hele andere accu in. Enige manier om dit te testen is twee vergelijkbare laptops te pakken bv MSI GT70. Alleen een met IB en een met HW. Dan zijn SSD, geheugen en scherm enz allemaal hetzelfde. Dan kun je pas echt kijken hoe het zit

En ik mag hopen dat hij meer kennis heeft. Het is immers zijn werk. Maar ik heb wat jij beweert niet gezegd. Ik zeg alleen wel dat je daar rekening mee moet houden. Volgens mij heeft die meneer van Anand ook helemaal niet gezegd dat die accu winst alleen maar door Haswell komt. Ik heb geen zin om nu voor jou alle bewijzen boven tafel te gaan halen. Dat mag je zelf op zoeken (want apple interesseert mij weinig) maar dan zul denk ik zien dat er meer gedaan in die MBA om de accu duur op te krikken.
Wat heeft er volgens jou dan voor gezorgd dat de MBA 2013 een tot 65% langere accuduur heeft? Er is niks anders dat zoveel energie verbruikt, buiten het scherm misschien, maar dat is onveranderd en wordt voor de review op 200 nits ingesteld.

Je zegt hier trouwens geheugen. Dit is één van de verbeteringen van Haswell: support voor LPDDR3. Je moet niet enkel naar de cpu-cores kijken. Je moet naar het hele platform kijken.

Vanwaar haal je trouwens dat deze ULT-processors meer verbruiken? Het TDP is verlaagd naar 15W en de cores moeten dat trouwens delen met nog meer onderdelen. Het is zelfs bij de zwaarste test van AnandTech dat de MBA 2013 de grootste verbetering in accuduur vertoont...
Ik heb het toch maar even uitgezocht. Wat je zelf ook zegt de PCH zit on chip bij de ULV en die is geshrinked naar 32nm. En er is support voor LPDDR3.

Maar ook dit:
Apple also boosted overall battery capacity on the MacBook Airs by roughly 8%. The increase in battery capacity had no impact on weight. Although it’s not immediately apparent, I would assume that Apple’s new SSDs also support DevSleep (DEVSLP) and Runtime D3.
Dus een grotere accu en een zuinigere SSD. De accu alleen is al goed voor iets van 1 uur extra accu duur wellicht iets meer.

Daarnaast heb ik het niet over Haswell Als platform ik had het even over de CPU+GPU zoals we die in de meeste notebooks en Desktops kennen. Dan is het gewoon een ander verhaal.

Ik ben het met je eens voor ULV heeft intel mooie winst geboekt. Maar dat verandert helemaal niets aan het feit dat Haswell CPU cores meer stroom verbruiken dan een IB cpu core. En dat is waar het mij om ging.
Neem je het me kwalijk dat ik me informeer en tot de conclusie kom dat Intel beter is :)?
Nee meer de manier waarop. Maar goed ik heb geen zin meer in deze discussie. Ik snap wel wat je bedoelt. En grotendeels zijn we het ook met elkaar eens. Op een aantal punten niet. Het zij zo :) no hard feelings.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Astennu schreef op donderdag 15 augustus 2013 @ 15:28:
Nee maar het is wel belangrijker aan het worden. Hoger verbruik = hogere kosten. En dezelfde chips worden gebruikt voor de laptops. TDP's van Haswell zijn ook hoger dan die van IB. Dat zegt niet altijd iets maar geeft soms wel een indicatie.
2 watt hoger. Omdat er tegenwoordig meer in de chip gebouwd zit.
Daarnaast heb ik helemaal niet gezegd dat het niet door Haswell komt. Goed lezen. Ik zeg alleen dat het ook aan andere componenten kan liggen. In die MBA is heel veel verandert bijna dat hele ding is nieuw van binnen. Dus dan kun je een MBA 2013 niet vergelijken met een 2013. Er zit volgens mij ook een hele andere accu in. Enige manier om dit te testen is twee vergelijkbare laptops te pakken bv MSI GT70. Alleen een met IB en een met HW. Dan zijn SSD, geheugen en scherm enz allemaal hetzelfde. Dan kun je pas echt kijken hoe het zit
Ik zal even wat verklappen. We hebben nu een aantal haswel laptops:

MSI GE60
MSI GE70
MSI GT60/70 (identiek mobo)
Alienware 14
lenovo Y510p
asus N550
toshiba P50
latitude E6540

Al deze laptops, behalve de GT60/70, hebben een kortere accuduur dan hun ivy bridge varianten. Leg dat maar eens uit..

De enige laptops waarin ik een accuduur boost zie zijn de ULV's, De nieuwe haswell inspiron haalt 8 uur, de nieuwe acer-15.6"-met-ULV haalt 7 uur, sony's ultrabook haalt het dubbele, XPS 12 haswel haalt het dubbele, enzovoorts. Haswell is, tot nu toe, de kleinste upgrade ooit voor het elk segment behalve ULV.

  • Vengeful
  • Registratie: Maart 2010
  • Laatst online: 04-04-2024
Nee, laten we beide bedrijven maar niet met elkaar gaan vergelijken, want dan komt er natuurlijk uit dat AMD naast misleidende marketingslides ook via dreigmethodieken en omkoping een monopolie heeft gecreeërd, terwijl ze slechtere hardware op de markt hadden.... Oh, wacht..... ;)
Het is dus niet 83%, maar zelfs 100% :D.
Volgens slides. In oncontroleerbare benchmarks, die nog nooit geoptimaliseerd zijn voor intelhardware, ook nog. M.a.w. het is niet controleerbaar. Zolang het niet controleerbaar is, is het gewoon geen waarheid.

Enne, Peak performance. Iedereen die een beetje marketingpraat kent kan meteen zien dat dat twee keer zo snel tegen hetzelfde verbruik is. Dus hij is of twee keer zo snel en niet zuiniger, of niet twee keer zo snel en dus zuiniger.

Ik snap sowieso niet dat je die slides op face-value neemt. Leuk hoor, grafiekjes. Maar ze zeggen niet tegen welke processoren ze het opnemen. Niet in welke benchmarks, niet welke randapparatuur, ze vertellen helemaal niks. En dus is het marketingpraat en niet als betrouwbaar aan te nemen. Richtlijnen, geen waarheid. Natuurlijk, het kan best zo zijn dat ze wel in alle gevallen 100% sneller zijn, maar die kans is echt ronduit miniscuul.

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Astennu schreef op donderdag 15 augustus 2013 @ 15:28:
Daarnaast heb ik helemaal niet gezegd dat het niet door Haswell komt. Goed lezen. Ik zeg alleen dat het ook aan andere componenten kan liggen. In die MBA is heel veel verandert bijna dat hele ding is nieuw van binnen. Dus dan kun je een MBA 2013 niet vergelijken met een 2013. Er zit volgens mij ook een hele andere accu in. Enige manier om dit te testen is twee vergelijkbare laptops te pakken bv MSI GT70. Alleen een met IB en een met HW. Dan zijn SSD, geheugen en scherm enz allemaal hetzelfde. Dan kun je pas echt kijken hoe het zit
Als je alleen wilt weten hoe de cpu en igp in Haswell het ervan afbrengen, moet je inderdaad enkel de processor veranderen, maar je moet natuurlijk niet uit het oog verliezen dat Haswell nog meer manieren met zich meebrengt om energie te besparen, zoals het LPDDR3-geheugen. Het nieuwe OS van Apple gaat hier trouwens nog meer op inspelen.
Volgens mij heeft die meneer van Anand ook helemaal niet gezegd dat die accu winst alleen maar door Haswell komt. Ik heb geen zin om nu voor jou alle bewijzen boven tafel te gaan halen. Dat mag je zelf op zoeken (want apple interesseert mij weinig) maar dan zul denk ik zien dat er meer gedaan in die MBA om de accu duur op te krikken.
Apple interesseert mij ook weinig :).
Ik heb het toch maar even uitgezocht. Wat je zelf ook zegt de PCH zit on chip bij de ULV en die is geshrinked naar 32nm. En er is support voor LPDDR3.

Maar ook dit:

Dus een grotere accu en een zuinigere SSD. De accu alleen is al goed voor iets van 1 uur extra accu duur wellicht iets meer.
Die SSD zal inderdaad nog voor kleine verbetering zorgen, net zoals de grotere accu. Maar in zijn cijfers over hoeveel % de accu langer meegaat, houdt hij telkens rekening met de grotere accu, die hij niet laat meetellen.
Daarnaast heb ik het niet over Haswell Als platform ik had het even over de CPU+GPU zoals we die in de meeste notebooks en Desktops kennen. Dan is het gewoon een ander verhaal.
Niet echt. Per definitie kan je eigenlijk al stellen dat Haswell zuiniger is gezien de lagere TDP (en zelfde fabrikant).

Voor de igp heeft Apple trouwens een mooie truc gedaan: door de lage TDP kan er niet veel verbeterd worden qua graphics. Maar Apple heeft een HD5000 erin geplaatst. Deze heeft dubbel zoveel EU's, en kan daardoor op een lagere kloksnelheid en voltage draaien, met een bescheiden winst (15%) tot gevolg.
Ik ben het met je eens voor ULV heeft intel mooie winst geboekt. Maar dat verandert helemaal niets aan het feit dat Haswell CPU cores meer stroom verbruiken dan een IB cpu core. En dat is waar het mij om ging.
Tsja, als er niet meer energie verbruikt mag worden, wordt het nog moeilijker meer performance te krijgen. Als stroomverbruik of accuduur niet uitmaakt, gaan die paar extra W's het verschil niet maken. Bij de tick wordt dat extra verbruik toch ruimschoots gecompenseerd.

Ik ken dat soort grafiekjes ook van nVidia en AMD vaak genoeg zijn er dingen niet waar. Dus ik zou er maar voorzichtig van zijn en niet te snel blij worden.
Nee meer de manier waarop. Maar goed ik heb geen zin meer in deze discussie. Ik snap wel wat je bedoelt. En grotendeels zijn we het ook met elkaar eens. Op een aantal punten niet. Het zij zo :) no hard feelings.
Het is je goed recht om sceptisch te zijn en dat respecteer ik ook. Tenslotte is Silvermont nog niet gelanceerd. We zullen zien :).

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Astennu schreef op donderdag 15 augustus 2013 @ 13:45:
Zit er in Bay Trail ook een complete South Bridge?
Bay Trail-T is een complete SoC, alles in 1, uitgezonderd de baseband chip voor 4G/3G. Merrifield (de telefoonvariant) heeft ook nog de baseband erbij. De 'normale' Haswell chips hebben dat niet, daar moet een H(M)8-serie chipset bij maar de Haswell-ULX variant voor tablets is weer wel een SoC met alles aan boord.
Idle werkt het goed ja. Maar load performance valt me zwaar tegen.
Probleem is dat je load performance niet makkelijk veel kan winnen, je zit op dezelfde 22 nm node, en je hebt de voltage regulators er ook nog bijgetrokken, plus allerlei nieuwe AVX2 units en ander leuks. Meer transistors betekent meer verbruik. Waar Haswell zijn voordeel haalt is lager verbruik in alle andere scenario's dan vollast. Niet alleen pure idle (dat is makkelijk, gewoon de hele core afschakelen), maar vooral korte burst loads, rush-to-idle, delen van de chip dynamisch terugklokken etc. Dat is echt het gebied waar de grote stappen nu worden gemaakt, en niet alleen door Intel. Qualcomm is er wellicht nog beter in. Simpelweg focusen op "TDP" of "idle" verbruik heeft dan niet zoveel zin, de truc is om het gemiddelde verbruik zo laag mogelijk te krijgen voor bepaalde gebruiksscenarios.

Die Intel slides moet je idd met een stevige korrel zout nemen, zeker als ze vergelijkingen maken met de concurrentie. De vergelijking met de eigen (Saltwell) chips kan je wat meer waarde aan hechten. Maar ik denk dat Qualcomm en vooral nVidia zich op korte termijn veel meer zorgen moet maken om Bay Trail en Merrifield dan AMD, Intel komt pas ergens half 2014 met een echte Kabini/Temash concurrent.

Langere termijn is het een ander verhaal, over een jaar of 2 wordt het echt druk in het 5-10W tablet/convertible segment, met Samsung, nVidia, Intel, Qualcomm AMD en zelfs MediaTek met stevige ambities. Dat kan niet goed gaan, daar gaan slachtoffers vallen.

[ Voor 26% gewijzigd door Dreamvoid op 15-08-2013 20:09 ]


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Dreamvoid schreef op donderdag 15 augustus 2013 @ 19:43:
Maar ik denk dat Qualcomm en vooral nVidia zich op korte termijn veel meer zorgen moet maken om Bay Trail en Merrifield [...]
Ik denk eerder dat ARM zich zorgen moet maken. Qualcomm zal zich prima redden, en Nvidia heeft naar mijn mening een unique selling point met mobile Kepler.
[...] dan AMD, Intel komt pas ergens half 2014 met een echte Kabini/Temash concurrent.
Wat zie jij als concurrent voor Kabini/Temash?
Langere termijn is het een ander verhaal, over een jaar of 2 wordt het echt druk in het 5-10W tablet/convertible segment, met Samsung, nVidia, Intel, Qualcomm AMD en zelfs MediaTek met stevige ambities.

Dat kan niet goed gaan, daar gaan slachtoffers vallen.
Mooi gezegd :).

Deze discussie is eigenlijk redelijk off-topic. Waarom is er geen dedicated topic voor mobiele processors?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
witeken schreef op donderdag 15 augustus 2013 @ 21:00:
Ik denk eerder dat ARM zich zorgen moet maken. Qualcomm zal zich prima redden, en Nvidia heeft naar mijn mening een unique selling point met mobile Kepler.
ARM krijgt zijn centjes wel door de ISA licensies, ik zie Samsung en Apple met hun 70% van de markt nog niet zo snel naar Intel switchen. Maar idd, hun eigen architecturen (Cortex A15 en Mali gpu's) zijn dan inderdaad wat minder in trek, ook nVidia is bezig met zijn eigen ARM design. Qualcomm geeft zijn cores nu in licensie (zie Motorola) dus het is niet allemaal hosanna bij ARM.

Qualcomm moet zich zorgen maken omdat ze dit jaar bijna 100% van de high-end telefoon/tablet markt hebben (onder de 'vrije' OEM's). Dat kan bijna alleen maar omlaag.

De toekomst van nVidia's Tegra business is een groot vraagteken. Er moeten een hoop dingen goed gaan daar: hun eigen "Project Denver" arch moet net zo goed worden als Silvermont en Krait, mobile Kepler moet goed genoeg naar beneden schalen, ze moeten zorgen dat ze net als Qualcomm toegang blijven hebben tot de laatste productietechnologie van TSMC, en de yields moeten goed zijn.
Wat zie jij als concurrent voor Kabini/Temash?
Afhankelijk van wat Intel kiest, een Celeron/Pentium versie van Haswell (bv een dual-core met GT1 gpu, in een SoC package), of het op slides al aangekondigde quadcore Bay Trail-M en -D platform. Wat de keus ook wordt, die komen niet voor mid-2014 op de markt, tot die tijd moet Ivy Bridge het nog volhouden.

[ Voor 9% gewijzigd door Dreamvoid op 15-08-2013 21:53 ]


Verwijderd

Hadden we deze al gezien: http://www.notebookcheck....t-x86-vs-ARM.99496.0.html ?

Het lijkt erop dat tegra 4, met een TDP van ongeveer 5 of 6 watt volgens notebookcheck, aardig stand houd tegen een 1.5Ghz 15w kabini. Alleen grafisch is AMD 2.5x zo snel.

Maar wat ik dan vooral opvallend vind is dat tegra veel zuiniger lijkt te zijn. Het kabini reference design haalt ~3 uur met 30Wh accu. De tegra 4 haalt 7 uur met 33Wh. Anandtech haalt ergens tussen die cijfers in met kabini.

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Verwijderd schreef op donderdag 15 augustus 2013 @ 21:57:
Hadden we deze al gezien: http://www.notebookcheck....t-x86-vs-ARM.99496.0.html ?

Het lijkt erop dat tegra 4, met een TDP van ongeveer 5 of 6 watt volgens notebookcheck, aardig stand houd tegen een 1.5Ghz 15w kabini. Alleen grafisch is AMD 2.5x zo snel.
Dat is ook logisch, Kabini is een grotere chip, hoger geklokt, met een veel grotere gpu. Jaguar cores zijn klok-voor-klok iets sneller dan Cortex A15, maar klokt weer wat hoger. Ik geloof overigens die 15W TDP voor een 1.5 GHz Kabini wel heel royaal is, dat zal in de praktijk eerder richting de 10W zitten. Throttling zorgt ook voor wat scheve cijfers, de Kabini TDP wordt zonder aggressieve throttling bereikt.

Geekbench 2 is ietwat lastig, er is nogal wat discussie dat de x86 versie niet helemaal in orde is (oa bizar slechte FPU scores voor Haswell) dus ik zou dat met een korrel zout nemen, de Physics en browser benches zou ik wat meer waarde aan schenken.
Maar wat ik dan vooral opvallend vind is dat tegra veel zuiniger lijkt te zijn. Het kabini reference design haalt ~3 uur met 30Wh accu. De tegra 4 haalt 7 uur met 33Wh. Anandtech haalt ergens tussen die cijfers in met kabini.
Ik geloof geen bal van 3 uur met 30Wh accu, zelfs Brazos laptops doen langer met een 30 Wh accu. Om er maar even een ander apparaatje bij te pakken, de Macbook Air doet 12 uur met 38 Wh accu, je maakt mij niet wijs dat Kabini 3x zo veel verbruikt als Haswell.

Eigenlijk jammer dat ze in deze test niet de Lenovo K900 hebben gebruikt met Clover Trail+ (Z2580, de chip van dit jaar), ipv de Z2760 van vorig jaar. Dat is nu de oudste chip in het rijtje.

[ Voor 6% gewijzigd door Dreamvoid op 15-08-2013 22:22 ]


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Dreamvoid schreef op donderdag 15 augustus 2013 @ 21:37:
ARM krijgt zijn centjes wel door de ISA licensies,
Daar heb je natuurlijk wel een punt. Vanuit economisch standpunt maakt het voor ARM waarschijnlijk weinig uit of het een custom ontwerp is of niet. Maar dat doet niets af van het feit dat ARM-socs op dit moment niet competitief zijn en dat dat nog ca. een jaar zo zal zijn.
ik zie Samsung en Apple met hun 70% van de markt nog niet zo snel naar Intel switchen. Maar idd, hun eigen architecturen (Cortex A15 en Mali gpu's) zijn dan inderdaad wat minder in trek, ook nVidia is bezig met zijn eigen ARM design. Qualcomm geeft zijn cores nu in licensie (zie Motorola) dus het is niet allemaal hosanna bij ARM.

Qualcomm moet zich zorgen maken omdat ze dit jaar bijna 100% van de high-end telefoon/tablet markt hebben (onder de 'vrije' OEM's). Dat kan bijna alleen maar omlaag.

De toekomst van nVidia's Tegra business is een groot vraagteken. Er moeten een hoop dingen goed gaan daar: hun eigen "Project Denver" arch moet net zo goed worden als Silvermont en Krait, mobile Kepler moet goed genoeg naar beneden schalen, ze moeten zorgen dat ze net als Qualcomm toegang blijven hebben tot de laatste productietechnologie van TSMC, en de yields moeten goed zijn..
Nvidia heeft een duidelijke roadmap voor Tegra, dus het lijkt erop dat Nvidia niet van plan is om de markt snel te verlaten ;). Mobile Kepler lijkt op dit moment ook geen probleem: AnandTech: NVIDIA Demonstrates Logan SoC: < 1W Kepler, Shipping in 1H 2014, More Energy Efficient than A6X?:
Regardless of process tech however, Kepler's power story in ultra mobile seems great. I really didn't believe the GLBenchmark data when I first saw it. I showed it to Ryan Smith, our Senior GPU Editor, and even he didn't believe it. If NVIDIA is indeed able to get iPad 4 levels of graphics performance at less than 1W (and presumably much more performance in the 2.5 - 5W range) it looks like Kepler will do extremely well in mobile.
Verwijderd schreef op donderdag 15 augustus 2013 @ 21:57:
Hadden we deze al gezien: http://www.notebookcheck....t-x86-vs-ARM.99496.0.html ?

Het lijkt erop dat tegra 4, met een TDP van ongeveer 5 of 6 watt volgens notebookcheck, aardig stand houd tegen een 1.5Ghz 15w kabini. Alleen grafisch is AMD 2.5x zo snel.

Maar wat ik dan vooral opvallend vind is dat tegra veel zuiniger lijkt te zijn. Het kabini reference design haalt ~3 uur met 30Wh accu. De tegra 4 haalt 7 uur met 33Wh. Anandtech haalt ergens tussen die cijfers in met kabini.
Ik denk dat een groot deel van die 15W voor de gpu bestemd is, eerlijk gezegd.

Niemand zin om een topic voor smartphone- en tabletprocessors te maken :)?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
witeken schreef op donderdag 15 augustus 2013 @ 22:22:
[...]

Daar heb je natuurlijk wel een punt. Vanuit economisch standpunt maakt het voor ARM waarschijnlijk weinig uit of het een custom ontwerp is of niet. Maar dat doet niets af van het feit dat ARM-socs op dit moment niet competitief zijn en dat dat nog ca. een jaar zo zal zijn.
Oh, ik denk dat het wel degelijk uitmaakt. Een complete cpu architectuur licensie zal ARM veel meer opleveren dan enkel de ARM ISA licensie, en als ze Mali licensies erbij verkopen is het helemaal kassa. Bij ARM dansen ze de polonaise als Samsung de Exynos 5420 (met Cortex A15 en Mali gpu!) weer met miljoenen gaat gebruiken ipv Qualcomms.
Nvidia heeft een duidelijke roadmap voor Tegra, dus het lijkt erop dat Nvidia niet van plan is om de markt snel te verlaten ;). Mobile Kepler lijkt op dit moment ook geen probleem: AnandTech: NVIDIA Demonstrates Logan SoC: < 1W Kepler, Shipping in 1H 2014, More Energy Efficient than A6X?:
Vraagteken als in: hoeveel kans maken ze op succes, zelfs met een goede gpu, in de mangel tussen giganten als Intel, Samsung en Qualcomm? AMD bewijst dat alleen een goede gpu geen garantie is.

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Dreamvoid schreef op donderdag 15 augustus 2013 @ 22:28:
Oh, ik denk dat het wel degelijk uitmaakt. Een complete cpu architectuur licensie zal ARM veel meer opleveren dan de ARM ISA licensie, en als ze Mali licensies erbij verkopen is het helemaal kassa. Bij ARM dansen ze de polonaise als Samsung de 5420 (met Cortex A15 en Mali gpu!) weer met miljoenen gaat gebruiken ipv Qualcomms.
Ik zou het artikel van AnandTech nog eens moeten lezen, maar moet een fabrikant juist niet meer betalen om de rechten te krijgen om het ontwerp aan te passen?
[...]
Vraagteken als in: hoeveel kans maken ze op succes, zelfs met een goede gpu, in de mangel tussen giganten als Intel en Qualcomm? AMD bewijst dat alleen een goede gpu geen garantie is.
Nvidia hoeft zich niet meer te bewijzen. Fabrikanten hebben al getoond dat ze bereid zijn om Tegra's te gebruiken :*).

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
witeken schreef op donderdag 15 augustus 2013 @ 22:35:
[...]

Ik zou het artikel van AnandTech nog eens moeten lezen, maar moet een fabrikant juist niet meer betalen om de rechten te krijgen om het ontwerp aan te passen?
Het artikel op AnandTech beschrijft drie vormen: standaard core designs, cores die samen met ARM worden geoptimaliseerd (kost uiteraard meer, want ARM steekt er meer moeite in), en alleen de ISA en je zoekt het verder maar uit (wat Qualcomm doet met Krait, Apple met Swift, nVidia met Project Denver etc). Dat laatste kost uiteraard minder.
Nvidia hoeft zich niet meer te bewijzen. Fabrikanten hebben al getoond dat ze bereid zijn om Tegra's te gebruiken :*).
Fabrikanten hebben alleen geen enkele loyaliteit. De OEMs die vorig jaar in de rij stonden om Tegra 3 te kopen (want Qualcomm, Samsung en TI konden niet leveren), kopen nu massaal Qualcomms. Je bent zo goed als je laatste chip.

[ Voor 4% gewijzigd door Dreamvoid op 15-08-2013 22:48 ]


  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Smiley niet gezien ;)?

OnTopic: Wat denk jij dat AMD zal doen in de smartphonemarkt?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Niets, ze hebben geen geschikte cpu core, geen geschikte ultra-low power gpu arch (hebben ze verkocht aan Qualcomm in 2006), en geen baseband technologie.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 15 augustus 2013 @ 15:35:
[...]
2 watt hoger. Omdat er tegenwoordig meer in de chip gebouwd zit.

[...]
Ik zal even wat verklappen. We hebben nu een aantal haswel laptops:

MSI GE60
MSI GE70
MSI GT60/70 (identiek mobo)
Alienware 14
lenovo Y510p
asus N550
toshiba P50
latitude E6540

Al deze laptops, behalve de GT60/70, hebben een kortere accuduur dan hun ivy bridge varianten. Leg dat maar eens uit..

De enige laptops waarin ik een accuduur boost zie zijn de ULV's, De nieuwe haswell inspiron haalt 8 uur, de nieuwe acer-15.6"-met-ULV haalt 7 uur, sony's ultrabook haalt het dubbele, XPS 12 haswel haalt het dubbele, enzovoorts. Haswell is, tot nu toe, de kleinste upgrade ooit voor het elk segment behalve ULV.
Ja inderdaad dit is toch ook precies wat ik heb gezegd? (ik was juist van mening dat Haswell minder zuinig was. Ik heb tot nu toe alleen bewijs gezien dat die ULV zuiniger zijn dan de IB tegenhangers)
En twee watt hogere TDP betekend niet dat het in het echt ook 2 watt verschil is. Het kan best zijn dat IB niet tegen de rand van het 45watt TDP zat. En de Haswell wel tot aan de rand gaat.
witeken schreef op donderdag 15 augustus 2013 @ 22:50:
Smiley niet gezien ;)?

OnTopic: Wat denk jij dat AMD zal doen in de smartphonemarkt?
Ik denk niets. Athans voorlopig nog niet. Ze gaan zich eerst richten op 64 Bit ARM SOC's voor servers. Dat is iets wat wel in de pijplijn zit. Misschien dat ze net zo iets gaan doen als Qualcomm. En gaan ze heel misschien ook een keer proberen iets voor de smartphone markt te maken. Maar ik denk dat het al te druk is in die markt. Ik denk niet dat nieuwe spelers veel kans hebben.
Dreamvoid schreef op donderdag 15 augustus 2013 @ 22:52:
Niets, ze hebben geen geschikte cpu core, geen geschikte ultra-low power gpu arch (hebben ze verkocht aan Qualcomm in 2006), en geen baseband technologie.
Inderdaad. Ze hadden toen die Imageon chips. Ze waren eigenlijk hun tijd te ver vooruit. Toen was er gewoon geen vraag naar. Ik vraag me af wat er was gebeurd als ze dat door gezet hadden. Die Adreno gpu's van Qualcomm maken in de basis nog steeds gebruik van de universal shader architectuur van ATi.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Ik denk dat gpu-power het probleem niet is voor AMD.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
GPU en CPU zijn niet echt het probleem voor AMD. Architectuur en focus wel.

De A4-1200 heeft een TDP van 3.9Watt. Dan hebben we het over een dual-core op 1GHz en een 128 SPU GPU op 225MHz. In single-thread maakt een 1.5GHz Jaguar nog altijd gehakt van een 1.7GHz Cortex A-15, dus op 1GHz zal het competitief zijn. Multithread verslaat een 1.5GHz Jaguar quad de Snapdragon 600 (quadcore Krait@1.7GHz) met een behoorlijk verschil, de dual-core Cortex A-15 heeft de helft van de performance. Een dual-core Jaguar op 1GHz zal het hier wel verliezen, maar niet met gigantische cijfers. De GPU cijfers spreken helemaal voor zich. De A4-1200 heeft 45% van de clocksnelheid van de hier geteste A6-5000. In werkelijkheid zul je dus ~50% van die performance mogen verwachten. De krachtige Adreno 320 wordt dus zelfs nog door die 3.9Watt APU verslagen. Bovendien heeft AMD's APU ook nog eens de meest feature-rijke GPU aan boord.

Het enige wat hier ontbreekt is een modem voor telefoonverkeer. Dat is een minpunt op zich, maar AMD zou zo een licentie kunnen nemen en het toevoegen. Of, wat logischer zou zijn, iemand met 3G/LTE licentie kan een ontwerp kopen bij AMD.

Maar goed, zoals gezegd, het is eerder de focus dan het vermogen een chip te maken. Die 3.9Watt APU is bijvoorbeeld gewoon een volledige quadcore, met functionaliteit uitgeschakeld. Dat is nooit optimaal voor verbruik. Bovendien is de geintegreerde FCH overdreven compleet voor een telefoonchip, omdat die functionaliteit nu eenmaal nodig is in netbooks en desktop/thin-client achtige oplossingen. De belangrijkste reden om niet specifiek te pushen voor een telefoonchip, is omdat de ISA-standaard in telefoons nu eenmaal ARM is. Kijk hoeveel moeite Intel al heeft om uberhaupt een teennagel tussen de deur te krijgen. Het loont de moeite momenteel misschien gewoon niet om een smartphone chip te ontwikkelen.

Het enige wat mij enigsinds verbaast, is waarom AMD geen quad-core uit heeft gebracht rond een TDP van ~5.5Watt. Dat moet haalbaar zijn met 4 1GHz cores en de GPU op 225MHz. Snapdragon 600-prestaties met een min of meer gelijkwaardige TDP (die ligt bij de Snapdragon 600 ook rond de 5Watt, maar kan daar zo nu en dan voor enkele seconden overheen schieten).

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Die 3.9W Temash bestaat vooralsnog alleen op papier, niemand weet of het AMD ook werkelijk gelukt is om Temash werkelijk binnen die thermal envelope te proppen op productie silicon. De enige wat we tot nu toe in werkelijkheid hebben gezien zijn (op zich prima presterende) >10W quads. Pas als er in Q4 nieuwe W8.1 tablets komen kunnen we echt appels-met-appels vergelijken in het ~4W segment (Bay Trail-T vs A4-1200 vs Tegra 4 vs Snapdragon 800 vs Exynos 5420)

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 16 augustus 2013 @ 08:54:

Ja inderdaad dit is toch ook precies wat ik heb gezegd? (ik was juist van mening dat Haswell minder zuinig was. Ik heb tot nu toe alleen bewijs gezien dat die ULV zuiniger zijn dan de IB tegenhangers)
Dat klopt. Misschien had ik niet jou moeten quoten.
En twee watt hogere TDP betekend niet dat het in het echt ook 2 watt verschil is. Het kan best zijn dat IB niet tegen de rand van het 45watt TDP zat. En de Haswell wel tot aan de rand gaat.
IB/SB zitten gewoon tegen de rand aan. Met prime95 en furmark meet een i5-2520M 33.5w, een i7-2820QM meet 44.5w. Een i7-4700mq doet 46.799w onder prime95.

Volgens de sensors op de chip. De sensors kunnen er natuurlijk naast zitten. TDP betekent bij intel gewoon 'als het verbruik een bepaalde tijd hierboven komt klokt de chip terug'.

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Het probleem is ook dat AMD vanwege de marktverhoudingen steeds weer Intel-zaken moet implementeren, terwijl dat andersom eigenlijk nooit zo is. Dat slurpt ook telkens nog wat extra van de al kleinere resources.

Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Ik heb een topic gemaakt voor de mobiele processormarkt: [Mobiel] Smartphone- en tabletprocessors

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

Verwijderd

begintmeta schreef op vrijdag 16 augustus 2013 @ 19:00:
Het probleem is ook dat AMD vanwege de marktverhoudingen steeds weer Intel-zaken moet implementeren, terwijl dat andersom eigenlijk nooit zo is. Dat slurpt ook telkens nog wat extra van de al kleinere resources.
Je bedoelt toch niet zoiets als X64 ?

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Neem aan dat hij AVX2 ("Haswell new instructions") bedoelt.

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Verwijderd schreef op maandag 19 augustus 2013 @ 09:49:
...
Je bedoelt toch niet zoiets als X64 ?
Dat ook (maar dat is denk ik het enige voorbeeld van waar AMD intel echt tot actie dwong), maar ook AVX2, een goed voorbeeld is ook FMA3 FMA4, Intel ging op het laatst (in ieder geval publiek) over om in plaats van het aangekondigde FMA4 FMA3 te gaan doen, AMD had (inmiddels) FMA4 in de pijplijn maar moet nu ook weer FMA3 gaan implementeren, want ze kunnen het zich door de marktpositie niet permitteren de instructieset van Intel niet te volgen. AMD had ook wel eens wat zaken gespecificeerd die Intel uiteindelijk volgde (b.v prefetch in 3dnow->SSE), maar dan in incompatibele gemodificeerde vorm (die AMD vanwege haar marktpositie altijd weer moet volgen). Ook is er maar een beperkte ruimte voor x86(64) instructies (255 1-byte codes en 256, waarvan Intel de bulk mag invullen, AMD heeft daardoor minder ruimte om eigen instructies aan te houden. Uiteindelijk is men bij de volgende herziening (met gedwongen behoud van reverse-compatibility uiteraard) uitgekomen bij incompatibele encoderingsschema's, zie ook http://devgurus.amd.com/message/1283116.

[ Voor 4% gewijzigd door begintmeta op 19-08-2013 12:41 ]


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Nou zal AMD bij het gebruik van de ARM ISA ook gewoon moeten volgen wat ARM bedenkt, en zal daardoor altijd achterlopen op ARM's eigen Cortex architecturen. Dit is inherent aan het gebruiken van andermans ISA, die heeft altijd een voorsprong. Als ze dat niet willen, dan hadden ze MIPS moeten kopen ofzo (voordat Imagination dat deed).

[ Voor 16% gewijzigd door Dreamvoid op 19-08-2013 13:54 ]


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Het aandeel ARM-cpus in de ARM-ISA-markt is niet te vergelijken met dat van Intel in de x86*-markt. Als een grote speler zelf iets bedenkt als toevoeging op het ontwerp van ARM kan het maar zo zijn dat anderen moeten volgen, omdat de markt het graag wil, de verplichting te volgen is denk ik toch wat kleiner.

[ Voor 52% gewijzigd door begintmeta op 19-08-2013 15:03 ]


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Dat valt nog tegen, er zijn ontzettend veel (embedded) ARM chips met een Cortex core. Ik betwijfel of de ISA licensie toestaat dat bv Qualcomm en Apple eigen instructies toevoegen. Juist doordat ARM niet >95% van de ARM designs maakt ligt versnippering op de loer als ARM hier niet zelf strikte voorwaarden stelt bij de ISA licensie.

Ik kan me ook niet echt herinneren dat ARM licensienemers ooit eigen extensies aan de instructieset toevoegden in de afgelopen dertig jaar, voor zover ik weet heeft Acorn/ARM altijd de touwtjes van de ARM ISA specs stevig in eigen handen gehouden.

[ Voor 36% gewijzigd door Dreamvoid op 19-08-2013 15:20 ]


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Dreamvoid schreef op maandag 19 augustus 2013 @ 15:06:
Dat valt nog tegen, er zijn ontzettend veel (embedded) ARM chips met een Cortex core. Ik betwijfel of de ISA licensie toestaat dat bv Qualcomm en Apple eigen instructies toevoegen. Juist doordat ARM niet >95% van de ARM designs maakt ligt versnippering op de loer als ARM hier niet zelf strikte voorwaarden stelt bij de ISA licensie.
Inderdaad, er zijn een hoop bedrijven die designs afnemen en een aantal met verdergaande licenties. ARM maakt (cq laat maken) zelf eigenlijk geen chips. Juist door dit verschil zal dus in tegenstelling tot bij x86* het speelveld effen blijven als die 'inactieve' partij de ISA kan bepalen.
Ik kan me ook niet echt herinneren dat ARM licensienemers ooit eigen extensies aan de instructieset toevoegden in de afgelopen dertig jaar, voor zover ik weet heeft Acorn/ARM altijd de touwtjes van de ARM ISA specs stevig in eigen handen gehouden.
Ik heb gelezen dat er toch wel eens wat andere instructies voorkomen in implementaties dan in de ARM-eigen-ontwerpen. Ik denk ook dat een architectural license zoiets (onder voorwaarden die mogelijk best een vrij verhandelen van dergelijke designs/processoren verbieden, of een teruglicenseren aan ARM/onder voorwaaarden van ARM verplichten) best mogelijk zou kunnen maken.

Hoe dan ook is het anders dan in x86-land.

[ Voor 10% gewijzigd door begintmeta op 19-08-2013 16:57 ]


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Maar ARM maakt wel met zijn instructieset zijn eigen Cortex designs, die concurreren met de designs van Qualcomm en Apple. Hier heeft ARM in principe een voorsprong: zij kunnen nieuwe instructies ontwikkelen voor de ARM ISA, en die als eerste implementeren in hun Cortex architecturen. Daarmee hebben ze per definitie een voorsprong tov de partijen die de de nieuwe ISA pas zien als die openbaar wordt gemaakt.

[ Voor 8% gewijzigd door Dreamvoid op 19-08-2013 16:46 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
ARM concurreert niet met Qualcomm of Apple. ARM maakt alleen maar ontwerpen, waar je een licentie voor af kunt nemen (zodat je zelf die cores kunt toepassen in je eigen product) of, zoals Qualcomm en Apple bijvoorbeeld doen, een uitgebreide licentie nemen waardoor ze de vrijheid hebben te doen met de basis wat ze willen. Het risico voor een Qualcomm is dat hun product niet geheel aan de standaard voldoet van een bepaalde ARM-core, maar ze kunnen wel dingen doen die die gewone ARM-core niet kunnen, mocht een software-bouwer daar iets mee willen doen.

Wat ook kan gebeuren, is dat een bepaalde instructie niet in een bepaalde Core zit als vaste functionaliteit, maar wel door praktisch alle ARM-SoC bouwers toegepast worden. Denk bijvoorbeeld aan Neon, wat geen onderdeel uit maakte van de Cortex-A9 core, maar zo ongeveer iedereen behalve nVidia er wel in propte. Gevolg, Tegra 2 presteerde uitermate slecht in vergelijking, in redelijk wat software oplossingen.

Hoe dan ook bij het bouwen van een CPU moet je altijd opletten dat de belangrijke elementen aanwezig zijn. Om energie te besparen, kun je daarentegen ook weer dingen uit het basisontwerp slopen. Denk bij Bobcat/Jaguar bijvoorbeeld aan x87 legacy troep.

Acties:
  • 0 Henk 'm!

Verwijderd

Als je meer wilt weten over het business verhaal achter ARM is dit een geschikt artikel: http://www.anandtech.com/...arms-business-model-works

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
Verwijderd schreef op maandag 19 augustus 2013 @ 18:49:
Als je meer wilt weten over het business verhaal achter ARM is dit een geschikt artikel: http://www.anandtech.com/...arms-business-model-works
'... Since ARM doesn’t actually make any chips of its own, it needs to ensure that for each generation there are launch partners that will produce designs based on the latest and greatest. For each new microprocessor IP, ARM chooses up to three partners to work very closely with. ... No one member of the supply chain has to assume a significant amount of risk relative to others in the chain. It’s a far more democratic and partner centric approach to chip supply. ...', inderdaad dus anders dan in x86-land, waar Intel de dictator is. Ik ben benieuwd wat zou gebeuren als ARM op een dag zou besluiten 'Intel te worden' (als het dat zou kunnen). Wat zouden Qualcomm, Samsung, Apple, Marvell etc (AMD) doen?

[ Voor 8% gewijzigd door begintmeta op 19-08-2013 20:18 ]


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

begintmeta schreef op maandag 19 augustus 2013 @ 20:16:
Ik ben benieuwd wat zou gebeuren als ARM op een dag zou besluiten 'Intel te worden' (als het dat zou kunnen). Wat zouden Qualcomm, Samsung, Apple, Marvell etc (AMD) doen?
Apple zou op Intel Atom-processors overstappen, Qualcomm zou rechtszaken aanspannen, Marvell en Samsung zouden de ARM-chips kopen en AMD zou zich uit de ARM-markt terugtrekken. Maar is dit niet een betere plaats om hierover te praten?

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
ARM concurreert niet met Qualcomm of Apple. ARM maakt alleen maar ontwerpen, waar je een licentie voor af kunt nemen
Je bedoelt net zoals dat Qualcomm doet met Motorola, waar ze hun Krait core in licensie geven?
of, zoals Qualcomm en Apple bijvoorbeeld doen, een uitgebreide licentie nemen waardoor ze de vrijheid hebben te doen met de basis wat ze willen. Het risico voor een Qualcomm is dat hun product niet geheel aan de standaard voldoet van een bepaalde ARM-core, maar ze kunnen wel dingen doen die die gewone ARM-core niet kunnen, mocht een software-bouwer daar iets mee willen doen.
Mag dit wel volgens de ISA licensie? Voor zover ik weet bevatten de gangbare ISA licensies (MIPS/ARM/Power/etc) doorgaans een clausule dat je als licensienemer niet aan 'embrace-and-extend' mag doen.
begintmeta schreef op maandag 19 augustus 2013 @ 20:16:
Ik ben benieuwd wat zou gebeuren als ARM op een dag zou besluiten 'Intel te worden' (als het dat zou kunnen). Wat zouden Qualcomm, Samsung, Apple, Marvell etc (AMD) doen?
Een MIPS of Power licensie nemen, en vlug de instruction decode unit van hun ARM arch ombouwen om die instructies te verwerken ipv ARM.

[ Voor 24% gewijzigd door Dreamvoid op 20-08-2013 00:16 ]


Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Dreamvoid schreef op dinsdag 20 augustus 2013 @ 00:11:
Een MIPS of Power licensie nemen, en vlug de instruction decode unit van hun ARM arch ombouwen om die instructies te verwerken ipv ARM.
Waarom zou je daardoor niet meer ARM-processors gebruiken.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Aannemende dat je geen zin zou hebben om 2e viool te spelen achter ARM.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Dreamvoid schreef op dinsdag 20 augustus 2013 @ 00:11:
Mag dit wel volgens de ISA licensie? Voor zover ik weet bevatten de gangbare ISA licensies (MIPS/ARM/Power/etc) doorgaans een clausule dat je als licensienemer niet aan 'embrace-and-extend' mag doen.
Je hebt in basis 2 belangrijke licenties. De eerste is dat je een ARM core (welke hangt af van je licentie) mag maken in een eigen product. Hierbij volg je dan de daadwerkelijke ISA, zoals ARM deze ontwikkeld heeft. De andere belangrijke licentie is zoals Qualcomm hem heeft. Een licentie op een bepaalde core en de vrijheid daar dingen aan te veranderen/toe te voegen. Om te kunnen claimen dat het een ARM 'core X' is, zal je product natuurlijk wel compliant moeten zijn aan de specificaties van 'core X', maar hoe je tot die compliancy komt, is aan het bedrijf zelf.

Scorpio was als zodanig bijvoorbeeld een OoO core, waar de basis Cortex-A8 een in-Order core is. Krait gaat ook veel verder dan Cortex-A9, maar (in ieder geval de eerste Krait cores) zijn geen Cortex A-15 cores.

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Een ISA is geen core uarch (als de Cortex A15), het is de specificatie van de instructieset (ARMv7).

Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Dreamvoid schreef op vrijdag 16 augustus 2013 @ 18:35:
Die 3.9W Temash bestaat vooralsnog alleen op papier, niemand weet of het AMD ook werkelijk gelukt is om Temash werkelijk binnen die thermal envelope te proppen op productie silicon. De enige wat we tot nu toe in werkelijkheid hebben gezien zijn (op zich prima presterende) >10W quads. Pas als er in Q4 nieuwe W8.1 tablets komen kunnen we echt appels-met-appels vergelijken in het ~4W segment (Bay Trail-T vs A4-1200 vs Tegra 4 vs Snapdragon 800 vs Exynos 5420)
Of ik begrijp jullie niet, dat kan, maar volgens mijn weten jullie niet helemaal welke apu de temash 3.9w is. :P


De A4-1200 is de 3,9w temash en die zit al gewoon in aantal producten, aantal zijn al getoond en aantal zijn al te koop. Eerst producten zijn ook al te koop en staan in de PW van tweakers. ;)

http://www.notebookcheck....ok-Processor.92892.0.html

Edit/
Ik heb even snel gespiekt en vergis van dat stukje over PW, daar staat alleen de 1250 in, en nog niet de 1200.

Maar hier even wat links van aangekondigde producten, dus de apu is al verscheept naar partners van amd om hun producten te maken.

http://nl.hardware.info/n...102ba-aan-met-amd-a4-1200

Rest mag je zelf even google. :)

[ Voor 16% gewijzigd door mad_max234 op 20-08-2013 19:46 ]

-Andere hobby- -


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Da's mooi, maar beetje teleurstellend dat hij toch weer in netbooks terecht komt - met 3.9W zou dit een tablet chip moeten zijn die in dingen als een Nexus 10 of Surface moet zitten.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dreamvoid schreef op woensdag 21 augustus 2013 @ 09:56:
Da's mooi, maar beetje teleurstellend dat hij toch weer in netbooks terecht komt - met 3.9W zou dit een tablet chip moeten zijn die in dingen als een Nexus 10 of Surface moet zitten.
Kan nog steeds maar dan moeten fabrikanten daar brood in zien.
Voor een netbook is het ook mooi want dan gaat je accu een stukje langer mee. heb je alleen wel wat minder goede prestaties.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Lange accuduur ok, maar ik zet mijn vraagtekens bij hoe interessant een netbook met een 1 GHz dual core Jaguar werkelijk is.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ze zijn vergelijkbaar met 1.1/1.2 GHz Brazos Netbooks. En 1.2/1.4 ATOM, Niet super snel maar voor simpel internet werk / textverwerken prima.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op woensdag 21 augustus 2013 @ 09:56:
Da's mooi, maar beetje teleurstellend dat hij toch weer in netbooks terecht komt - met 3.9W zou dit een tablet chip moeten zijn die in dingen als een Nexus 10 of Surface moet zitten.
Maar de tablets moeten nog uitkomen , MSI W20 3M en Gigabyte Slate S10A.
Ik verwacht hier niet te veel van maar goed het is een begin.

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Die Gigabyte Slate is een raar design. Superdik, en met een hdd erin...zo wordt het natuurlijk nooit wat. Die MSI is interessanter.

[ Voor 11% gewijzigd door Dreamvoid op 21-08-2013 17:45 ]


  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 16:51
2 teruggeclockte Richlands komen er binnenkort aan met een 45W TDP. De A10-6700T op 2.5GHz en de A8-6500T op 2.1GHz.

http://www.fudzilla.com/h...top-richlands-coming-soon

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Helaas totaal geen interessante producten...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Het wordt pas echt interessant zodra Kaveri komt:
-Steamroller (zou voor een grote boost in CPU performance moeten zorgen. Meer dan Piledriver deed en dat was 10-15%)
-GCN voor GPU (veel efficiëntere Architectuur met krachtige GPGPU)
-HSA

Ik ben zelf ook erg benieuwd naar HSA. Dan kunnen CPU en GPU beter samen werken door resources te delen. De vraag is alleen hoe en wanneer gaat software er gebruik van maken. En hoeveel merken wij daar als eind gebruiker van.
Het potentieel is er in ieder geval!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Ik vermoed dat we hier alleen iets aan hebben op grafisch gebied..

Acties:
  • 0 Henk 'm!

Verwijderd

spNk schreef op vrijdag 23 augustus 2013 @ 09:09:
Ik vermoed dat we hier alleen iets aan hebben op grafisch gebied..
Nee , je haalt een hoop overhead weg zoals het nu gaat met geheugen is dat alles er naar toe moet worden gekopieerd dat kost cpu cycles , dus niet alleen grafisch.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat valt op zich wel mee hoor. Dat overpompen kost alleen memory bandwidth, geen CPU. Met de DMA engines kan je prima de PCI-e bus vol stouwen zonder enig CPU usage.

Volgens mij voorkomen de driverabstracties (OpenGL, DirectX) dat je op een HSA echt snellere toepassingen gaat zien. Je zult uiteraard wel enige latencyverbeteringen zien. Maar of dat voor huis-tuin-keuken toepassingen uit maakt?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Laat bandbreedte nu net juist wel de bottleneck zijn in een APU. Het juist niet hoeven overpompen van al die data kan er voor zorgen dat de CPU en/of GPU veel sneller verder kan met zijn werk.

Acties:
  • 0 Henk 'm!

Verwijderd

8)7

Soms denk je gewoon te moeilijk :P

Verwijderd

Anandtech: ASUS Announces X102BA Touchscreen Ultraportable with AMD’s Temash APU

768p, battery life van 6 uur volgens de specs.. :O

Ik snap ook niet dat ze temash in notebooks stoppen, maar dat zal aan mij liggen. Kabini is veel interessanter lijkt mij.

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Enige reden die ik kan bedenken is dat Kabini toch teveel verbruikt.
Launched back in May, Kabini is AMD’s alternative to Intel’s Atom; Temash is the lower power variant, with basically the same hardware but reduced clock speeds.
Was het maar zo, "Kabini is AMD's alternative to Intel's Pentiums" lijkt er meer op.

[ Voor 66% gewijzigd door Dreamvoid op 05-09-2013 11:01 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
*

[ Voor 100% gewijzigd door Astennu op 06-09-2013 09:32 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Het is zelfs 5 uur volgens de specs.

In een ultrabook-achtige laptop moet het mogelijk zijn om 15w te koelen. Als ze er een tablet chip in zetten, dan verwacht ik ook tablet accuduur en tablet gewicht. Maar dat ontbreekt.

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Ik ben bang dat het niet zozeer de TDP het probleem is, maar het verbruik in idle en met lage belasting. Een andere verklaring kan ik er niet voor vinden.

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bij filmkijken zit je sowieso niet met idle belasting, dus de '5 uur film kijken op 1 accu' zegt nog niets over de accuduur voor idle. Dingen die mee kunnen spelen in het gegeven getal zijn het verbruik van het scherm (goedkoop scherm kan wel eens minder energie-zuinig zijn) en bovendien hebben we hier te maken met een mechanische harde schijf, die aardig wat meer verbruikt dan een SSD, die in duurdere ultra-dunne laptops zit.

In het kort, zo lang er geen (objective) benches zijn gedraaid met dit apparaat, waarbij ook naar andere tests gekeken wordt, is er weinig te zeggen over het verbruik. Maar 5 uur, zelfs met een kleine 33Whr accu, is natuurlijk kort voor films kijken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 05 september 2013 @ 13:50:
Het is zelfs 5 uur volgens de specs.

In een ultrabook-achtige laptop moet het mogelijk zijn om 15w te koelen. Als ze er een tablet chip in zetten, dan verwacht ik ook tablet accuduur en tablet gewicht. Maar dat ontbreekt.
Misschien zit er gewoon een flut/goedkope accu in.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Bij filmkijken zit je sowieso niet met idle belasting, dus de '5 uur film kijken op 1 accu' zegt nog niets over de accuduur voor idle.
Bij filmkijken zouden de cpu cores vrijwel idle kunnen staan, de video decoding gebeurt op dedicated silicon. Daarom is ook het verbruik op lage loads belangrijker dan TDP.

En we kunnen wel wachten tot Anand en Ars Technica hun benchmarks doen, maar de OEMs maken de keuze om voor Temash te kiezen ipv Kabini lang voordat de eerste publieke benchmarks verschijnen. Er moet ergens een reden zijn voor hun keuzes.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Temash is volgens mij de lower power versie van Kabini met minder CPU cores (dual ipv quad).
Correct me if i'm wrong.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Nee, Temash is er ook in quadcore, en Kabini ook als dual core. Het verschil zit hem in de Fusion Controller Hub (Kabini heeft meer features) en de max klok van cpu/gpu. (edit: sterker nog, Kabini en Temash zijn allemaal varianten van 1 die).

Hier is het lijstje. Temash zijn de chips onder het kopje "Tablets".

[ Voor 52% gewijzigd door Dreamvoid op 06-09-2013 11:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het Acer model wat ook Temash gebruikt zou veel beter zijn met de accuduur dus het zal wel aan de fabrikant liggen (ja je zal er even een paar pagina's voor terug moeten gaan.
De reden dat Temash wordt gebruikt (in plaats van Kabini) heet Ultrabook potje, fabrikanten krijgen geld van Intel voor deze modellen als ze zich maar netjes aan de regels houden

Ik ben wel te spreken over mijn Kabini laptop een beetje te groot (17inch) maar oogt bijzonder lekker en snelheid is goed (behalve dan die achterlijke 5400 toeren hd die er in zit).

Er is natuurlijk wel wat meer aan de hand b.v. dat geneuzel van Samsung die AMD cpu gebruikt maar met een reden komt van "nee het is geen AMD cpu maar wij hebben hem veranderd,

Dus Samsung gebruik quad core X86 cpu maar geen AMD :)

Je hoeft geen complot freak te zijn om te begrijpen dat er wat fout zit.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 06 september 2013 @ 13:41:
De reden dat Temash wordt gebruikt (in plaats van Kabini) heet Ultrabook potje, fabrikanten krijgen geld van Intel voor deze modellen als ze zich maar netjes aan de regels houden
En een van die regels is dat er een intel U cpu wordt gebruikt. Hoe kan dat een reden zijn dat er temash in zit in plaats van kabini?

Acties:
  • 0 Henk 'm!

Verwijderd

Je bedoelt dat als Intel in de regels zet dat je geen concurrerend (performance) model met een AMD chip in de lineup mag hebben dat ze misschien voor de rechter komen?

Als je al niet snapt dat het Ultrabook potje ook al een probleem is dan wordt het moeilijk?

Waarom moet er zo'n potje bestaan voor heen was dat ook niet zo en iedereen maakte toen ook al laptops/netbooks.

Acties:
  • 0 Henk 'm!

Verwijderd

Het ultrabook potje betekent dat intel meehelpt met het optimaliseren van je platform en kortingen geeft op chips voor laptops die de eisen van een ultrabook voldoen. Ik geloof niet dat er regels over bestaan over een eventueel aanbod van laptops met concurrerende chips. Anders wil ik daar graag een bron voor zien.

Daarnaast is het volgens mij niet mogelijk om binnen het prijssegment van temash/kabini aan de eisen van een ultrabook te voldoen. Anandtech heeft een aantal van de eisen hier opgesomd: http://www.anandtech.com/...eview-core-i74500u-tested

[ Voor 30% gewijzigd door Verwijderd op 06-09-2013 17:21 ]


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Verwijderd schreef op vrijdag 06 september 2013 @ 13:41:
De reden dat Temash wordt gebruikt (in plaats van Kabini) heet Ultrabook potje, fabrikanten krijgen geld van Intel voor deze modellen als ze zich maar netjes aan de regels houden
Om het verschijnsel dat OEMs voor Temash ipv Kabini gaan aan Intel te wijten is wel een heel vergezochte theorie. Het houdt ze nl niet tegen om volop Richmonds in laptops te schuiven.

[ Voor 7% gewijzigd door Dreamvoid op 06-09-2013 17:19 ]


Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Ultrabook is soort van merknaam van intel, fabrikanten brengen amd tegenhanger uit onder namen als bijv. sleekbook. notebook met amd chip kan nooit ultrabook heten, al weet ik niet of het vastgelegd als merknaam en of dat mogelijk is, maar wegens de contracten(waarmee ze korting krijgen op cpu en chipsets) die de fabrikanten vrijwillig hebben aangegaan met intel dat ze beloven naam ultrabook exclusief te houden voor bepaalde intel configuraties.

Elke merk heeft al soort van amd ultrabook, had paar weken terug voor oom nog sleekbook gekocht bij mycom daar zat 17w 4355m in.

Edit/
Overigens kan elke fabrikant beslissen om cpu zonder korting te kopen en zijn eigen ding te doen zonder wat aan te trekken van intel, maar dan krijgen ze geen kroting en worden hun laptops veel duurder dan die van de concurrent. Maar dat verhaal kennen we al zin vorige eeuw, was ook rede dat atom zo eentonige netbooks opleverde met 1GB ram, 10" scherm, etc.

[ Voor 28% gewijzigd door mad_max234 op 06-09-2013 18:27 ]

-Andere hobby- -


Acties:
  • 0 Henk 'm!

Verwijderd

Ultrabook is een geregistreerde merknaam van intel. Zie bijvoorbeeld dell.nl:
Ultrabook, Celeron, Celeron Inside, Core Inside, Intel, Intel Logo, Intel Atom, Intel Atom Inside, Intel Core, Intel Inside, Intel Inside Logo, Intel vPro, Itanium, Itanium Inside, Pentium, Pentium Inside, vPro Inside, Xeon, Xeon Phi, en Xeon Inside zijn handelsmerken van Intel Corporation in de Verenigde Staten en/of andere landen.
Wanneer een laptop aan bepaalde, door intel gestelde eisen voldoet mogen ze de naam ultrabook gebruiken om mee te adventeren.

[ Voor 13% gewijzigd door Verwijderd op 06-09-2013 18:26 ]


Acties:
  • 0 Henk 'm!

  • warhamstr
  • Registratie: Augustus 2008
  • Laatst online: 26-12-2023

P50/Xeon E3-1505M/64GB/2Tb/Q M2000M 4GB/4K


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Waarom gebenched met Windows 7?

Maar goed, er zit toch ook een aardig prijsverschil tussen die chips. Als ze een 15-core Ivy Bridge-EX chip van $3000 ernaast hadden gezet, ja dan was het verschil nog groter. Als ze Qualcomms 'flagship' ernaast zetten, dan wint AMD. tsja...

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Ik kan dat nou niet bepaald een geweldige review noemen, Intel heeft 4 threads extra, is 2x zo duur en heeft natuurlijk hogere IPC. Als je mij van mijn stoel wilde laten donderen, had AMD moeten winnen.

Natuurlijk, het zijn de flagships, maarja, Intel heeft een linieschip waar AMD hooguit een fregat heeft, om het eens over bootjes te blijven houden.

Als je een leuke review wilt doen, moet je fragatten met fregatten vergelijken. FX8320 vs i5 bijvoorbeeld.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Welk OS had je liever gezien? Van Windows 8 is aangetoond dat benchmarks onbetrouwbaar kunnen zijn, en uit de stal van Microsoft zou ik ook weer niet verder teruggaan dan Windows 7.

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Dan is het tijd om betere benchmarks te gebruiken :) Aangezien Windows 8 betere support heeft gekregen voor Piledriver/Steamroller vs W7 zou het de boel een beetje vertekenen. Maar alsnog blijft het inderdaad een Rolls Royce met een BMW 5'je vergelijken.

Al is het jammer dat AMD is afgehaakt in de high-end - er zit nu een gat in de markt (workstations en mid-range servers) waar Intel geen concurrentie heeft. AMD gaat niet boven Core i5-niveau, en SPARC en Power chips verschijnen pas een segment hoger weer als concurrent.

[ Voor 9% gewijzigd door Dreamvoid op 07-09-2013 09:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 06 september 2013 @ 15:53:
Het ultrabook potje betekent dat intel meehelpt met het optimaliseren van je platform en kortingen geeft op chips voor laptops die de eisen van een ultrabook voldoen. Ik geloof niet dat er regels over bestaan over een eventueel aanbod van laptops met concurrerende chips. Anders wil ik daar graag een bron voor zien.

Daarnaast is het volgens mij niet mogelijk om binnen het prijssegment van temash/kabini aan de eisen van een ultrabook te voldoen. Anandtech heeft een aantal van de eisen hier opgesomd: http://www.anandtech.com/...eview-core-i74500u-tested
Misschien snap je het nog steeds niet , hoeveel van die laptops/netbooks met Temash zitten in het hogere segment hoeveel hebben er een goed scherm 1080p enz , het zit allemaal in het lagere segment. Dit is niet erg logisch je kan makkelijk 1080p op zulk soort machines doen het verschil tussen quad core Temash en Kabini is slechts 5 Watt en het model wat 2 GHZ doet zit op 25 Watt.

En toch zien we opvallend veel Temash in netbooks/laptops .

Om op je bron terug te komen misschien moet je eerst snappen dat als er een bron is dat er dan juridische consequenties aan vast zitten voor Intel,

Dit zal nooit naar boven komen maar verklaar eens waarom er zoveel Temash producten zijn dan?

Het kan nooit aan het ontwerp liggen want die 5 Watt dat zorgt niet voor een probleem met het ontwerp van het product tevens kan het ook niet liggen aan het prijsverschil per chip.

En nu niet meer komen zeuren over bronnen...

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 07 september 2013 @ 12:35:

En nu niet meer komen zeuren over bronnen...
Je beschuldigt een chipfabrikant van omkoping op grote schaal. Natuurlijk vraag ik om bronnen.

Daarnaast:
hoeveel van die laptops/netbooks met Temash zitten in het hogere segment hoeveel hebben er een goed scherm 1080p enz , het zit allemaal in het lagere segment. Dit is niet erg logisch je kan makkelijk 1080p op zulk soort machines doen het verschil tussen quad core Temash en Kabini is slechts 5 Watt en het model wat 2 GHZ doet zit op 25 Watt.
Die producten waren er ook al niet voordat intel met de ultrabooks kwam.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
Er is wel meer aan de gang dan dat wij weten, Samsung geeft niet voor niets aan dat ze niet duidelijk zullen maken dat de CPU in de ATIV 9 van AMD is:
the custom AMD CPU, which Samsung is describing as a “white-label” quad core.
Bron: http://www.pcworld.com/ar...its-ativ-book-9-lite.html

Maar wat ook mogelijk interessant is, is dat het niet duidelijk is waar de chip geproduceerd gaat worden.
Apple heeft de Samsung fab's recent verlaten, afgezien van één 14nm contract zover ik weet, Samsung heeft dus overcapaciteit.
Samsung zit in de HSA-foundation dus het is niet onmogelijk dat Samsung de chip zelf bakt. (mogelijk op een beter proces dan GF, hoewel ze de chip 100mhz lager zouden clocken dan AMD.)

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Samsung noemt hun Exynos chip ook "Samsung", terwijl ze ARM cpu en gpu architecturen gelicensed hebben, dus waarom zouden ze niet hetzelfde doen als ze Jaguar en GCN architecturen van AMD licensen?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Dreamvoid schreef op zaterdag 07 september 2013 @ 13:09:
Samsung noemt hun Exynos chip ook "Samsung", terwijl ze ARM cpu en gpu architecturen gelicensed hebben, dus waarom zouden ze niet hetzelfde doen als ze Jaguar en GCN architecturen van AMD licensen?
Waarom staan de Ativ Book 9 lite's bij Geizhals dan allemaal benoemd met als APU de A6-1450, wat ook geheel in lijn is met de basis-specificaties op Samsungs eigen site (tot 1.4GHz en HD8250 Graphics)?

Het niet benoemen van AMD CPU/APU in deze is echt niet omdat het een custom chip zou zijn. Dat is het namelijk niet, uitgaande van alle bekende specs.

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Tsja, dat zal toch iets tussen Samsung en AMD zijn dan. Intel doet de grootst mogelijke moeite om zijn merknaam overal bij te proppen ("Intel inside"), maar wellicht betaalt AMD daar in dit geval niet voor.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Nog even los van het feit dat het lichtelijk absurd is om te betalen voor het vermelden welke processor in een product zit (is feitenlijk standaard binnen de industrie) staat de assumptie dat AMD wellicht niet genoeg wil betalen gelijk aan de assumptie dat Intel veel betaalt om te voorkomen dat AMD gebruikt, danwel genoemd wordt.

Aangezien we van de Gaming Evolved en andere zaken kunnen stellen dat AMD zijn best doet om genoemd te worden en we ook weten dat Intel nu niet bepaald een vlekkeloos verleden heeft aangaande oneerlijke concurrentie, kun je een redelijke assumptie maken welke van de 2 bovenstaande assumpties waarschijnlijker is.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
dahakon schreef op zaterdag 07 september 2013 @ 18:04:
Nog even los van het feit dat het lichtelijk absurd is om te betalen voor het vermelden welke processor in een product zit (is feitenlijk standaard binnen de industrie) staat de assumptie dat AMD wellicht niet genoeg wil betalen gelijk aan de assumptie dat Intel veel betaalt om te voorkomen dat AMD gebruikt, danwel genoemd wordt.

Aangezien we van de Gaming Evolved en andere zaken kunnen stellen dat AMD zijn best doet om genoemd te worden en we ook weten dat Intel nu niet bepaald een vlekkeloos verleden heeft aangaande oneerlijke concurrentie, kun je een redelijke assumptie maken welke van de 2 bovenstaande assumpties waarschijnlijker is.
Behaalde resultaten in het verleden... ;)

Ik ga voor optie B!

Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Verwijderd schreef op zaterdag 07 september 2013 @ 12:35:
[...]


Misschien snap je het nog steeds niet , hoeveel van die laptops/netbooks met Temash zitten in het hogere segment hoeveel hebben er een goed scherm 1080p enz , het zit allemaal in het lagere segment. Dit is niet erg logisch je kan makkelijk 1080p op zulk soort machines doen het verschil tussen quad core Temash en Kabini is slechts 5 Watt en het model wat 2 GHZ doet zit op 25 Watt.

En toch zien we opvallend veel Temash in netbooks/laptops .

Om op je bron terug te komen misschien moet je eerst snappen dat als er een bron is dat er dan juridische consequenties aan vast zitten voor Intel,

Dit zal nooit naar boven komen maar verklaar eens waarom er zoveel Temash producten zijn dan?

Het kan nooit aan het ontwerp liggen want die 5 Watt dat zorgt niet voor een probleem met het ontwerp van het product tevens kan het ook niet liggen aan het prijsverschil per chip.

En nu niet meer komen zeuren over bronnen...
De 5200 kabine is niet gelijk in grote getalen beschikbaar, eerste laptops komen er nu mondjesmaat aan. Kijk over paar maanden maar zullen alle E2's vervangen zijn door 5000 en 5200 kabine apu's, aanbod van E2 notebooks is nog erg groot men wilt ook liever eerst dat die opraken. ik verwacht dat over tijdje minsten net zoveel kabine notebooks zullen zijn dan E2.

Verhaal dat ze alleen in budget notebooks zitten is eigenlijk altijd al valid geweest en zal voorlopig ook wel de overhand houden, amd vind je voor 95% van de tijd in budget en mid notebooks, is al zins de k6 het geval.

Maar toch denk ik dat er langzaam wat meer luxere amd laptops komen, en dan bijv. in game segment zoals msi doet. Verwacht ook kleinere laptops met full hd, maar aanbod zal hoe dan ook veel minder zijn dan die van het intel kamp, voor elke amd laptop zullen er 10 intel tegenover staan, dat zal niet snel veranderen denk ik.
dcm360 schreef op zaterdag 07 september 2013 @ 01:19:
[...]

Welk OS had je liever gezien? Van Windows 8 is aangetoond dat benchmarks onbetrouwbaar kunnen zijn, en uit de stal van Microsoft zou ik ook weer niet verder teruggaan dan Windows 7.
Alleen als je aan base klokfrequentie zit, anders zal win8 gewoon normaal werken. Heeft dus alleen invloed als je overklokt of onderklokt via baseklok, win8 gebruikt dat als referentie voor de timers.

[ Voor 11% gewijzigd door mad_max234 op 07-09-2013 18:15 ]

-Andere hobby- -


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Dreamvoid schreef op zaterdag 07 september 2013 @ 09:53:
Dan is het tijd om betere benchmarks te gebruiken :)
Eigenlijk moet Microsoft het probleem met de RTC fixen, naar mijn mening tenminste. FutureMark heeft nu wel detectie ingebouwd om het problemen met de klok mee vast te stellen, dus als er problemen waren wordt de score niet gevalideerd. Of zij en andere makers van benchmarks nog met betere oplossingen komen en of Microsoft het probleem gaat aanpakken weet ik zo snel niet ergens te vinden.

Acties:
  • 0 Henk 'm!

  • mad_max234
  • Registratie: September 2003
  • Laatst online: 07-02 11:09

mad_max234

AMD Athlon II M320

Moet inderdaad MS doen, is kwestie van stukje code herschrijven zodat als de baseclock in windows word aangepast de timers ook worden aangepast met hetzelfde percentage. Overigens doet het probleem alleen voor als je in windows de klok veranderd via software, als je in de bois de clock veranderd voordat win8 boot zal win8 tijdens het booten wel de timers corrigeren en zal alles wel gewoon kloppen, functie is dus al aanwezig om timers aan te passen.

-Andere hobby- -


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Volgens mij is dit probleem makkelijk op te lossen, als je in de bios gewoon je HPET aanzet en deze via Windows forceert dan heb je volgens mij geen last meer van het feit dat de tijd niet meer klopt.
De normale setting van Windows is dat hij het gemiddelde van beide pakt. Wat je beter kan doen is gewoon HPET forceren in Windows.

Dit heeft trouwens niet alleen effect op benchmarks maar ook op spellen, met name Supreme Commander en Diablo III.

Als je HPET wil forceren:
http://www.neowin.net/forum/topic/1075781-tweak-enable-hpet-in-bios-and-os-for-better-performance-and-fps/
Dit even gedeeltelijk van mijn post van de frontpage gepakt, zit ik nu uit mijn nek te praten of zijn HPET en RTC gelijk.

[ Voor 4% gewijzigd door Sp3ci3s8472 op 07-09-2013 19:43 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 17-09 15:51
mad_max234 schreef op zaterdag 07 september 2013 @ 19:24:
Moet inderdaad MS doen, is kwestie van stukje code herschrijven zodat als de baseclock in windows word aangepast de timers ook worden aangepast met hetzelfde percentage. Overigens doet het probleem alleen voor als je in windows de klok veranderd via software, als je in de bois de clock veranderd voordat win8 boot zal win8 tijdens het booten wel de timers corrigeren en zal alles wel gewoon kloppen, functie is dus al aanwezig om timers aan te passen.
Het probleem ligt iets anders, natuurlijk kan MS dat fixen, alleen hebben ze in de systeem eisen van Windows8 opgenomen dat een RTC niet verplicht is. (Dit voor sommige ARM producten)

MS kan geen bestaande producten gaan buitensluiten en een uitzondering in software maken zou er voor fragmentatie zorgen. Kort om, dit probleem wordt pas opgelost met de komst van Windows 9.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 07 september 2013 @ 12:53:
[...]

Je beschuldigt een chipfabrikant van omkoping op grote schaal. Natuurlijk vraag ik om bronnen.

[...]

Die producten waren er ook al niet voordat intel met de ultrabooks kwam.
En nu wil ik graag weten waarom er geen 1080p schermen te krijgen zijn voor het AMD segment. De laptops waar we het over hebben zijn er in het hier en nu.

AMD kan makkelijk 1080p fluitend doen op elke Temash/Kabini dit kan je niet zeggen over wat er voorheen uitkwam en dan toch blijven de laptops uit.

Wou je nog een keer wat vragen over bronnen?
Pagina: 1 ... 21 ... 55 Laatste

Dit topic is gesloten.