Qualcomm gebruikt voor de cpu in de Snapdragon standaard designs van ARM in combinatie met een eigen gpu en DSP/neural processing unit. De cpu designs van ARM zijn niet snel genoeg om te kunnen concurreren met high-end x86 desktop cpu's en bovendien zullen Intel en AMD de cpu zelf willen ontwerpen om zich te kunnen onderscheiden. De gpu kunnen ze ook beter zelf doen.
Voor Intel en AMD is het logischer om een architectuurlicentie te nemen om zelf designs te maken op basis van de ARM-instructieset. Het is niet makkelijk om daar een commercieel succes van te maken. In tegenstelling tot Apple leveren Intel en AMD geen eindproduct maar slechts één van de bouwstenen op basis waarvan systeembouwers en softwareboeren een oplossing leveren.
Zowel Intel als AMD zijn overigens bekend met ARM. Zo heeft AMD een paar jaar geleden de Opteron A-series uitgebracht gebaseerd op ARM Cortex A57 cores en Intel heeft na de overname van de StrongARM-divisie van DEC in 1998 een tijdje ARM-processors gemaakt voor pda's en embedded hardware. Tweakers die al wat langer meelopen kunnen zich herinneren dat er Intel PXA-processors in HP pda's uit het begin van het millennium zaten. In 2006, vlak voordat smartphones een ding werden, schoof Intel de XScale-groep door naar Marvell. We weten allemaal hoe vreselijk succesvol Intel sindsdien is geweest in de mobiele markt

. Intel heeft overigen nog steeds een ARM architectuurlicentie volgens Wikipedia.
ppl schreef op donderdag 3 december 2020 @ 14:53:
Bovendien is het trucje wat zowel Qualcomm als Apple toepassen met hun ARM SoCs niet een trucje die je alleen maar bij ARM kunt toepassen. RISC-V en x86 kunnen het net zo goed. Sterker nog, Intel beweegt met haar x86 processoren ook steeds meer die kant op. We hadden ooit een north en south bridge maar dat zit tegenwoordig in de processor. Die processor kreeg ook meer cores (een core was vroeger de gehele cpu) en de gpu kwam er ook bij in. Zo is Intel langzamerhand steeds meer in de processor gaan integreren en daarmee zijn ze nog niet gestopt. Het enige verschil is dat Apple en Qualcomm een fors stuk voorlopen omdat ze heel wat verder zijn gegaan met die integratie. Als er vraag naar is dan komen Intel/AMD ook wel met die dingen, er is nou niet bepaald een doemscenario.
De uitstekende performance van de M1 is enerzijds te danken aan de heterogene architectuur waarbij er dedicated compute units zijn voor graphics, machine learning/AI, video codecs en beeldbewerking. Intel en AMD kunnen dat ook toepassen, hoewel de softwareintegratie moeilijker is als je niet van begin tot eind controle hebt over je hardware- en softwareplatform.
De extreem goede single core performance van de M1 is mede te danken aan de zeer brede execution pipeline en superieure out-of-order execution. Erik Engheim stelt in zijn post op Medium dat ARM / RISC hier een wezenlijk voordeel heeft ten opzichte van x86 / CISC vanwege de eenvoudiger instructieset. Voor Intel en AMD is het moeilijker om meer instructielevel paralellisme door middel van out-of-order-execution te verkrijgen. Het decoderen, analyseren en herschikken van instructies met een variabele lengte is veel complexer dan bij de simpeler ARM-instructies met vaste grootte:
Why can’t Intel and AMD add more instruction decoders?
This is where we finally see the revenge of RISC, and where the fact that the M1 Firestorm core has an ARM RISC architecture begins to matter. You see, for x86 an instruction can be anywhere from 1–15 bytes long. On a RISC chip instructions are fixed size. Why is that relevant in this case?
Because splitting up a stream of bytes into instructions to feed into eight different decoders in parallel becomes trivial if every instruction has the same length. However, on an x86 CPU, the decoders have no clue where the next instruction starts. It has to actually analyze each instruction in order to see how long it is.
The brute force way Intel and AMD deal with this is by simply attempting to decode instructions at every possible starting point. That means we have to deal with lots of wrong guesses and mistakes which has to be discarded. This creates such a convoluted and complicated decoder stage that it is really hard to add more decoders. But for Apple, it is trivial in comparison to keep adding more. In fact, adding more causes so many other problems that four decoders according to AMD itself is basically an upper limit for how far they can go.
This is what allows the M1 Firestorm cores to essentially process twice as many instructions as AMD and Intel CPUs at the same clock frequency.
Met bruut geweld (en veel energieverbruik) zijn Intel en AMD tot nu wel in staat geweest om veel performance uit een gemankeerde instructieset te halen maar het lijkt er wel op dat er grenzen zitten aan de complexiteit die ze kunnen handlen, zeker nu ook efficiency steeds belangrijker wordt. Een Ryzen 5000 is qua single core performance in een aantal benchmarks nog wel sneller dan de M1 maar alleen maar omdat het ding op een veel hogere kloksnelheid (5,0 vs 3,2GHz) draait met alle nadelen vandien ten aanzien van energieverbruik en warmteontwikkeling.
ppl schreef op vrijdag 4 december 2020 @ 14:25:
Intel speelt al jaren geen rol in die kleine markten waar hele energiezuinige processoren nodig zijn en het haast onoverkomelijk is om allerlei verschillende componenten (zoals met de M1) te gebruiken om nog enigszins goede performance te verkrijgen. Ze hebben het een paar keer geprobeerd maar er is heel moeilijk tussen te komen dus die hoop zullen ze al wel hebben laten varen.
De markt voor energiezuinige SoCs is bepaald niet klein. In aantallen in ieder geval fors groter dan die van desktop en server cpu's. Arm zit in alles van smartphones, tablets en mediaspelers tot aan netwerkapparatuur en auto's. Het falen van Intel om een rol van betekenis te spelen in die markten zorgt er nu wel voor dat ze dik in de problemen gaan komen.
Het is dus niet ondenkbaar dat ARM en RISC-V die onderkant van de markt waar al die smartwatches, smartphones, tablets, laptops en desktops zitten zullen overnemen terwijl Intel zich verder alleen maar in het hogere segment richt van de datacentra, HPC en noem maar op. Intel verliest hier amper iets.
Persoonlijk denk ik dat de servermarkt er eerder aangaat voor Intel dan desktops. Al die cloudpartijen zoals Amazon en Google zijn hard op zoek naar oplossingen om het energieverbruik van hun datacentra terug te dringen en laat efficiency nou het speerpunt zijn van ARM. Cpu's zoals de Graviton2 hebben al een degelijke multi-threaded performance. Single threaded prestaties moeten nog wat beter en Apple bewijst dat het kan. Softwarematig is het ook minder een issue omdat Linux al prima draait op ARM en veel open source software ook voor ARM beschikbaar is. Tot nu toe ontbrak het nog aan goede desktopmachines om native ARM development op te doen, dat gaat Apple makkelijker maken met Linux in een VM.