Je doet nogal wat aannames, dus ik denk, ik ga het even uit elkaar halen
Een CPU is iets wat je koopt als een onderdeel van een systeem, en niet als een losstaand iets. Zeker hedentendage zijn er zo veel workflows waar de CPU niet eens de meest logische oplossing is, en er eigenlijk ook een soort van grens is van: "wat is nuttig qua CPU". Excel op sharepoint met elkaar editen waarbij sharepoint zelf een stuk van de berekeningen doet als het een complexe excel is kan op een chromebook met webbrowser. Passmark is "een" benchmark, maar niet "de" benchmark. Als je ziet dat een 7800X3D een 14600K (laten we even de generaties gelijk trekken) qua kosten benaderd, maar in games soms wel 20-30% sneller is, maar in Cinebench juist weer trager, dan is de use-case duidelijk: de 7800X3D voor gamen, de 14600K voor de rest. Ga je echter performance-per-watt erbij trekken, dan heb je over een levensduur van 3 á 4 jaar met energiekosten erbij een andere kostenplaat.
De waarde van de passmark score even buiten beschouwing gelaten kost extra CPU snelheid buitenproportioneel meer.
Goed -- je had passmark al gezien. En ja: extra CPU is onderhevig aan diminishing returns, want een "grotere" CPU kun je minder eenvoudig maken uit een wafer. De die moet perfect zijn op de hogere specs, en je hebt voor sommige CPU's meer dies nodig.
Je zou denken dat veel mensen daarom interesse zouden kunnen hebben in een systeem met twee goedkopere cpus dat dan sneller is dan een gelijkwaardig syteem met een veel duurdere CPU.
Je hebt de tile/multi-CCD CPU uitgevonden. Wel op één socket echter. Moderne AMD CPU's en sinds kort ook bij Intel bestaan niet meer uit één CPU, maar uit losse, kleine stukjes. Op één threadripper pro CPU zitten soms wel 9 "chips". 8 CPU-dies, en één I/O die.
Bovendien krijg je dubbel het aantal PCIe lanen en dergelijke.
Nope. Wat heeft PCIe uberhaupt op een CPU te zoeken? Zet het op een I/O die. Samen met de memory controller, USB, S-ATA, en IGP. Heb je echt meer PCIe nodig? Pak een grotere/andere I/O die. Zowel AMD als Intel hebben "single sockets" met ver in de 60-80 PCIe lanes. En een balans tussen PCIe4 en 5. Meer lanes betekent echter wel meer pins in de socket, en meer foutgevoeligheid, dus dikkere moederborden. Duurdere socket, moederbord, én chip (we hebben heel lang zelfs geen PCIe4 risers gehad omdat die marges zó klein worden, we praten over lichtsnelheid die bepaald hoe precies iets moet zijn op niveau moleculen). Waar denk je dat de "A" in de nieuwe Intel productieprocessen vandaan komt? Angstrom. Golflengtes van EM/licht zijn in angstrom uitgedrukt.
Bovendien, mocht je twee CPU's hebben, met elke en eigen memory controller en I/O die (en dus PCIe lanes), moet je je software ook ontwerpen dat hij weet wáár de GPU is, wáár dat stukje geheugen staat wat bij die applicatie hoort, en waar de input komt. Dan krijg je van die stappen als:
Storage > Memory > CPU > Cache > Execute > PCIe > GPU > Display
die dan ineens:
Storage > Memory > CPU > Memory > CPU > Execute > CPU > PCIe > GPU > Display
Ook dit soort gezellige reddit threads krijg je dan:
https://stackoverflow.com...hit-by-numa-node-in-linuxWeet iemand waarom de moederbord fabrikanten uitsluitend server moederborden met twee cpus produceren?
Ik weet dat dus

De prijs alleen kan het niet zijn gelet op de prijzen van de moederborden tegenwoordig.
Yup. Wel degelijk prijs. En performance. En wie heeft het nodig? En software ontwikkeling. Als je bedenkt dat de meeste applicaties qua "main thread" niet eens netjes kunnen delen binnen één CPU, als je dan ineens ook NUMA-onbewuste applicaties moet omzetten naar NUMA-bewust, is de winst erg klein.
Bovendien zijn we stiekem al multi-CPU, door de tiled CPU. Wat een stuk van de productie complexiteit omlaag brengt door meer CPU's in één socket te rammen IPV twee sockets te introduceren. Of --Dennis Richie forbid --- de oude Northbbridge > southbridge architectuur weer te introduceren, waarbij de I/O die/memory controller op het board zit IPV op de CPU... ik zie eerder nog dat we naar on-CPU memory/storage gaan dan dat.
Overigens, ik roep hierboven een hoop vanuit mijn kennis van hard- en software (ik ben software architect, met een specialisatie op GIS, maar met een passie voor hardware en een historie in datacenter/supercomputing). Ik draai ook al heel wat jaren mee -- ik ben opgegroeid tussen de computers. Ik realiseer me dat wat termen onbekend zullen zijn (numa, northbridge, southbridge), en zeker op het gebied scheidingsvlak "computer" en "natuurkunde" (waar we op zitten tegenwoordig) kunnen dingen weird worden, maar er is genoeg leesvoer, verder dan wat ik uitleg. Een simpele wiki-read over NUMA, maar ook gewoon zelf spelen (door intel performance monitoring drivers te installeren en performance counters als cache miss te tellen -- je weet wel, het ding wat die X3D reeks probeert op te lossen) kan een hoop leren. Maar de essentie hiervan is, zoals met zoveel problemen tegenwoordig, ook soms maatschappelijk: soms is een ogenschijnlijk simpele observatie een grove onderschatting van een complexe uitdaging. Misschien zou mijn antwoord moeten zijn: "Because, trust me bro -- you think you do, but you don't".
[
Voor 10% gewijzigd door
Umbrah op 16-02-2024 13:36
]