Dat de consoles zwakke hardware hebben en zwakke CPU's hadden speelt inderdaad ook een rol maar zowel die zwakkere CPU's als de monopolie werden door Intel gecreëerd. Immers, Intel had gedurende minstens 2 decennia OEM's en winkels (waaronder Mediamarkt en Best Buy) verboden om AMD CPU's te gebruiken. Ik kies het woord "verbod" niet lichtzinnig, het ging veel verder dan slechts alles of niets kortingen die illegaal zijn in veel landen, Intel draaide ook de duimschroeven aan. Op het moment dat Compaq - mogelijk de grootste OEM in de jaren 90 - aankondigde ook systemen met AMD-CPU's te verkopen zorgde Intel ervoor dat Compaq nergens meer server-CPU's van Intel kon kopen. Of dat dit de enige aanleiding is weet ik niet maar Compaq ging niet veel later failliet en werd ovegenomen door HP. Intel is door verschillende organisaties in 3 continenten op de vingers getikt en er zijn sancties opgelegd. De bekendste voor de mensen hier is de boete die Europese Unie gaf: 1 miljard €, wat natuurlijk kattenpis is in vergelijking met de extra winst die ze maakten.
Deze is niet volledig maar het geeft wel een aardige samenvatting van het belangrijkste.
Wil je nog meer weten over de geschiedenis? Dan is dit boek, geschreven door een voorganger van Lisa Su, interessant.
Slingshot: AMD's Fight to Free an Industry from the Ruthless Grip of Intel
Hieruit ontstaat het beeld dat het veel verder ging dan enkel dit. Een anekdote: Intel had copyright-infringement gepleegd, werd hiervoor aangeklaagd en veroordeeld, Intel moest een schadevergoeding betalen. Vervolgens kocht Intel een fab waar dit bedrijf volledig van afhankelijk was. Ik laat duiding achterwege, iedereen kan dat zelf invullen. Op Amazon, waar ik niet graag reclame voor maak, kan je de eerste pak hem beet 20 bladzijdes van het boek lezen. Ik raad het aan, het is verrassend goed geschreven gezien dat hij geen professionele schrijver is.
Ik geef wel even deze duiding. Je kan dit gedrag van Intel richting AMD gedeeltelijk begrijpen als je weet dat Intel door IBM werd gedwongen om AMD een X86-licentie te geven. Er zijn verschillende micro-architecturen en elke micro-architectuur is door medewerkers van 1 bedrijf ontwikkeld. Op een gegeven moment moest IBM een micro-architectuur kiezen voor hun computers (IBM was de grote OEM in de jaren 70/80), IBM koos X86 van Intel maar IBM wilde niet afhankelijk zijn van een monopolist en dus gaf IBM Intel de keuze: een licentie geven aan een andere fab of geen deal. Nu speculeer ik even: ik schat in dat Intel behoorlijk pissed was over deze zet en daarom AMD niet het licht in de ogen gunde en dus begon met dat Intel Inside programma etc.
Dit haal ik niet aan om te illustreren wat Intel voor rottigheid heeft uitgehaald maar omdat dit grote gevolgen had voor wat AMD kon besteden en hiermee AMD op een gigantische achterstand kwam te staan. AMD maakte een verkeerde keuze met hun CPU-ontwerp waarbij ze speculeerden op beter werk van developers die sneller beter zouden multithreaden maar het financiële tekort zorgde ervoor dat AMD veel minder geld kon besteden aan de ontwikkeling van nieuwe nodes en hierdoor moest AMD de concurrentie aangaan met een veel grotere node, een nog veel groter verschil dan het verschil tussen GF 14/12 nm en Intel 14++ (zeer sterk in het voordeel van Intel qua piek-performance en vermogen bij hogere klokfrequenties (rond de 4,0 GHz bij GF 12 denk ik, voor GF 14 is de grens op ongeveer 3,8 GHz). Ik stel dus dat de monopoliepositie en de zwakkere CPU's door Intel werden gecreëerd (immers kan je voor consoles veel gemakkelijker multithreaden). Ik geef dus wel Intel grotendeels de schuld van het feit dat ze nauwelijks vooruitgang maakten tussen de 2000-serie en de 7000-serie. Al wil ik hen wel krediet geven voor wat ze uiteindelijk uit die 14 nm. node hebben gehaald.
Veel computerwetenschappers zijn overigens behoorlijk kritisch op X86, een andere architectuur zou met de huidige stand van de hardware beter zijn maar daarnaar overschakelen is lastig omwille van reeds bestaande software die niet meer gebruikt zou kunnen worden zonder een emulator te gebruiken. Dat zou kunnen wanneer het verschhil in performance groot genoeg is maar dat verschil in performance zou erg groot moeten zijn. Zie hoe de Wii emuleren op de PC nog best lastig is met 1 enkele CPU-kern ondanks het grote verschil in kwaliteit van hardware wat nog veel groter is dan dat zelfs de meeste hardware-enthusiasts vermoeden. (de reden dat Nintendo wel snel redelijk lekker wordt geëmuleerd en we nog steeds wachten op het emuleren van de PS3 met een goede FPS zodat we RDR, Uncharted en The Last of Us eens kunnen spelen.
Wikipedia: Wii
Het laatste is wat offtopic maar interessant dus haal ik het even aan.
@
Sp3ci3s8472
Yep, dat e-penis ego is zeker aanwezig bij sommige mensen, zonder namen te noemen. Dat zag je sterk bij de desktop BBG van deze maand. Ik vind het dan wel weer mooi hoeveel mensen daar goede repliek gaven en verdomd goed inzien hoe de vork in de steel zit (bang for the buck, allround, waar je het geld meer aan zou kunnen uitgeven behalve aan de duurdere CPU, dat je niet met 1080p gaat gamen met een 1080 Ti...). Het heeft 2 jaar geduurd maar de meeste enthusiasts lijken het nu aardig te begrijpen. Het helpt dat veel van die techtubers en reviewers het laatste jaar dit zijn gaan uitleggen nadat ze een jaar nodig hadden om overtuigd te worden door veel van hun lezers en kijkers. Dat neemt natuurlijk niet weg dat er ook legitieme motieven zijn om wel voor Intel te kiezen (met name gaming met hoge RR en Adobe) maar dat zijn niche-cases. En ja, dat gaat niet zozeer om Intel vs. AMD maar om bang for the buck vs. het allerbeste voor een flinke premie. Je bent niet beter omdat je meer kan betalen voor je CPU.
[
Voor 23% gewijzigd door
Verwijderd op 03-11-2018 20:36
]