[Discussie] De langzame dood van de pcie videokaart

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Sweatleek
  • Registratie: Maart 2016
  • Laatst online: 15-09 21:11

Sweatleek

404: Member Not Found

Topicstarter
GPUs are going the way of the dodo

Naar aanleiding van een aantal video's / artikels is er eigenlijk een vraag op gekomen wat ik eigenlijk best wel super interessant vind om eens over te hebben.

De vraag in kwestie: "Over een paar jaar is de videokaart volledige geïntegreerd op de cpu"

Grote inspiratie voor dit topic:
Profile: Jensen Huang. Is this his last year as NVidia CEO?
reviews: Het huwelijk van gpu en cpu


*Ik bedoel echt een externe videokaart dus niet een interne videokaart (Igpu) of amds apu.
**@mods Ik weet niet of het hier mag maar vond het de meest passelijke plek. Als het better ergens anders kan is dat zeker geen probleem

[ Voor 17% gewijzigd door Sweatleek op 07-01-2019 16:45 ]

confused reality


Acties:
  • 0 Henk 'm!

  • Sweatleek
  • Registratie: Maart 2016
  • Laatst online: 15-09 21:11

Sweatleek

404: Member Not Found

Topicstarter
Sweatleek schreef op maandag 7 januari 2019 @ 16:38:
GPUs are going the way of the dodo

*snip*
Mijn mening:
Ik denk zeker dat wij over 5 a 6 jaar een cpu of apu hebben die meer dan goed genoeg om b.v BF 10 op med/high settings 60FPS met de resolutie die op dat moment "standaard" is.
Daarnaast denk ik ook dat Intels 3D die stacking een grote rol gaat hebben hier in (dit is een techniek om "dies op elkaar te stapelen"). Je hebt dan b.v laag 1 is I/O , laag 2 is de CPU , laag 3 is de gpu.
De reden dat dit mijn een hele mooi toekomst lijkt is meer pcie lenen over voor apparatuur uit de toekomst. Laptops die ineens gelijk lopen aan desktops. Uit uiteindelijk ben je goed koper uit en kunt stroom gaan bespraken*.

*kijk bv naar een Ryzen 2200G dit is een apu van AMD. Deze apu heeft een nete 4 core in zich en een zeer sterke Igpu met de performance van een 1030 ongeveer. En dat in MAAR 65Watt ! en de chip kost maar 100~ euro

confused reality


Acties:
  • +7 Henk 'm!

  • Sharkware
  • Registratie: November 2003
  • Laatst online: 11-09 23:07
Misschien een wat korte/niets zeggende reactie, maar ik heb laatst een RTX2080 in mijn kast "gewurmd" en puur op basis van die ervaring zie ik zo'n grafische kaart niet binnen 6 jaar dermate verkleinen dat die "op een CPU" past.

Volgens mij zijn de kaarten alleen maar groter geworden. Mijn eerste 3DFX kaart was iig een stuk kleiner dan de RTX2080.

Waar ik wel in geloof is een "geïntegreerde" GPU welke dermate goed is dat je een hoop basic 3d applicaties er prima mee kunt draaien.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Nu online
Dit zou voor consumenten niet handig zijn. Een cpu gaat vaak wel 2x zo lang mee als een gpu. Daarbij limiteer je mensen dan ook in hun keuze. Of je moet heel veel combi's maken van apu's. Nu zou je dan bijvoorbeeld een 9700k met een 2080ti en een 9700k met 1050ti moeten leveren, de 1 voor gamers, de ander voor workstations.

Acties:
  • 0 Henk 'm!

  • Sweatleek
  • Registratie: Maart 2016
  • Laatst online: 15-09 21:11

Sweatleek

404: Member Not Found

Topicstarter
Sharkware schreef op maandag 7 januari 2019 @ 16:45:
Waar ik wel in geloof is een "geïntegreerde" GPU welke dermate goed is dat je een hoop basic 3d applicaties er prima mee kunt draaien.
Ik zou dan zelfs wel een stap veder willen gaan en zeggen dat je 1050TI levels aan performance in de op komenden APU's van amd gaan komen. Ik denk ook niet dat de GPU compleet uit het plaatje verdwijnt. En dat het alleen voor de super high en gaat worden 2080TI / Titan V levels aan performance ect.

Edit: En misschien krijgen dat sort kaarten dan ook een andere naam b.v coprocessor afkorting COP :)

I'm Aboard the amd hype train
418O2 schreef op maandag 7 januari 2019 @ 16:45:
Dit zou voor consumenten niet handig zijn. Een cpu gaat vaak wel 2x zo lang mee als een gpu. Daarbij limiteer je mensen dan ook in hun keuze. Of je moet heel veel combi's maken van apu's. Nu zou je dan bijvoorbeeld een 9700k met een 2080ti en een 9700k met 1050ti moeten leveren, de 1 voor gamers, de ander voor workstations.
Ik zie ook zeker dat je dan in een keuze probleem gaat komen. Maar wil dan eigenlijk ook wel stieken maar de data center gaan wijzen met de opmerking van "Als het complex is stuur je het daar toch even naar de data center". Daarnaast zie ik het juist positief in, kijk b.v naar de quadro linup van Nvidia dan heb je het eigenlijk gewoon een consumenten gpu met optimalisatie (en vaak meer Vram) maar de onderliggende reken cores om ze maar even zo te noemen zijn gewoon het zelfde. En als developers minder combinatie van cpu/gpus hoeven te ondersteunen kunnen ze de games ook beter optimalisatie. En dus hoef je ook geen RTXon 2080TI te hebben om BF5 op 60+ fps te spelen :9

confused reality


Acties:
  • +1 Henk 'm!

  • Wekko306
  • Registratie: December 2003
  • Laatst online: 16:39
Beeldscherm technieken (resolutie, refresh rate, andere zaken als HDR, etc) en andere zaken blijven zich ontwikkelen dus ik ga er vanuit dat er voorlopig noodzaak zal blijven aan een losse GPU als je wilt gamen op hoge instellingen.
Wat ik dan eerder zie gebeuren is dat streaming diensten verder ontwikkeld worden tot ze een reëel alternatief gaan vormen (met name voor diegenen die niet de hoogst mogelijke resolutie etc wensen) waardoor je als consument minder snel een GPU zal aanschaffen.

Acties:
  • +1 Henk 'm!

  • sprankel
  • Registratie: December 2006
  • Laatst online: 25-07 22:36
Met een IGP leg je een harde limiet op wat betreft stroom en warmte ontwikkeling.
Je krijgt dan een I7 mobile vs een gewone desktop I7 verhaal waarbij die laatste altijd ruimschoots wint omdat je niet binnen die limieten moet blijven.

Dat neemt niet weg dat de markt gaat schuiven, waar vroeger desktop koning was zijn het nu mobile devices. Sommige dachten dat desktop zou verdwijnen maar desktop word nu meer gezien als een high power alternatief indien een laptop niet voldoet. De instap losse GPU kaartjes kunnen wel is voorgoed verdwijnen.

Datacenter is lastig omdat je met input lag zit, voor sommige games kan het best maar FPS games leunen zich er niet voor. Er is ook niet echt een oplossing voor, zelfs al heb je een uitstekende verbinding en een datacenter dat geografisch dicht in de buurt zit.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja, wat er in die video word beweerd, zeg ik ook al een tijdje in de lopende discussies van zowel AMD als Nvidia. ;)

Het zal alleen niet zo snel gaan omdat GPU chips zeer afhankelijk zijn van geheugenbandbreedte. De low end markt gaat wel verdwijnen, en snel ook. Geen GTXxx50's meer, of RXx50's. Die gaan allemaal opgeslokt worden door de APU's. Mainstream is de volgende stap, maar dat gaat niet lukken met DDR4 want te weinig geheugenbandbreedte. Zelfs met DDR5 is het twijfelachtig of mainstream kaarten al gaan verdwijnen.

Mainstream chips gaan zich vervolgens wel splitsen in twee aparte categorieën, laptop en desktop. De laptops gaan hoogstwaarschijnlijk naar het model wat Intel heeft geintroduceerd met Kaby Lake G. Het gaat koppelverkoop van CPU's en GPU's samen met vram op een substraat of interposer worden. De reden is heel simpel, omzet.

Stel je hebt als OEM een partij chips nodig. Je haalt bijvoorbeeld een i5 en een GPU omdat de boel een beetje gaming georiënteerd moet zijn. Nu koop je dan een i5 8300H en een GTX1050+VRAM. Daar zal je nu als OEM toch al snel $300 voor betalen. Natuurlijk betaal je niet de retailprijs vanwege volume, maar je gaat ook geen enorme kortingen krijgen omdat Intel + Nvidia een redelijke monopoly zijn, nu nog.

AMD gaat daar doodleuk een betere deal tegenover zetten. Die gaan een samengesteld pakket aanbieden met CPU+GPU+VRAM voor bijvoorbeeld $250. Dit zal al op een substraat zitten waardoor de moederboordfabrikant enorm kan besparen op de moederborden. Dit gaan die OEM's kopen, massaal. Die zien opeens mogelijkheden om hun vaak erg smalle marges te verbeteren en die grijpen hun kans. AMD is ook blij want die vergroten hun omzet enorm. Omdat de verhouding R&D tot volume gaat verbeteren, zal AMD ook meer winst gaan maken op hun chips. Ze verkopen nu vrijwel nul, dus elke verkochte chip is al winst.

Intel gaat precies hetzelfde doen. Die gaan echt geen marktaandeel zo makkelijk aan AMD weggeven. Intel zal zich alleen geconfronteerd zien met hun enorme achterstand in GPU architectuur en potentieel ook CPU architectuur. Dat is iets waar ze langere tijd aan zullen moeten werken. Niet dat Intel zich echt veel zorgen hoeft te maken. Ze zijn simpelweg te groot om vervangen te worden door AMD. AMD zal de komende jaren simpelweg niet in staat zijn om de volumes van Intel te leveren. Een flinke hap uit Intel haar marktaandeel nemen kunnen ze zeker.

Wat dan met Nvidia? Nou die kunnen het mooi uitzoeken. Die worden vrijwel geheel uit de laptop OEM markt gedrukt.


In desktopland zal het langzamer gaan. De prestatie-eisen zijn dusdanig veel hoger dat een APU onwaarschijnlijk is. Dat is simpelweg een kwestie van geheugenbandbreedte, transistoren en koeling. De desktopmarkt is verder ook kleiner dan de laptopmarkt en de groei zit eigenlijk alleen nog maar in gaming systemen. Hier speelt ook mee dat Intel een decennium geleden heeft geprobeerd om PCI-E te dumpen en dat heeft Nvidia voorkomen met een rechtszaak. Nvidia kan dus niet uitgesloten worden van Intel platformen, en waarschijnlijk ook niet van AMD platformen.

Hier zal de mainstream videokaart nog wel even blijven bestaan. De volumes gaan alleen wel afnemen. Dat gaat Nvidia op termijn treffen omdat die hun R&D kosten voor een nieuwe architectuur over veel minder chips moeten gaan spreiden. Vroeg je je af waarom Turing zo extreem duur is? Nou hier is je antwoord. Wen er ook maar aan. Tenminste totdat AMD weer meedoet, want die hebben alle motief om ver onder de prijzen van Nvidia te gaan zitten. AMD gaat uiteindelijk voor marktaandeel, en nu zowel Intel als Nvidia met zwakke producten zijn gekomen, gaan ze die kans grijpen. ;)

Voor Turing gaat er misschien nog een RTX/GTX2050Ti verschijnen en heel misschien een RTX/GTX2050. Volgende generatie bestaan die niet meer. Nvidia zal zich noodgedwongen richten op de xx60, xx70 en xx80. Die zullen ook duur blijven omdat mensen nu eenmaal bereik bleken te zijn er enorme bedragen voor neer te tellen. Zo zal Nvidia proberen te overleven.

Vervolgens zal Nvidia de uitgang van de gamingmarkt langzaam gaan opzoeken en zich volledig gaan richten op AI. Daar gaan ze alleen ook enorme concurrentie ondervinden. AMD haar nieuwe Vega 20 is hooguit enkele procenten langzamer dan de gigantische GV100, en dat gaat ook een probleem worden op termijn. Verder gaat Intel in 2020 met een eigen GPU komen. Die is waarschijnlijk ook gericht op de AI markt, niet op gamers. Intel GPU's voor gamers zullen waarschijnlijk later volgen. Of deze alleen voor laptops zullen zijn of ook als losse videokaarten zou ik niet durven voorspellen.

[ Voor 12% gewijzigd door DaniëlWW2 op 07-01-2019 18:45 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Sweatleek schreef op maandag 7 januari 2019 @ 16:38:
GPUs are going the way of the dodo

Naar aanleiding van een aantal video's / artikels is er eigenlijk een vraag op gekomen wat ik eigenlijk best wel super interessant vind om eens over te hebben.

De vraag in kwestie: "Over een paar jaar is de videokaart volledige geïntegreerd op de cpu"

Grote inspiratie voor dit topic:
Profile: Jensen Huang. Is this his last year as NVidia CEO?
reviews: Het huwelijk van gpu en cpu


*Ik bedoel echt een externe videokaart dus niet een interne videokaart (Igpu) of amds apu.
**@mods Ik weet niet of het hier mag maar vond het de meest passelijke plek. Als het better ergens anders kan is dat zeker geen probleem
Jij volgt Coreteks ook? Een identieke draad werd hier 1-2 jaar geleden ook aangemaakt. Het is een terugkerend onderwerp. ;)

Ik geloof niet dat we over een paar jaar geen grafische kaart meer gebruiken maar de budget-kaarten verdwijnen wel langzaam maar zeker. Je gaat met een kaart meer performance kunnen blijven bieden dan wanneer je het integreert tenzij je radicaal het ontwerp van het moederbord aanpast. Je zou bijvoorbeeld de CPU en graphics kunnen combineren of voor graphics een socket kunnen maken en omheen die socket geheugen plaatsen of naast de GPU HBM plaatsen. Je zou ook de socket voor de CPU veel groter kunnen maken en zodoende de GPU en dedicated geheugen (HBM) op dezelfde PCB kunnen plaatsen als de CPU. Nadeel: als iets stuk gaat mag je het geheel weggooien. :/
edit Ik had nog niet gelezen dat iemand anders het ook al had opgemerkt. Idem voor Daniël zijn reactie.

Ik verwacht dat gamers in de jaren 30 nog een kaart blijven gebruiken voor gaming, zelfs al zou gebeuren wat ik hierboven schetste dan zouden we aparte kaarten krijgen voor raytracing of iets dergelijks. Voor de hogere segmenten blijven gamers in ieder geval nog lang kaarten gebruiken naar mijn verwachting. Je zal wel zien dat op een gegeven moment de goedkoopste grafische kaarten $400 of zo kosten of iets dergelijks.

Uit de eerste alinea zou het duidelijk moeten zijn voor wie het niet wist, het grootste probleem momenteel is niet het combineren van een GPU en een CPU maar het ontbreken van ruimte om daar ook nog geheugen te plaatsen met de huidige CPU-sockets. Je wil niet dat de GPU RAM-geheugen moet gebruiken maar momenteel hebben ze (met name AMD) geen andere keuze. Wat Intel en AMD deden (of beter gezegd Intel me de GPU+HBM die ze kopen van AMD): het maken van een veel grotere chip met HBM erop en die inbouwen in PCB's voor een paar laptops, dat zou heel erg de toekomst kunnen zijn en dat is precies een van de twee scenario's die hierboven schetste.
Het heeft een aantal voordelen (vermogen, kosten) maar ik weet niet of dat ik het leuk zou vinden want die CPU doet het 10 jaar later nog, of dat die graphics 10 jaar later nog goed werken...

Kortom, het heeft de toekomst maar voor de tweede helft van de jaren 20 zie ik het niet gebeuren en zelfs niet voor de jaren 30 tenzij het ontwerp van het moederbord radicaal wordt aangepast.

[ Voor 5% gewijzigd door Verwijderd op 07-01-2019 19:00 ]


Acties:
  • 0 Henk 'm!

  • Sweatleek
  • Registratie: Maart 2016
  • Laatst online: 15-09 21:11

Sweatleek

404: Member Not Found

Topicstarter
Verwijderd schreef op maandag 7 januari 2019 @ 18:52:
[...]
Jij volgt Coreteks ook? Een identieke draad werd hier 1-2 jaar geleden ook aangemaakt. Het is een terugkerend onderwerp. ;)
Zeker hij maakt mooi documentachtige videos en zoon sexy stem :>

Back on track: Zo als ik eerder aangaf denk ik ook dat intels 3D die stacking een grote rol gaat hebben in het wegvagen van de gpu. Puur omdat wel nu even simpel gezegd maar 2D konden gaan we konden niet echt cores boven op elkaar konden lijmen. Daar naast zat ik ook all een beetje te denken aan HBM. Maar denk ook b.v wat we kunnen gaan doen als de HBM gedeeld kan worden tussen cpu / gpu _/-\o_ . Dan krijgen we een tussen stap tussen geheugen en cpu cache.

https://images.anandtech.com/doci/12220/videosolution.png


Ik denk ook als we zeg 2 pci sloten kunnen dropen op een moederbord er in eens heel veel ruimten overblijft. Voor anderen dingen waar onderen een groteren socket

Waarom is een CPU die eigelijk altijd zo klein ? Kunnen ze niet veel meer bereiken als ze de die ietsjes uitbreiden.
DaniëlWW2 schreef op maandag 7 januari 2019 @ 18:38:
Tja, wat er in die video word beweerd, zeg ik ook al een tijdje in de lopende discussies van zowel AMD als Nvidia. ;).
Ga het even in onderwerpen doen wel zo makkelijk.

Markt: Ik denk ook zeker dat gpu met het jaar duurder worden. En dit zou juist een perfecte mogelijkheid zijn om goedkope IGcpu op de markt te brengen. Als we de even de RTX 2060 bij mogen pakket we hebben het hier over een "midrage" videokaart die toch al snel 369 dollar kost. Ja het is sneller ja het is better maar eerlijk gezegd ik kijk niet uit naar de dag dat wij dit als midrage beschouwen even snel 400 euro neer leggen voor "midrage" performance. Ik geef in een jaar zeker 25% van mijn in komsten uit aan ICT dingen en dan voornamelijk hardware / laptops dus dat is redelijk wat. En als ik dan maar de midrage kan verwachten in een altijd bewegende sector.... Als amd het lukt om een cpu op de markt te brengen met 1050TI levels aan performance voor ongeveer 200 euro met een TDP van max 100 watt (wat wel mogelijk moet zijn). Dan is voor mij de keuzen snel gemaakt. Zeker in het achter hooft hebbent dat deze 2200G die ik in mijn pc heb zitten zeer makelijk te OC was en dus nog meer performance heb gekregen

GPU: Deze zal zeker niet op de andere dag weg gaan. Maar ik denk ook wel heel sterk dat als mijn kinderen de ict ingaan dat zij dan de gpu zien zo als ik nu de geluidskaart zien. Ik ze de gpu eerder een rol opnemen als Compute Card ( iets zo als de Xeon Phi ) dus zonder uitgangen en dat deze veel meer op een ASIC gaat lijken. Veel minder insturcie zets. Die meer word gebruikt om complexer dingen uit te reken B.V raytracing. Of als extensie van de cpu zelf maar zeker niet noodzakelijk om BF 10 op te spelen.


@sprankel Zo lang amd een cpu van 220 watt op de markt kan brengen die koel blijft (voor amd dan)onder een Hyper 212 zitten we nog wel even goed. kwa datacenter tuurlijk zit er een latency probleem bij maar glasvezel word steeds uitgebreider en ouder. En als we nou eens waker worden en bepaalt bedrijven niet gaat claimen dat coax klaar is voor de toekomst moet het helemaal goed komen :)

confused reality


Acties:
  • 0 Henk 'm!

Verwijderd

3d-stapelen lost niet het warmte-probleem op, je zal het moeten spreiden! Gek genoeg las en hoorde je hier niets over in de media. :/
Hooguit kan je iets beter de warmte afvoeren als je warmtegeleidend materiaal tussen de dies stopt. Laten we niet vergeten dat Intel op dit vlak achterloopt op AMD - AMD begon met meerderre CPU's op 1 PCB, Intel kopiëert dat nu , en AMD vond de HBM uit - en dat we van AMD ook nog het een en ander mogen verwachten op dit vlak. Er zijn interessante artikelen van AMD te vinden op de websites van universiteiten die samen met hen onderzoek deden, bijvoorbeeld naar actieve interposers die verkeer routen.
Ik verwacht van Intel helemaal niets voor 2021. Niet voor CPU's en niet voor GPU's. Natuurlijk kan het dat Intel volgend jaar met wat betere CPU's komt maar qua node lopen ze achter op TSMC dus ze moeten het volledig van de micro-architectuur hebben en die zal pas radicaal anders worden vanaf 2021/2022 aangezien Intel in 2017 Keller in dienst nam en deze man in dienst wordt genomen om nieuwe projecten op te starten. Dat deed hij bij AMD en dat deed hij bij een aantal andere werkgevers. Idem voor de grafische kaarten, Koduri begon in 2017 hiermee...
Je moet normaal gesproken rekenen op 4-5 jaar tussen de start van het onderzoek en de eerste producten.

Meerdere bedrijven volgen dezelfde route: Nvidia met hun NVLink, AMD met IF en Intel met EMIB. Allemaal om dezelfde reden: omdat de nodes niet meer zo snel veel beter worden en je dus meer parallel moet werken. Om meer performance te krijgen doordat je meer kernen krijgt, minder problemen met warmte hebt (groter oppervlakte) en minder problemen met yields krijgt. Intel is niet de leider, Intel is een van de bedrijven die dezelfde route volgt. Bij bedrijven die ARM-CPU's ontwerpen zie je hetzelfde.
Alleen heeft Intel als eerste 3d aangekondigd voor CPU's. We zullen het wel gaan zien, mijn donkerbruine vermoeden is dat het nog jaren gaat duren voordat we daar iets van gaan zien en dat Intel hier nu alvast mee kwam omdat ze weinig goeds te melden hebben over hun 10 nm. chips en qua architectuur ook vast zitten totdat ze met een nieuwe architectuur komen.

Ik weet niet waarom ze ervoor hebben gekozen om die sockets niet groter te maken. Kosten?

[ Voor 3% gewijzigd door Verwijderd op 07-01-2019 21:15 ]


Acties:
  • 0 Henk 'm!

  • digifun
  • Registratie: Mei 2000
  • Niet online

digifun

 

Dat dachten we 20-30 jaar geleden ook al. Maar de videokaart bestaat nog steeds.

u can fool all people some time and fool some people alltime


Acties:
  • 0 Henk 'm!

  • GromuhlDjun
  • Registratie: December 2007
  • Laatst online: 13-09 15:20
De videokaart IS al volledig geïntegreerd in de CPU. Vrijwel alle intel cpu's en sommige ryzens hebben genoeg vermogen voor een hoog percentage van gebruikers.
Het lagere budgetsegment is nog een tijd interessant geweest omdat veel mensen nog op core2 en ouder zaten. Nieuwere intel cpu's voorzien al in alle youtube, browsing en lichte gaming die een gemiddelde computeraar wil.

Voor gamers die van fatsoenlijke graphics houden is dat 0%. De Ryzen 2400g is op dit moment zo'n beetje de snelste, en die is langzamer dan mijn oude HD5850 uit 2009.
Tegen de tijd dat we APU's hebben van het niveau 1050(ti), is de markt ook weer geëvolueerd en zitten we al op 3080's en vega II's die een veelvoud hebben van het rekenvermogen.

Ik kan me nog herinneren dat Intels 740 in 1998 ook al "zo'n geweldige stap voorwaarts" was voor geïntegreerde videochips (meestal op het moederbord toen), maar was compleet bagger in vergelijking met een 3dfx voodoo(2). We zijn nu alweer ruim 20 jaar verder en er is in dat opzicht werkelijk niks veranderd.

Acties:
  • 0 Henk 'm!

  • logion
  • Registratie: December 2004
  • Laatst online: 12:58
GromuhlDjun schreef op maandag 7 januari 2019 @ 23:23:

Voor gamers die van fatsoenlijke graphics houden is dat 0%. De Ryzen 2400g is op dit moment zo'n beetje de snelste, en die is langzamer dan mijn oude HD5850 uit 2009.
Tegen de tijd dat we APU's hebben van het niveau 1050(ti), is de markt ook weer geëvolueerd en zitten we al op 3080's en vega II's die een veelvoud hebben van het rekenvermogen.
Wat dan te zeggen van bijvoorbeeld de APU in de playstation 4 en in de Xbox One X? Hier zitten de CPU en de GPU al jaren op één chip. Zo lees ik dat de APU in de PS4 Pro, 20 compute units (CUs) heeft met elk 64 cores, voor een totaal van 1,152 cores. Marktaandeel van deze beide consoles is enorm.

Volgens de AdoredTV geruchten over de Ryzen 3000 reeks zou de Ryzen 5 3600G trouwens ook met 20 CUs komen. Nu weet ik niet in hoeverre die CUs even krachtig zijn als de CUs in een PS4 Pro, maar mogelijks kunnen die zich dus wel meten met een PS4 Pro. Dit lijkt me voor veel gamers meer dan voldoende is.

Voor dedicated GPUs zie ik eerder een toekomst in parallel computing: machine learning, HPC, wetenschap. Bijvoorbeeld in GPU farms waar er een grote asymmetrie bestaat in aantal GPUs vs aantal CPUs. Echter een kleine, maar wel belangrijke niche. Naarmate steeds meer mensen deftig internet krijgen, gaat gaming as a service (cloud gaming) ook knagen ah absolute aantal van dedicated GPUs

Caveat: ik ben niet op de hoogte van de recente ontwikkelingen. Die 3D stacking techniek lijkt mooi, maar de koelcapaciteit van je systeem moet je dan gewoon verdelen over zowel je CPU en GPU en dat gaat constraints opleggen die voor sommige toepassingen niet interessant zijn. Over nog langere termijn vraag ik me af of de Von Neumann architectuur niet gaat verdwijnen. Naarmate de transistoren de ondergrens van de fysica benadert, zullen alternatieven moeten gezocht worden. Zowel op architecturaal vlak, maar misschien ook op schakelvlak. Ook weet ik niet hoelang x86 nog zal meegaan. Apple gaat waarschijnlijk naar ARM binnen de vijf jaar. Maar goed, dit is wel erg lange termijn en een beetje off topic :9

[ Voor 19% gewijzigd door logion op 08-01-2019 00:12 ]


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Ik denk dat desktops zoals nu ooit wel eens gaan verdwijnen, maar zeker niet binnen 6, 10, 15 jaar.
Als je kijkt naar de huidige progressie, er zijn nu nog niet eens kaarten die stabiel Ultra 4K/144Hz kunnen leveren. Dit duurt nog minstens één, waarschijnlijk twee generaties, voor het gemak tellen we even door, dan is het dus 2021/2023. Raytracing, een techniek die nu nog in de kinderschoenen staat, maar die wel voor betere graphics zullen zorgen uiteindelijk, zal ditzelfde (4K Ultra/144Hz) pas 2 generaties dáárna kunnen, we tellen 2025/2027, 8K is tegen die tijd gemeengoed, we tellen 2029/2031, 240Hz is toch lekkerder in VR/AR/XR, we tellen 2033/2035, en ga zo maar door.....

Dus misschien ergens in de mid jaren '30 dat er een tijd komt dat de discrete GPU overbodig zal worden, maar sneller dan dat zal het niet zijn (verwacht ik).

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • +1 Henk 'm!

  • GromuhlDjun
  • Registratie: December 2007
  • Laatst online: 13-09 15:20
logion schreef op dinsdag 8 januari 2019 @ 00:09:
[...]


Wat dan te zeggen van bijvoorbeeld de APU in de playstation 4 en in de Xbox One X? Hier zitten de CPU en de GPU al jaren op één chip. Zo lees ik dat de APU in de PS4 Pro, 20 compute units (CUs) heeft met elk 64 cores, voor een totaal van 1,152 cores. Marktaandeel van deze beide consoles is enorm.
Goed punt, jammere van die apus is een netbook klasse cpu met midrange desktop gpu. Kun je leuk naar 4k, maar gebonden aan de verschrikkelijke 30fps limiet in de meeste gevallen. Ben wel benieuwd of de volgende op ryzen gebaseerde console generatie dat eindelijk eens verhelpt.
(Die 10 jaar oude hd5850 is trouwens nog steeds qua flops sneller dan de originele xbone met hd7770 equivalent en iets langzamer dan de ps4 met hd7850 equivalent :P . De stap naar ps4pro en one x was een enorme vooruitgang op apu gebied, misschien wel de grootste tot nu toe)

Dat gezegd hebbende: de console markt al heel lang groot tov de (gaming)pc sinds de jaren '80. Dat de hardware nu juist méér op die van een pc lijkt, maakt niet veel uit, behalve dat het juist in het voordeel is van pc's omdat hardware en apis veel meer op elkaar lijken.

Cloud gaming op grote schaal zie ik nog niet zo snel gebeuren. Latency is in de meest ideale gevallen nog steeds te hoog. Het gaat vast populair worden als een groot deel van de wereld supersnelle verbindingen hebben, maar dat duurt nog vele jaren, zeker nu in bijv. de vs investeringen in netwerkverbeteringen zijn geminimaliseerd door toedoen van de fcc.

Mijn punt was dan ook dat pcs met geïntegreerde gpu's in de cpu, dan wel op het moederbord sinds de jaren 90 het overgrote marktaandeel hebben. De losse gpu is al heel lang een niche. Een niche die alleen maar groter is geworden.

[ Voor 16% gewijzigd door GromuhlDjun op 09-01-2019 01:53 ]


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Nu online

dion_b

Moderator Harde Waren

say Baah

GromuhlDjun schreef op woensdag 9 januari 2019 @ 01:38:
[...]

Mijn punt was dan ook dat pcs met geïntegreerde gpu's in de cpu, dan wel op het moederbord sinds de jaren 90 het overgrote marktaandeel hebben. De losse gpu is al heel lang een niche. Een niche die alleen maar groter is geworden.
"Groter" :? Kleiner bedoel je toch?

Integratie is voorzover mogelijk altijd goedkoper. Losse GPU's hou je voor de mensen met afwijkende eisen. Dat gaat door zolang de boel nog niet 'uitontwikkeld' is. Bij geluidskaarten is het al bijna zover - de enige losse die je nog hebt zijn voor audiofielen, en die zie je steeds meer het veld ruimen voor losse DACs die gevoed worden vananf de integrated audio, of DACs geintegreerd in overige audioapparatuur (al is het maar een USB headset). Hoe lang het duurt voordat dat ook met GPU's bereikt wordt? Geen idee, de gaming-industrie weet nog altijd meerwaarde te halen uit de nieuwste, duurste modellen. Als dat op enig moment ophoudt, zal het hard gaan.

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • GromuhlDjun
  • Registratie: December 2007
  • Laatst online: 13-09 15:20
dion_b schreef op woensdag 9 januari 2019 @ 18:00:
[...]

"Groter" :? Kleiner bedoel je toch?
Misschien spreek ik teveel vanuit mijn eigen situatie. Ik zie in mijn kenissenkring steeds meer mensen met een losse gpu. Dit is echter steeds vaker een tweedehandsje. Een kaart als een Gtx660ti/hd7950 oid is nog steeds vele malen sneller dan al het geintegreerde spul van intel en amd, maar kosten nu zo'n €50. Daar kun je de meeste games prima op medium mee spelen.

Verder met je eens trouwens. Nu is de meerwaarde van een snellere gpu veel meer evident dan een (dure) geluidskaart, dus ik denk dat het nog wel even duurt voordat ze nagenoeg verdwijnen. De leveringen van amd en nvidia zijn iig redelijk stabiel en zelfs wat van het marktaandeel van intel aan het (terug) knabbelen de laatste drie jaar. Wel op een krimpende pc markt natuurlijk, dus langzaam maar zeker....

Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Nu online

dion_b

Moderator Harde Waren

say Baah

GromuhlDjun schreef op donderdag 10 januari 2019 @ 00:50:
[...]

Misschien spreek ik teveel vanuit mijn eigen situatie. Ik zie in mijn kenissenkring steeds meer mensen met een losse gpu. Dit is echter steeds vaker een tweedehandsje. Een kaart als een Gtx660ti/hd7950 oid is nog steeds vele malen sneller dan al het geintegreerde spul van intel en amd, maar kosten nu zo'n €50. Daar kun je de meeste games prima op medium mee spelen.
Anno 1994 had 100% van de gebruikers een losse videokaart (of volwaardig onboard chip met eigen geheugen en verbinding met ISA/VLB/PCI bus). Anno 2018 maakt meer dan 75% van verkochte systemen gebruik van een IGPU. In 25 jaar tijd is de aandeel discreet dus gedaald van 100% naar 25%, en dat is een gestage afname geweest - 10 jaar terug was het nog zo'n 45%, 5 jaar terug nog ruim 30%
Verder met je eens trouwens. Nu is de meerwaarde van een snellere gpu veel meer evident dan een (dure) geluidskaart, dus ik denk dat het nog wel even duurt voordat ze nagenoeg verdwijnen. De leveringen van amd en nvidia zijn iig redelijk stabiel en zelfs wat van het marktaandeel van intel aan het (terug) knabbelen de laatste drie jaar. Wel op een krimpende pc markt natuurlijk, dus langzaam maar zeker....
Op korte tijdsduren krabbelen de discrete kaartboeren nog wel terug af en toe, maar de trend over langere termijn is overduidelijk.

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 11:17
Misschien is dat mogelijk voor de low-end gpu's (wat nu eigenlijk al het geval is). Voor de overige kaarten is het volkomen kansloos. Het is bovendien ook niet erg praktisch. Stel je voor dat je een snellere gpu wilt, dan moet je een chip met cpu en gpu gaan vervangen, terwijl je nu alleen een nieuwe videokaart hoeft te plaatsen.

[ Voor 42% gewijzigd door NotSoSteady op 10-01-2019 01:13 ]


Acties:
  • 0 Henk 'm!

  • SuperJoker
  • Registratie: Januari 2019
  • Laatst online: 30-01-2023

SuperJoker

Hofnar

Als ik een ander argument mag inbrengen.. ik denk dat ondanks de technische ontwikkeling de losse grafische kaart voorlopig nog niet zal verdwijnen.

Het idee is steeds dat de volgende generatie zó snel zal zijn, dat het niet meer hoeft. En dan komen de betere games uit.

Los daarvan is de hele IT wereld zo doordrenkt van het concept dat een dedicated videokaart beter is, dat daar gewoon markt voor zal blijven bestaan, zelfs als ingebakken GPU's sneller zouden worden. Men zal het kopen, dus zal men het fabriceren.

Daarnaast heeft een losse kaart meerdere voordelen. Het is upgradebaar, en doorgaans is het enige wat je écht wil upgraden tegenwoordig, de grafische kaart. Van een CPU upgrade ga je heden ten dage amper meer wat merken. Ik kan mij de tijd nog herrinneren dat je grofweg 200 gulden uitgaf om je 4Mhz 8086 (wel een Nec V20, dat dan weer wel) te vervangen door een 16Mhz 80286 (ja die zijn gemaakt) en je computer ineens 4x zo snel was. Dat zal je tegenwoordig niet meer gebeuren.

In the long run verandert alles en denk ik dat het hele concept van de PC zoals wij hem kennen, zal verdwijnen. Tot die tijd verwacht ik dat er gewoon altijd óók nog losse grafische kaarten verkocht zullen gaan worden.

Het best te consumeren met 1kg JOZO.


Acties:
  • 0 Henk 'm!

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 11:17
SuperJoker schreef op donderdag 10 januari 2019 @ 01:17:
Als ik een ander argument mag inbrengen.. ik denk dat ondanks de technische ontwikkeling de losse grafische kaart voorlopig nog niet zal verdwijnen.

Het idee is steeds dat de volgende generatie zó snel zal zijn, dat het niet meer hoeft. En dan komen de betere games uit.

Los daarvan is de hele IT wereld zo doordrenkt van het concept dat een dedicated videokaart beter is, dat daar gewoon markt voor zal blijven bestaan, zelfs als ingebakken GPU's sneller zouden worden. Men zal het kopen, dus zal men het fabriceren.

Daarnaast heeft een losse kaart meerdere voordelen. Het is upgradebaar, en doorgaans is het enige wat je écht wil upgraden tegenwoordig, de grafische kaart. Van een CPU upgrade ga je heden ten dage amper meer wat merken. Ik kan mij de tijd nog herrinneren dat je grofweg 200 gulden uitgaf om je 4Mhz 8086 (wel een Nec V20, dat dan weer wel) te vervangen door een 16Mhz 80286 (ja die zijn gemaakt) en je computer ineens 4x zo snel was. Dat zal je tegenwoordig niet meer gebeuren.

In the long run verandert alles en denk ik dat het hele concept van de PC zoals wij hem kennen, zal verdwijnen. Tot die tijd verwacht ik dat er gewoon altijd óók nog losse grafische kaarten verkocht zullen gaan worden.
Wat verwacht je dat het gaat worden? Gaming in de cloud. Ik kan me daar nog altijd moeilijk een voorstelling bij maken om eerlijk te zijn. We hebben het over games die grafisch aanzienlijk minder zijn van kwaliteit, in lage resoluties draaien en nu beginnen we grotendeels overnieuw met de komst van ray tracing. Wat moet dat wel niet kosten om een heel datacenter te upgraden met nieuwe hardware.

Acties:
  • 0 Henk 'm!

  • SuperJoker
  • Registratie: Januari 2019
  • Laatst online: 30-01-2023

SuperJoker

Hofnar

Wat het gaat worden? Geen idee. Maar geen cloggy aparaat onder je bureau of een kg om mee te slepen.

Raytracing is helemaal niet nieuw. Wellicht in game-context dat men het nu herintroduceert en het daar nieuw lijkt, maar het concept bestaat al sinds de jaren 70, zo niet eerder al.

De hele reden dat de eerste Vodoo's zo populair waren, was omdat ze het probleem van belasting oplosten door een handiger werkwijze dan raytracen. Ik heb de mijne nog steeds in de kast liggen. Het was toen al duideiljk dat men uiteindelijk ooit weer zou terugkeren naar raytracing, als de hardware snel genoeg zou gaan worden.

Dat punt is er nog niet, maar ligt wel aan de horizon imo.

Ga je nou echt de star trek kant op en mij vragen waar ik denk waar we naartoe gaan, verwacht ik danwel een neurale interface of iets wat het beeld op je netvlies projecteert.

Het best te consumeren met 1kg JOZO.


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Zelf geloof ik dan weer niet in cloud gaming in de nabije toekomst omdat er gewoon nog een te groot gedeeltje van de mensheid op geen/small/narrow/medium-bandwidth zitten,
Ik koop zelf geen spellen die ik niet ook offline kan spelen, als het een always-online spel is koop ik hem niet, omdat ik vaak geen beschikking heb tot internet (zelfs niet via telefoon, want geen telefoonbereik).

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • +1 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

SuperJoker schreef op donderdag 10 januari 2019 @ 01:53:
Wat het gaat worden? Geen idee. Maar geen cloggy aparaat onder je bureau of een kg om mee te slepen.

Raytracing is helemaal niet nieuw. Wellicht in game-context dat men het nu herintroduceert en het daar nieuw lijkt, maar het concept bestaat al sinds de jaren 70, zo niet eerder al.

De hele reden dat de eerste Vodoo's zo populair waren, was omdat ze het probleem van belasting oplosten door een handiger werkwijze dan raytracen. Ik heb de mijne nog steeds in de kast liggen. Het was toen al duideiljk dat men uiteindelijk ooit weer zou terugkeren naar raytracing, als de hardware snel genoeg zou gaan worden.

Dat punt is er nog niet, maar ligt wel aan de horizon imo.

Ga je nou echt de star trek kant op en mij vragen waar ik denk waar we naartoe gaan, verwacht ik danwel een neurale interface of iets wat het beeld op je netvlies projecteert.
zal de PCI(e) kaart verdwijnen ? nee omdat de game industrie groter is dan de porno industrie en het einde nog niet in zicht is.. al zou ik nu het antwoord hebben dat het alles samenvoegt in 1 apparaat dan verdien je meer geld met "zwijggeld" bij de GPU fabrikant dan het aan de thuis gebruiker te verkopen.




uitleg


Zolang je niet een module in je meterkast hebt waar 1 miljoen cores op zit met 50/50 cpu/gpu verdeling en meer ram en storage dan een hedendagse enterprise omgeving in gebruik heeft en upgraden gewoon een module bij-plaatsen is .. zal het alle kanten op kunnen gaan.

Waarom zit de GPU dichtbij de CPU :? vanwege de bandbreedte die nodig is, echter heb je de duurste generatie nodig :? nee want de software(game industrie) is nog lang niet zover om van de volle capaciteit gebruik te maken.
Daarnaast is huidige software (operating system) en dus ook games tegenwoordig zo "bagger" geschreven dat als men meer moeite zou doen we 50% meer zouden kunnen doen met de gemiddelde low-end PC.
Het zijn juiste de bottlenecks die binnen de software/hardware bevind die problemen veroorzaken.

Waarom moeten wij met 120fps op de pc als we 20 a 25 fps op de tv al als vloeiend ervaren ? wanneer word de verandering van fps merkbaar ? ongeveer 20 jaar geleden waren we al in staat huidige weergaven te generen.. alleen de opschaling van kracht & gelijktijdige miniaturisatie die je ook niet te erg moet overdrijven geeft de ilussie dat we heel grote sprong hebben gemaakt.

Als het aan de grote bedrijven lag hadden we nu nog lang niet op huidig niveau gezeten .. immers eerst helemaal uitmelken voordat je verandering maakt. En daarbij is de mens (waarbij eerder een tweaker een uitzondering is) mentaal bestand tegen enorme vooruitgang. (het duurt 2.000 jaar voordat we paard en wagen uit de deur smijten en nu gaan we van stoom & fossiele brandstoffen naar elektrisch binnen nog geen 75 jaar ..

nee

Tja vanalles


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 09:41
Het is wel mooi dat TS een artikel uit 2012 quote :)

Er wordt al heel lang geroepen dat CPU en GPU geïntegreerd gaan worden. En niet dat ze ongelijk hebben! Waar vroeger een IGP in de south bridge zat, zit deze nu vrijwel altijd standaard meegebakken op het CPU silicium. Prima!

Inmiddels is de dedicated GPU het domein van de PC master race - en wat grafische professionals. De rest van de bevolking kan prima af met een IGP oplossingen. Maar ja...

Ik schat de investering in een CGPU oplossing nog steeds duurder in dan een gescheiden oplossing. En, de meeste mensen zitten helemaal niet te wachten op een chip die 2x groter is dan ze nodig hebben - maar er wel voor betalen. Sure, verreweg de meeste CPUs zullen vanaf nu wel een IGP aan boord hebben. Ik denk dat het dus een betere optie is om het aantal CPU cores uit te breiden dan het aantal TPUs. En dat zie je dan ook bij Intel, in diens laatste generaties CPUs.

Daarbij komt nog dat het wel een beetje gedaan is met de procesverkleining. Hopen op een toekomst waartin chips veel kleiner (en daarmee energiezuiniger) zijn, ligt wel een beetje achter ons.

En, dus, lijkt het me dat we voorlopig nog geen afscheid hoeven te nemen van onze GPUs..... totdat game streaming diensten alle locale rekenkracht overbodig maken. Want, ja, ik geloof dat dat te zijner tijd wel gaat gebeuren. Misschien wel binnen 5 jaar.

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • GromuhlDjun
  • Registratie: December 2007
  • Laatst online: 13-09 15:20
dion_b schreef op donderdag 10 januari 2019 @ 01:03:
[...]

Anno 1994 had 100% van de gebruikers een losse videokaart (of volwaardig onboard chip met eigen geheugen en verbinding met ISA/VLB/PCI bus). Anno 2018 maakt meer dan 75% van verkochte systemen gebruik van een IGPU. In 25 jaar tijd is de aandeel discreet dus gedaald van 100% naar 25%, en dat is een gestage afname geweest - 10 jaar terug was het nog zo'n 45%, 5 jaar terug nog ruim 30%
Het is maar naar welke statistiek je kijkt of welk eikpunt je neemt.

Vooropgezet dat ik het verder over de richting van de ontwikkelingen met je eens ben, vind ik de markten teveel verschillen om zo één op één deze op lijn door te trekken.
In 1994 had je naast de IBM compatible pc ook nog het staartje van de Atari ST en de Amiga's en uiteraard de Apple Macintosh.

In een doorsnee PC moest inderdaad een videokaart, maar ik zou eerder als ijkpunt eind jaren '90 aanwijzen, omdat toen de 3d accelerator kaarten mainstream werden. Ik zou eerder stellen dat de geïntegreerde videochips op moederborden de goedkopie 512kb-2mb svga kaarten hebben vervangen, en de fatsoenlijke 3d accelerators werden aangeschaft door enthousiastelingen. Die moederbord videokaarten zijn nu compleet vervangen door geïntegreerde videochips terwijl de enthousiastelingen mid- en high-end kaarten bleven kopen. Op die moederbord videochips kon uiteraard ook wel gegamed worden, maar deze moesten toch hun meerdere erkennen in het geweld van de Voodoo, TNT, G400 en de Savage4, die vele malen sneller waren.

Wat dat betreft zie ik niet veel verandering met vandaag de dag. Losse GPU's zijn nog steeds vele malen krachtiger dan igpu's, die de moederbord videochips hebben vervangen.

De low-end markt is/wordt inderdaad momenteel volledig overgenomen door iGPU's. Zeker als je ook al het tablet/telefoon geweld gaat meetellen. Dit zijn voor de meeste mensen méér een pc dan dat de desktop ooit is geweest. Je kunt er immers vrijwel alles wat de meeste mensen met een pc willen prima doen op een tablet/telefoon. Topmodellen zijn zelfs een stuk duurder dan een mid-range pc/laptop zonder losse GPU. Op zich niet zo gek als je bedenkt dat de rekenkracht vrij snel stijgt, vooral op iGPU gebied.

Even verder speculerend op je geluidskaart - losse gpu argument: ik denk dat als we volledige ray-tracing igpu's hebben die op een redelijke resolutie goede performance geven, het punt is dat de losse videokaart dezelfde niche markt wordt als geluidskaarten nu is, óf netwerksnelheden worden goed genoeg dat we überhaupt geen snelle GPU nodig hebben en dat alles een SAAS-oplossing is geworden.
De eerste stappen zijn al gezet, nu nog zien hoe snel zich dat doorontwikkelt en welke toekomst we gaan zien.

Ik vrees het laatste, ik hoop het eerste.

Acties:
  • 0 Henk 'm!

  • Sweatleek
  • Registratie: Maart 2016
  • Laatst online: 15-09 21:11

Sweatleek

404: Member Not Found

Topicstarter
Het is heel interessant hoe jullie naar de toekomst.

Ik denk dat als ik iets beter in type was dat ik mijn argument wat beter kon overbrengen maar als we kijken naar 10 jaar gelden en dan naar nu zie je niet een steady line up. Nee het is een explosieve line omhoog. Met 1 dingen dat we uitvinden kunnen we zeker 2 upgraden. Toen ik mijn eerste console kreeg (gamecube) 2006 ongeveer en dat vergelijk met de consoles van nu. Zie je gewoon bizarre increase aan grafische kracht en ook aan rekenkracht . terwijl als je 1996 tot 2006 pakt zijn die niet zo bizar groot (naar mijn weten dan) ik bedoel maar in die tijd waren quad cores de standaard in high end computer en nu praten we over 16 cores als of het de normaalste zaak van de wereld is in de high en space.

Ik denk dan ook zeker dat we langzaam naar een 2de explosie toe gaan kruipen. Zeker nu intel uit gedaagd gaat worden door AMD. Tuurlijk weet ik ook wel ergens dat 5 a 6 jaar redelijk optimistisch is. Maar data uit het verleden zegt ook wel weer wat anders.

:)

confused reality


Acties:
  • 0 Henk 'm!

  • SuperJoker
  • Registratie: Januari 2019
  • Laatst online: 30-01-2023

SuperJoker

Hofnar

Ik denk dat de reden voor losse videokaarten nog wel even blijft bestaan.

Men heeft het over historie. Bedenk je dat voor de PC, losse videokaarten ook niet echt gangbaar waren. Machines als de Commodore PET zat alles gewoon on-board. Pas met de introductie van de XT en haar isa sloten, kwamen er losse grafische kaarten, en het argument daarvoor toen, is nu nog steeds geldig: keuzevrijheid.

Als je gaat kijken naar de componenten in PC, dan zijn op laag niveau de CPU en de GPU de duurste elementen. Maar niet iedereen gamed op z'n PC, sterker nog, het gros van de Nederlandse PC's zullen nooit spelletje zien met noemenswaardige 3D dingen erin, die staan op kantoren office te draaien.

En een bedrijf wil geen geld extra uitgeven voor functionaliteit die ze niet willen. Dus als men kan kiezen tussen een CPU met een hele dure hoog performende 3D functionaliteit erin, of eentje met basale functies, zal men altijd het laatste kiezen. En voor PC's is de zakelijke afzetmarkt belangrijk.

Het best te consumeren met 1kg JOZO.

Pagina: 1