9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ze kunnen voor het vlaggenschip de chip weer wat groter maken en een hogere TDP geven, maar dat maakt de chip duurder en is dus niet zomaar iets dat ze zomaar gaan doen voor de chips met lagere marges.
Sowieso is mijn ervaring dat de prestatie-geruchten het minst betrouwbaar zijn en meestal te hoog beginnen en dan langzamerhand wat realistischer worden. En als je naar de video van MLID kijkt dan zit hij overduidelijk maar wat te speculeren en baseert hij zich helemaal niet op een daadwerkelijke betrouwbare leak. Als hij die wel heeft, dan maakt hij er een specifieke video over en komt het niet slechts ter sprake in zijn podcast.
Sowieso is de daadwerkelijke verbetering per tier ook heel erg afhankelijk van welke chip ze in welke kaart stoppen en dat bepalen ze volgens mij pas vrij laat.
[ Voor 8% gewijzigd door Ludewig op 01-03-2024 16:36 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Is MLID ooit meer dan bullshit en wat gokwerk? Die dude zit er regelmatig naast en ik heb het idee dat de gemiddelde Tweaker die het nieuws een beetje bijhoudt ongeveer wel dezelfde "geruchten"/"leaks" kan brengen. Geen idee waarom hij als bron voor een artikel wordt gebruikt.Ludewig schreef op vrijdag 1 maart 2024 @ 16:34:
Ik geloof er niks van, want waar zou dat vandaan moeten komen? Bij de 40-serie hadden ze een grote winst doordat ze van het nogal matige Samsung proces naar TSMC gingen, maar de overstap naar N3E zal echt niet zoveel opleveren.
Ze kunnen voor het vlaggenschip de chip weer wat groter maken en een hogere TDP geven, maar dat maakt de chip duurder en is dus niet zomaar iets dat ze zomaar gaan doen voor de chips met lagere marges.
Sowieso is mijn ervaring dat de prestatie-geruchten het minst betrouwbaar zijn en meestal te hoog beginnen en dan langzamerhand wat realistischer worden. En als je naar de video van MLID kijkt dan zit hij overduidelijk maar wat te speculeren en baseert hij zich helemaal niet op een daadwerkelijke betrouwbare leak. Als hij die wel heeft, dan maakt hij er een specifieke video over en komt het niet slechts ter sprake in zijn podcast.
Sowieso is de daadwerkelijke verbetering per tier ook heel erg afhankelijk van welke chip ze in welke kaart stoppen en dat bepalen ze volgens mij pas vrij laat.
Maar het is wel een BS-koning die veel dingen gewoon uit zijn duim zuigt en wanneer dingen niet kloppen, zijn oude video's maar verwijderd zodat het bewijs weg is.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Omdat je een verschil moet maken tussen zijn giswerk en zijn brongebaseerde werk. Dit van dat artikel is puur giswerk, maar als je kijkt naar de prijzen die hij voorspelde voor de RTX Super kaarten op basis van bronnen bij AIBs en Nvidia, dan zie je dat hij de prijzen al maanden op voorhand in het zicht had, en dat de performance van de 4070 Super in de buurt zit van wat hij voorspelde (ongeveer 5% trager dan de 4070 Ti) en dat de hoeveelheid VRAM van de 4070 Ti Super ook klopte.Snowdog schreef op vrijdag 1 maart 2024 @ 20:41:
[...]
Is MLID ooit meer dan bullshit en wat gokwerk? Die dude zit er regelmatig naast en ik heb het idee dat de gemiddelde Tweaker die het nieuws een beetje bijhoudt ongeveer wel dezelfde "geruchten"/"leaks" kan brengen. Geen idee waarom hij als bron voor een artikel wordt gebruikt.
En voor alle duidelijkheid: mensen geloofden hem toen niet. Kijk maar de berichten na in de Discord en de berichten in het RTX 40 topic die reageerden op de frames die ik deelde: NIEMAND wilde geloven dat Nvidia de 4080 Super goedkoper zou maken dan de 4080. IEDEREEN dacht dat Nvidia de prijzen nog eens omhoog ging doen. Iedereen ging ervan uit dat Nvidia de gaming GPU markt opnieuw een loer ging draaien omdat ze die markt toch niet nodig hebben in de tijd van AI. Want Nvidia mag dan wel 4X zoveel omzet draaien met AI als met gaming hardware, maar als Jensen tegen zijn aandeelhouders zegt "wij gaan zomaar één vijfde van onze omzet verloochenen en ons hondstrouwe en oudste klanten verraden", dan vliegt hij binnen de week buiten denk ik.
Maar zoals gezegd, MLID heeft 2 vormen van geruchten: gokwerk en insider information. Die eerste is doorgaans niet zo betrouwbaar (en ik had niet door die video daaronder viel), maar die tweede vorm is doorgaans wel accuraat, tenminste op het moment van posten. Het eerste is verzonnen, het tweede doorgaans niet.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ik ga er zelf van uit dat Nvidia wel zal moeten gaan reageren op de ophef vanwege de geheugenhoeveelheden, maar de opties die ze hebben hangen heel erg af van de busgrootte per chip. Wat ze in elk geval niet zomaar meer kunnen doen is het mixen van 2 en 3 GB chips om zo ondanks het gebruik van clamshell-geheugen een oplopende geheugenhoeveelheid per tier te krijgen.
Zo had de 3070 minder geheugen dan de oorspronkelijke 3060, maar als ze 3 GB GDDR6 chips hadden gehad, hadden ze de 3070 12 GB kunnen geven met 3 GB chips zonder clamshell en de 3060 12 GB met 2 GB chips met clamshell.
Maar als GB206 (5060 Ti/5060?) bijvoorbeeld weer een 128 bit bus krijgt, dan is alleen 8 en 16 GB een optie. En als GB205 een 192 bit bus krijgt, dan is 12 en 24 GB een optie, maar dat laatste gaan ze natuurlijk niet doen.
Dus tenzij ze de busgroottes gaan aanpassen, verwacht ik dat Nvidia het erg lastig gaat krijgen om een goede geheugenconfiguratie per kaart te maken. Mijn zeer speculatieve verwachting is:
5050: 8 GB
5060: 16 GB
5070: 12 GB
5080: 16 GB
5090: 24 of 32 GB -> dat laatste als het gerucht van een 512 bit bus klopt
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Het zou overigens ook kunnen dat ze door de overstap van monolithic dies naar chiplets de memory bus op een aparte chiplet kunnen zetten waardoor ze makkelijker in staat zouden kunnen zijn om 2 versies te maken van dezelfde chip maar met verschillende hoeveelheden VRAM. Dus dan zou je een 5070 en 5070 Ti kunnen hebben met een verschillende hoeveelheid VRAM.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Dus je neemt dan de busgrootte en deelt het door 16 of 32 en dan doe je het maal 2. Als we op een gegeven moment 3 GB GDDR7 chips krijgen, doe je het maal 3 in de laatste stap.
Dus een 128 bit bus / 32 x 2 = 8 GB. Of 128 bit / 16 x 2 = 16 GB.
Die eerste berekening is dus de 4060 en 4060 Ti 8 GB; en de tweede berekening is voor de clamshell 4060 Ti met 16 GB.
Wat Nvidia regelmatig doet is om een kleinere bus te activeren dan wat de chip echt ondersteund. Zo had de chip in de 1080 Ti eigenlijk een bus van 384 bit, maar die verkochten ze alleen als de Titan. De 1080 Ti hadden ze afgeknepen naar 352 bit en daarmee naar 11 GB. Dit waren overigens nog 1 GB chips, dus daar was de berekening 352 / 32 x 1 = 11 GB.
Wanneer ze de bus gaan afknijpen kost het ze niks minder om te produceren, dus beperken ze de bus dan puur om je niet teveel prestaties te geven, niet om geld te besparen (behalve dan dat ze iets minder uitgeven aan het geheugen).
En de busgrootte en de prestaties van de shaders zijn op elkaar afgestemd, dus als je de bus teveel afknijpt, dan moet je eigenlijk ook de chip afknijpen, en dan zit je dus met een flink langzamere kaart, die relatief veel kost om te maken.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nee en ja. Uiteindelijk wordt de totale hoeveelheid geheugen bepaald door twee zaken:nzall schreef op vrijdag 8 maart 2024 @ 15:06:
Moet geheugen altijd in een meervoud van 4 zijn? Zouden ze niet bijvoorbeeld een 5070 14 GB VRAM kunnen geven?
1) grootte van een enkele geheugenchip;
2) aantal geheugenkanalen van de GPU.
Een GDDR-chip heeft altijd een 32 bits brede bus (32 datalijnen), dat is de standaard die de chipmakers hanteren. Stel de GPU heeft 256 datalijnen (256 bits brede bus), dan kun je 256/32=8 chips aansturen, of 16 waarbij telkens twee chips hun adreslijnen delen en elk met maar 16 datalijnen verbonden is (clamshell-mode):
:fill(white):strip_exif()/f/image/SsLeVcQLG8jYGoyzjX8PezR4.png?f=user_large)
In het geval van 1GB geheugenchips heb je met 8 stuks dus 8GB. Mochten er 2GB chips worden gebruikt (momenteel de grootste GDDR-chips die worden gemaakt) dan levert dat totaal 16GB op.
Wil je 14GB dan kun je 224 data-kanalen op de GPU toepassen/gebruiken en daar dan 7 stuks 2GB chips aan hangen. Overigens, naar mijn weten heeft Nvidia nog nooit een 224bit bus toegepast (alleen 64, 96, 128, 160, 192, 256, 320, 352, 384, 448 en 512), behalve dat je de GTX 970 praktisch een 224 bit design kunt noemen.
Mocht er in de toekomst 3GB per chip mogelijk zijn, dan kun je nog meer combinaties bedenken (18GB, 30GB, 36GB etc.)
Just pick a dead end and chill out 'till you die.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Maar we weten hun yields en kosten niet goed genoeg om het echt te weten. Dat wisselt ook per generatie, want de 30-serie chips die gemaakt werden bij Samsung hadden veel slechtere yields dan de 40-serie chips, maar de exacte getallen weten we niet.
Sowieso kunnen ze ook nog spelen met de snelheid van het geheugen. Zo heeft de 4090 trager geheugen dan de 4080, wat geld bespaard omdat snel geheugen meer kost. Vermoedelijk vielen de prestaties van de relatief kleine 4080 chip wat tegen en hebben ze er maar relatief duur geheugen op gezet om hem wat te boosten, terwijl de 4090 al snel genoeg bleek en ze het verschil met de professionele kaarten met dezelfde chip als in de 4090, groot genoeg willen maken.
Maar bij Nvidia doen ze intern tests met verschillende configuraties en hebben ook boekhouders die precies kunnen berekenen wat het allemaal kost en opbrengt. Wij kunnen slechts inschatten wat ze berekend hebben op basis van wat ze uitbrengen en op basis van aannames een beetje speculeren wat ze gaan doen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nog een gerucht van Kopite: de 50 series krijgt GDDR7 VRAM van 28 Gbps. En Nvidia is ook aan het experimenteren met een memory bus width van 512 bit voor de 5090.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Voor de professionele lijn zou Nvidia dan naar een chiplet-oplossing gaan, wat vrij logisch is. Voor gaming werkt de hele kaart aan een nieuw frame, wat ervoor zorgt dat het werk lastig op te splitsen tussen chiplets of chips die een relatief hoge latency hebben wanneer ze met elkaar communiceren. Je krijgt dan al snel stotteren of instabiliteit. Met SLI waren er bijvoorbeeld vaak problemen.
Maar bij professionele workloads is het werk meestal veel beter op te splitsen en kun je met chiplets goedkoper hoge prestaties halen (en zoals AMD heeft laten zien, erg veel producten maken met een beperkt aantal chip-ontwerpen).
Het zou mij niet verbazen als de verwarring over de 512 bit bus komt doordat de professionele chips aan de top een 512 bit bus krijgen, maar dat de gamer-chips gewoon tot 384 bit blijven gaan. Dit zou niet de eerste keer zijn dat leakers wat te horen krijgen over een professioneel product en denken dat dit over de consumenten-chips gaan (ook omdat de bedrijven expres onduidelijke codenamen gebruiken).
PS. Deze opsplitsing kan in het voordeel zijn van gamers, want er zit nu allerlei functionaliteit in de Nvidia-chips die bedoelt is voor de professionele kaarten en uitgezet zijn bij de gamingkaarten. Dat drijft de prijs van de chip dan wel op en daar betaal je dus ook voor, als je een gamingkaart koopt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
1. een efficienter productie proces met een kleinere node.
2. verhogen van je stroomverbruik voor het gebruik van meer cores.
van de 30 naar de 40-series heeft Nvidia in feite deze beide al ingezet, waardoor de 40-series echt flink sneller is dan de 30-series. Immers, een 4070 is ongeveer net zo snel als een 3090.
Kwa efficienter productie proces, verwacht ik eigenlijk geen wonderen deze generatie.
Kwa stroomverbruik zit de 40-series ook al vrij fors.
Er is nog wel ruimte over op de 12VHPWR kabel, maar ook niet heel veel.
Nog even en je hebt 2x 12VHPWR nodig om je videokaart aan te sluiten....
Nee, ik verwacht een 20-25% verbetering... waarschijnlijk 1-tier.
dus 5070 = 4080, 5080 = 4090 en 5090 is 4090+25%
Geheugen configuraties blijven (denk ik) hetzelfde.
Alhoewel ik zeer hoop dat de 5070 ook naar 16GB gaat (zoals de 4070 Ti Super dat nu ook heeft)
12GB is te weinig aan het worden...
Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Als dit gerucht klopt is het echt wel rampzalig aan het worden...
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Bedoel je de 4070 Super? Want de gewone 4070 is echt niet zo snel.GarBaGe schreef op dinsdag 12 maart 2024 @ 14:11:
Immers, een 4070 is ongeveer net zo snel als een 3090.
De 4000-serie was technisch weliswaar een grote sprong, maar behalve bij de 4090 is dat nauwelijks doorgegeven aan consumenten qua prijs/prestatie. Dus ik verwacht eigenlijk dat ze nu de prijzen gelijk houden aan de Super-prijzen (de 4080 was duidelijk te duur) en daar dan inderdaad ongeveer een tier verbetering geven. Vergeleken met de 4000-serie zou dat al goed zijn, maar ook niet fantastisch.Nee, ik verwacht een 20-25% verbetering... waarschijnlijk 1-tier.
dus 5070 = 4080, 5080 = 4090 en 5090 is 4090+25%
Geheugen configuraties blijven (denk ik) hetzelfde.
Qua VRAM hangt het heel erg af van de bus-grootte per chip, welke chip ze in welke kaart gaan stoppen en welke snelheid het geheugen is. Als bijvoorbeeld de 5060 een GB207 chip krijgt met een 96-bit bus, dan kunnen ze die wellicht 12 GB geven met clamshell GDDR7 op 28 Gbps. Vanwege de hoge prestaties van GDDR7 zou de bandbreedte dan meevallen.
Dan zou de 5060 Ti een GB206 kunnen krijgen op 128 bit met een 16 GB clamshell, maar dan voorzie ik weer een schamele 12 GB voor de 5070 met een 192 bit bus.
Maar zulke speculaties hangen dus heel erg af van welke bus de chips hebben en waar ze die in stoppen. Als ze precies dezelfde chips een tier omlaag doen, dan kunnen ze de 5050 dus 12 GB geven, de 5060 16 GB, de 5060 Ti 12 GB en de 5070 16 GB op 265 bit. Dat zou een leuke line-up zijn qua VRAM.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat zou vereisen dat ze de GB202-chip in de 5080 gaan stoppen en dan afknijpen tot 320 bit. Want ze gaan echt geen aparte 320 bit chip maken.nzall schreef op dinsdag 12 maart 2024 @ 14:34:
Ik denk eerlijk gezegd dat het zoiets zal worden: 5090 24GB, 5080 20 GB, 5070 16GB en 5060 12GB
Ik geloof er echt niks van dat ze dat gaan doen, want:
- Die chips zijn met zo'n 600 mm2 heel erg duur, zeker met de laatste procesnodes van TSMC
- De yields bij TSMC zijn te goed om een (normaliter) populaire kaart als de x080 te verkopen met zo'n dure chip
Ik verwacht:
5090 24 GB
5080 16 GB
5070 12/16 GB
5060 Ti 12/16 GB
5060 12/16 GB
5050 6/8/12 GB
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Maar dat hangt er natuurlijk heel erg vanaf hoe snel de GDDR-fabrikanten de 3 GB chips kunnen leveren. Maar het zou voor Nvidia wel een goede manier zijn om de verkopen halverwege de generatie op te krikken met een stevige refresh.
Sowieso kan ik mij voorstellen dat Nvidia expres prestaties achterhoud om na een jaar een stevige refresh van de 5000-serie te lanceren, want dan komt AMD als het goed is uit met RDNA5.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Kopite heeft opnieuw wat geruchten de wereld in gestuurd. De Blackwell SMs zouden een pak meer L1 cache hebben dan de Ada Lovelace SMs. Hoeveel wilt hij niet zeggen, maar als dat klopt zou dat de performance zeker ten goede komen.
Probleem is alleen dat cache vooral relevant is voor berekeningen, maar VRAM is evenzeer belangrijk...
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Misschien dat ik eerst een upgrade koop voor mijn moederbord, cpu en geheugen. Ik wil dan meteen een nieuwe voeding kopen. Als de RTX 5080 uit is wil ik die kopen als vervanging van mijn RTX 3070. Ik hoop dat 1000W dan genoeg is.
Yippie kayak, other buckets!
Anderzijds zijn er natuurlijk ook de limitaties van de nieuwe connector. Als de 5090 30% meer stroom zou nodig hebben, dan is dat een kaart van 600W. Dat is dicht tegen wat de nieuwe connector aan kan. Dat lijkt me eerlijk gezegd vrij weinig speling te geven...
[ Voor 45% gewijzigd door nzall op 28-03-2024 08:58 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Zo werkt het niet. Het stroomverbruik hangt voor het grootste deel af van van de afstanden die de stroom moet afleggen. Wanneer ze meer transistors in hetzelfde oppervlak stoppen, nemen de afstanden niet toe.
Gelukkig maar, anders zou de 4070 die driemaal zoveel transistors heeft dan de 1080 Ti al 750 Watt (3 x 250W) moeten verstoken, maar in werkelijkheid gebruikt hij maar 200 Watt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat was dan ook geen hele lastige, de 4070 Ti bijvoorbeeld was al de volle AD104, dus dat de 4070Ti Super een cut zou krijgen van de AD103 en dus ook 16GB was eigenlijk wel een zekerheidje. Niet heel erg indrukwekkend omdat te gokken. Ik verwacht eigenlijk niet dat ie daar een leak voor nodig hadnzall schreef op vrijdag 1 maart 2024 @ 22:58:
[...]
Omdat je een verschil moet maken tussen zijn giswerk en zijn brongebaseerde werk. Dit van dat artikel is puur giswerk, maar als je kijkt naar de prijzen die hij voorspelde voor de RTX Super kaarten op basis van bronnen bij AIBs en Nvidia, dan zie je dat hij de prijzen al maanden op voorhand in het zicht had, en dat de performance van de 4070 Super in de buurt zit van wat hij voorspelde (ongeveer 5% trager dan de 4070 Ti) en dat de hoeveelheid VRAM van de 4070 Ti Super ook klopte.
De 4070 Super's positionering was dan ook weer niet heel lastig. Die kon niet beter worden dan de 4070Ti natuurlijk, want dat is de volle chip, de 4070 was dan weer vrij ver cut down, de concurrentie had iets uitgebracht dat de 4070 versloeg, dus dat dan de 4070 Super daar weer iets boven zou zitten is nu ook niet echt een verrassing.
Ik ken de betreffende leaks niet uit mijn hoofd, maar ik zou vooral kijken naar bijvoorbeeld shadercounts van de cutdown modellen, of in mindere mate clockspeeds (kunnen vaak immers nog wel iets veranderen), als hij die al maanden van tevoren exact wist te benoemen geeft dat een stuk beter inzicht in de geloofwaardigheid van zijn bronnen dan dat bijvoorbeeld de Ti Super 16GB zou krijgen of dat de 4070 Super niet ver onder de TI zou zitten.
[ Voor 15% gewijzigd door Dennism op 28-03-2024 11:11 ]
Dat zou mogelijk wel redelijk desastreus zijn voor de opinie over deze komende generatie, gemiddeld genomen lijkt het minimale dat de enthousiast accepteert als zijne redelijk gen on gen qua performance verbetering bij gelijk blijvende prijs zo'n 30% te zijn, en dat is dan ook wel minimaal zo lijkt, een aanzienlijk deel lijkt meer te verwachten wanneer je dit wel eens gepollt ziet worden op community sites.GarBaGe schreef op dinsdag 12 maart 2024 @ 14:11:
Nee, ik verwacht een 20-25% verbetering... waarschijnlijk 1-tier.
dus 5070 = 4080, 5080 = 4090 en 5090 is 4090+25%
Geheugen configuraties blijven (denk ik) hetzelfde.
Alhoewel ik zeer hoop dat de 5070 ook naar 16GB gaat (zoals de 4070 Ti Super dat nu ook heeft)
12GB is te weinig aan het worden...
Als de 5070 straks 4080-prestaties biedt voor $600, dan is het een 41% verbetering in prijs-prestatie ten opzichte van de de 3080. Dus gedeeld door 2 betekent het dan gemiddeld ~20% verbetering per generatie.
Gezien de gelekte bus-groottes voorspel ik flink wat teleurstelling over de VRAM-hoeveelheden. Nvidia zou dat wat kunnen tegengaan door relatief veel shaders te geven, maar of ze dat doen?
De vraag is natuurlijk vooral in hoeverre Moore's law dood is. Je kunt er van uitgaan dat Nvidia niet op hun marges gaat interen wanneer ze van TSMC geen 30% meer shaders/cache krijgt voor dezelfde prijs.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Of gewoon een 5070 als die zo veel sneller wordt als @Ludewig hierboven meldt
Overigens klinkt een 5070 16GB mij als een perfecte kaart, die 12GB in de 4070 is het echt allemaal net niet, de tijd van 8GB is wel voorbij en de 12GB over dik een jaar ook ben ik bang.
Denk dat ze bij de 5080/5090 wel bij een max van 24GB blijven. Dat lijkt me de komende jaren genoeg.
[ Voor 29% gewijzigd door JDx op 29-03-2024 23:10 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Om die reden zou ik ook nooit meer een kaart kopen met minder dan 16GB. Handig dit op de groei te kopen.
Yippie kayak, other buckets!
Tja, eerlijk gezegd als ik kijk naar de voorgestelde memory busses die gelekt zijn, dan vrees ik dat de 5070 nog wel een generatie zal moeten leven met 12 GB VRAM...JDx schreef op vrijdag 29 maart 2024 @ 22:55:
Dacht even een TUF 4070 te scoren voor 609 euro, is de actie echt net vanavond afgelopen, ik meld me dus voorzichtig alvast in dit topic, heb het geld voor een 4070 al meer dan bij elkaar, als ze een beetje opschieten en ik wat door spaar komt er ook een 5080 in zicht.
Of gewoon een 5070 als die zo veel sneller wordt als @Ludewig hierboven meldt
Overigens klinkt een 5070 16GB mij als een perfecte kaart, die 12GB in de 4070 is het echt allemaal net niet, de tijd van 8GB is wel voorbij en de 12GB over dik een jaar ook ben ik bang.
Denk dat ze bij de 5080/5090 wel bij een max van 24GB blijven. Dat lijkt me de komende jaren genoeg.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Uiteindelijk is zoiets natuurlijk erg matig, zeker ook omdat je met een dan inmiddels met een 4 jaar oude kaart vergelijkt. Dan heb je het over +-5% verbetering per jaar. Dat is gewoon echt ondermaats, zelfs als je niet meer de verwachtingen hebt die je een paar jaar geleden mocht hebben. En dan moet het ook nog zo zijn dat de 5070 geen price bump krijgt. Al met al als die geruchten kloppen voorzie ik weer veel teleurstelling.Ludewig schreef op donderdag 28 maart 2024 @ 16:01:
@Dennism
Als de 5070 straks 4080-prestaties biedt voor $600, dan is het een 41% verbetering in prijs-prestatie ten opzichte van de de 3080. Dus gedeeld door 2 betekent het dan gemiddeld ~20% verbetering per generatie.
Die kans acht ik ook wel aanwezig, zeker bij degenen die minimaal 16GB verwachten op iedere kaart. Al denk ik wel dat door de grotere bandbreedtes de kaarten gericht op 1440P mogelijk wel met 12GB af kunnen zonder al te veel problemen (al zal er vast een game te vinden zijn die op een extreme texture mode of zo wel wat issues heeft) en die op 1080P gericht blijven (onder kant van de markt) wel met 8GB.Gezien de gelekte bus-groottes voorspel ik flink wat teleurstelling over de VRAM-hoeveelheden. Nvidia zou dat wat kunnen tegengaan door relatief veel shaders te geven, maar of ze dat doen?
Dat zal inderdaad de vraag zijn, zolang AI blijft boomen en de concurrentie op zowel AI en gaming beperkt is zal dat geen ding zijn vermoed ik. En dat laat ook gelijk het ongezonde van de gaming GPU markt zien. In een gezonde markt waren die prijs ontwikkelingen van de laatste jaren echt niet zo gelopen.De vraag is natuurlijk vooral in hoeverre Moore's law dood is. Je kunt er van uitgaan dat Nvidia niet op hun marges gaat interen wanneer ze van TSMC geen 30% meer shaders/cache krijgt voor dezelfde prijs.
Welke "Moore's Law"?Ludewig schreef op donderdag 28 maart 2024 @ 16:01:
De vraag is natuurlijk vooral in hoeverre Moore's law dood is. Je kunt er van uitgaan dat Nvidia niet op hun marges gaat interen wanneer ze van TSMC geen 30% meer shaders/cache krijgt voor dezelfde prijs.
Moore heeft van alles gezegd, maar doorgaans wordt daarmee bedoeld "2x performance met hetzelfde verbruik voor dezelfde prijs", wat hij nooit gezegd heeft. Het enige wat hij zei is dat er voor de minimum kostprijs dubbel zo veel componenten te krijgen zouden zijn; aanvankelijk jaarlijks, later stelde hij dat bij naar elke 2 jaar. Die "wet" is morsdood. De nodes volgen elkaar niet snel genoeg op om aan die twee jaar te voldoen. Als je dat buiten beschouwing laat en enkel kijkt naar de vooruitgang tussen nodes is het discutabel; 2x is technisch gezien haalbaar met de juiste toepassing van het juiste ontwerp, maar gezien de complexiteit van moderne chips is dat niet meer het geval. Zelfs vanuit vogelvlucht bekeken (logica, SRAM, I/O) zie je al grote verschillen in haalbare dichtheid, maar zelfs binnen de logica zijn er grote verschillen (RT en TC zijn compacter dan de rest).
Wat de prijs betreft, heb je het dan eerder over Rock's Law, waarbij Rock en Moore allebei zeiden dat de kosten van een fab elke 4 jaar verdubbelen. Ook dat klopt niet helemaal op fab niveau - dat is juist andersom gebleken, die stijging is de laatste jaren flink afgevlakt. Maar dat geldt niet voor de klanten van de fabs: TSMC is stilletjes minder wafers gaan leveren (zo'n 20%), zonder daarbij omzet in te leveren, maar wel meer winst te genereren (hogere marges dus). En dat komt door de hogere wafer prijzen. De stijging per transistor is minder voor de fabs (TSMC) dan voor hun klanten (Nvidia, AMD)
Dat gezegd hebbende, moet je in dit geval naar de markt kijken. Nvidia is met Ada te ver gegaan, ze zitten met een gigantisch overschot omdat ze ze te duur in de markt hebben gezet. Ik verwacht dus wel dat de volgende generatie in verhouding goedkoper wordt. Maar zoals ik in het algemene nieuwsdiscussie topic al eens gezegd heb (waar deze hele draad overigens thuis hoort
Het belangrijkste is te beseffen dat Nvidia geen graphics bedrijf meer is. GeForce gaat niet verdwijnen, maar het is simpelweg niet waar ze de winst uit halen. Dat is het al 15 jaar niet en het afgelopen jaar was het niet eens de omzet-koe. In HPC is het veel makkelijker sprongen te maken qua performance, omdat schalen daar eenvoudiger is.
"Moore's Law is Dead" is de favoriete uitspraak van Jensen Huang, de CEO van Nvidia. Hij zegt dat al sinds 2017 als een excuus om de steeds stijgende prijzen goed te praten.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Zolang alle drie GPU-makers niet meer bieden dat dan is het voor ons als consument nu eenmaal iets waar we mee zullen moeten omgaan.Dennism schreef op zaterdag 30 maart 2024 @ 11:19:
[...]
Uiteindelijk is zoiets natuurlijk erg matig, zeker ook omdat je met een dan inmiddels met een 4 jaar oude kaart vergelijkt. Dan heb je het over +-5% verbetering per jaar. Dat is gewoon echt ondermaats, zelfs als je niet meer de verwachtingen hebt die je een paar jaar geleden mocht hebben.
Het lastige is ook dat cache nauwelijks nog schaalt, waardoor moderne chips al snel een tekort hebben aan cache. Maar misschien dat GDDR7 een stuk helpt als de bandbreedte dan tenminste stevig toeneemt.
Het lijkt mij juist waarschijnlijk dat ze de prijzen niet weer gaan verhogen, want dat kunnen ze nu echt niet meer maken.En dan moet het ook nog zo zijn dat de 5070 geen price bump krijgt. Al met al als die geruchten kloppen voorzie ik weer veel teleurstelling.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat is niet zo relevant, want zo heeft de markt het wel opgepikt. De fabrikanten hebben hun investeringen en plannen lange tijd hierop afgestemd, waardoor het een self-fulfulling prophecy werd.Werelds schreef op zaterdag 30 maart 2024 @ 11:36:
[...]
Moore heeft van alles gezegd, maar doorgaans wordt daarmee bedoeld "2x performance met hetzelfde verbruik voor dezelfde prijs", wat hij nooit gezegd heeft.
Alleen nu zien we dat dit niet meer lukt.
Voor een deel is dit gecompenseerd door meer stroom te gebruiken. Zo gebruikte de 1080 maar 180 watt, tegenover 320 voor de 4080. Zowel qua prijs als stroomverbruik is de 4070 een betere opvolger voor de 1080 dan de 4080. Dan zie je dat we ongeveer een verdubbeling performance/watt hebben bereikt in de 7 jaar tussen de 1080 en de 4070 (14% verbetering per jaar).
Maar "2x performance met hetzelfde verbruik voor dezelfde prijs" in 7 jaar tijd is dus veel en veel langzamer dan Moore's Law, die zegt dat dit elke twee jaar gebeurd.
Ik voorzie dat het pas echt weer boeiend wordt zodra we nieuwe interconnects krijgen waardoor ze met vrij lage latency, hoge bandbreedte en tegen relatief lage kosten verschillende chiplets kunnen koppelen.Ik zie Nvidia simpelweg niets revolutionairs doen.
Maar dat krijgen we zeker nog niet voor de volgende generatie.
Dat klopt, maar het is zeker nog een aanzienlijke markt. En Jensen lijkt een nogal extreme onwil te hebben om te verliezen, dus de grote vraag is vooral in hoeverre het AMD en Intel lukt om aan te haken en daarmee ook Nvidia ook weer opjutten om in elk geval hun marges wat te verlagen.Het belangrijkste is te beseffen dat Nvidia geen graphics bedrijf meer is. GeForce gaat niet verdwijnen, maar het is simpelweg niet waar ze de winst uit halen. Dat is het al 15 jaar niet en het afgelopen jaar was het niet eens de omzet-koe. In HPC is het veel makkelijker sprongen te maken qua performance, omdat schalen daar eenvoudiger is.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Mijn verwachting is dat de 5000 generatie even duur zal zijn als de 4000 generatie, maar dan met de Super prijzen. Dus de 5080 zal waarschijnlijk opnieuw 1000 USD kosten.Ludewig schreef op zaterdag 30 maart 2024 @ 13:16:
[...]
Zolang alle drie GPU-makers niet meer bieden dat dan is het voor ons als consument nu eenmaal iets waar we mee zullen moeten omgaan.
Het lastige is ook dat cache nauwelijks nog schaalt, waardoor moderne chips al snel een tekort hebben aan cache. Maar misschien dat GDDR7 een stuk helpt als de bandbreedte dan tenminste stevig toeneemt.
[...]
Het lijkt mij juist waarschijnlijk dat ze de prijzen niet weer gaan verhogen, want dat kunnen ze nu echt niet meer maken.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Hmm nee, het feit dat de prestaties en het verbruik zo mee ging was vooral een "happy accident", omdat de logica telkens beter werd en er in verhouding met minder transistors meer gedaan kon worden en dat dus ook compacter werd en minder verbruikte. Als ze zich daar op gericht hadden, hadden we nu nog steeds op Tesla als architectuur gezetenLudewig schreef op zaterdag 30 maart 2024 @ 13:58:
Dat is niet zo relevant, want zo heeft de markt het wel opgepikt. De fabrikanten hebben hun investeringen en plannen lange tijd hierop afgestemd, waardoor het een self-fulfulling prophecy werd.
20+ jaar geleden was een die-shrink veel effectiever dan nu, omdat alles (zelfs de logica) nu tegen de limiet aan zit. De node sprongen werden toen dan ook precies daarvoor gebruikt: de bestaande chips simpelweg verkleinen. Maar we hadden toen ook echte ticks in het tick-tock patroon; bij elke generatie kwamen er meer ops per tick per pipeline uit. Na de overgang naar unified shaders was dat lang ook nog zo: meer ops per tick per unit, minder tikken per wavefront, enzovoort. Als er ooit een tijd was om dat niet te hoeven doen, was het wel toen
Maar de 4070 (Ti) is ook de opvolger van de 1080Voor een deel is dit gecompenseerd door meer stroom te gebruiken. Zo gebruikte de 1080 maar 180 watt, tegenover 320 voor de 4080. Zowel qua prijs als stroomverbruik is de 4070 een betere opvolger voor de 1080 dan de 4080. Dan zie je dat we ongeveer een verdubbeling performance/watt hebben bereikt in de 7 jaar tussen de 1080 en de 4070 (14% verbetering per jaar).
Het zijn beide de middenklasse xy4 chips met rond de 300mm², wat de norm is voor die klasse chips. De uitschieters naar boven toe (zoals GM204) zijn gevallen waar er geen node verandering was. Het is juist AD103 (4080) die buiten de norm valt, het is een aparte chip die ze specifiek hebben ontworpen om dat gat rond de 400 in te vullen.
Zoals gezegd heeft hij dat nooit gezegd; in zijn tijd waren chips zo simpel dat twee keer zo veel transistors ook twee keer zo snel betekende, maar hij gaf toen ook al aan dat dat niet zo zou blijven en daar had hij gelijk in. En qua dichtheid kán dat ook nog gehaald worden - met zulke extreem simpele chips. Het is het kost-element waar zijn stelling inmiddels op gestorven is.Maar "2x performance met hetzelfde verbruik voor dezelfde prijs" in 7 jaar tijd is dus veel en veel langzamer dan Moore's Law, die zegt dat dit elke twee jaar gebeurd.
Dat gezegd hebbende, qua dichtheid zit je op 7 jaar tijd op pakweg 5 keer zo veel transistors per vierkante millimeter (12FF, N7, N5). Dat al die transistors niet tot prestaties leiden ligt niet aan de transistors: dat ligt deels aan Nvidia's slechte ontwerp aan de "raster" kant, anderzijds aan het feit dat we nu chips hebben die in feite twee volstrekt andere dingen moeten doen. Enerzijds heb je de ouderwetse FP/INT ALU's, anderzijds het RT gedeelte - hoewel de ene het andere voedt (RT komt uiteindelijk aan de raster kant terecht), heb je dus ook inherent met inefficiëntie te maken. Maar dat geldt enkel voor specifiek dit soort chips. Kijk voor de gein eens naar Apple's chips, die komen er veel beter vanaf als je de wafer prijzen niet mee telt.
Vergelijk ook Pascal en Turing (~25 MTr/mm²) eens met Ampère (~45) en Ada (~125). Turing spendeerde al een deel van z'n extra transistors aan RT en TC, zónder een hogere dichtheid te halen en tóch kwamen er in verhouding alsnog betere raster prestaties uit dan met Pascal. Met Ampère is een hoop van die transistors gaan zitten in de nieuwe, complexere FP/INT ALU's die het gewoon niet waard zijn gebleken. Dus ondanks het feit dat de dichtheid op een half-node sprong naar een andere fab (!) alsnog bijna verdubbelde, is een hoop van die transistors verspild. Vervolgens krijg je Ada, waar een hoop van die transistors in de grotere L2$ gaan zitten maar ook niet even veel opleveren.
De technologie voor die interconnects is er al. Het zijn de architecturen (in alle 3 de kampen) waar het probleem zit, zoals ik al vaker heb gezegd. Chiplets zijn leuk en aardig, maar zolang RT en "raster" niet los getrokken worden en onafhankelijk van elkaar kunnen schalen, hebben we niets aan betere interconnects. En in Nvidia's geval zouden de Tensor Cores liefst ook nog losgetrokken worden. Het probleem daarbij wordt het aansturen van dat alles. De data rondpompen krijgen ze wel voor elkaar, maar dat alles apart aansturen vereist een geheel andere aanpak. Nvidia's "mostly-software" aanpak is niet te handhaven, dat moet echt vanaf 0 opgebouwd worden. AMD zit in een betere positie, maar die moeten alsnog het probleem van een soort "arbiter" tussen de chiplets oplossen. Intel zit een beetje tussen die twee in, ze zijn niet zo extreem driver-afhankelijk als Nvidia, maar ze doen wel meer dan AMD.Ik voorzie dat het pas echt weer boeiend wordt zodra we nieuwe interconnects krijgen waardoor ze met vrij lage latency, hoge bandbreedte en tegen relatief lage kosten verschillende chiplets kunnen koppelen.
Maar dat krijgen we zeker nog niet voor de volgende generatie.
Zelfs als TSMC's N3 5 keer hogere dichtheid zou kunnen produceren aan exact dezelfde kosten als N5, zou Nvidia er alsnog niets mee kunnen met de huidige architectuur. Je krijgt dan wederom meer RT cores en meer SM's, maar al die krengen aansturen wordt nóg lastiger. De meeste transistors in een 4090 zitten nu al de helft van de tijd uit hun neus te vreten, dat wordt dan alleen maar erger.
Zijn er al feiten wanneer de kaarten echt uit komen? Vaak beginnen ze met de xx80 toch? Zal wel 2025 worden voordat er een 5070 uit komt.
Ik heb besloten om te wachten op zekerheid over wat er aan VRAM in de 5070 komt, als dat weer 12GB wordt ga ik voor een 4070, heb de TUF al 2x in de aanbieding gezien voor 609, dus die komt de komende tijd nog wel een keer onder de 600.
Ik spaar 25 euro per week voor "leuke dingen" op een aparte rekeninig waar ik niet direct bij kan, zodat ik er geen impuls aankopen mee doe, onlangs een Secretlab Titan gekocht en eind dit jaar is er dus ook wel geld voor een 5080, maar een kaart van 1000+ euro gaat er bij mij gewoon niet in.
en ja die stoel was ook duur, maar de andere optie was maar 150 euro goedkoper en een stoel gaat wat langer mee dan een GPU
[ Voor 7% gewijzigd door JDx op 01-04-2024 07:50 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Naar verwachting brengen ze de 5090 eerst uit. Bij Ampere deden ze het nog vrijwel tegelijkertijd (1 week ertussen), maar dat was vermoedelijk omdat ze onzeker waren of de markt zo'n dure kaart wel zou pikken. Dat was namelijk de eerste keer dat ze een x090 uitbrachten. Bij Ada kwam de 4090 eerst en zat er een maand tussen.
De geruchten zijn wisselend. Sommige leakers zeggen dat het zeker dit jaar nog komt en anderen zeggen begin volgend jaar.
En qua VRAM verwacht ik helaas weer 12 GB voor de 5070. Dat ze de derde chip nu een GB205 noemen waar Ada nog een 204 had, wijst er bepaald niet op dat ze deze chip nu een grotere bus geven. En ik acht de kans minimaal dat ze een 24 GB clamshell gaan verkopen voor de 5070.
Op z'n best verwacht ik een 16 GB 5070 Super bij een tussentijdse refresh na een jaar, als de 3 GB GDDR7 modules dan uit zijn.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik zit te kijken naar een build en zie weinig tot geen voordeel voor PCIe 5.0-snelheid voor SSD's, met videokaarten weet ik het nog niet precies. Bij twijfel ga ik voor een B650-E moederbord.
Yippie kayak, other buckets!
Nog steeds heeft de markt het wel op die manier opgepikt. Als we het over Moores Law hebben, hebben we het over hoeveel beter (digitale) chips worden. Niet specifiek over de transistor dichtheid.Werelds schreef op zaterdag 30 maart 2024 @ 17:54:
[...]
Hmm nee, het feit dat de prestaties en het verbruik zo mee ging was vooral een "happy accident", omdat de logica telkens beter werd en er in verhouding met minder transistors meer gedaan kon worden en dat dus ook compacter werd en minder verbruikte. Als ze zich daar op gericht hadden, hadden we nu nog steeds op Tesla als architectuur gezeten
Overigens die transistordichtheid is het enige wat nog steeds een beetje fatsoenlijk schaalt. Kosten per transistor niet, energiegebruik per transistor is ook aan het afvlakken. Snelheid per transistor wordt niet hoger (eerder beetje lager).
Wat betreft VRAM, daar wil Nvidia ook niet teveel erop voor doen, want dan gaan bedrijven ze voor AI toepassingen kopen ipv hun duurdere datacenter chips.
We zien eigenlijk elke generatie dat het nauwelijks iets uitmaakt aan het begin, maar vaak wel een heel klein beetje. De vraag is wel of GDDR7 ervoor gaat zorgen dat de bandbreedte stevig omhoog gaat en daardoor de PCIe snelheid iets meer gaat uitmaken.jmk schreef op maandag 1 april 2024 @ 18:23:
Verwachten jullie dat het voor een RTX 5080 nodig is een PCIe x16-slot op een snelheid van PCIe 5.0 te hebben? Of dat je er ook maar echt iets aan hebt ten opzichte van snelheid 4.0?
Aangezien er een goede kans is dat je op AM5 er nog een keer een nieuwe processor en nieuwe GPU in gooit, zou ik zelf nu wel voor PCIe 5 gaan als ik nog een systeem ging bouwen. Zeker als je shopt bij de GPUs van meer dan duizend euro.
Maar als je al een systeem hebt met PCIe 4 zou ik er zeker niet voor gaan upgraden.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
zo kan je natuurlijk altijd blijven wachten. Ten eerste als je zekerheid wil over hoeveel VRAM de 5070 krijgt je nog wel 3 kwart jaar kan wachten, ten tweede vooral eer er leuke aanbiedingen zijn voor een 5070 komt de 6070 weer in beeld.JDx schreef op maandag 1 april 2024 @ 07:48:
De planning was vorig jaar om in mei dit jaar een nieuwe kaart te kopen, in de hoop dat de prijzen dan gezakt waren, dat zijn ze inmiddels flink, maar nu komt de 50-serie dus ook in zicht.
Zijn er al feiten wanneer de kaarten echt uit komen? Vaak beginnen ze met de xx80 toch? Zal wel 2025 worden voordat er een 5070 uit komt.
Ik heb besloten om te wachten op zekerheid over wat er aan VRAM in de 5070 komt, als dat weer 12GB wordt ga ik voor een 4070, heb de TUF al 2x in de aanbieding gezien voor 609, dus die komt de komende tijd nog wel een keer onder de 600.
Het is een totaal ander verhaal als de 5xxx serie op punt van lanceren staat, maar dat is absoluut niet het geval.
[ Voor 5% gewijzigd door Arjant2 op 02-04-2024 11:14 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ik kom de zomer wel door met een 3060 Ti hoor, wil alleen graag meer VRAM voor AI.Arjant2 schreef op dinsdag 2 april 2024 @ 11:12:
[...]
zo kan je natuurlijk altijd blijven wachten. Ten eerste als je zekerheid wil over hoeveel VRAM de 5070 krijgt je nog wel 3 kwart jaar kan wachten, ten tweede vooral eer er leuke aanbiedingen zijn voor een 5070 komt de 6070 weer in beeld.
Het is een totaal ander verhaal als de 5xxx serie op punt van lanceren staat, maar dat is absoluut niet het geval.
De kaarten met 16GB liggen nu buiten budget en van 8 naar 12 is maar de helft van de stap van 8 naar 16, ik ga niet elk jaar een nieuwe kaart kopen (heb deze nu 2,5 jaar), maar als er een 16GB kaart binnen budget komt (en niet de 4060 Ti), dan wil ik daar wel op wachten.
Maar zoals @nzall al zegt lijkt de kans klein dat de 5070 16GB gaat krijgen. De eerste goede aanbieding van een 4070 zal ik dan ook wel bestellen denk ik. Heb ze al gezien voor 609, helaas nu weer 659. Maar dat komt vanzelf wel weer (en met 659 bedoel ik een Asus TUF Gaming).
[ Voor 13% gewijzigd door JDx op 02-04-2024 11:30 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Een 5070 16GB zou ik gewoon op de dag van release kopen.Arjant2 schreef op dinsdag 2 april 2024 @ 11:12:
[...]
ten tweede vooral eer er leuke aanbiedingen zijn voor een 5070 komt de 6070 weer in beeld.
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Wat mij betreft geven we hier gewoon de informatie die we hebben en is het verder aan de persoon in kwestie om te bepalen wat ze ermee doen. Er zijn allerlei specifieke wensen mogelijk die ervoor kunnen zorgen dat mensen keuzes maken die op jou wellicht vreemd overkomen.
Bijvoorbeeld mensen die op zich aardig tevreden zijn met een relatief goedkope kaart voor de spellen die ze nu spelen, maar wel interesse hebben om ook AI modellen te gaan draaien of veeleisende VR-spellen te gaan spelen.
Dan is het prima mogelijk dat ze kijken naar het optimale moment om een nieuwe kaart te kopen voor die nieuwe hobby, maar dat ze ook makkelijk nog een jaar of langer kunnen doen met hun oude kaart.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nvidia board partners verwachten dat de 5090 en 5080 in Q4 van dit jaar gelanceerd zullen worden. Dus zal vergelijkbaar zijn met de 4090 en 4080 waarschijnlijk.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Klinkt ver weg, maar dat is het echt zo, kerst voelt als vorige week.nzall schreef op maandag 8 april 2024 @ 16:16:
https://videocardz.com/ne...-launch-in-fourth-quarter
Nvidia board partners verwachten dat de 5090 en 5080 in Q4 van dit jaar gelanceerd zullen worden. Dus zal vergelijkbaar zijn met de 4090 en 4080 waarschijnlijk.
Crosspost, maar als dit waar is dan spaar ik wel door voor de 5080, hoef ik me sowieso tot de 70 of zelfs de 80 serie niet meer druk te maken. Heb de 10 en 20 serie ook overgeslagen, van 980 naar 3060 Ti.
Volgens de post gaat het alleen om de goedkopere modellen, maar dit helpt natuurlijk niet voor de modellen daar boven, zoals de 4070 and up. En dus ook niet voor de 50XX prijzen lijkt me.
https://www.techradar.com...-its-graphics-cards-by-10Due to an increase in demand and limited supply, prices for several of Nvidia’s GeForce graphics cards are rumored to rise by about 10% in the coming weeks.
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
[ Voor 125% gewijzigd door br00ky op 09-04-2024 16:25 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Ik geloof dat die al aangepast is. Of toch tenminste, een revisie waardoor die moeilijker verkeerd in te steken is. De basis van de connector is hetzelfde gebleven. Oh, en de connector zal verplicht worden voor alle kaarten, ongeacht hoeveel stroom ze gebruiken. Dus ook voor kaarten die normaal zouden toekomen met een gewone 8-pin.JDx schreef op donderdag 11 april 2024 @ 17:19:
Wat me overigens niet helemaal duidelijk was nog, blijven ze vasthouden aan die 12VHPWR of gingen ze dat nou aanpassen, meen dat ergens gelezen te hebben.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
ook is de plaatsing van die connector op je kaart suboptimaal. je hebt nu weinig ruimte tussen je kast en de glasplaat bij een normale plaatsing van je videokaart in je moederbord.
Yippie kayak, other buckets!
Akasa adapter?jmk schreef op donderdag 11 april 2024 @ 21:18:
wel een groot nadeel die nieuwe connector, maakt het ook onnodig spannend.
ook is de plaatsing van die connector op je kaart suboptimaal. je hebt nu weinig ruimte tussen je kast en de glasplaat bij een normale plaatsing van je videokaart in je moederbord.

https://videocardz.com/ne...s-for-geforce-rtx-40-gpus
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Maar ik vroeg me vooral af of het nu zin heeft om een voeding aan te schaffen met native 12VHPWR aansluiting en bijgeleverde kabel of dat je straks weer een ander kabeltje krijgt.jmk schreef op donderdag 11 april 2024 @ 21:18:
wel een groot nadeel die nieuwe connector, maakt het ook onnodig spannend.
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Dat veiliger maken kan aan de kant van de kaart, maar ook aan de kant van de PSU.
Dit overweeg ik nu:
| # | Category | Product | Prijs | Subtotaal |
|---|---|---|---|---|
| 1 | Behuizingen | Fractal Design North XL - TGD Charcoal Black | € 160,26 | € 160,26 |
| 1 | Voedingen | Corsair RM1000x SHIFT ATX3.0, Zwart | € 186,78 | € 186,78 |
Ik ga in ieder geval voor een nieuwe PSU met ATX3 en een 12pin connector. Heb liever zo min mogelijk verloopkabeltjes. Hopelijk pas het wel onder de glasplaat omdat die kast vrij groot is.
Ik ga ook pas een nieuwe build kopen als ik weet welke componenten het best bij elkaar passen.
Ik vind het heel wonderlijk dat na zoveel jaar van standaardisering en evolutie waarbij alles perfect op elkaar aansloot zo'n kabel er door is gedrukt, met schade aan videokaarten ten gevolg. Snap het gewoon niet zo goed. Geeft gewoon stress om er over na te denken.
Yippie kayak, other buckets!
Ook een van de redenen waarom ik nog vaak naar de 4070 prijzen kijk in plaats van de 4070 Super, de Asus TUF Gaming 4070 heeft nog een "gewone" 8-pins aansluiting en had mijn Corsair RM850 ook op de toekomst gekocht om misschien een stap hoger te gaan zoals een 5080.jmk schreef op donderdag 11 april 2024 @ 22:03:
Ja die vraag heb ik ook. Juist omdat de veiligheid van die 12pin connector niet helemaal gegarandeerd kan worden onder alle omstandigheden en het logisch is aan te nemen dat ze hem veiliger gaan maken.
Dat veiliger maken kan aan de kant van de kaart, maar ook aan de kant van de PSU.
Dit overweeg ik nu:
# Category Product Prijs Subtotaal 1 Behuizingen Fractal Design North XL - TGD Charcoal Black € 160,26 € 160,26 1 Voedingen Corsair RM1000x SHIFT ATX3.0, Zwart € 186,78 € 186,78
Ik ga in ieder geval voor een nieuwe PSU met ATX3 en een 12pin connector. Heb liever zo min mogelijk verloopkabeltjes. Hopelijk pas het wel onder de glasplaat omdat die kast vrij groot is.
Ik ga ook pas een nieuwe build kopen als ik weet welke componenten het best bij elkaar passen.
Ik vind het heel wonderlijk dat na zoveel jaar van standaardisering en evolutie waarbij alles perfect op elkaar aansloot zo'n kabel er door is gedrukt, met schade aan videokaarten ten gevolg. Snap het gewoon niet zo goed. Geeft gewoon stress om er over na te denken.
Maar wil ook geen verloop rommel, alles zo clean mogelijk. Dus wacht ook nog met diverse onderdelen kopen tot er meer duidelijk is. Ik ga alleen voor de 4070 als die onder de 600 komt binnen 3 maanden.
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
De 4070 is toch al onder de 600 euro verkrijgbaar?JDx schreef op vrijdag 12 april 2024 @ 07:18:
[...]
Maar wil ook geen verloop rommel, alles zo clean mogelijk. Dus wacht ook nog met diverse onderdelen kopen tot er meer duidelijk is. Ik ga alleen voor de 4070 als die onder de 600 komt binnen 3 maanden.
Hij wil een specifiek model dat nog niet onder de 600 is.ruftman schreef op vrijdag 12 april 2024 @ 11:32:
[...]
De 4070 is toch al onder de 600 euro verkrijgbaar?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ja sorry had ik er ff bij moeten zeggen, Asus TUF Gaming. Gaat anders ook net zo zijn voor de 5070/5080.ruftman schreef op vrijdag 12 april 2024 @ 11:32:
[...]
De 4070 is toch al onder de 600 euro verkrijgbaar?
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
[ Voor 3% gewijzigd door Thomas op 15-04-2024 16:39 ]
Ik weet niet hoe accuraat dit feitelijk KAN zijn. Volgens andere geruchten zijn er 30% meer transistors op dezelfde oppervlakte. Dus er gebeuren dan 30% meer berekeningen, maar het zou dan alsnog efficiënter zijn? klinkt vreemd...Thomas schreef op maandag 15 april 2024 @ 16:35:
Wat betreft PSU, ik lees dat naar verwachting de 5080/5090 wat efficiënter zullen zijn (en een lager verbruik hebben) dan de 4080/4090. Op notebookcheck hebben ze het over een verbruik van 250-300W. Ik hoop dat mijn 850W PSU genoeg zal zijn - heb een Seasonic ATX 3.0 met 12 pin connector en zou het zonde vinden om te moeten upgraden... Achteraf was het misschien verstandiger om een 1000W PSU te kopen maar dat leek me ook weer overkill.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Dat zijn typisch geruchten waar je totaal geen aandacht aan moet geven, want de wattages hangen voor een groot deel af van waar ze op de wattage/kloksnelheid-curve gaan zitten. Dat is iets dat ze nog vrij kort voor release nog kunnen aanpassen, want dat zit volledig in de BIOS.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ben benieuwd of er ook weer een 5080 Super komt.JDx schreef op dinsdag 9 april 2024 @ 06:44:
[...]
Klinkt ver weg, maar dat is het echt zo, kerst voelt als vorige week.
Crosspost, maar als dit waar is dan spaar ik wel door voor de 5080, hoef ik me sowieso tot de 70 of zelfs de 80 serie niet meer druk te maken. Heb de 10 en 20 serie ook overgeslagen, van 980 naar 3060 Ti.
Volgens de post gaat het alleen om de goedkopere modellen, maar dit helpt natuurlijk niet voor de modellen daar boven, zoals de 4070 and up. En dus ook niet voor de 50XX prijzen lijkt me.
[...]
https://www.techradar.com...-its-graphics-cards-by-10
De Super-kaarten zijn refreshes en of ze die nodig hebben bepalen ze pas later. Ik verwacht zelf dat ze dit wel gaan doen omdat AMD naar verluid al in 2025 met RDNA5 komt, dus dan moet Nvidia daar wat tegenover stellen.emeralda schreef op zaterdag 20 april 2024 @ 18:15:
[...]
Ben benieuwd of er ook weer een 5080 Super komt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Als deze geruchten kloppen zal de 5000 series een ramp zijn. Vanwege de exportrestricties voor AI kaarten naar China zou Nvidia van plan zijn om de 5080 vergelijkbaar te maken met de 4090D, dus de 4090 die bedoeld is voor de Chinese markt en 10% trager is, zodat Nvidia de launch van de 5000 series kan starten met een globaal beschikbare kaart in plaats van een lancering met de 5090 die ze niet mogen verkopen in China. Maar de prijs zou dan wel 1200-1500 EUR zijn omdat ze die kaart eerder beschouwen als één van hun 2 vlaggenschepen in plaats van gewoon een high-end kaart.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
5080 zou sneller zijn dan 4090, toen even snel ongeveer en nu dus weer 10% minder.
5090 kwam eerst, toen beide tegelijk en nu weer de 5080 mogelijk iets eerder.....5080 zou 1000 dollar kosten vanwege slechte verkoop van eerdere 4080, nu alweer 1500?
Gokken kunnen we zelf ook wel toch? Ik volgde RDNA3 vooral op de voet en weet nog dat de rx7600 al even snel zou zijn als de rx6950 etc. Etc.
We gaan het zien bij de launch, alles daarvoor is veelal bullshit (helaas).
Wat we al zeker weten: de 5000 series krijgt GDDR7 VRAM chips. Deze zijn aanvankelijk verkrijgbaar in chips van 16 Gbit, of dus 2 GB per chip, en tegen het einde van 2025 zijn er chips verwacht van 24 Gbit, of dus 3 GB per chip. Elke chip heeft 32 bit nodig op de memory bus, dus een memory bus van 128 kan 4 chips aan, een memory bus van 192 kan er 6 aan, 256 8 en 512 16. Als er een GPU met een bus van 384 zou uitkomen (misschien een gekortwiekte GB202) dan kan die er 12 aan.
De geruchten: Nvidia zal Blackwell chips hebben met 512, 256, 192 en 128 GB memory bus. De verwachting is dat deze ruwweg zullen overeenkomen met 5090, 5080, 5070 en 5060.
invalshoek van de markt: De hele markt klaagt al meerdere generaties over de hoeveelheid VRAM op kaarten, op alle niveaus. Iedereen vindt dat een instapmodel op de huidige markt minstens 12 GB VRAM moet hebben, en dat een kaart met 12 GB VRAM niet meer zou mogen kosten dan ruwweg 500 USD/550 EUR. Developers vinden dat ze worden gelimiteerd. AIBs zijn er ook niet tevreden over, maar ze durven niet openlijk klagen uit angst dat Nvidia hen zal afstoten. Daarnaast zijn er steeds meer en meer mensen die lokaal met AI aan de slag willen, en deze mensen willen meer VRAM.
Mijn speculatie: Nvidia zal een 5090 uitbrengen met 32 GB VRAM voor rond de 2000 USD, een 5080 met 16 GB VRAM voor rond de 1000 USD, een 5070 Ti ook met 16 GB VRAM voor rond de 800 USD, een 5070 met 12 GB VRAM voor rond de 600 USD, een 5060 Ti met 12 GB VRAM voor rond de 450 EUR, en een 5060 met 8 GB VRAM voor 300 EUR. Deze chips zullen allemaal NIET de volledige GPU die gebruiken, maar stoppen rond de 80%. De chips die perfect scoren zullen worden opgespaard.
maar mijn speculatie stopt daar niet: eind 2025, begin 2026 zal Nvidia een Super refresh op de markt brengen van de volgende kaarten:
5060 Super met 12 GB VRAM die de 5060 Ti zal vervangen;
5070 Super met 18 GB VRAM die de 5070 Ti zal vervangen;
5080 Super met 24 GB VRAM die de 5080 zal vervangen.
Deze chips zullen de nieuwe 3 GB GDDR7 VRAM chips gebruiken, evenals de opgespaarde GPUs van dezelfde generatie.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Volgens mij is Micron de enige die 24 Gbit chips op de roadmap heeft en die worden beloofd voor 2026. Eerder op de roadmap zetten ze 16-24 Gbit, dus is het onduidelijk wanneer 24 Gbit chips nu echt komen. Wellicht/hopelijk op tijd voor een refresh, maar wellicht ook niet.
/f/image/cDriiama96jDkhoGLIeBZ4vP.png?f=fotoalbum_large)
Ik ben het er wel mee eens dat een geheugenrefresh heel logisch is. Je lineup ziet er op zich ook logisch uit. De vraag is wel of Nvidia nog een keer maar 8 GB in de x060 wil stoppen, zeker aangezien het laatste gerucht is dat de Radeon 8600 XT 12 GB gaat krijgen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik zat al in dit topic en hier had ik het ook vandaan dat de 5070 hoogstwaarschijnlijk weer 12GB gaat krijgen, sowieso duurt dat nog bijna een jaar en heb die VRAM gewoon nodig, ben vaak out of memory, vooral bij het generen van video moet ik de resolutie erg laag houden.nzall schreef op zondag 12 mei 2024 @ 18:21:
[...]
Ik heb hiervoor een speculatie gedaan in het 5000 series topic: nzall in "[NVIDIA GeForce RTX 50XX] Ervaringen & Discussie". kwestie van de topic hier niet teveel te vervuilen.
kort samengevat: ik verwacht dat de 5070 Ti 16 GB VRAM zal hebben, en de 5070 12 GB, maar ook dat er opnieuw een mid gen refresh zal komen met GDDR7 chips van 24 Gbit, waardoor Nvidia kaarten kan uitbrengen met dezelfde chips maar meer VRAM. Dus die 5070 Super zal dan 18 GB VRAM hebben. Maar als je daarover wilt speculeren lieft in het andere topic.
Blij dus met mijn goede deal op de 4070 (Asus ProArt 4070 OC 12GB 599 + 55 cashback), die 50 serie duurt nog te lang en mijn cap lag gewoon echt bij 600 euro voor een GPU. Zien we eind 2025 wel weer of die 5070 met 18GB komt of andere interessante kaarten met meer dan 12GB.
daarnaast kan ik voorlopig in de spellen die ik speel weer met zekerheid de 165hz van mijn scherm halen
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Wat ook mogelijk zou kunnen zijn: de 5060 krijgt 16 GB VRAM, vergelijkbaar met hoe de 3060 12 GB VRAM kreeg. Maar ik dacht dat ze daar ten tijde van de 3060 12 GB niet echt tevreden over waren.Ludewig schreef op zondag 12 mei 2024 @ 19:37:
@nzall
Volgens mij is Micron de enige die 24 Gbit chips op de roadmap heeft en die worden beloofd voor 2026. Eerder op de roadmap zetten ze 16-24 Gbit, dus is het onduidelijk wanneer 24 Gbit chips nu echt komen. Wellicht/hopelijk op tijd voor een refresh, maar wellicht ook niet.
[Afbeelding]
Ik ben het er wel mee eens dat een geheugenrefresh heel logisch is. Je lineup ziet er op zich ook logisch uit. De vraag is wel of Nvidia nog een keer maar 8 GB in de x060 wil stoppen, zeker aangezien het laatste gerucht is dat de Radeon 8600 XT 12 GB gaat krijgen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Maar die logica hangt dus heel erg af van de beschikbaarheid van 3 GB chips over ruim een jaar.
Ik leun op dit moment wel naar 8 GB, want Nvidia kiest meestal voor de zuinige optie.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
[ Voor 95% gewijzigd door br00ky op 03-06-2024 13:09 ]
мы идем к победе
Dat blijft natuurlijk wel een afweging voor Nvidia. Ze willen dat mensen die lokaal met AI wat willen doen wel in hun ecosysteem blijven. Tegelijk willen ze niet dat hun consumentenkaarten gaan concurreren met hun datacenter kaarten.nzall schreef op zondag 12 mei 2024 @ 18:19:
Daarnaast zijn er steeds meer en meer mensen die lokaal met AI aan de slag willen, en deze mensen willen meer VRAM.
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Mijn inziens zullen de prijzen vanaf de 5080 echt wel hoger liggen:nzall schreef op zondag 12 mei 2024 @ 18:19:
5090 32 GB VRAM voor $2000,-
5080 16GB VRAM voor $1000,-
5070ti 16GB VRAM voor €800,-
5070 12GB VRAM voor €600,-
5060ti 12GB VRAM voor €450,-
5060 8GB VRAM voor €300,-
5080 €1200,-
5070 €700,-
5060 €400,-
De ti of super versies ga ik verder niet over speculeren.
NVidia kan helaas zelf grotendeels de prijs bepalen en aangezien de game markt steeds minder hun main business wordt hoeven ze dat ook nog niet eens.
En mensen lopen grotendeels toch en masse achter NVidia aan, of dat nou terecht is of niet.
(En dat begrijp ik ook wel, de kaarten houden beter hun waarde vast en RTX blijft toch een toverwoord voor velen)
just imagine: war breaks out and nobody turns up... SPECS - Ajaxied
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Voor de 5060 verwacht ik een prijs tussen de $300 en $350.
Overigens worden de prijzen vastgesteld in dollars, dus het heeft weinig zin om de europrijzen te bediscussiëren, want dan vertroebelt de discussie alleen maar doordat je wisselkoersen meeneemt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik deel jouw verwachting daarin, echter ben ik vooral benieuwd wat de introductieprijs zal zijn van de 5090. Vergelijkbaar met de 4090 is voor mij toch echt wel de max, anders zal ik uiteindelijk kiezen voor een 5080, dan maar wat minder raw power.Ludewig schreef op maandag 13 mei 2024 @ 16:06:
Ik denk dat de 5000-serie de Super-prijzen zullen volgen. Nvidia heeft ontdekt dat ze met de 4080 voor $1200 echt te ver zijn gegaan en de 4070 Super geeft aan dat ze voor die tier vooral de matige prijs/prestatie-verbetering als probleem zagen. En bij de 4070 Ti zagen ze niet de prijs of prijs/prestatie als probleem, maar de 12 GB VRAM.
Voor de 5060 verwacht ik een prijs tussen de $300 en $350.
Overigens worden de prijzen vastgesteld in dollars, dus het heeft weinig zin om de europrijzen te bediscussiëren, want dan vertroebelt de discussie alleen maar doordat je wisselkoersen meeneemt.
Ik ga eigenlijk wel uit van 1199 en 1799 ofzo, gewoon omdat ze dat kunnen vragen en nu nog doen. Je moet nu ook nog 1100,- neerleggen voor een 4080, zie niet waarom een 5080 naar 999,- zou gaan.Ambition88 schreef op maandag 13 mei 2024 @ 17:31:
[...]
Ik deel jouw verwachting daarin, echter ben ik vooral benieuwd wat de introductieprijs zal zijn van de 5090. Vergelijkbaar met de 4090 is voor mij toch echt wel de max, anders zal ik uiteindelijk kiezen voor een 5080, dan maar wat minder raw power.
Dat prijsverschil tussen de 5080 en 5090 moet net zo zijn dat je gaat twijfelen om toch voor de 5090 te gaan.
[ Voor 9% gewijzigd door JDx op 13-05-2024 18:13 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Bij GPUs geldt: de wal keert de chip. Zolang mensen blijven kopen voor een verhoogde prijs, heeft Nvidia geen reden om de prijs hetzelfde te houden.
Ik kan me wel voorstellen dat ze een GB202-gebaseerde 5080 Ti uitbrengen met een wat afgeknepen bus en alsnog een stevige prijs van richting de $1300/1400.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
May 23
NVIDIA RTX 5090 Founder’s Edition rumored to feature 16 GDDR7 memory modules in denser design
https://videocardz.com/ne...-modules-in-denser-design
Kan mogelijk 32GB worden volgens het artikel.
[ Voor 8% gewijzigd door JDx op 23-05-2024 13:02 ]
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts

https://videocardz.com/ne...8gb-gddr7-and-448-bit-bus
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Yippie kayak, other buckets!
Ik vind het heerlijk als je spel er prachtig uit ziet en je de computer ondertussen niet tot nauwelijks hoort. Sommige spelen met een headset en dan maakt het weinig uit maar ik speel met speakers en ik speel genoeg adventure games waar het ingame af en toe helemaal stil is (Alan Wake bijvoorbeeld) dan wil ik natuurlijk ook dat het er prachtig uitziet + dikke framerate zonder dat ik het gevoel heb dat er een stofzuiger is geactiveerd. En nee ik heb ook weinig zin om met een fan profile te werken etc. Teveel gekloot/ gedoe voor mij
Voorlopig speel ik vooral Killing flour 2, dus ik kan nog even door met de 3080.
Dat zou VEEL te vroeg geweest zijn. Nvidia kondigt de nieuwste generatie altijd maar een paar weken op voorhand aan. De RTX 40 series was aangekondigd op 20 september 2022, en de eerste kaart is uitgekomen op 12 oktober 2022. De RTX 30 series was aangekondigd op 1 September 2020 en de eerste kaart kwam uit op 17 September 2022. De RTX 20 series was aangekondigd op 20 Augustus 2020, en is op de markt verschenen op 20 September 2018. De GTX 10 series was aangekondigd op 6 mei 2016 en de eerste kaart kwam uit op 27 mei 2016.Logan schreef op woensdag 5 juni 2024 @ 13:23:
Totaal geen enkele nieuws in Nvidia keynotes over de RTX 5XXX series, wat teleurgesteld 😞
Daarnaast ook: er zijn geruchten dat Nvidia recent de plannen heeft omgegooid en waar ze eerst de 5090 op de markt zouden brengen gaan ze nu de 5080 eerst releasen, maar omdat die oorspronkelijk later gepland was heeft dat feitelijk de hele release agenda inclusief aankondiging vertraagd.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Het is net als met bv. kruidnootjes, ze liggen al klaar in de magazijnen.nzall schreef op woensdag 5 juni 2024 @ 16:02:
[...]
Dat zou VEEL te vroeg geweest zijn. Nvidia kondigt de nieuwste generatie altijd maar een paar weken op voorhand aan. De RTX 40 series was aangekondigd op 20 september 2022, en de eerste kaart is uitgekomen op 12 oktober 2022. De RTX 30 series was aangekondigd op 1 September 2020 en de eerste kaart kwam uit op 17 September 2022. De RTX 20 series was aangekondigd op 20 Augustus 2020, en is op de markt verschenen op 20 September 2018. De GTX 10 series was aangekondigd op 6 mei 2016 en de eerste kaart kwam uit op 27 mei 2016.
Daarnaast ook: er zijn geruchten dat Nvidia recent de plannen heeft omgegooid en waar ze eerst de 5090 op de markt zouden brengen gaan ze nu de 5080 eerst releasen, maar omdat die oorspronkelijk later gepland was heeft dat feitelijk de hele release agenda inclusief aankondiging vertraagd.
Als dit waar is, nVidia houdt ons steeds kleiner voor mijn gevoel, de upgrades m.b.t toekomst vastheid zijn steeds kleiner. Ze hebben ook wel geleerd van de nVidia RTX 1080 (Ti) dat erg lang een top GPU was.
Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.
Dat werkt niet zo.Jumpman schreef op zondag 9 juni 2024 @ 18:35:
Wederom geen positief bericht: nieuws: 'Laptopversies Nvidia RTX 50-gpu's krijgen 8, 12 en 16GB aan GDDR7-ge....
Als dit waar is, nVidia houdt ons steeds kleiner voor mijn gevoel, de upgrades m.b.t toekomst vastheid zijn steeds kleiner. Ze hebben ook wel geleerd van de nVidia RTX 1080 (Ti) dat erg lang een top GPU was.
Als een bedrijf de kans heeft om een concurrent compleet te vermorzelen zullen ze dat altijd doen.
De techniek gaat gewoon niet zo hard meer tegenwoordig.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
De RTX 40 serie was een goede stap, zeker in energie verbruik voor performance. Maar ze zijn in deze serie wel gaan ‘knoeien’ met de geheugenbus en de hoeveelheid RAM en dat trekken ze in de RTX 50 serie goed door, lijkt het nu.OMD schreef op zondag 9 juni 2024 @ 19:35:
[...]
Dat werkt niet zo.
Als een bedrijf de kans heeft om een concurrent compleet te vermorzelen zullen ze dat altijd doen.
De techniek gaat gewoon niet zo hard meer tegenwoordig.
Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.
Zoals verwacht blijft Nvidia de klanten oplichten door in de laptops een 4080-chip te verkopen als een 4090, een 4070-chip als een 4080, etc. Dus dan zijn deze geheugen-hoeveelheden precies wat we al konden verwachten.Jumpman schreef op zondag 9 juni 2024 @ 18:35:
Wederom geen positief bericht: nieuws: 'Laptopversies Nvidia RTX 50-gpu's krijgen 8, 12 en 16GB aan GDDR7-ge....
Als dit waar is, nVidia houdt ons steeds kleiner voor mijn gevoel, de upgrades m.b.t toekomst vastheid zijn steeds kleiner. Ze hebben ook wel geleerd van de nVidia RTX 1080 (Ti) dat erg lang een top GPU was.
Pas wanneer de 3GB chips uitkomen kunnen we bij Nvidia zowel op de desktop en laptop verwachten dat we (op z'n best) 50% extra geheugen krijgen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nee, hij zegt dat om zijn compute CUDA te verkopen. Nvidia is primair een software bedrijf geworden en secundair hardwarenzall schreef op zaterdag 30 maart 2024 @ 11:49:
[...]
"Moore's Law is Dead" is de favoriete uitspraak van Jensen Huang, de CEO van Nvidia. Hij zegt dat al sinds 2017 als een excuus om de steeds stijgende prijzen goed te praten.
Waardoor heet dit topic "Ervaringen & Discussie" als niemand ervaringen met RTX50XX kaarten heeft? Kan dit nog gewijzigd worden naar "Nieuws & Discussie"?
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik denk wel dat MLID met industrie bronnen praat, maar ik vind een 4080 Super $999 voorspelling niet knap. Een nauwkeurige 4080 $1199 voorspelling, dat zou pas knap zijn. Maar het probleem met MLID is dat hij zijn voorspellingen altijd geeft als: $800-1400, een enorm bereik. Altijd goed. Nooit fout. Ja maar dat kan mijn oma ook voorspellen.nzall schreef op vrijdag 1 maart 2024 @ 22:58:
[...]
Omdat je een verschil moet maken tussen zijn giswerk en zijn brongebaseerde werk. Dit van dat artikel is puur giswerk, maar als je kijkt naar de prijzen die hij voorspelde voor de RTX Super kaarten op basis van bronnen bij AIBs en Nvidia, dan zie je dat hij de prijzen al maanden op voorhand in het zicht had, en dat de performance van de 4070 Super in de buurt zit van wat hij voorspelde (ongeveer 5% trager dan de 4070 Ti) en dat de hoeveelheid VRAM van de 4070 Ti Super ook klopte.
En voor alle duidelijkheid: mensen geloofden hem toen niet. Kijk maar de berichten na in de Discord en de berichten in het RTX 40 topic die reageerden op de frames die ik deelde: NIEMAND wilde geloven dat Nvidia de 4080 Super goedkoper zou maken dan de 4080. IEDEREEN dacht dat Nvidia de prijzen nog eens omhoog ging doen. Iedereen ging ervan uit dat Nvidia de gaming GPU markt opnieuw een loer ging draaien omdat ze die markt toch niet nodig hebben in de tijd van AI. Want Nvidia mag dan wel 4X zoveel omzet draaien met AI als met gaming hardware, maar als Jensen tegen zijn aandeelhouders zegt "wij gaan zomaar één vijfde van onze omzet verloochenen en ons hondstrouwe en oudste klanten verraden", dan vliegt hij binnen de week buiten denk ik.
Maar zoals gezegd, MLID heeft 2 vormen van geruchten: gokwerk en insider information. Die eerste is doorgaans niet zo betrouwbaar (en ik had niet door die video daaronder viel), maar die tweede vorm is doorgaans wel accuraat, tenminste op het moment van posten. Het eerste is verzonnen, het tweede doorgaans niet.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Let op. Dit topic is om inhoudelijk te discussiëren over de 50XX serie, niet om over prijzen, beschikbaarheid en "waar-koop-ik" vragen te stellen. Daar hebben we [NVIDIA GeForce RTX 50XX] Levertijden & Prijzen voor. Reageer er dus ook niet op maar maak een report aan, dan wordt het verplaatst naar het het andere topic.