Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dit is een reactie op een opmerking uit het prijzen topic.
NLxAROSA schreef op vrijdag 14 april 2023 @ 13:24:
[...]

Ik denk zelf (ook op basis van andere berichten) dat de chiptekorten terug blijven lopen de komende tijd. Iemand hier een andere (of beter beargumenteerde) mening over?
De chipmarkt is nogal complex, omdat het eigenlijk bestaat uit allerlei verschillende delen. De grote tekorten op 5 en 6/7 nm lijken nu grotendeels weg. Je kunt bijvoorbeeld nu ook gewoon weer een PS5 kopen voor MSRP. Het is echter verre van een goede marktsituatie omdat zowel Samsung als Intel grote steken hebben laten vallen, waardoor TSMC nu een halve monopolist is geworden. Het lijkt er echter wel op dat TSMC hun prijzen iets moet temperen omdat veel vraag is weggevallen.

Het grootste probleem was bij de productie van de chips op de oudere productieprocessen, wat onder meer een grote invloed had op auto's, die veel van zulke chips gebruiken. Dat lijkt ondertussen wel grotendeels opgelost. Het is mij niet zo duidelijk hoeveel invloed dit had op PC onderdelen. Er zitten op videokaarten wel chips zoals een PWM controller die vermoedelijk op een ouder proces wordt gemaakt. Dit zijn echter wel vrij generieke chips, die vermoedelijk minder lastig te krijgen waren tijdens de chips-crisis dan chips die echt specifiek voor auto's zijn gemaakt.

Het maken RAM is weer een vak apart en daar hebben Samsung, Hynix en Micron vrijwel de hele markt in handen. Hier lijkt de markt wel aardig competitief en was er eigenlijk nooit een tekort tijdens de laatste jaren (zo bleven de DDR4 prijzen gewoon normaal). Nu lijkt de vraag erg ingestort, wat kan betekenen dat Nvidia en AMD in de toekomst goede prijzen kunnen bedingen voor de GDDR.

Overigens zegt Micron dat ze tot nu hebben gekozen om de snelheid te verhogen bij GDDR, terwijl er bij DDR juist gekozen is voor meer dichtheid. Dat kan ze nu trouwens wel opbreken nu ze graag een kleine bus willen gebruiken, maar daardoor relatief weinig geheugen kunnen plaatsen, terwijl games nu snel meer geheugen lijken te gebruiken. Ze zouden dus nu heel goed GDDR kunnen gebruiken met een hogere dichtheid en volgens de JEDEC spec kunnen ze ook tot 32 Gb per chip gaan, maar alleen 16 Gb chips zijn beschikbaar. Let er overigens op dat dit gigabit is en geen gigabyte, dus 8 keer zo weinig.

Enfin, wat lastig is bij het analyseren van de chipmarkt is dat dit een B2B markt is waar de partijen geen belang hebben bij veel transparantie. Maar daardoor weten we allerlei zaken niet. Het is bijvoorbeeld best mogelijk dat Nvidia een superslechte deal heeft afgesloten bij TSMC op het toppunt van de crisis en dat ze als ze vandaag zouden onderhandelen, een veel betere deal zouden kunnen krijgen. Dan zou je verwachten dat hun kostprijs omlaag gaat zodra het contract is afgelopen en ze kunnen heronderhandelen over de prijs voor een nieuwe bestelling. Maar we weten niet wanneer die contracten aflopen.

Logischerwijs kun je in elk geval verwachten dat de productiekosten omlaag gaan met een vertraging vanwege langlopende contracten. Daarnaast is het ook mogelijk dat de vraag naar veel onderdelen relatief hoog is omdat bedrijven van de crisis hebben geleerd dat ze voorraden nodig hebben. Dat zorgt dan voor een tijdelijke extra vraag tijdens de periode dat voorraden aangelegd worden, onder meer van chips. Dit kan dan ook tijdelijk een sterke afname in consumentenaankopen compenseren. Zodra de voorraden aangelegd zijn kan het dan alsnog gebeuren dat de fabrieken veel te weinig vraag hebben en ze de prijzen sterk moeten gaan verlagen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

TechPowerUp heeft zo te zien nu ook een youtube kanaal:

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Ludewig schreef op vrijdag 14 april 2023 @ 14:56:
Dit is een reactie op een opmerking uit het prijzen topic.


[...]


De chipmarkt is nogal complex, omdat het eigenlijk bestaat uit allerlei verschillende delen. De grote tekorten op 5 en 6/7 nm lijken nu grotendeels weg. Je kunt bijvoorbeeld nu ook gewoon weer een PS5 kopen voor MSRP. Het is echter verre van een goede marktsituatie omdat zowel Samsung als Intel grote steken hebben laten vallen, waardoor TSMC nu een halve monopolist is geworden. Het lijkt er echter wel op dat TSMC hun prijzen iets moet temperen omdat veel vraag is weggevallen.

Het grootste probleem was bij de productie van de chips op de oudere productieprocessen, wat onder meer een grote invloed had op auto's, die veel van zulke chips gebruiken. Dat lijkt ondertussen wel grotendeels opgelost. Het is mij niet zo duidelijk hoeveel invloed dit had op PC onderdelen. Er zitten op videokaarten wel chips zoals een PWM controller die vermoedelijk op een ouder proces wordt gemaakt. Dit zijn echter wel vrij generieke chips, die vermoedelijk minder lastig te krijgen waren tijdens de chips-crisis dan chips die echt specifiek voor auto's zijn gemaakt.

Het maken RAM is weer een vak apart en daar hebben Samsung, Hynix en Micron vrijwel de hele markt in handen. Hier lijkt de markt wel aardig competitief en was er eigenlijk nooit een tekort tijdens de laatste jaren (zo bleven de DDR4 prijzen gewoon normaal). Nu lijkt de vraag erg ingestort, wat kan betekenen dat Nvidia en AMD in de toekomst goede prijzen kunnen bedingen voor de GDDR.

Overigens zegt Micron dat ze tot nu hebben gekozen om de snelheid te verhogen bij GDDR, terwijl er bij DDR juist gekozen is voor meer dichtheid. Dat kan ze nu trouwens wel opbreken nu ze graag een kleine bus willen gebruiken, maar daardoor relatief weinig geheugen kunnen plaatsen, terwijl games nu snel meer geheugen lijken te gebruiken. Ze zouden dus nu heel goed GDDR kunnen gebruiken met een hogere dichtheid en volgens de JEDEC spec kunnen ze ook tot 32 Gb per chip gaan, maar alleen 16 Gb chips zijn beschikbaar. Let er overigens op dat dit gigabit is en geen gigabyte, dus 8 keer zo weinig.

Enfin, wat lastig is bij het analyseren van de chipmarkt is dat dit een B2B markt is waar de partijen geen belang hebben bij veel transparantie. Maar daardoor weten we allerlei zaken niet. Het is bijvoorbeeld best mogelijk dat Nvidia een superslechte deal heeft afgesloten bij TSMC op het toppunt van de crisis en dat ze als ze vandaag zouden onderhandelen, een veel betere deal zouden kunnen krijgen. Dan zou je verwachten dat hun kostprijs omlaag gaat zodra het contract is afgelopen en ze kunnen heronderhandelen over de prijs voor een nieuwe bestelling. Maar we weten niet wanneer die contracten aflopen.

Logischerwijs kun je in elk geval verwachten dat de productiekosten omlaag gaan met een vertraging vanwege langlopende contracten. Daarnaast is het ook mogelijk dat de vraag naar veel onderdelen relatief hoog is omdat bedrijven van de crisis hebben geleerd dat ze voorraden nodig hebben. Dat zorgt dan voor een tijdelijke extra vraag tijdens de periode dat voorraden aangelegd worden, onder meer van chips. Dit kan dan ook tijdelijk een sterke afname in consumentenaankopen compenseren. Zodra de voorraden aangelegd zijn kan het dan alsnog gebeuren dat de fabrieken veel te weinig vraag hebben en ze de prijzen sterk moeten gaan verlagen.
Er is veel genoemd in de GPU prijs voorspelling cq verklaring. Ook ik dacht (hoopte) dat er na crypto een GPU prijs tsunami zou komen. De concurrentie met auto chips (andere procesnode) was minder relevant dan crypto.

Maar Nvidia (en AMD) hebben geleerd van de vorige crypto crash. Flink minder wafers bij TSMC bestellen in Juli 2022, voor 12 maanden later. Gevolgd door stevige undershipping in 2022 Q3 Q4 van chips aan AIB partners die teveel RTX 3000 en RX 6000 voorraad hadden/hebben.

Ondertussen heeft Nvidia AIB partners met magazijnen vol met RTX 4090, 4080 en 4070, die bij deze hoge prijzen (extra winst boven op bruto marge) in hun strategie blijven liggen. Vanaf Juli 2023 zal Nvidia een stuk minder RTX 4000 chips produceren, en AIB partners laten teren op hun voorraad voor verkoop.

Briljant, maar nadelig voor ons consumenten. Gelukkig koopt niemand de RTX 4070, en zet de $599 MSRP wel degelijk prijsdruk op alle GPUs, met name de RTX 3000 en RX 6000 high end.

AMD volgt en houdt zich daarom stil. Pas per 18 Juni worden de 7600 XT (32 CU) en 7800 XT (60 CU) verwacht. Ondertussen zal AMD zich meer concentreren op 1. laptops en daarna 2. APUs, daar is meer te verdienen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zondag 16 april 2023 @ 13:11:
[...]
Briljant, maar nadelig voor ons consumenten.
Als ze echt briljant waren hadden ze proof of stake zien aankomen en er op geanticipeerd. Ik volgde de voortgang van PoS gewoon via Twitter en het is gewoon ultieme incompetentie dat een bedrijf met een omzet van $27 miljard dat niet zag aankomen of de consequenties niet begreep.

Of hun huidige strategie briljant is, is ook maar de vraag. Een goede strategie is om weliswaar meer te vragen dan de concurrent, maar vrij consistente kwaliteit te leveren. Dan heb je als klant weliswaar niet altijd de beste kwaliteit/prijs-verhouding, maar ook weinig risico. Mensen zijn bereid om daar extra voor te betalen.

Maar als een bedrijf te ver gaat, dan maken ze hun reputatie juist kapot en worden ze gezien als uitbuiters. Bovendien kun je door hebberigheid markt verpesten, zoals in 1668 al was beschreven in de fabel van de kip met de gouden eieren. Nu zie je al dat veel mensen zich afvragen waarom ze überhaupt een game pc zouden bouwen ipv een console te kopen.

Uiteindelijk zijn de meeste mensen die nu dure kaarten kopen begonnen met veel goedkopere kaarten, maar het risico bestaat dat straks veel meer mensen nooit de progressie kunnen maken, waarmee Nvidia over 10/20 jaar veel minder mensen bereid zal vinden om dure kaarten te kopen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 16:23
Ludewig schreef op zondag 16 april 2023 @ 14:11:
[...]


Als ze echt briljant waren hadden ze proof of stake zien aankomen en er op geanticipeerd. Ik volgde de voortgang van PoS gewoon via Twitter en het is gewoon ultieme incompetentie dat een bedrijf met een omzet van $27 miljard dat niet zag aankomen of de consequenties niet begreep.
Dat, of Nvidia solliciteert straks (=binnen nu en vier jaar) weer naar een boete van de SEC voor het niet inlichten van hun aandeelhouders. Het zou niet de eerste keer zijn dat ze daar met crypto tegenaan lopen.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 16 april 2023 @ 14:11:
[...]


Als ze echt briljant waren hadden ze proof of stake zien aankomen en er op geanticipeerd. Ik volgde de voortgang van PoS gewoon via Twitter en het is gewoon ultieme incompetentie dat een bedrijf met een omzet van $27 miljard dat niet zag aankomen of de consequenties niet begreep.

Of hun huidige strategie briljant is, is ook maar de vraag. Een goede strategie is om weliswaar meer te vragen dan de concurrent, maar vrij consistente kwaliteit te leveren. Dan heb je als klant weliswaar niet altijd de beste kwaliteit/prijs-verhouding, maar ook weinig risico. Mensen zijn bereid om daar extra voor te betalen.

Maar als een bedrijf te ver gaat, dan maken ze hun reputatie juist kapot en worden ze gezien als uitbuiters. Bovendien kun je door hebberigheid markt verpesten, zoals in 1668 al was beschreven in de fabel van de kip met de gouden eieren. Nu zie je al dat veel mensen zich afvragen waarom ze überhaupt een game pc zouden bouwen ipv een console te kopen.

Uiteindelijk zijn de meeste mensen die nu dure kaarten kopen begonnen met veel goedkopere kaarten, maar het risico bestaat dat straks veel meer mensen nooit de progressie kunnen maken, waarmee Nvidia over 10/20 jaar veel minder mensen bereid zal vinden om dure kaarten te kopen.
Tja afgelopen week werd de RTX4070 gelanceerd. Heeft iemand het er überhaupt over gehad hier? Nope. :P
Het is nota bene best een goede videokaart. 200W TDP wat in de praktijk zelfs nog iets lager lijkt te liggen. Presteert zeer vergelijkbaar met een RX6800XT of RTX3080 dus minstens 33% perf/watt voordeel, heeft 12GB aan VRAM en de betere RT cores van Ada Lovelace. Heb je ook nog DLSS3. Het kan mij eigenlijk gestolen worden, maar sommigen zullen het willen.

Maar Nvidia vraagt er $600 voor wat omgerekend hier €670 is geworden. Ze waren meteen beschikbaar zoals ik volgens mij nog nooit heb gezien met een nieuwe videokaart bij launch, en dat zijn ze nog steeds. Vrijwel niemand lijkt enige interesse erin te hebben. Dit is nota bene de xx70, de vaak zo ontiegelijke populaire SKU.

Speelt ook mee dat Nvidia nu 30% sneller dan de RTX3070 voor $100 meer wil verkopen. Nvidia hun deal voor het afgelopen decennium was altijd rond de 50% sneller per generatie en af en toe een prijsverhoging. Volgens die logica had dit de RTX4060Ti voor $400 moeten zijn. En dan verkocht die denk ik wel.

Het is ook bizar als je bedenkt dat mensen naar consoles duwen, pure winst voor AMD en puur verlies voor Nvidia is. Nota bene is er het sterke vermoeden dat AMD hun gaming divisie waaronder zowel GPU als console APU valt, waarschijnlijk de meeste omzet en winst uit die consoles haalt en eigenlijk maar bar weinig uit GPU's. Dat zou voor mij ook mede verklaren waarom AMD het niet eens meer lijkt te proberen en berust in iets minder, maar nog steeds belachelijke prijzen vragen. En als die prijzen dan toch moeten gaan dalen, tja het lijkt niet AMD te zijn die dan forse afschrijvingen op inventaris zal moeten doen. Ze lijken immers ook niet eens zoveel productiecapaciteit te alloceren aan GPU's als je hun shipments per kwartaal de afgelopen tijd bekijkt. Nvidia heeft wel wat te verliezen met hun alsmaar oplopende inventariswaarde het afgelopen jaar.

[ Voor 15% gewijzigd door DaniëlWW2 op 17-04-2023 11:09 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Ludewig schreef op zondag 16 april 2023 @ 14:11:
[...]


Als ze echt briljant waren hadden ze proof of stake zien aankomen en er op geanticipeerd.
Ze hebben er op gereageerd door hun inkopen voor 2023, in 2022 te verlagen:

Afbeeldingslocatie: https://pbs.twimg.com/media/FsPjsa8aYAIe9w5?format=png&name=small
Ludewig schreef op zondag 16 april 2023 @ 14:11:

Of hun huidige strategie briljant is, is ook maar de vraag. Een goede strategie is om weliswaar meer te vragen dan de concurrent, maar vrij consistente kwaliteit te leveren. Dan heb je als klant weliswaar niet altijd de beste kwaliteit/prijs-verhouding, maar ook weinig risico. Mensen zijn bereid om daar extra voor te betalen.
How about gewoon betere ray tracing hardware en DLSS software?
Ludewig schreef op zondag 16 april 2023 @ 14:11:

Maar als een bedrijf te ver gaat, dan maken ze hun reputatie juist kapot en worden ze gezien als uitbuiters. Bovendien kun je door hebberigheid markt verpesten, zoals in 1668 al was beschreven in de fabel van de kip met de gouden eieren. Nu zie je al dat veel mensen zich afvragen waarom ze überhaupt een game pc zouden bouwen ipv een console te kopen.

Uiteindelijk zijn de meeste mensen die nu dure kaarten kopen begonnen met veel goedkopere kaarten, maar het risico bestaat dat straks veel meer mensen nooit de progressie kunnen maken, waarmee Nvidia over 10/20 jaar veel minder mensen bereid zal vinden om dure kaarten te kopen.
Eens als Nvidia te ver zou gaan. Maar het zou me niet verbazen als ze qua prijs lager gaan zitten met de 4060 en 4050, precies omdat die kaarten maar 8 GB hebben. Ze zijn gevoelig voor sentiment, dat heeft de 4080 12 GB unlaunch wel laten zien.

Het punt dat ik probeerde te maken: Nvidia had een draaiboek klaar liggen om deze crypto crash op te vangen, waardoor we niet de koopjes voor het oprapen zien of hebben gezien.

Of het ze zal lukken de hoge prijzen vol te houden, betwijfel ik:
  • Ze blijven nu zitten met goede AD102 en AD103 dies , die zullen een keer de 4090 Ti en 4080 Ti moeten worden. Dat zal de prijzen van de 4090 en 4080 verlagen.
  • AMD zal een keer moeten komen met de 7800XT en 7600XT. Dat zal (hopelijk) de Nvidia prijzen verlagen.
  • De vraag bij een bepaald aanbod en hoge prijs zal afnemen, totdat deze er niet meer is. Best kan dat dat nu aan het gebeuren is, PC verkoop zakt door de grond. Het enige wat dan kan is de prijs omlaag.
Er zal dit keer geen crash zijn. Maar de GPU prijzen zullen wel verder omlaag gaan dit jaar.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Als die Nvidia 4060 Ti kaart serieus maar 8GB gaat krijgen dan wordt dat een groot drama. Zeker met toekomstige games. Ik vewacht dat ze flink worden geroast door HU en het zou mij niet verbazen als LTT en GN dat ook doen.

Dat geklaag over slecht geoptimaliseerde games op de FP zit maar weinig waarde in imho. De nieuwe games hebben gewoon als focus de PS5 en de nieuwe Xbox, waar meer geheugen in zit. Daarnaast hebben die veel betere IO dan de gemiddelde pc en nog als voordeel doordat ze het geheugen delen je minder resources hebt die dubbel zijn.
Daarnaast zijn games tegenworodig veel gevarieerder in objecten die allemaal hun eigen textures nodig hebben. De resolutie van die textures is niet zo veel hoger, het zijn er gewoon veel meer. Textues zijn ook maar een gedeelte van het geheugen gebruik.

Ze moeten de 4060 (Ti) gewoon 12GB geheugen geven en als het echt niet anders kan 10GB; anders laten ze een gat in de markt voor AMD. Niet dat ik met overtuiging kan zeggen dat AMD hier gebruik van gaat maken want die zijn zo goed in zelf sabotage :z.

Wat het meest storend is dat juist door technieken zoals DLSS en frame generation het mogelijk is om hogere resoluties op tragere kaarten te draaien. Nu kapt Nvidia in feite die mogelijkheid af doordat ze niet genoeg geheugen hebben. Dit voelt aan als planned obsolescence en haast als het artificieel segmenteren van je producten.

Even los van het feit dat ik beide technieken persoonlijk liever niet wil gebruiken, met name frame generation. Ik erken dat er mensen zijn die deze technieken wel gebruikt en wil gebruiken.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op maandag 17 april 2023 @ 15:30:
Ze moeten de 4060 (Ti) gewoon 12GB geheugen geven en als het echt niet anders kan 10GB;
De enige manier om dat te doen is om AD104 te gebruiken en de bus op 192 bit te laten of te knijpen naar 160. Dat kost ze 50% meer die size vergeleken met de AD106.

En het is nu erg laat om nog te switchen. Gezien de leaks zijn de AIBs er nu al volop mee bezig.

Maar ik denk inderdaad dat ze behoorlijk afgemaakt gaan worden. Sowieso raadt ik deze kaart heel erg af. De 4070 kan met enige mazzel nog meevallen qua VRAM-problemen (maar is een stevig risico). De 4060 Ti is gegarandeerd een probleem waar de kaart tegengehouden wordt door de VRAM hoeveelheid.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op maandag 17 april 2023 @ 15:41:
[...]


De enige manier om dat te doen is om AD104 te gebruiken en de bus op 192 bit te laten of te knijpen naar 160. Dat kost ze 50% meer die size vergeleken met de AD106.

En het is nu erg laat om nog te switchen. Gezien de leaks zijn de AIBs er nu al volop mee bezig.

Maar ik denk inderdaad dat ze behoorlijk afgemaakt gaan worden. Sowieso raadt ik deze kaart heel erg af. De 4070 kan met enige mazzel nog meevallen qua VRAM-problemen (maar is een stevig risico). De 4060 Ti is gegarandeerd een probleem waar de kaart tegengehouden wordt door de VRAM hoeveelheid.
Ze kunnen ook een 3.5GB momentje er van maken? :+.
Ik denk dat ze beter voor 16GB hadden kunnen gaan dan, maar dat is voor dat type kaart misschien te veel. Zeker in de ogen van Nvidia.

Acties:
  • +1 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 16:23
Of je ziet straks opnieuw dat de 4060 wél een 16GB-variant krijgt om de verwarring onder de klanten nog verder te vergroten.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

field33P schreef op maandag 17 april 2023 @ 15:48:
Of je ziet straks opnieuw dat de 4060 wél een 16GB-variant krijgt om de verwarring onder de klanten nog verder te vergroten.
Zou mij niks verbazen.

Als EVGA nog Nvidia kaarten had gemaakt dan weet ik zeker dat ze zelf een 16GB variant hadden uitgebracht. Van andere board partners verwacht ik dat iets minder snel.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op maandag 17 april 2023 @ 15:43:
[...]
Ze kunnen ook een 3.5GB momentje er van maken? :+.
Ik denk dat ze beter voor 16GB hadden kunnen gaan dan, maar dat is voor dat type kaart misschien te veel. Zeker in de ogen van Nvidia.
Minder bandbreedte voor een deel van de VRAM zou inderdaad kunnen, maar is verre van optimaal. Zeker omdat dit juist ten koste gaat van hoeveel geheugen wel snel is. Als ze op deze manier bijvoorbeeld 10 GB op de kaart zetten, dan is 6 GB snel en 4 GB langzaam (helft van de bus voor die chips).

En 16 GB kan dan alleen als je het hele geheugen langzaam maakt. Volgens mij zijn er alleen 2 GB VRAM-chips, die per stuk 32 bit aan bus nodig hebben voor de volledige snelheid. Dus kun je met een 128 bit bus echt maar 8 GB kwijt op volle snelheid (4 chips van 2 GB elk).

Een 12 GB 4060 Ti op basis van de AD104 zou best een slimme actie kunnen zijn, qua upsellen, want dan kunnen ze kopers van de meest populaire x060-serie, een tier omhoog duwen naar de 4060 Ti. Doordat de 4060 maar 8 GB gaat krijgen, is het verhaal nu dat x060-kopers een VRAM-downgrade krijgen tenzij ze meteen twee tiers omhoog gaan naar de 4070. Ik voorzie erg, erg, erg, erg veel boosheid daarover.

Om van de 12 GB 3060 naar een 12 GB kaart uit de 4000-serie te gaan, moet je dan $599 uitgeven ipv $329. Bijna een verdubbeling.

[ Voor 5% gewijzigd door Ludewig op 17-04-2023 16:14 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • NLxAROSA
  • Registratie: December 2005
  • Niet online
Sp3ci3s8472 schreef op maandag 17 april 2023 @ 15:30:
Dat geklaag over slecht geoptimaliseerde games op de FP zit maar weinig waarde in imho.
Mensen willen niet horen dat ze met een 8GB kaart minder pracht en praal krijgen dan een console die 10-12GB pakt voor een game. (Is iets genuanceerder dan dat uiteraard, zeker met DLSS, maar 8GB heeft niks meer te zoeken in mid-range, ook al is het de onderkant van de mid-range)
Sp3ci3s8472 schreef op maandag 17 april 2023 @ 15:43:
[...]
Ze kunnen ook een 3.5GB momentje er van maken? :+.
Je zal upgraden van een 970 naar een 4060ti. :+
Ludewig schreef op maandag 17 april 2023 @ 16:05:
[...]
tenzij ze meteen twee tiers omhoog gaan naar de 4070.
4070 is eigenlijk de echte 4060ti. Het is mijns inziens de laagste waardige opvolger voor mijn 3060ti.

Voordeel is wel dat ik mijn 3060ti kocht in een tijd dat ze 1100-1200 deden, dus 600-700 is dan een koopje. :+ Mochten de prijzen ver genoeg zakken, dan kan nVidia de 4070 rebranden naar 4060ti en de 4060ti naar 4050ti. Heb je ook gelijk je 4060ti met 12GB. :+

Acties:
  • 0 Henk 'm!

  • field33P
  • Registratie: Mei 2009
  • Laatst online: 16:23
Ludewig schreef op maandag 17 april 2023 @ 16:05:
[...]


Minder bandbreedte voor een deel van de VRAM zou inderdaad kunnen, maar is verre van optimaal. Zeker omdat dit juist ten koste gaat van hoeveel geheugen wel snel is. Als ze op deze manier bijvoorbeeld 10 GB op de kaart zetten, dan is 6 GB snel en 4 GB langzaam (helft van de bus voor die chips).
En dan krijg je rare problemen in games omdat deze het geheugen op PC's als een homogene pool behandelen, want ontwikkelaars gaan echt niet voor één GPU de moeite doen om code te schrijven om rekening te houden met twee verschillende snelheden.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
field33P schreef op maandag 17 april 2023 @ 16:23:
[...]

En dan krijg je rare problemen in games omdat deze het geheugen op PC's als een homogene pool behandelen, want ontwikkelaars gaan echt niet voor één GPU de moeite doen om code te schrijven om rekening te houden met twee verschillende snelheden.
Inderdaad. Dus dan gaat de 4060 Ti 6+4 Gb in sommige situaties slechter presteren dan een 8 GB kaart.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

NLxAROSA schreef op maandag 17 april 2023 @ 16:18:
Voordeel is wel dat ik mijn 3060ti kocht in een tijd dat ze 1100-1200 deden, dus 600-700 is dan een koopje. :+ Mochten de prijzen ver genoeg zakken, dan kan nVidia de 4070 rebranden naar 4060ti en de 4060ti naar 4050ti. Heb je ook gelijk je 4060ti met 12GB. :+
Besef me dat ik nog best geluk heb gehad met "maar" 1300 euro voor een 6900 XT.... 1100-1200 euro voor een midrange kaart :X.

Acties:
  • 0 Henk 'm!

  • Q_7
  • Registratie: December 2006
  • Niet online

Q_7

Ik heb in de extreme schaarste in 2021 €2619 euro voor een 3090Kingpin betaald (weliswaar iets terugverdiend met minen maar dan nog).... kaart is nu misschien 1000 waard, zulke bedragen voor een videokaart ga ik never en nooit meer betalen want de waardevermindering is enorm.
Daarom sla ik de 4090 ook over, want als straks de 5090 er is over een jaartje schrijf je daar ook minimaal 50/60% op af en dat is dan ook weer minimaal -€1000

Als je zoals voorheen 800/1000 betaalde voor een high end kaart zijn de afschrijvingen ook minder in €'s wanneer er een nieuwe generatie op de markt kwam.

[ Voor 3% gewijzigd door Q_7 op 17-04-2023 19:17 ]

AMD 9950X3D - X670E-Hero - G.Skill Royal Neo 48GB 6400 CL26 1:1 - RTX 5090 TUF 32GB - 9100Pro 2TB - BeQuit 1500w - Corsair 6500D - LG 3440P 240Hz WOLED


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

DaniëlWW2 schreef op vrijdag 7 april 2023 @ 21:02:
Zeker voor nu, maar ik denk dat hier ook wat nuance bij moet.
Nvidia positioneert zich al jaren steeds meer als een softwarebedrijf dat ook de hardware ontwikkeld waarop hun software draait. Ze zijn allang niet meer een (GP)GPU ontwerper. De strategie is duidelijk dat ze een software stack hebben die alleen op hun hardware draait. Dus koop onze hardware en gebruik onze software stack.

En daar zit wel een dingetje. Sinds ChatGPT werd aangekondigd, is het natuurlijk een grote AI hype. Maar hoe heeft OpenAI dat voor elkaar gekregen? Tja, dat is de vraag, zeker met OpenAI die vooral erg goed lijken te zijn om gesloten te zijn over informatie rond hun AI trainingsmethodieken. :z

Ik vroeg het me af en ben eens gaan kijken wat ik wel kon vinden. Nou op een dedicated supercomputer van Microsoft en OpenAI.
https://news.microsoft.co...enai-azure-supercomputer/
Deze heeft 285.000+ CPU cores en 10.000 GPU's. Welke? Wat ik kon vinden over de CPU's is dit:
[Twitter]
Eigenlijk dus alleen maar hinten dat het Epyc Rome zal zijn, meer niet. Qua GPU's waren het A100 GPU's. En ze gaan bij Microsoft nu ook verder met H100.
https://www.bloomberg.com...to-power-openai-s-chatgpt

Wat dat artikel alleen ook duidelijk maakt is dat Microsoft eigenlijk een oplossing heeft ingekocht en zelf geoptimaliseerd heeft om een dergelijk AI model mee te kunnen trainen. En wat OpenAI op de achtergrond heeft gedaan met die hardware is helemaal onduidelijk.


Wat me alleen wel duidelijk lijkt, is dat dit niet bereikt is volgens Nvidia hun bedrijfsmodel. Nee, Nvidia is hierin een leverancier van hardware met ondersteuning en dat is het. En daarmee loop je al tegen het probleem aan in deze industrie. Hardware is een gebruiksmiddel om software mee te maken, dan wel op te draaien. Met de resultaten van die software verdien je het geld. Precies wat Nvidia dus niet wil. Die willen dat je hun software stack gebruikt en daarmee ook vastzit aan hun hardware. Software zoals:
https://developer.nvidia.com/nemo
https://www.nvidia.com/en-us/gpu-cloud/bionemo/
En ja, die willen ze zelf gaan aanbieden met een eigen cloud dienst.
https://www.nvidia.com/en-us/ai-data-science/generative-ai/

Maar wat ook kan, is naar een concurrerende cloud provider gaan en bijvoorbeeld PyTorch gebruiken. Dan zit je niet vast aan een vendor en dan werk je met wat waarschijnlijk nu het meest gebruikte framework is. Is ook nog eens open source.
https://pytorch.org/

Onderschat ook niet wat die modellen trainen nu echt kost aan hardware. GPT vroeg om een supercomputer van honderden miljoenen. Dat kan bijna niemand betalen. Daarom heb je diensten zoals Microsoft Azure of Google Cloud. Bij hun kan je de benodigde capaciteit huren wanneer je die nodig hebt. Die gebruiken zeker Nvidia hardware, kan je gewoon zien op hun websites, maar die kopen dat alleen als ze het zelf nodig hebben om te verhuren. Dat maakt het voor Nvidia een cyclische industrie waarbij ze afhankelijk zijn van wat hun klanten doen en we zitten nu zeker in een boom.

Problematischer is dat dit echt heel erg grote spelers zijn die precies weten wat ze willen hebben, niet hoeven te vertrouwen op extra diensten en dwars door marketingpraat kijken. Ze willen een product, bewijs dat het product werkt (dus een reputatie van de vendor) drivers en hyperscaler level, premium tech support indien nodig. Die zullen echt niet terug zullen schrikken van zelf eigen hardware ontwerpen als ze dit beter uitkomt. Google doet dit bijvoorbeeld al een tijd voor bijvoorbeeld YT servers of hun TPU ASIC chips. Verder is bijvoorbeeld Microsoft ook zeker niet gebonden aan een hardwareleverancier. Die kopen wat ze het beste uitkomt.


In dat spectrum floreert Nvidia nu. Maar het is niet omdat hun software stack onvervangbaar is en daarmee Nvidia zelf. Het is omdat ze op het moment de leverancier zijn van GPU's die over het bredere spectrum van verschillende AI toepassingen, het beste presteren. En ze opereren in een markt waar zo ontiegelijk veel geld in zit, tientallen hardware startups in actief zijn en waar ook een paar andere grote spelers rondlopen die maar wat graag tenminste een deel van die enorme zak met geld naar zich toetrekken.

Ik zeg niet dat Nvidia dit wel of niet gaat "winnen". Ik zeg alleen wel dat een conclusie trekken voorbarig is. Want niemand die weet wat er precies gaat gebeuren de komende jaren en die de beste oplossingen gaat ontwikkelen.
En we zijn niet eens twee weken verder en wat lees ik net op de frontpage...
nieuws: 'Microsoft werkt aan eigen AI-chip voor trainen grote taalmodellen'

Kan dus niet zeggen dat ik verbaast ben, maar voor Nvidia is dat echt geen goed slecht nieuws. Niet elke Nvidia server GPU gaat hiermee meteen verdwijnen uit Microsoft haar interne alsmede externe supercomputers, maar zeker een deel van de absolute cutting edge in AI ontwikkeling gaat op deze manier niet meer plaatsvinden op Nvidia haar producten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Er gaat zo verschrikkelijk veel geld geïnvesteerd worden in AI dat Nvidia zich echt geen zorgen hoeft te maken hierover. Al houden ze maar 20% van de markt over, dan is dat alsnog heel veel geld.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

De volgende podcast vand MLiD is wel erg interessant gezien de huidige memory discussie.
https://youtu.be/tmfHxJT1I3I

Hij heeft een game developer te gast. Die bevestigd eigenlijk wat de HU al als conclussie had voor een gedeelte. Dat 8GB low-end is en 12GB minimaal is voor ewn mid-end kaart de komende paar jaren. Liever ziet hij 16GB op kaarten.
Redenen, tegenwoordig hebben we meer variatie in assets op het scherm. Doen we dingen zoals particles op de gpu om de cpu te ontlasten. Bouwen we een BHV etc etc. Dat spul moet allemaal in het geheugen.

Het is dus leuk dat die 4060 RT kan, alleen denk ik dat je de komende jaren steeds meer problemen krijgt met geheugen en dat je dus de keuze moet maken; mooie textures of RT.

Nvidia is gewoon te cheap, ze hebben nu grotere marges dan ooit en ze zijn te beroerd om voor 20-50 dollar meer geheugen op je 650 dollar kaart te plaatsen.

4060 moet dan maar 720p doen en upscalen met DLSS :+ .

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op woensdag 19 april 2023 @ 13:04:
Nvidia is gewoon te cheap, ze hebben nu grotere marges dan ooit en ze zijn te beroerd om voor 20-50 dollar meer geheugen op je 650 dollar kaart te plaatsen.
Zowel MLID als de gast lijken echter niet te weten dat het geheugen beperkt wordt door de bus en je dus niet zomaar extra geheugen kunt bijprikken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op woensdag 19 april 2023 @ 13:37:
[...]


Zowel MLID als de gast lijken echter niet te weten dat het geheugen beperkt wordt door de bus en je dus niet zomaar extra geheugen kunt bijprikken.
Wellicht dat is mij iig niet duidelijk uit de conversatie. Dan had Nv hun bus groter moeten maken van de lowend kaarten.
Er zijn overigens wel een paar andere punten waar die dev niet helemaal juist zit, bijv. de grote van spellen in disk ruimte. Hij heeft het over betere compressie, wat zeker mee speelt. Wat spellen zo groot maakte in PS4 era is dubbele assets door de trage hdd's. Dat is tegenwoorfig niet meer zo.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 18 april 2023 @ 21:47:
Er gaat zo verschrikkelijk veel geld geïnvesteerd worden in AI dat Nvidia zich echt geen zorgen hoeft te maken hierover. Al houden ze maar 20% van de markt over, dan is dat alsnog heel veel geld.
Misschien, maar nu heeft Nvidia bijna de hele markt in handen. Ze kunnen daarin alleen maar verliezen. Verder wil Nvidia een gesloten ecosysteem rond hun hardware tot stand brengen. Dit omdat er veel meer te verdienen valt aan de software dan de hardware in deze industrie.

Dat gaat waarschijnlijk gewoon niet gebeuren. Zeker als Microsoft en OpenAI blijkbaar tijdens de ontwikkeling en het trainen van GPT-3, al tot de conclusie kwamen dat ze hun eigen accelerators moesten gaan ontwerpen en dit blijkbaar ook al gedaan hebben. Dat kost ook heel wat, maar als je hiermee je custom software + extreem goede en dure software engineers kan helpen, dan doe je dat. Want met succes verdien je het meermaals terug. Het is precies wat Nvidia niet wil, gereduceerd worden tot een leverancier.
Ludewig schreef op woensdag 19 april 2023 @ 13:37:
Zowel MLID als de gast lijken echter niet te weten dat het geheugen beperkt wordt door de bus en je dus niet zomaar extra geheugen kunt bijprikken.
Oh kan dat niet? :P
Voor GDDR6 zit je nu vast aan maximaal 16Gb/2GB chips. Maar hoe kan bijvoorbeeld AMD dan met de W7900 of W7800 komen die respectievelijk 48GB of 32GB hebben? Of Nvidia met de RTX3090? Nou ze plaatsen gewoon een tweede chip aan de andere kant van het PCB waarna twee chips die 32bit bus delen. Je zit alleen wel met bijvoorbeeld het vraagstuk van hoe je die chips aan de andere kant van je PCB gaat koelen. Belangrijker is alleen dat ik het niet zie gebeuren bij Nvidia.

@Sp3ci3s8472 De vorige ging er ook al over met die UE5 developer die ook uitlegde waarom die minstens 12GB en liever nog 16GB wil zien op videokaarten. Het is uiteindelijk een probleem van data kunnen inladen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op woensdag 19 april 2023 @ 20:14:
@Sp3ci3s8472 De vorige ging er ook al over met die UE5 developer die ook uitlegde waarom die minstens 12GB en liever nog 16GB wil zien op videokaarten. Het is uiteindelijk een probleem van data kunnen inladen.
Hij refereerde er inderdaad naar, die ga ik nog kijken. Zulke podcasts zijn wel interessant, minder speculatie :P.

Acties:
  • +1 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
Sp3ci3s8472 schreef op woensdag 19 april 2023 @ 20:24:
[...]


Hij refereerde er inderdaad naar, die ga ik nog kijken. Zulke podcasts zijn wel interessant, minder speculatie :P.
MLID zei ook dat de 13900KS met zo'n 20-30% in gaming zou verliezen t.o.v. de 7950X3D, dus (foutieve) speculatie en daarom geen betrouwbare bron.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
DaniëlWW2 schreef op woensdag 19 april 2023 @ 20:14:


@Sp3ci3s8472 De vorige ging er ook al over met die UE5 developer die ook uitlegde waarom die minstens 12GB en liever nog 16GB wil zien op videokaarten. Het is uiteindelijk een probleem van data kunnen inladen.
Maar waren ze daarvoor juist niet met direct storage bezig, waardoor je veel minder VRAM nodig zou moeten hebben omdat er niet meerdere copies nodig zijn, en dat wanneer je assets moet inladen dit zo snel kan dat deze minder lang in geheugen hoeven te blijven.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
Sp3ci3s8472 schreef op woensdag 19 april 2023 @ 20:24:
[...]


Hij refereerde er inderdaad naar, die ga ik nog kijken. Zulke podcasts zijn wel interessant, minder speculatie :P.
Ik ben daar nog steeds niet over uit :P
Ik heb ook interviews gezien van hem, vooral in early podcasts van hem, juist in mijn vakgebied, waarbij ik toch wel vragen had bij zijn gasten. Ik blijf MLID is content vooral als entertainment zien en neem het vooral niet te serieus. Ik krijg bijvoorbeeld ook vaak het gevoel dat hij antwoorden probeert bij te sturen als deze 'zijn' visie niet ondersteunen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op woensdag 19 april 2023 @ 20:39:
[...]


Maar waren ze daarvoor juist niet met direct storage bezig, waardoor je veel minder VRAM nodig zou moeten hebben omdat er niet meerdere copies nodig zijn, en dat wanneer je assets moet inladen dit zo snel kan dat deze minder lang in geheugen hoeven te blijven.
Dat is het hele punt van DirectStorage ja. Maar het is niet gratis. Het kost processing power in tegenstelling tot de XSX of PS5 die dedicated hardware hebben hiervoor. Nvidia gebruikt haar tensor cores, AMD zal ongetwijfeld shaders voor RDNA1/2 en misschien haar matrix units voor RDNA3 gebruiken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Dennism schreef op woensdag 19 april 2023 @ 20:42:
[...]


Ik ben daar nog steeds niet over uit :P
Ik heb ook interviews gezien van hem, vooral in early podcasts van hem, juist in mijn vakgebied, waarbij ik toch wel vragen had bij zijn gasten. Ik blijf MLID is content vooral als entertainment zien en neem het vooral niet te serieus. Ik krijg bijvoorbeeld ook vaak het gevoel dat hij antwoorden probeert bij te sturen als deze 'zijn' visie niet ondersteunen.
Het is kijkbaar als je er iets meer van weet. Hij neemt vaak een punt van een gast over en geeft dat in feite zijn eigen interpretatie. Daarnaast weten die gasten ook niet alles; in zo'n geval zou ik liever hebben dat ze een bepaald topic niet bespreken omdat foutieve dingen gewoon minder zijn.

Ik reageer per regel en zie daardoor, mijn tweede zin met jouw laatste :P.


Ik zit niet zo diep in graphics als sommigen hier, maar zijn gast maakte zoals ik eerder al zei een aantal statements waar ik toch zat te twijfelen. Waar het mij vooral om gaat is dat in dit geval het punt van het verhaal wel klopt. We zitten al sinds 2018 op 8GB ram op lowend kaarten; alleen wil Nvidia niet mee doen zo te zien.

Ben benieuwd of de UE5 dev beter op zijn woorden let.

Acties:
  • +1 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
Er zijn geruchten dat omdat de 4070 zo matig verkoopt, er waarschijnlijk een kleine daling gaat komen van de prijs. In de VS 549, dat is rond de 600 hier. Klinkt al wat aantrekkelijker.

Bron: YouTube: PRICE DROP COMING! Nvidia RTX 4070 DISASTER

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Techkeizer schreef op woensdag 19 april 2023 @ 22:35:
Er zijn geruchten dat omdat de 4070 zo matig verkoopt, er waarschijnlijk een kleine daling gaat komen van de prijs. In de VS 549, dat is rond de 600 hier. Klinkt al wat aantrekkelijker.

Bron: YouTube: PRICE DROP COMING! Nvidia RTX 4070 DISASTER
Tja ik weet niet of ik dit geloof.
Tweede is dat $550 het bij lange na nog niet is. $450 zou meer acceptabel zijn. Dan heb je $50 meer dan de RTX3060Ti MSRP voor een videokaart die 50% sneller is dan de RTX3060Ti.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
DaniëlWW2 schreef op woensdag 19 april 2023 @ 22:51:
[...]


Tja ik weet niet of ik dit geloof.
Tweede is dat $550 het bij lange na nog niet is. $450 zou meer acceptabel zijn. Dan heb je $50 meer dan de RTX3060Ti MSRP voor een videokaart die 50% sneller is dan de RTX3060Ti.
Geen idee, ik zag al een drop van 10 euro bij enkele videokaarten in de pricewatch en dat in week 1. Maar dit soort YouTubers zijn best wel sensatiemakers, ze gooien elke dag wel een video eruit (lol).

Nvidia gaat blijkbaar de AIB's compenseren deze maand, dus wie weet. Ik vind de prijs ook schandalig hoog, want 600-700 is gewoon echt veel voor 12gb. Maar de 3080 gaat voor 500-550 tweedehands, dan is de 4070 echt aantrekkelijk eerlijk gezegd.

Acties:
  • +3 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Nvidia knijpt de AIBs wel zoveel uit dat een pricedrop echt van Nvidia moet komen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Sp3ci3s8472 schreef op woensdag 19 april 2023 @ 21:38:
[...]


Het is kijkbaar als je er iets meer van weet. Hij neemt vaak een punt van een gast over en geeft dat in feite zijn eigen interpretatie. Daarnaast weten die gasten ook niet alles; in zo'n geval zou ik liever hebben dat ze een bepaald topic niet bespreken omdat foutieve dingen gewoon minder zijn.

Ik reageer per regel en zie daardoor, mijn tweede zin met jouw laatste :P.


Ik zit niet zo diep in graphics als sommigen hier, maar zijn gast maakte zoals ik eerder al zei een aantal statements waar ik toch zat te twijfelen. Waar het mij vooral om gaat is dat in dit geval het punt van het verhaal wel klopt. We zitten al sinds 2018 op 8GB ram op lowend kaarten; alleen wil Nvidia niet mee doen zo te zien.

Ben benieuwd of de UE5 dev beter op zijn woorden let.
Ik dacht eerst ook alleen textures. Maar het is meer dan dat. De nieuwere engines gebruiken steeds meer truckjes (tesselation om elke steen in een berg een uniek model te geven, dynamisch lijkende belichting inbakken in de textures, etc.), en voor al die truckjes is toch op een gegeven moment echt meer VRAM nodig, punt.

Je kan optimaliseren tot je een ons weegt en daarmee net binnen de 8GB zit, maar uit de HUB analyse blijkt wel dat een aantal nieuwe games dat niet meer doen. Dan explodeert VRAM makkelijk naar 11, 12, 15 of zelfs meer dan 16. Maar ik denk dat 16 wel de nieuwe grens wordt, gewoon omdat het een macht van 2 is.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Techkeizer schreef op woensdag 19 april 2023 @ 23:01:
[...]

Geen idee, ik zag al een drop van 10 euro bij enkele videokaarten in de pricewatch en dat in week 1. Maar dit soort YouTubers zijn best wel sensatiemakers, ze gooien elke dag wel een video eruit (lol).

Nvidia gaat blijkbaar de AIB's compenseren deze maand, dus wie weet. Ik vind de prijs ook schandalig hoog, want 600-700 is gewoon echt veel voor 12gb. Maar de 3080 gaat voor 500-550 tweedehands, dan is de 4070 echt aantrekkelijk eerlijk gezegd.
Ik wou dat de 7800 XT er al was met 16 GB en dezelfde $599. Met 60 CU maakt Navi32 een kans tegen deze AD104 met maar 44 SM.

Hoewel de 7900 XTX bijna gelijk speelt met 96 CU (2612 MHz) versus 76 SM (2760 MHz), slechts 3,5% sneller in 4k average FPS.
https://www.techpowerup.c...adeon-rx-7900-xtx/31.html

Even kijken, met dezelfde frequenties als hun grotere broertjes, is die 44SM van 4070*(96/76) = 55,6 CU equivalent. Maar de frequentie is voor de 7800XT waarschijnlijk niet hetzelfde. De 4070 klokt 2762 MHz gemiddeld, vrijwel identiek met de 4080 (+2 MHz). Maar de 7900XT klokt gemiddeld in games sneller 2687 MHz (+75 MHz) met 84/96 CUs. Extrapoleren... beetje hopium er bij... 60/96 is dan +225 MHz theoretisch voor de 7800XT.. (3x-12CU = 3x+75 MHz) is 2837 MHz. Klinkt niet heel onredelijk.

En dan is de 7800XT voor dezelfde prijs (2837/2612)*3,5% = 12,4% sneller. Met 16GB, maar iets mindere ray tracing en FSR. Laat vervolgens de prijs oorlog beginnen :Y)

https://www.techpowerup.c...adeon-rx-7900-xtx/38.html
https://www.techpowerup.c...-founders-edition/40.html
https://www.techpowerup.c...-founders-edition/40.html

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
*knip* offtopic

[ Voor 95% gewijzigd door br00ky op 22-04-2023 16:49 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
SG schreef op zondag 19 maart 2023 @ 08:15:
Ik reageerde op iemand die om drang van upgraden naar gtx10 naar rtx30 serie omdat voor gevoel niet tegen cpu gpu onbalans. RT oh zo belangrijk vind maar nv zat is maar toch nv moet hebben omdat die uitblinken in RT.
Je bedoelt mij waarschijnlijk. Een late reply, maar ik zal het toch maar even verduidelijken want je leest m'n reactie verkeerd.

Ik geef ten eerste nergens aan dat ik nvidia "zat" ben. Ik moet helemaal niets. Ik koop steeds gewoon "casual" midrange hardware die een goede/leuke prijs-performance ratio heeft. xx60, xx60ti maximum.

Indien ik mezelf erg kan overtuigen zou ik nog naar xx70 kaarten omkijken, maar daar houdt het echt helemaal op. Nu blijkt dat je met minder verbruik bij amd gemiddeld ongeveer dezelfde (rasterized) performance haalt (-10, -15% is voor mij onbelangrijk) met een amd 'equivalent'. En dan heb je vaak meer geheugen, en 3/4 van het verbruik.

Het is me volledig om het even, groen of rood, maar efficiëntie (en dus goede engineering) en prijs vind ik niet zomaar onbelangrijk.

En inderdaad, ik was op zoek naar een iets 'evenwichtiger' systeem, (GPU +- 2017, CPU +- 2021) wat betekent dat ik (zeer rustig) op zoek was naar een GPU.

Ik vind RT trouwens helemaal niet 'oh zo belangrijk'. Nota bene uit m'n eigen post:

In die niche van RTX, is het voor mij zelfs enkel het soort werk zoals [HL RTX, Portal RTX, Doom RTX] die me boeit. [...] Daar zit de 'new frontier'!

Gewone rasterized games met RTX enhancement boeien me erg weinig. De 'added value' is nog steeds nihil. Developers hebben 30 jaar ervaring met allerhande truckjes en kunstgrepen om rasterized erg overtuigend te laten overkomen, dus dat duurt nog wel even voor daar iets aan verandert.


Portal, doom met volledige raytracing. Dat lijkt me echt tof om te ervaren. Ik ben altijd al fan van 'fysieke' games geweest. Goede simulaties en physics. Die cubes in portal ronddraaien en zien hoe het licht er in verstrooid wordt... Dit is iets wat ik nog niet eerder heb gezien of ervaren.

En net onlangs die indrukwekkende path traced versie van cyberpunk. Nu begint het nut van RTX me duidelijk te worden. Extreem indrukwekkend! Het creëert meteen zoveel meer realisme en 'verankering' van de virtuele omgeving. Nog een paar generaties en games komen met een rasterized setting en een volledige path traced setting. Gedaan dus met truukjes en shader compilation en dergelijke...

Dus nee, alle huidige RTX enhanced games boeien me niets. Maar nu wordt stilletjes aan duidelijk waar nvidia al 4 jaar naar toe wil. Het is duidelijk een werk van lange adem, maar we krijgen er vast veel voor terug.

Over een aantal generaties kan amd dat ook wel bijbenen, en dan heb je de keuze tussen 'iets mindere' raytracing performance (amd), en goede raytracing performance (nvidia) (wanneer het dus mainstream wordt) ipv helemaal geen raytracing performance bij amd nu.
Ik vind RT niet zo belangrijk gameplay 1st maar ipv nv wan gedrag belonen als je rt toch belang rijk vind dat van midrange vorige gen naar tier hogere gen AMD van huidige gen.
Is duurder maar ja gaat langer mee.
En krijgt ook veel meer Vram .
Daarnaast heb ik ook langere upgrade path en bij cpu/mem/mobo upgrade neem vaker de oude g-kaart over. Dan tijdelijk een onbalans daar heb ik zelf geen problemen mee. Ik zit nog op Zen1 TR met Vega56. En Macmini x86.
De nood voor te upgraden is bij mij niet hoog. In mijn geval ga ik voor g-kaart voor future proof dus zelden midrange eerder sub high-end of zoals AMD subhigh-end de performance klasse 7900xt 7900xtx en veel vram en daarmee futureproof. Denk uitstel miscchien zen5 en rdna4 . En als ik upgrade dan meestal wacht ik op ideaal moment als nextgen komt die flinke stap vooruit is. Dit jaar is er recent PS5 2TB met PSVR bijgekomen.
De nood is op dit moment bij mij niet hoog, ik game op dit moment het meest op de ps5.

Ik neig naar amd, maar mijn pc-case is een DAN A4, dus gpu hoogte max. 45 mm. En daar vind ik toch veel meer nvidia dan amd. Nvidia is vooral vaak lang, maar de mid range kaarten zijn netjes 2 slots hoog zonder een giga koeler erop geschroefd.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Dit is wel een beetje schadefreude, maar Nvidia geeft via retailers nu $100 korting op een RTX 4070 (als Steam gift card).

https://videocardz.com/ne...h-all-geforce-rtx-40-gpus

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 22 april 2023 @ 22:44:
Dit is wel een beetje schadefreude, maar Nvidia geeft via retailers nu $100 korting op een RTX 4070 (als Steam gift card).

https://videocardz.com/ne...h-all-geforce-rtx-40-gpus
Dan hoeven we misschien Nvidia wat minder lang uit te roken.
Want op deze manier zijn we bijna bij een acceptabele prijs. Ik hou Nvidia namelijk graag aan hun eigen gezette verwachtingen van de afgelopen generaties. Dat was altijd circa 50% sneller voor ongeveer dezelfde prijs. RTX4070 is circa 50% sneller dan RTX3060Ti. De prijs zou dus rond de $400 moeten komen. Nu wil ik ze best 10% inflatie vergeven. Dus maak er $450 van. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

sunsmountain schreef op zaterdag 22 april 2023 @ 22:44:
Dit is wel een beetje schadefreude, maar Nvidia geeft via retailers nu $100 korting op een RTX 4070 (als Steam gift card).

https://videocardz.com/ne...h-all-geforce-rtx-40-gpus
De prijsonderhandeling gaat de juiste kant op. De kopers verschijnen niet meer aan de koopzijde en de verkoopzijde is bijna aan het capituleren.

Het is bijna zomer, laagseizoen in de gaming. De jaarlijkse dip in hardwareprijzen komt eraan.*

* Als er geen overstromingen, aardbevingen, fabrieksbranden, oorlog,... op de verkeerde locaties gebeuren.

Als Back to School en de start van het volgende school/gaming-jaar weinig hardware verkoopt, dan gaat de markt pas echt in paniek.

[ Voor 26% gewijzigd door rapture op 23-04-2023 10:30 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
rapture schreef op zondag 23 april 2023 @ 10:20:
[...]
Het is bijna zomer, laagseizoen in de gaming. De jaarlijkse dip in hardwareprijzen komt eraan.*
Doordat Nvidia de uitrol zo vertraagd heeft veroorzaken ze ook hun eigen probleem doordat ze hun meest populaire modellen in of kort voor de zomer uitrollen. Als de 4000-serie net zo uitgerold zou worden als de 3000-serie, was de 4070 al in november uitgebracht, de 4060 Ti in januari en de 4060 deze maand.

Overigens was de opmerking van JayzTwoCents wel interessant dat dit het grootste gat is tussen een x070 en x070 Ti die er ooit geweest is. Dat is ongetwijfeld omdat de 4070 Ti bedoeld was als een 4080. Maar daardoor is het allemaal wel uit balans. Ik zou zelf de 4070 een stuk interessanter vinden als hij een stukkie sneller zou zijn, minimaal zo snel als de 3080 Ti.

Wellicht komt er straks een 4070 Super bij om de gaten wat minder groot te maken en de prijs/kwaliteit te verbeteren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
rapture schreef op zondag 23 april 2023 @ 10:20:
[...]

De prijsonderhandeling gaat de juiste kant op. De kopers verschijnen niet meer aan de koopzijde en de verkoopzijde is bijna aan het capituleren.

Het is bijna zomer, laagseizoen in de gaming. De jaarlijkse dip in hardwareprijzen komt eraan.*

* Als er geen overstromingen, aardbevingen, fabrieksbranden, oorlog,... op de verkeerde locaties gebeuren.

Als Back to School en de start van het volgende school/gaming-jaar weinig hardware verkoopt, dan gaat de markt pas echt in paniek.
Dat paniek vraag ik me toch wel af, iedereen in de markt weet immers wel dat door o.a. de corona problematiek zowel consumenten als bedrijven aankopen naar voren hebben gehaald, machines hebben gekocht die anders nooit verkocht zouden zijn, denk immers aan het thuiswerken dat (tijdelijk) de norm werd, maar ook kinderen moesten ineens hun eigen laptops hebben voor onderwijs via teams en sociale contacten.

Kijk je naar de gamer niche hebben heel veel gamers (en mensen die eigenlijk gestopt waren) juist in die periode nieuw gekocht, want men mocht geen andere leuke dingen doen met hun geld, veel van die machines zullen ook 3-4-5 jaar mee moeten zonder verdere investeringen.

De markt heeft dus in 2020 / 2021 en een uitloper in 2022 eigenlijk een voorschot genomen op de verkopen voor de komende paar jaar, waardoor de markt ook wel weer dat na een paar vette jaren er nu hoogstwaarschijnlijk een paar matige jaren zit aan te komen in het consumenten segment en het zakelijke client segment.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 23 april 2023 @ 12:00:
Wellicht komt er straks een 4070 Super bij om de gaten wat minder groot te maken en de prijs/kwaliteit te verbeteren.
Dat zou een waardeloze oplossing zijn. Het probleem is dat alles buiten de RTX4090 gewoon veel te duur is.
Ik hou Nvidia zoals eerder vermeld, graag aan hun eigen standaard van circa 50% sneller voor een vergelijkbaar bedrag. Ook ben ik bereid ze 10% inflatie of misschien zelfs nog iets meer te vergeven. Maar wat ze gedaan hebben is veel meer en daar ageer ik zo hard tegen.

Want ga je doorrekenen dan krijg je:
RTX4080 = 50% sneller dan RTX3080 = $700 + 10% = $770. Met $1200 is deze 56% te duur.
RTX4070Ti = 50% sneller dan RTX3070 = $500 + 10% = $550. Met $800 is deze 45% te duur.
RTX4070 = 50% sneller dan RTX3060Ti = $400 + 10% = $440. Met $600 is deze 36% te duur.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Mijn idee is om dat dan te combineren met een price-drop. Omdat de 4070 Super dan sneller is, hoeft de prijs minder omlaag, wat dus wat minder impact heeft op de lagere tiers en Nvidia minder in z'n hemd zet. Sowieso is het prettig voor Nvidia als ze in de toekomst net kunnen doen alsof de prijs van de 4070 $599 was, terwijl wij in werkelijkheid dan $500 betalen voor 3080 Ti prestaties.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 23 april 2023 @ 16:21:
@DaniëlWW2

Mijn idee is om dat dan te combineren met een price-drop. Omdat de 4070 Super dan sneller is, hoeft de prijs minder omlaag, wat dus wat minder impact heeft op de lagere tiers en Nvidia minder in z'n hemd zet. Sowieso is het prettig voor Nvidia als ze in de toekomst net kunnen doen alsof de prijs van de 4070 $599 was, terwijl wij in werkelijkheid dan $500 betalen voor 3080 Ti prestaties.
Als Nvidia een nieuwe SKU uitbrengt tussen de RTX4070 en RTX4070Ti, dan gaan ze dus gewoon meer geld vragen. Krijg je dadelijk een $700 kostende RTX4070S. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zondag 23 april 2023 @ 19:34:
[...]
Als Nvidia een nieuwe SKU uitbrengt tussen de RTX4070 en RTX4070Ti, dan gaan ze dus gewoon meer geld vragen. Krijg je dadelijk een $700 kostende RTX4070S. :z
Ze hebben de 2070 ook vervangen door de 2070 Super voor dezelfde prijs, maar betere specs. Idem dito met de 2080 en 2080 Super.

Dat was ook net de generatie die ook behoorlijk slecht verkocht, dus kan dat een goede indicatie zijn voor wat ze nu gaan proberen.

De officiële prijs omlaag is wellicht een brug te ver (al wordt de officieuze prijs misschien wel lager), maar dezelfde prijs voor betere prestaties lijkt me toch zeker wel realistisch.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 23 april 2023 @ 20:22:
[...]


Ze hebben de 2070 ook vervangen door de 2070 Super voor dezelfde prijs, maar betere specs. Idem dito met de 2080 en 2080 Super.

Dat was ook net de generatie die ook behoorlijk slecht verkocht, dus kan dat een goede indicatie zijn voor wat ze nu gaan proberen.

De officiële prijs omlaag is wellicht een brug te ver (al wordt de officieuze prijs misschien wel lager), maar dezelfde prijs voor betere prestaties lijkt me toch zeker wel realistisch.
Tja daar hadden ze geen keuze omdat de RX5700XT opeens bijna uit het niks kwam als gloednieuwe architectuur en niet GCN. Dat lekte letterlijk een paar dagen voor de aankondiging pas uit. Bleek het ook nog eens behoorlijk competitief te zijn. Immers was de RTX2070S haar RT vrij zinloos en DLSS was nog het vrij zinloze 1.0. De hele discussie was destijds dat de RTX2070S, een 10W lager TDP had en een paar procent sneller was, voor $100 meer.
offtopic:
Uiteraard schoot AMD zichzelf destijds in de voet, met een kanon. Drivers waren niet klaar en daarnaast bestaat er het sterke vermoeden dat er een hardwarebug in Navi 10 zit die extra slecht met slechte displayport kabels omgaat. Tijdens het gedoe loste ik het destijds op door HDMI kabels te proberen en toen gecertificeerde displayport kabels. Bijna alle problemen in een keer weg.


Ampere kreeg er ook meer last van en nu lijkt het helaas een relatief universeel, maar alsnog niet goed begrepen probleem te zijn. Helaas is het ook erg setup afhankelijk en weet ik ook al uit ervaring dat de kabel iets anders buigen, al kan helpen. Maar uiteindelijk moet je helaas gewoon fatsoenlijke kabels kopen. De RTX2070 was destijds ook volledig overbodig geworden en verdween volgens mij ook vrij snel. Die werd vervangen voor de RTX2060S. De RTX2060 bleef wel.

Voor mij staat alleen dat een Super serie niks oplost. De prijzen van de huidige SKU's moeten gewoon fors omlaag. Dan heb je ook geen Supers nodig. Die Supers waren toch al vreemd. De RTX2080S was de volle TU104 chip, RTX2070S was opeens TU104 en niet de volle TU106 en de volle TU106 (RTX2070) verdween voor een lichte cut down als de RTX2060S. RTX2060 bleef wel, ook TU106. En dan kreeg je uiteindelijk ook nog de RTX2060 KO wat een TU104 chip was.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Ludewig schreef op zondag 23 april 2023 @ 16:21:
@DaniëlWW2

Mijn idee is om dat dan te combineren met een price-drop. Omdat de 4070 Super dan sneller is, hoeft de prijs minder omlaag, wat dus wat minder impact heeft op de lagere tiers en Nvidia minder in z'n hemd zet. Sowieso is het prettig voor Nvidia als ze in de toekomst net kunnen doen alsof de prijs van de 4070 $599 was, terwijl wij in werkelijkheid dan $500 betalen voor 3080 Ti prestaties.
Nou ik zat ook te denken price, maar dan gewoon met de Ti modellen die er nog niet zijn. Dus:

RTX 4090 Ti (of TITAN, omdat er toch geen competitie is): $1599 + price drop "gewone" RTX 4090 naar $1399. Niet zo waarschijnlijk, eerder $1999. Hangt een beetje van de markt af.

RTX 4080 Ti voor $1199, met een price drop voor RTX 4080 naar $999.

RTX 4070 Ti naar $699 om gevecht aan te gaan met RX 7800 XT.

RTX 4070 etc. naar $499, gewoon betere prijs.

*einde wishful thinking Nvidia*.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HWU heeft echt geen chill meer. :P
RTX3070 vs. A4000, dus de volle GA104/RTX3070Ti config, maar met 16GB VRAM en beperkt tot een 140W TDP. Gewoon eens kijken naar de verschillen die dat maakt in wat zwaardere games. Tja dat is wel duidelijk.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik durf wel te voorspellen dat de 4060 Ti review van HBU en veel andere reviewers een bloedbad gaan worden. Op z'n best lijkt dit een $400 kaart te worden en met 8 GB is dit dus twee keer zo duur als wat Steve redelijk vindt voor een 8 GB kaart.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op dinsdag 25 april 2023 @ 15:00:
HWU heeft echt geen chill meer. :P
RTX3070 vs. A4000, dus de volle GA104/RTX3070Ti config, maar met 16GB VRAM en beperkt tot een 140W TDP. Gewoon eens kijken naar de verschillen die dat maakt in wat zwaardere games. Tja dat is wel duidelijk.
[YouTube: Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070]
Haha geweldig :P.

Ik zie wel uit naar een 4060 Ti met maar 8GB geheugen, dat gaat voor geweldige content zorgen!

Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ik heb op het Tweakers feedback forum het volgende topic aangemaakt:
Videokaart reviews en 8GB video geheugen

Met de vraag of er bij de komende reviews hier meer aandacht aan kan worden besteed. Als mensen nog toevoegingen hebben dan zie ik die graag!

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 25 april 2023 @ 15:17:
[...]


Haha geweldig :P.

Ik zie wel uit naar een 4060 Ti met maar 8GB geheugen, dat gaat voor geweldige content zorgen!
Dat hij het zo consequent doet is geweldig.
Dat het nodig is niet. Ik zie RTX4060/RTX4060Ti en waarschijnlijk RX7600X/RX7600XT echt niet leuk worden als ze allemaal op 8GB zitten door een 128 bit bus. Dat moeten dan je "betaalbare" opties zijn. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De 7600 XT zou iets goedkoper te produceren moeten zijn dan de 6600 XT en dus zou een prijs richting de 250 euro mogelijk moeten zijn (en 200/210 euro voor de 7600 non-XT). Dat is aardig betaalbaar.

In elk geval zit je dan vast op de helft van de prijs van een kansloze kaart als de 4060 Ti.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op dinsdag 25 april 2023 @ 16:36:
[...]


Dat hij het zo consequent doet is geweldig.
Dat het nodig is niet. Ik zie RTX4060/RTX4060Ti en waarschijnlijk RX7600X/RX7600XT echt niet leuk worden als ze allemaal op 8GB zitten door een 128 bit bus. Dat moeten dan je "betaalbare" opties zijn. :/
Enige "voordeel" dat AMD hier heeft is dat de kaarten waarschijnlijk eerder te vergelijken zijn met de 3060 (Ti) qua performance dus dat het iets minder uitmaakt?
Denk niet dat AMD voor 16GB geheugen gaat op die kaarten....

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
DaniëlWW2 schreef op dinsdag 25 april 2023 @ 15:00:
HWU heeft echt geen chill meer. :P
RTX3070 vs. A4000, dus de volle GA104/RTX3070Ti config, maar met 16GB VRAM en beperkt tot een 140W TDP. Gewoon eens kijken naar de verschillen die dat maakt in wat zwaardere games. Tja dat is wel duidelijk.
[YouTube: Nvidia's 16GB RTX 3070... Sort Of: 16GB A4000 vs 8GB RTX 3070]
Als Nvidia het je niet geeft, lekker zelf VRAM klussen. Soldeerbout, iemand?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 25 april 2023 @ 19:23:
[...]

Als Nvidia het je niet geeft, lekker zelf VRAM klussen. Soldeerbout, iemand?
https://videocardz.com/ne...ets-major-1-low-fps-boost
;)
Sp3ci3s8472 schreef op dinsdag 25 april 2023 @ 19:00:
[...]


Enige "voordeel" dat AMD hier heeft is dat de kaarten waarschijnlijk eerder te vergelijken zijn met de 3060 (Ti) qua performance dus dat het iets minder uitmaakt?
Denk niet dat AMD voor 16GB geheugen gaat op die kaarten....
offtopic:
Ik weet gewoon echt niet hoe desktop N33 gaat presteren. Daardoor weet ik ook niet goed of extra VRAM de grote doorslag geeft. Waarschijnlijk ga je het wel merken omdat ik het met mijn oudere RX5700XT ook al merk. Dit kan Nvidia overigens ook doen voor tenminste AD106. Maar die kans lijkt me nog geringer dan bij AMD. :/


Maar je kan altijd een stuk van 32 bit bus tweemaal gebruiken door aan beide kanten van een PCB, elk een 2GB VRAM chip te plaatsen zodat je 16GB hebt. Dat kost natuurlijk ook wat, maar misschien is het niet eens zo overdreven. Het gaat denk ik ook niet om 16GB hebben, maar om minstens 12GB. 16GB is denk ik wel wenselijk omdat je dan een GPU hebt die waarschijnlijk net iets sterker is dan in een XSX of PS5 en meedoet met 16GB. De kans erop, tja ik zeg niet nooit, maar veel kans geef ik het ook niet.


En toen wou ik dit bijna plaatsen en dacht ik, wacht eens even. En ja hoor, hier kwam Samsung eind vorig jaar mee. 3D stacked GDDR6 dat ze GDDR6W noemen. De precieze tijdschaal hiervan is alleen onduidelijk en ik betwijfel ook een beetje of het zomaar in te zetten is in plaats van GDDR6.
https://semiconductor.sam...powerful-graphics-memory/

[ Voor 5% gewijzigd door DaniëlWW2 op 26-04-2023 10:40 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
DaniëlWW2 schreef op dinsdag 25 april 2023 @ 19:43:
[...]


https://videocardz.com/ne...ets-major-1-low-fps-boost
;)


[...]


offtopic:
Ik weet gewoon echt niet hoe desktop N33 gaat presteren. Daardoor weet ik ook niet goed of extra VRAM de grote doorslag geeft. Waarschijnlijk ga je het wel merken omdat ik het met mijn oudere RX5700XT ook al merk. Dit kan Nvidia overigens ook doen voor tenminste AD106. Maar die kans lijkt me nog geringer dan bij AMD. :/


Maar je kan altijd een stuk van 32 bit bus tweemaal gebruiken door aan beide kanten van een PCB, elk een 2GB VRAM chip te plaatsen zodat je 16GB hebt. Dat kost natuurlijk ook wat, maar misschien is het niet eens zo overdreven. Het gaat denk ik ook niet om 16GB hebben, maar om minstens 12GB. 16GB is denk ik wel wenselijk omdat je dan een GPU hebt die waarschijnlijk net iets sterker is dan in een XSX of PS5 en meedoet met 16GB. De kans erop, tja ik zeg niet nooit, maar veel kans geef ik het ook niet.


En toen wou ik dit bijna plaatsen en dacht ik, wacht eens even. En ja hoor, hier kwam Samsung eind vorig jaar mee. 3D stacked GDDR6 dat ze GDDR6W noemen. De precieze tijdschaal hiervan is alleen onduidelijk en ik betwijfel ook een beetje of het zomaar in te zetten is in plaats van GDDR6.
https://semiconductor.sam...powerful-graphics-memory/
Ik denk wel dat Nvidia met 16 GB varianten gaat komen, waar mogelijk, op de RTX 4060's. Helaas niet op de RTX 4070, of ze zouden voor 24 GB moeten gaan.

De geheugen bandbreedte wijzigt helaas niet met de hoeveelheid VRAM...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Laatste gerucht is dat Nvidia gaat komen met een 16 GB clamshell versie van de 4060 Ti: https://videocardz.com/ne...gb-model-planned-for-july

En die zou dan ook snel moeten komen.

Als dit waar is, dan reageren ze toch wel opvallend snel op de kritieken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Laat het alsjeblieft kloppen. 8GB is gewoon klaar, afgelopen, uit.
Verder kan het gewoon. Zowel AMD als Nvidia hebben waarschijnlijk wat varianten op hun uiteindelijke specificaties liggen en selecteren er uiteindelijk een. Ik denk dat ze bij Nvidia echt wel wisten dat 8GB te weinig zou worden. En dan bedoel ik niet toen de eerste games uitkwamen dit jaar. Nee, Nvidia met al hun onderzoek naar RT en AI based object import technieken, moet dit al veel langer hebben geweten.

Ik ben ook niet de RTX3080 20GB en RTX3070Ti 16GB vergeten. Beiden bleken wel te bestaan en zijn in beperkte oplagen geproduceerd en verkocht in China. Dat was geen toeval. Eigenlijk had ik toen de connectie al moeten leggen, maar dat is me destijds ontsprongen. Want terugkijkend vraag ik me eigenlijk al even bij mezelf af hoe ik ook niet zag dat 8GB gewoon te weinig zou gaan worden. Nota bene was ik het zelf die het regelmatig over RT en AI based technieken had in de GPU topics, in het afgelopen jaar. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 11-09 23:42

XanderDrake

Build the future!

DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 13:31:
Laat het alsjeblieft kloppen. 8GB is gewoon klaar, afgelopen, uit.
Maar! Maar! Nvidia komt met een nieuwe texture compressie methode genaamd "Neural Texture Compression" die hun eigen Tensor cores gebruikt om alles toch nog in Nvidia's veeeelste kleine framebuffers te duwen :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 13:31:
Verder kan het gewoon. Zowel AMD als Nvidia hebben waarschijnlijk wat varianten op hun uiteindelijke specificaties liggen en selecteren er uiteindelijk een.
Uiteraard, maar ik had zelf verwacht dat ze bij Nvidia net zo hardleers zijn als de jasjes van Jensen. Maar blijkbaar begint er nu wel wat te dagen.

Ik vrees wel dat ze dit zullen aangrijpen om de te hoge prijzen te handhaven, met bijvoorbeeld $499 voor de 4060 Ti 16 GB, $429 voor de 4060 Ti 8 GB DOA edition en dan $359 voor de 4060 720p edition.

Ik voorzie dat Jensen dan beredeneert dat je tweemaal zoveel geheugen krijgt voor de 16 GB 4060 Ti ten opzichte van de 3060 Ti en prestaties die ongeveer hetzelfde zijn als de 3070 Ti van $599, dus is dat 100 dollar goedkoper.

Maar als je kijkt vanuit het perspectief van de x060-koper ben je dan zwaar in de aap gelogeerd. Om een werkbare hoeveelheid geheugen te krijgen en een prestatiesprong die historisch gezien zelfs nog minder dan normaal is per generatie, moet je dan overstappen naar de 4060 Ti 16 GB Panic Edition. Dat is dus een sprong van $329 naar $499.

Ik ben ook nog steeds van mening dat Nvidia totaal niet begrijpt hoe je goed aan upselling doet. Een goede upsell geeft de klant de illusie dat hij substantieel meer krijgt als hij meer uitgeeft. Een vrij kleine prestatiesprong (doordat je eigenlijk een chip krijgt van een tier lager) combineren met een stevige prijsverhoging werkt gewoon niet en geeft klanten het gevoel dat ze uitgekleed worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

XanderDrake schreef op dinsdag 9 mei 2023 @ 14:02:
[...]

Maar! Maar! Nvidia komt met een nieuwe texture compressie methode genaamd "Neural Texture Compression" die hun eigen Tensor cores gebruikt om alles toch nog in Nvidia's veeeelste kleine framebuffers te duwen :+
Mijn gedachten daarover:
Sp3ci3s8472 in 'Gerucht: Nvidia brengt in juli RTX 4060 Ti met 16GB geheugen uit'

Zitten nogal wat haken en ogen aan.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Groter probleem is dat dit een whitepaper is. Dit is geen voltooid product, klaar voor implementatie.
Het gaat dus een beetje te laat komen. :P :z


edit:
Dit is ook nogal interessant. Wat gebeurd er als je de RTX3080 12GB met twee SM's extra en voornamelijk een bredere bus tegenover de RTX4070 zet? Nou, die RTX3080 12GB lijkt toch wel vaak een marge op te bouwen over de RTX4070 naarmate de resolutie omhoog gaat. Uiteraard ook heel wat RT games getest voor het grootste effect. :)

[ Voor 33% gewijzigd door DaniëlWW2 op 09-05-2023 16:42 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 16:29:
[...]


Groter probleem is dat dit een whitepaper is. Dit is geen voltooid product, klaar voor implementatie.
Het gaat dus een beetje te laat komen. :P :z
Klopt en het is ook zeker niet toeval dat dit naar buiten komt dat Nvidia hier mee bezig is. Misschien dat ze een keer de hete adem van de consumenten voelen O-).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Huh, wat?

Dit zou zo bizar zijn. AD103 heeft 80SM's waarvan de RTX4080 er 76 actief heeft. Tot zover logisch en aangezien de RTX4080 ook daadwerkelijk 50% sneller is dan de RTX3080, klopt de naamgeving ook. Toen kwam de "RTX4080"/RTX4070Ti. Deze heeft de volle AD104 chip met 60SM's. Dat begreep ik al vanaf het begin niet. Want Nvidia heeft nog steeds maar een AD103 configuratie, die 76SM variant die ze als meerdere SKU's verkopen. Wat doe je met de rest? Verder is de RTX4070Ti ook niet 50%, maar 40% sneller dan de RTX3070Ti. En toen kwam de RTX4070. 46SM's en 30% sneller dan de RTX3070.

En nu, wat gaat Nvidia nu doen met al die AD103 chips die minder dan 76 functionele SM's hebben? Ze hebben geen naam meer over en AD103 is bijna 400mm2. Ze hadden makkelijk de RTX4070Ti, de RTX4070 kunnen noemen en de RTX4070 de RTX4060Ti. Beiden zijn dan 50% sneller dan de voorganger en dan hadden ze nog een naam vrij voor een forse cut down AD103.

Maar een 46 SM's AD103 chip is nog maar 57,5% van de volle chip. Los daarvan komt ook de L2 cache en bus. Dat is ongehoord. Verder dan 75-80% gaat het meestal niet. Daarnaast ook de realisatie dat dit betekend dat een AD103 chip die Nvidia een MSRP van $1200 heeft gegeven, met iets meer defecten opeens nog maar $600 waard is. Dat Nvidia enorme marges rekent op hun producten moge duidelijk zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Dat is ook een reden dat ik verwacht dat er wel een refresh moet komen. Misschien een 4070 Super. Vergeet ook niet dat ze bij Turing een Super hebben gehad voor de 2060, 2070 en 2080.

Dat is vast een betere generatie om naar te kijken naar wat ze vermoedelijk gaan doen dan de 3000-serie, want daar was het niet nodig om de verkopen een schop te geven, vanwege de mining-boom.

[ Voor 4% gewijzigd door Ludewig op 09-05-2023 19:56 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 9 mei 2023 @ 19:55:
@DaniëlWW2

Dat is ook een reden dat ik verwacht dat er wel een refresh moet komen. Misschien een 4070 Super. Vergeet ook niet dat ze bij Turing een Super hebben gehad voor de 2060, 2070 en 2080.

Dat is vast een betere generatie om naar te kijken naar wat ze vermoedelijk gaan doen dan de 3000-serie, want daar was het niet nodig om de verkopen een schop te geven, vanwege de mining-boom.
Dan krijg je alleen een RTX4070S die sneller is dan de RTX4070Ti. Of je krijgt een RTX4070Ti Super. :F
Ik bedoel, marketing kan Nvidia wel en dit is gewoon een zooitje in wording.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 19:39:
Huh, wat?
[Twitter]
Dit zou zo bizar zijn. AD103 heeft 80SM's waarvan de RTX4080 er 76 actief heeft. Tot zover logisch en aangezien de RTX4080 ook daadwerkelijk 50% sneller is dan de RTX3080, klopt de naamgeving ook. Toen kwam de "RTX4080"/RTX4070Ti. Deze heeft de volle AD104 chip met 60SM's. Dat begreep ik al vanaf het begin niet. Want Nvidia heeft nog steeds maar een AD103 configuratie, die 76SM variant die ze als meerdere SKU's verkopen. Wat doe je met de rest? Verder is de RTX4070Ti ook niet 50%, maar 40% sneller dan de RTX3070Ti. En toen kwam de RTX4070. 46SM's en 30% sneller dan de RTX3070.

En nu, wat gaat Nvidia nu doen met al die AD103 chips die minder dan 76 functionele SM's hebben? Ze hebben geen naam meer over en AD103 is bijna 400mm2. Ze hadden makkelijk de RTX4070Ti, de RTX4070 kunnen noemen en de RTX4070 de RTX4060Ti. Beiden zijn dan 50% sneller dan de voorganger en dan hadden ze nog een naam vrij voor een forse cut down AD103.

Maar een 46 SM's AD103 chip is nog maar 57,5% van de volle chip. Los daarvan komt ook de L2 cache en bus. Dat is ongehoord. Verder dan 75-80% gaat het meestal niet. Daarnaast ook de realisatie dat dit betekend dat een AD103 chip die Nvidia een MSRP van $1200 heeft gegeven, met iets meer defecten opeens nog maar $600 waard is. Dat Nvidia enorme marges rekent op hun producten moge duidelijk zijn.
2070 Super had toch ook de die van de 2080? Dan is de precedent er al wel.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 20:09:
[...]
Dan krijg je alleen een RTX4070S die sneller is dan de RTX4070Ti. Of je krijgt een RTX4070Ti Super. :F
Ik bedoel, marketing kan Nvidia wel en dit is gewoon een zooitje in wording.
Dus? Het is bij Nvidia helemaal niet vreemd dat ze een Ti vervangen door een Super.

Zeg ik met een 1660 Super...

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

icall5s schreef op dinsdag 9 mei 2023 @ 20:28:
[...]


2070 Super had toch ook de die van de 2080? Dan is de precedent er al wel.
Ludewig schreef op dinsdag 9 mei 2023 @ 20:35:
[...]


Dus? Het is bij Nvidia helemaal niet vreemd dat ze een Ti vervangen door een Super.

Zeg ik met een 1660 Super...
RTX4070 --> RTX4070Ti --> RTX4070 Super.
Dat is mijn punt. Het ziet er marketingtechnisch gewoon niet uit. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 21:39:
[...]
RTX4070 --> RTX4070Ti --> RTX4070 Super.
Dat is mijn punt. Het ziet er marketingtechnisch gewoon niet uit. ;)
GTX 1660 --> GTX 1660 Ti -> GTX 1660 Super.

Al werd in dat geval beide kaarten vervangen door de Super. Maar ik zag daardoor weinig verwarring.

Ik denk trouwens dat we het station al gepasseerd zijn waar Nvidia zich zorgen hoeft te maken dat mensen nog enig respect hebben voor hun marketing. En ik denk ook dat niet veel consumenten het onderscheid begrijpen tussen Ti en Super.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 21:39:


RTX4070 --> RTX4070Ti --> RTX4070 Super.
Dat is mijn punt. Het ziet er marketingtechnisch gewoon niet uit. ;)
Dan wacht ik op de 4070 Super Plus met 256bit bus en 16GB Geheugen. ;)

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dan wacht ik op de 4070 Super Duper Plus OC Ultra Ti 24 GB GDDR7 ELITE...voor 100 euro.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
Er kan ook gewoon een 4070 Super 16GB of zelfs 20 of 24GB van de A103 die komen. De 3060 heeft ook een versie met 12GB. Dat de 4070Ti bestaat is niet per se een probleem, die productie kan ook teruggeschaald worden. Niemand weet wat dat qua bedrijfsresultaat op zal leveren, en NVIDIA kan het waarschijnlijk het beste schatten. Uiteindelijk is het aan hen.

En voor wie denkt dat dit gezwets is, de 3080 20GB bestaat ook en is beperkt in China verkocht. ;)

[ Voor 12% gewijzigd door icall5s op 09-05-2023 22:57 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

PP_Sound schreef op dinsdag 9 mei 2023 @ 22:41:
[...]


Dan wacht ik op de 4070 Super Plus met 256bit bus en 16GB Geheugen. ;)
Je mist het punt ook. :)
Het gaat mij erom dat Nvidia zichzelf marketingtechnisch in de hoek heeft gemanoeuvreerd. Ze kunnen makkelijk een tweede AD103 based SKU lanceren met inderdaad 16GB aan VRAM. Maar ze hebben geen naam vrijgelaten hiervoor. En elke variatie die ik kan bedenken, klinkt marketingtechnisch gewoon niet goed.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
DaniëlWW2 schreef op woensdag 10 mei 2023 @ 10:08:
[...]


Je mist het punt ook. :)
Het gaat mij erom dat Nvidia zichzelf marketingtechnisch in de hoek heeft gemanoeuvreerd. Ze kunnen makkelijk een tweede AD103 based SKU lanceren met inderdaad 16GB aan VRAM. Maar ze hebben geen naam vrijgelaten hiervoor. En elke variatie die ik kan bedenken, klinkt marketingtechnisch gewoon niet goed.
4070 Super kan gewoon. Ik zie hier geen probleem wanneer dit de voorgangers vervangt zoals bij Turing. De rest gaat dan EOL. Ze kunnen het ook gewoon 5070 noemen. Dat hebben ze ooit ook gedaan bij Kepler. Idem AMD met de 580.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op woensdag 10 mei 2023 @ 10:19:
[...]

4070 Super kan gewoon. Ik zie hier geen probleem wanneer dit de voorgangers vervangt zoals bij Turing. De rest gaat dan EOL. Ze kunnen het ook gewoon 5070 noemen. Dat hebben ze ooit ook gedaan bij Kepler. Idem AMD met de 580.
En wat doe je dan met de volle AD104 chip? Want als je de RTX4070Ti met pensioen stuurt, dan moet je een nieuwe SKU bedenken tussen die AD103 based RTX4070 Super en de AD104 based RTX4070. Want AD104 standaard met 20% uit verkopen voor minder geld, gaat Nvidia niet doen. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 29-09-2023
DaniëlWW2 schreef op woensdag 10 mei 2023 @ 10:08:
[...]


Je mist het punt ook. :)
Het gaat mij erom dat Nvidia zichzelf marketingtechnisch in de hoek heeft gemanoeuvreerd. Ze kunnen makkelijk een tweede AD103 based SKU lanceren met inderdaad 16GB aan VRAM. Maar ze hebben geen naam vrijgelaten hiervoor. En elke variatie die ik kan bedenken, klinkt marketingtechnisch gewoon niet goed.
Dat valt echt wel mee. RTX 4070 Super kan gewoon, desnoods noemen ze het de RTX 4070 TITAN. :*)

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
DaniëlWW2 schreef op woensdag 10 mei 2023 @ 10:22:
[...]


En wat doe je dan met de volle AD104 chip? Want als je de RTX4070Ti met pensioen stuurt, dan moet je een nieuwe SKU bedenken tussen die AD103 based RTX4070 Super en de AD104 based RTX4070. Want AD104 standaard met 20% uit verkopen voor minder geld, gaat Nvidia niet doen. ;)
Daar maak je de 4060 Super of 5060Ti van. Het zijn maar namen. De bedoeling van een refresh is om de prestaties/prijs te verbeteren. Ze kunnen gewoon de hele reeks refreshen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Net weer een nieuw gerucht. Alle 4060 kaarten zouden ergens in de komende twee weken aangekondigd moeten worden, met een release van de 8 GB 4060 Ti op 24 mei. De 16 GB 4060 Ti zou eind juli komen en de 4060 begin juli.

Trouwens weer typisch dat Nvidia de 8 GB 4060 Ti een dag voor de 7600 uitbrengt. Men is elkaar weer vliegen aan het afvangen. Het maakt dit gerucht wel des te waarschijnlijker, want Nvidia houdt wel van zulke trucjes.

https://videocardz.com/ne...day-before-radeon-rx-7600

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Als de 16gb waar is zou dat een verstandige zet zijn. Maar hoe kan je dat als fabrikant in godsnaam verantwoorden tegen de veel duurdere 12gb 4070(ti)?

Het zal waarschijnlijk langzamer geheugen zijn maar dan nog... Ik vond de Vram keuzes van NV vorige generatie al erg zwak met de 10gb 3080, en dan later een 12gb uitbrengen (terwijl die al 16gb had moeten hebben in mijn optiek).

Vram is niet het duurste van een kaart en met de prijzen van tegenwoordig mag dat nooit je bottleneck worden, is volgens mij ook nooit zo geweest.

In het verleden was het zo dat de budget versies
De helft hadden aan Vram (8800gts 320mb of 1060 3gb bijv.) En dat was prima, maar nu wordt je binnen een bepaald budget een minimale hoeveelheid Vram door de keel geduwd, zelfs tot zon 800 euro budget aan toe..... Van de zotte.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
meljor schreef op woensdag 10 mei 2023 @ 17:45:
Als de 16gb waar is zou dat een verstandige zet zijn. Maar hoe kan je dat als fabrikant in godsnaam verantwoorden tegen de veel duurdere 12gb 4070(ti)?
De 3060 12 GB heeft ook meer geheugen dan de veel duurdere 3060 Ti, 3070 (Ti) en 3080.

Bovendien verwacht ik ook dat de 4060 Ti 16 GB niet zo goedkoop wordt. Ik schat in dat het $499 wordt.

Als men massaal 4060 Ti 16 GB's gaat kopen voor $499 als vervanger voor de 3060, 2060 en 1060 die veel goedkoper waren, dan loopt Nvidia gigantisch binnen. Ik denk niet dat ze het dan erg vinden dat ze wat minder 4070 (Ti)'s verkopen

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 20:09:
[...]
Dan krijg je alleen een RTX4070S die sneller is dan de RTX4070Ti. Of je krijgt een RTX4070Ti Super. :F
Ik bedoel, marketing kan Nvidia wel en dit is gewoon een zooitje in wording.
Nog even over nagedacht en ik besefte mij dat Nvidia de laatste tijd van de naamgeving sowieso een zooitje maakt. De 4080 16 GB en geplande 4080 12 GB, die een totaal andere chip en prestatieniveau had, was al totale chaos qua naamgeving. Dan heb je van de vorige generatie ook nog de 3080 10 GB en 3080 12 GB, en de 3060 12 GB en de 3060 8 GB.

En laten we niet vergeten dat ze ook nog een 3060 Ti GDDR6X versie hebben met trager geheugen, naast de 3060 Ti GDDR6 versie.

Dus Nvidia lijkt de laatste tijd compleet van het padje af qua naamgeving en eerlijke marketing, waar het duidelijk is wat je krijgt. Sowieso heb ik sterk het idee dat Nvidia door de miningboom flink van z'n stuk is gebracht en de grip op de realiteit een beetje is kwijtgeraakt. Ze doen allemaal dingen waarbij je van een kilometer afstand ziet aankomen dat het niet lekker uitpakt en vervolgens lijken ze totaal verrast wanneer het dan niet goed gaat.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Ai lijkt de nieuwe miningboom te worden voor NV dus zijn de gamers steeds minder interessant en winstgevend.

Zal voor Intel en Amd helaas dan weinig anders zijn, al zullen de NV kaarten in AI waarschijnlijk wel het beste zijn.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
meljor schreef op donderdag 11 mei 2023 @ 12:54:
Ai lijkt de nieuwe miningboom te worden voor NV dus zijn de gamers steeds minder interessant en winstgevend.

Zal voor Intel en Amd helaas dan weinig anders zijn, al zullen de NV kaarten in AI waarschijnlijk wel het beste zijn.
Het sterkste punt van Nvidia is niet de hardware, maar de CUDA-software laag.

Op dit moment lijkt AMD weinig klaar te spelen op AI gebied en Intel is helemaal nergens. Ik denk juist dat AMD en Intel het op korte termijn van de gamers zullen moeten hebben, al kan AMD wat dat betreft sterk leunen op de consoles.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

meljor schreef op donderdag 11 mei 2023 @ 12:54:
Ai lijkt de nieuwe miningboom te worden voor NV dus zijn de gamers steeds minder interessant en winstgevend.

Zal voor Intel en Amd helaas dan weinig anders zijn, al zullen de NV kaarten in AI waarschijnlijk wel het beste zijn.
Niet perse, gezien AMD CDNA goed verkoopt. Het hangt ook erg veel van de workload af, tijdje geleden dat ik de video heb gezien maar AMD is vooral sterk in FP16/FP32 FP64 workloads.


Ze maken best grote stappen met ROCM, alleen dat zit op Linux tot nu toe. Dat is naast Windows 11 en eindelijk goede game ondersteuning door Steam (en dus Proton) ook een van de redenen dat ik over ben.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op donderdag 11 mei 2023 @ 13:12:
Het sterkste punt van Nvidia is niet de hardware, maar de CUDA-software laag.
Inderdaad.
Op dit moment lijkt AMD weinig klaar te spelen op AI gebied en Intel is helemaal nergens. Ik denk juist dat AMD en Intel het op korte termijn van de gamers zullen moeten hebben, al kan AMD wat dat betreft sterk leunen op de consoles.
Zoals ik aangeef zijn ze hard bezig een inhaalslag te doen middels ROCM. Intel doet volgens mij wel leuke dingen met hun OneAPI, maar daar moet ik mij wat over inlezen voordat ik uitspraken doe :P.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op donderdag 11 mei 2023 @ 14:26:
[...]

Zoals ik aangeef zijn ze hard bezig een inhaalslag te doen middels ROCM. Intel doet volgens mij wel leuke dingen met hun OneAPI, maar daar moet ik mij wat over inlezen voordat ik uitspraken doe :P.
Elke keer dat ik kijk naar hoe de professionals tegen ROCm aankijken, dan lijkt de teneur: wordt steeds beter, maar nog een flinke achterstand en niet bruikbaar voor de meesten, zelfs als ze een sterke voorkeur hebben voor AMD en bereid zijn om meer problemen te accepteren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op donderdag 11 mei 2023 @ 14:37:
[...]


Elke keer dat ik kijk naar hoe de professionals tegen ROCm aankijken, dan lijkt de teneur: wordt steeds beter, maar nog een flinke achterstand en niet bruikbaar voor de meesten, zelfs als ze een sterke voorkeur hebben voor AMD en bereid zijn om meer problemen te accepteren.
Ze zijn er inderdaad nog lang niet. Het werkt niet op Windows (ook niet via Docker of WSL2); wat voor developers nog niet zo'n probleem is, maar het speelt wel mee.

Met wat geluk kan ik het weekend Stable Diffusion testen op ROCm en gelijk de performance vergelijken met mijn RTX 3070m.

Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 19:39:
Huh, wat?
[Twitter]
Dit zou zo bizar zijn. AD103 heeft 80SM's waarvan de RTX4080 er 76 actief heeft. Tot zover logisch en aangezien de RTX4080 ook daadwerkelijk 50% sneller is dan de RTX3080, klopt de naamgeving ook. Toen kwam de "RTX4080"/RTX4070Ti. Deze heeft de volle AD104 chip met 60SM's. Dat begreep ik al vanaf het begin niet. Want Nvidia heeft nog steeds maar een AD103 configuratie, die 76SM variant die ze als meerdere SKU's verkopen. Wat doe je met de rest? Verder is de RTX4070Ti ook niet 50%, maar 40% sneller dan de RTX3070Ti. En toen kwam de RTX4070. 46SM's en 30% sneller dan de RTX3070.

En nu, wat gaat Nvidia nu doen met al die AD103 chips die minder dan 76 functionele SM's hebben? Ze hebben geen naam meer over en AD103 is bijna 400mm2. Ze hadden makkelijk de RTX4070Ti, de RTX4070 kunnen noemen en de RTX4070 de RTX4060Ti. Beiden zijn dan 50% sneller dan de voorganger en dan hadden ze nog een naam vrij voor een forse cut down AD103.

Maar een 46 SM's AD103 chip is nog maar 57,5% van de volle chip. Los daarvan komt ook de L2 cache en bus. Dat is ongehoord. Verder dan 75-80% gaat het meestal niet. Daarnaast ook de realisatie dat dit betekend dat een AD103 chip die Nvidia een MSRP van $1200 heeft gegeven, met iets meer defecten opeens nog maar $600 waard is. Dat Nvidia enorme marges rekent op hun producten moge duidelijk zijn.
Wat ik bizar vind is dat AD103 maar 80 SMs heeft en niet gewoon 84 = 7 GPC*12 ... tenzij een Nvidia een spelfoutje heeft gemaakt.
https://www.techpowerup.c...idia-ada-architecture.pdf

Het plaatje van TPU op basis van de Nvidia documentatie:
Afbeeldingslocatie: https://tpucdn.com/gpu-specs/images/g/1012-block-diagram.jpg

is een ander plaatje dan wat Locuza analyseert hier:



Wat gaan ze doen qua naam voor AD103 chips met minder dan 76 SMs? Nou gewoon, 4070 Ti gebruiken. Een 4070 Ti met een gesneden AD103 die kan best, dan snijden ze die verder tot 60 SMs. Grote verschil is dat ze dan 4070 Ti 16GB modellen kunnen uitbrengen, natuurlijk. En ja zelfs 46 SMs kan.

Dat hebben ze bij de RTX 3000 generatie 4 keer gedaan. Laten we dat
DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 19:39:
Dat is ongehoord. Verder dan 75-80% gaat het meestal niet.
van jou eens toetsen aan de praktijk:
  • De RTX 3070 Ti, een volle GA104, of een gesneden GA102 (48/84 SMs = 57,1%.). Beide varianten hebben 8GB
  • De RTX 3060 Ti, dat kan een gesneden GA104 die zijn (38/48 SMs = 79,2%), maar ook een gesneden GA103 die (38/60 SMs = 63,3%, de volle is een RTX 3080 Ti Laptop). Beide varianten hebben 8GB.
  • Dan is er de RTX 3060, dat kan een volle GA106 die zijn, of een gesneden GA104 (28/48 SMs = 58,3%). Uitzonderlijke bij deze is dat er zowel 12GB varianten als (sinds Oct 2022) 8GB varianten zijn.
  • De RTX 3050, een volle GA107, of een gesneden GA106 (20/28 SMs = 71,4%).
3 van de 4 RTX 3000 kaarten snijden een chip verder dan 75%, zo rond de 60% lijkt normaal. Daar valt de 46/80 = 57,5% statistisch gewoon binnen. Het is een flinke knip, maar niet ongehoord.


Helemaal eens dat Nvidia gigantische marges rekent op hun high end momenteel. Daarom lik ik Jensen's foto niet af en heb ik voor de RX 6950XT gekozen ;)

Afbeeldingslocatie: https://tweakers.net/i/nMi8oRJrPKSfGlpErelGVMQe6L4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):gifsicle():strip_exif()/f/image/TGfRJrS1xe4lcRvJzijjtBjk.gif?f=user_large

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@sunsmountain

Ik vermoed dat de gigantische cuts die bij Ampere zijn toegepast vooral ook komen door de zeer slechte yields van Samsung 8. Er lagen vast nog heel veel chips in de voorraad met heel veel defecten.

TSMC heeft veel betere yields, dus ik verwacht dat we daar de normale cuts weer gaan zien.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 13 mei 2023 @ 12:33:
[...]


Wat ik bizar vind is dat AD103 maar 80 SMs heeft en niet gewoon 84 = 7 GPC*12 ... tenzij een Nvidia een spelfoutje heeft gemaakt.
https://www.techpowerup.c...idia-ada-architecture.pdf

Het plaatje van TPU op basis van de Nvidia documentatie:
[Afbeelding]

is een ander plaatje dan wat Locuza analyseert hier:
[YouTube: Radeon N31 vs. GeForce AD102/103, chip area analysis and rough cost estimates]
Er is iets raars met AD103 ja. De chip werd verwacht als 84SM, en ruim een jaar geleden toen Nvidia werd gehacked en de configuraties lekte, was het ook 84SM, maar het werd 80SM. Dat lijkt een hardwarebug te zijn waardoor een deel van een GPC niet werkt.
Wat gaan ze doen qua naam voor AD103 chips met minder dan 76 SMs? Nou gewoon, 4070 Ti gebruiken. Een 4070 Ti met een gesneden AD103 die kan best, dan snijden ze die verder tot 60 SMs. Grote verschil is dat ze dan 4070 Ti 16GB modellen kunnen uitbrengen, natuurlijk. En ja zelfs 46 SMs kan.

Dat hebben ze bij de RTX 3000 generatie 4 keer gedaan. Laten we dat

[...]

van jou eens toetsen aan de praktijk:
  • De RTX 3070 Ti, een volle GA104, of een gesneden GA102 (48/84 SMs = 57,1%.). Beide varianten hebben 8GB
  • De RTX 3060 Ti, dat kan een gesneden GA104 die zijn (38/48 SMs = 79,2%), maar ook een gesneden GA103 die (38/60 SMs = 63,3%, de volle is een RTX 3080 Ti Laptop). Beide varianten hebben 8GB.
  • Dan is er de RTX 3060, dat kan een volle GA106 die zijn, of een gesneden GA104 (28/48 SMs = 58,3%). Uitzonderlijke bij deze is dat er zowel 12GB varianten als (sinds Oct 2022) 8GB varianten zijn.
  • De RTX 3050, een volle GA107, of een gesneden GA106 (20/28 SMs = 71,4%).
3 van de 4 RTX 3000 kaarten snijden een chip verder dan 75%, zo rond de 60% lijkt normaal. Daar valt de 46/80 = 57,5% statistisch gewoon binnen. Het is een flinke knip, maar niet ongehoord.
Oh ik had die RTX3060, RTX3060Ti en RTX3070Ti varianten helemaal gemist. Die zijn nogal opvallend ja. Alsof ze nog hele stapels relatief lage kwaliteit chips hadden liggen die ze alsnog willen verkopen.

Maar alsnog vind ik een AD103 based RTX4070 vreemd. Een "RTX4070Ti 16GB" van maken, tja dat is denk ik wel een oplossing die ik kan geloven. Een knudde oplossing die vooral consumenten zal verwarren, maar wel een die geloofwaardig is.
Helemaal eens dat Nvidia gigantische marges rekent op hun high end momenteel. Daarom lik ik Jensen's foto niet af en heb ik voor de RX 6950XT gekozen ;)
offtopic:
He he, ik dacht al, je moet nu gewoon eens wat kiezen. :P



Edit:
RTX4060Ti 16GB zou in de tweede helft van juli volgen, verbruikt 5W meer en gaat van AD106-350 naar 351.
https://videocardz.com/ne...d106-351-gpu-and-165w-tdp
Dat laatste lijkt Videocardz te linken aan de VRAM. Maar ik vermoed dat het komt omdat Nvidia een kleine revisie doorvoert. :)
https://videocardz.com/ne...x-4080-with-ad103-301-gpu

[ Voor 6% gewijzigd door DaniëlWW2 op 13-05-2023 15:41 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
Ludewig schreef op zaterdag 13 mei 2023 @ 13:36:
@sunsmountain

Ik vermoed dat de gigantische cuts die bij Ampere zijn toegepast vooral ook komen door de zeer slechte yields van Samsung 8. Er lagen vast nog heel veel chips in de voorraad met heel veel defecten.

TSMC heeft veel betere yields, dus ik verwacht dat we daar de normale cuts weer gaan zien.
Een plausibel vermoeden, en dit gebruiken van verschillende die's voor dezelfde videokaart / naam zien we bij vorige Nvidia generaties inderdaad veel minder vaak:

RTX 2000

RTX 2060 6GB:
cut TU106 30/36 SM
cut TU104 30/48 SM = 62,5%

TU102: cut maar 68/72 SM

RTX 1000

geen verschillende die's voor dezelfde kaart

grootste cuts:

GP102 28/30
GP104 10/20 GTX 1060 (GDDR5X) & GTX 1080 = 50%
GP106 9/10
GP107 5/6
GP108 2/3




Het lijkt bij de TSMC dies dus meer een design keuze te zijn dan een noodzaak zoals bij de Samsung dies. Er zit bijna 1,5 jaar tussen de cuts van GP104: 27 Mei 2016 en 18 Okt 2018 voor de GTX1080 en GTX1060 GDDR5X respectievelijk.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
DaniëlWW2 schreef op zaterdag 13 mei 2023 @ 14:44:
[...]

Er is iets raars met AD103 ja. De chip werd verwacht als 84SM, en ruim een jaar geleden toen Nvidia werd gehacked en de configuraties lekte, was het ook 84SM, maar het werd 80SM. Dat lijkt een hardwarebug te zijn waardoor een deel van een GPC niet werkt.
Of een typefout in het brondocument van Nvidia. Onwaarschijnlijk, maar mogelijk.
DaniëlWW2 schreef op zaterdag 13 mei 2023 @ 14:44:
Oh ik had die RTX3060, RTX3060Ti en RTX3070Ti varianten helemaal gemist. Die zijn nogal opvallend ja. Alsof ze nog hele stapels relatief lage kwaliteit chips hadden liggen die ze alsnog willen verkopen.

Maar alsnog vind ik een AD103 based RTX4070 vreemd. Een "RTX4070Ti 16GB" van maken, tja dat is denk ik wel een oplossing die ik kan geloven. Een knudde oplossing die vooral consumenten zal verwarren, maar wel een die geloofwaardig is.
En een waarmee ze waarschijnlijk op het $899 prijs punt van de 7900 XT will concurreren, of als AMD komt met een 7800 XTX door verder te snijden in Navi31.
offtopic:
He he, ik dacht al, je moet nu gewoon eens wat kiezen. :P
offtopic:
Ja m'n R9 290X gaat geen 1440p doen, en het oude moederbord uit 2010 gaf de geest (afgestoft met synthetische kwast, oeps). Als ik een goede 4k 32" OLED monitor had kunnen vinden, had ik wel de RTX 4080 gekocht. edit: Of zelfs een RTX 4090.
DaniëlWW2 schreef op zaterdag 13 mei 2023 @ 14:44:

Edit:
RTX4060Ti 16GB zou in de tweede helft van juli volgen, verbruikt 5W meer en gaat van AD106-350 naar 351.
https://videocardz.com/ne...d106-351-gpu-and-165w-tdp
Dat laatste lijkt Videocardz te linken aan de VRAM. Maar ik vermoed dat het komt omdat Nvidia een kleine revisie doorvoert. :)
https://videocardz.com/ne...x-4080-with-ad103-301-gpu
De 4060 Ti 16 GB weten we van, de 4070 Ti 16 GB komt er aan. De revisies die ze daar noemen hadden geloof ik meer te maken met dat onnodige comparator circuit/een component minder voor de board partners.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
De 4060 TI 16gb zal waarschijnlijk 499 dollar zijn en dat is dus in Nederland 555 incl btw. De 4070 is tegenwoordig al bijna 600, maar mist 4gb Vram.

Wat zouden jullie de betere deal vinden?

Ik zou zelf neigen naar de 4070 als hij haast gelijkwaardig geprijsd wordt incl korting natuurlijk. Puur op basis van dat de 4060 TI haast niet de power heeft, om die 16gb volledig te gebruiken.

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het blijft een gok hoe snel spellen meer geheugen gaan eisen. Het hangt er ook van af wat je ermee doet. Als je graag open world spellen vol gooit met mods die VRAM verbruiken, dan zou ik voor de 4060 Ti gaan. Als je vooral competitieve shooters speelt op relatief lage kwaliteitsinstellingen met zo'n hoog mogelijke FPS, dan juist een 4070.

Het lastigste is als je graag een relatief hoge resolutie draait (op een plat scherm of in VR). Dan wil je enerzijds zoveel mogelijk kracht, maar anderzijds kom je ook sneller in de problemen met VRAM.

En wat betreft het prijsverschil kun je natuurlijk ook kijken wat de verkoop is van de 4060 Ti. Als dat tegenvalt kan die natuurlijk ook in prijs zakken. Dus dan is het verschil mogelijk meer dan 50 euro.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 08-09 18:38
Ludewig schreef op zondag 14 mei 2023 @ 18:18:
Het blijft een gok hoe snel spellen meer geheugen gaan eisen. Het hangt er ook van af wat je ermee doet. Als je graag open world spellen vol gooit met mods die VRAM verbruiken, dan zou ik voor de 4060 Ti gaan. Als je vooral competitieve shooters speelt op relatief lage kwaliteitsinstellingen met zo'n hoog mogelijke FPS, dan juist een 4070.

Het lastigste is als je graag een relatief hoge resolutie draait (op een plat scherm of in VR). Dan wil je enerzijds zoveel mogelijk kracht, maar anderzijds kom je ook sneller in de problemen met VRAM.

En wat betreft het prijsverschil kun je natuurlijk ook kijken wat de verkoop is van de 4060 Ti. Als dat tegenvalt kan die natuurlijk ook in prijs zakken. Dus dan is het verschil mogelijk meer dan 50 euro.
bedankt voor je reactie, ik ben zelf wel meer van het eerste ja. Maar op youtube spreken ze veel over de zwakke 128bit bus. Ben daar een beetje een leek in, maar blijkbaar is het dat dus zwakker is op hoge resoluties ofzo:)?

Stel hij gaat wat naar beneden qua prijs, dan zou 500 nog redelijk zijn eerlijk gezegd. Maar de gewilde FE editie zal Nvidia nooit laten zakken helaas haha.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Techkeizer schreef op zondag 14 mei 2023 @ 23:57:
[...]
bedankt voor je reactie, ik ben zelf wel meer van het eerste ja. Maar op youtube spreken ze veel over de zwakke 128bit bus. Ben daar een beetje een leek in, maar blijkbaar is het dat dus zwakker is op hoge resoluties ofzo:)?
Ja, de kaarten hebben nu relatief veel cache om de krappe bus grotendeels te compenseren, maar bij hogere resoluties is er zoveel data nodig dat de cache steeds minder helpt. Ik zou de 4060 Ti dan ook niet gebruiken voor 4K. Je ziet al dat de 4070 op die resolutie meer achterblijft vergeleken met een 3080 dan op 1440p.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason

Pagina: 1 ... 128 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.