• Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Werelds schreef op zondag 5 december 2021 @ 14:34:
[...]

Ah, ze laten geen producten zien die niet beschikbaar zijn als je de URL niet hebt. Kan ik niet ruiken hè ;)
Dat geloof ik direct, neemt niet weg dat het een te snel getrokken conclusie is die mogelijk Tweakers die achter zo'n kaart aanzitten op het verkeerde been kan zetten en dat is wel jammer.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op zondag 5 december 2021 @ 14:48:
[...]


Dat geloof ik direct, neemt niet weg dat het een te snel getrokken conclusie is die mogelijk Tweakers die achter zo'n kaart aanzitten op het verkeerde been kan zetten en dat is wel jammer.
Ik mag hopen dat die tweakers wel slim genoeg zijn de beide topics wél in de gaten te houden. Ik heb dat niet gedaan omdat ik het te veel moeite vind voor een generatie waar ik nog steeds niet kapot van ben en er geen noodzaak is. Los van m'n tweaker-verlangens tenminste :p

Mijn punt staat echter wel: het is nagenoeg onmogelijk een kaart aan MSRP prijzen te krijgen (in beide kampen), wat die prijzen irrelevant maakt. Het is koopjesjagen in extremis, wat de meesten voor enig ander product absurd zouden vinden. Kijk, nieuwe iPhones of Pixels voor €2500; of €1000 als je op precies het juiste moment op de juiste site zit en snel genoeg zonder foutmeldingen door het bestelproces kunt komen!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
@Werelds

Dat ben ik verder ook met je eens, een kaart krijgen voor MSRP is gewoon lastig, of het nu bij AMD of Nvidia is. En als je niet bij bij AMD of Nvidia's partners winkelt zeggen die MSRP inderdaad helemaal niets.

  • Markozv
  • Registratie: December 2017
  • Laatst online: 15:28
Werelds schreef op zondag 5 december 2021 @ 14:57:

Mijn punt staat echter wel: het is nagenoeg onmogelijk een kaart aan MSRP prijzen te krijgen (in beide kampen), wat die prijzen irrelevant maakt. Het is koopjesjagen in extremis, wat de meesten voor enig ander product absurd zouden vinden. Kijk, nieuwe iPhones of Pixels voor €2500; of €1000 als je op precies het juiste moment op de juiste site zit en snel genoeg zonder foutmeldingen door het bestelproces kunt komen!
Ben ik het niet mee eens, heb zelf een MSI ventus 3070ti voor MSRP weten te bemachtigen. Ja het kostte wat moeite, niet alles wordt meer vrij in je schoot geworpen.
Als ik kijk hoeveel mensen hier op tweakers via NBB drop een FE weten te bemachtigen laat het echt zien dat niet onmogelijk is. Maar wederom het kost je wat moeite.

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 14:23
De 2060 12GB heeft in Frankrijk een prijs van 528 euro gekregen (tot nu toe):
https://videocardz.com/ne...ale-in-france-for-528-eur

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
ruftman schreef op maandag 6 december 2021 @ 16:06:
De 2060 12GB heeft in Frankrijk een prijs van 528 euro gekregen (tot nu toe):
https://videocardz.com/ne...ale-in-france-for-528-eur
Zijn de turing kaarten eigenlijk goed in mining? Aangezien de mining potentie mogelijk nog steeds een belangrijke prijsbepaler kan zijn.

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 14:23
Dennism schreef op maandag 6 december 2021 @ 16:14:
[...]


Zijn de turing kaarten eigenlijk goed in mining? Aangezien de mining potentie mogelijk nog steeds een belangrijke prijsbepaler kan zijn.
Mijn oude GTX 1660 super is door een miner gekocht voor 400 euro, dus dan zullen ze er wel wat mee kunnen denk ik?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op maandag 6 december 2021 @ 16:14:
[...]


Zijn de turing kaarten eigenlijk goed in mining? Aangezien de mining potentie mogelijk nog steeds een belangrijke prijsbepaler kan zijn.
Ja en ook al waren ze dat niet, dan alsnog zouden miners ze kopen. En zelfs als het compleet dramatisch zou zijn voor mining, bijvoorbeeld door kunstmatige beperkingen die ook echt werken, dan duiken alsnog vele gamers erop die echt iets beters wensen dan ze nu hebben. Ergo, dit gaat ook geen MSRP model worden. Dat gaat gewoon niet gebeuren dit jaar en volgend jaar waarschijnlijk ook niet.

Komt ook bij dat al die prachtige verhalen dat ETH binnenkort Proof of Stake gaat, we inmiddels ook al sinds 2017 moeten aanhoren. En de CCP mag mining dan wel actief aan het stoppen zijn, maar die miners lijken wel in staat te zijn om het land dan te verlaten met hun materiaal. Het gaat dus gewoon door in andere landen...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • SpEnellis
  • Registratie: Januari 2009
  • Laatst online: 03-12-2025
Dennism schreef op maandag 6 december 2021 @ 16:14:
[...]


Zijn de turing kaarten eigenlijk goed in mining? Aangezien de mining potentie mogelijk nog steeds een belangrijke prijsbepaler kan zijn.
Dat zijn ze zeker https://videocardz.com/ne...ct-card-for-crypto-miners

Dus een betaalbare GPU kunnen we vergeten.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Dat ziet er inderdaad niet heel goed uit, beter in mining dan de 3060 en de 6600XT volgens die tabel.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Vraagje, maakt LHR nou iets voor de prijs van de kaart? Dat webshops de max vragen voor een GPU begrijp ik nog steeds, maar RTX 3000 LHR kaarten zouden iig tweedehands minder moeten kosten, toch? Toch :/ ?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Gigabyte heeft een zooi nieuwe videokaarten geregistreerd, waaronder de aanstaande RTX 3080 met 12GB geheugen:

Gigabyte Registers RTX 3080 12 GB, RTX 3070Ti 16 GB, and RX 6500 XT Models with EEC

March of the Eagles


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!



@DaniëlWW2

LTT speculeert dat de RTX 2060 12GB een nieuw gemaakte GPU is ipv old stock. Dus nVidia vergroot hiermee productie capaciteit met een oude high-end 12nm node. Op zich goed nieuws in deze tijden :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 03-02 09:30
Je zou bijna denken (geen aluhoedje :P) dat Nvidia hiermee juist de miners van dienst wil zijn, want een heel dwingende reden om er dubbel zoveel RAM in te gooien lijkt er nu ook weer niet te zijn. Ja, dit komt sommige games (nu en later) ten goede, maar het komt mining nog veel meer ten goede (sommige mining algo's vereisen dat alle data ineens in het geheugen past en werken anders helemaal niet, en soms kun je extra RAM gebruiken om meer dingen tegelijk te minen).

Als het idee is dat die 12 GB de kaart toekomstbestendiger gaat maken lopen we weer tegen het feit aan dat dit de onderkant van de vorige generatie is... tegen de tijd dat je 6 GB kaartje het niet meer trekt qua VRAM (harde grens) zit je hopelijk echt wel tegen de tijd aan dat je sowieso toe bent aan iets snellers en de productie van kaarten weer enigszins genormaliseerd is (wat er met de prijzen gebeurt laat ik dan even in het midden).

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

MneoreJ schreef op woensdag 8 december 2021 @ 16:02:
Je zou bijna denken (geen aluhoedje :P) dat Nvidia hiermee juist de miners van dienst wil zijn, want een heel dwingende reden om er dubbel zoveel RAM in te gooien lijkt er nu ook weer niet te zijn. Ja, dit komt sommige games (nu en later) ten goede, maar het komt mining nog veel meer ten goede (sommige mining algo's vereisen dat alle data ineens in het geheugen past en werken anders helemaal niet, en soms kun je extra RAM gebruiken om meer dingen tegelijk te minen).

Als het idee is dat die 12 GB de kaart toekomstbestendiger gaat maken lopen we weer tegen het feit aan dat dit de onderkant van de vorige generatie is... tegen de tijd dat je 6 GB kaartje het niet meer trekt qua VRAM (harde grens) zit je hopelijk echt wel tegen de tijd aan dat je sowieso toe bent aan iets snellers en de productie van kaarten weer enigszins genormaliseerd is (wat er met de prijzen gebeurt laat ik dan even in het midden).
Er zijn nu al spellen die je zou nekken met 6GB, vooral nieuwe games en ports.

De 12GB maakt dat nVidia kan claimen dat het een nieuwe SKU is, anders is het letterlijk oude wijn in nieuwe zakken. Dat is het nu al een beetje, maar toch :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 03-02 09:30
XanderDrake schreef op woensdag 8 december 2021 @ 16:50:
Er zijn nu al spellen die je zou nekken met 6GB, vooral nieuwe games en ports.
Mag ik even lui zijn en vragen om benchmarks (met bestaande 6 GB kaarten)? Het is niet dat ik het voor onmogelijk hou maar ik wil even zeker weten dat we met "nekken" onacceptable framerates bedoelen, die dan niet te wijten zijn aan de snelheid van de chip zelf (of spellen die geheel dienst weigeren). M.a.w. situaties waar die 12 GB het verschil maakt.
De 12GB maakt dat nVidia kan claimen dat het een nieuwe SKU is, anders is het letterlijk oude wijn in nieuwe zakken. Dat is het nu al een beetje, maar toch :+
Dat klopt wel maar nieuwe SKU kan altijd, ook al verkoop je zo goed als hetzelfde. Plak er een "Special Edition" plakkertje op en je bent al klaar. Of voeg er een hash rate limiter aan toe... oh nee, dat dan weer niet want een echt nieuw ontwerp kost teveel. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

MneoreJ schreef op woensdag 8 december 2021 @ 16:59:
Mag ik even lui zijn en vragen om benchmarks (met bestaande 6 GB kaarten)? Het is niet dat ik het voor onmogelijk hou maar ik wil even zeker weten dat we met "nekken" onacceptable framerates bedoelen, die dan niet te wijten zijn aan de snelheid van de chip zelf (of spellen die geheel dienst weigeren). M.a.w. situaties waar die 12 GB het verschil maakt.
Deze slide ik voorbij zie komen is deze. Zelf niet gecheckt overigens
Afbeeldingslocatie: https://overclock3d.net/gfx/articles/2021/03/05162903139l.jpg

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 03-02 09:30
@XanderDrake Die slide ken ik, maar zegt nadrukkelijk niets over wat de performance dan is. Wel kudos voor AMD dat zij geheugenverbruik accuraat kunnen meten, iets waar wij als onschuldige eindgebruikers behoorlijk veel moeite mee hebben omdat drivers dat niet helder tracken (alleen VRAM in gebruik).

Als je deze slide letterlijk zou nemen zou je HZD dus helemaal niet in 1440p kunnen draaien op kaarten met minder dan 10 GB geheugen, maar zo werkt het natuurlijk niet -- het is alleen dat niet alles tegelijk in het geheugen past. De impact die dat dan heeft op de FPS is een tweede en is daar niet simpel uit af te leiden.

Wel een goede indicatie voor de spellen waar ik naar op zoek zou moeten voor de benches.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 03-02 09:30
Data van TPU (ik kopieer de afbeeldingen zelf even niet omdat het behoorlijk groot is): HZD eet ~7 GiB op 1440p op de hoogste settings (gemeten met een 2080 Ti die 10 GiB heeft). Waarom dit niet overeenkomt met AMD's totaal van +10 GiB is een interessante vraag waar ik nu even niet induik, die hebben waarschijnlijk een "betere" meetmethode die hun punt beter ondersteunt (of iets met AMD kaarten die niet alle texturecompressie ondersteunen, ik meende dat dat ook nog een ding was).

Het FPS verschil op 1440p tussen de RTX 2060 (6 GB) en de RTX 2060 Super (8 GB) is 45 FPS vs. 50 FPS -- dat kunnen we gewoon op de relatieve snelheid gooien, is duidelijk geen RAM bottleneck die opeens te voorschijn komt. Die kunnen we zien als we de GTX 1060 3 GB vs. 6 GB naast elkaar leggen: 24 FPS vs. 28 FPS. In deze onderste regionen merkbaar en voor sommigen wellicht net het verschil tussen speelbaar en onspeelbaar (ik zou het beide als onacceptabel bestempelen, maar realistisch gezien ga je natuurlijk wat terugschroeven van max settings).

Interessant wordt het wat mij betreft pas op 4K: HZD heeft dan ~8 GiB nodig en weigert dienst op twee kaarten met maar 4 GiB, dan sta je dus echt in de kou. Maar je hoeft ook niet erg blij te zijn als het wel werkt, want alleen de high end haalt nog redelijke framerates (was te verwachten natuurlijk).

Ik blijf dan toch voorzichtig bij de conclusie dat miners een stuk blijer gaan worden van die 12 GB dan gamers, althans wel voor deze kaart die het op hogere reso's ook puur op snelheid niet meer zal gaan trekken bij nieuwere games. Wel zal het zo zijn dat "6 GB kan echt niet meer mee" inderdaad inmiddels luid genoeg rondgaat dat 12 GB hebben ook echt een voordeel is dat opweegt tegen de extra kosten, in de zin dat meer mensen het dan zouden willen kopen, ook al doet het voor een licht opgevoerde 2060 niet zoveel.

Voor mij hoe dan ook een academische discussie, ik heb geen interesse in deze kaart zelfs al kwam het wel voor een redelijke prijs beschikbaar (wat natuurlijk niet het geval gaat zijn). Of mijn huidige kaart moet stuk gaan, dan misschien... (Afkloppen! :|)

[ Voor 6% gewijzigd door MneoreJ op 08-12-2021 17:50 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
MneoreJ schreef op woensdag 8 december 2021 @ 17:39:
Data van TPU (ik kopieer de afbeeldingen zelf even niet omdat het behoorlijk groot is): HZD eet ~7 GiB op 1440p op de hoogste settings (gemeten met een 2080 Ti die 10 GiB heeft). Waarom dit niet overeenkomt met AMD's totaal van +10 GiB is een interessante vraag waar ik nu even niet induik, die hebben waarschijnlijk een "betere" meetmethode die hun punt beter ondersteunt (of iets met AMD kaarten die niet alle texturecompressie ondersteunen, ik meende dat dat ook nog een ding was).
Het geheugengebruik uit die AMD slide is niet 1-op-1 te vertalen naar Nvidia, aangezien beide fabrikanten andere compressietechnieken gebruiken.

March of the Eagles


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 03-02 09:30
XWB schreef op woensdag 8 december 2021 @ 17:53:
Het geheugengebruik uit die AMD slide is niet 1-op-1 te vertalen naar Nvidia, aangezien beide fabrikanten andere compressietechnieken gebruiken.
Aha dat dus. Dat maakt het nog wat belangrijker om naar de benchmarks te kijken voor de impact en niet naar wat AMD hier toevallig meet. Dat verklaart dan als het goed is ook waarom de low-end AMD kaarten er op 4 GB al mee ophouden bij HZD op 4K: HZD eet dan 8 GiB op Nvidia, maar dusdanig veel op AMD dat een minimum overschreden wordt.

Het zou leuk zijn als AMD en/of Nvidia wat meer moeite zouden steken in het meten van dat soort absolute requirements, want dan weet je pas echt of je tegen een muur gaat aanlopen, maar het is begrijpelijk dat ze dat niet doen -- het is niet simpel en ze hebben er geen belang bij. Het mag zelfs indrukwekkend genoemd worden dat AMD hun hogere geheugenverbruik als voordeel ingezet heeft. :P

[ Voor 5% gewijzigd door MneoreJ op 08-12-2021 18:03 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 03-02 09:30
Toch nog een toevoeging voor de 12 GB vs 6 GB discussie: Jarred Walton van Tom's bediscussieert dit ook, en beargumenteert dat hoewel OEM's het wel aanprijzen voor miners dit feitelijk onzin is omdat de kaart daar niet het meest geschikt voor is, en toont met wat benches van Battlefield 2042 een memory bottleneck aan met 6 GB (specifiek op 1080p met DXR en op 1440p). Hij zegt ook:
And again, I'm not just pointing at Battlefield 2042. There are other games that exhibit similar behavior (Godfall immediately springs to mind, along with Microsoft Flight Simulator), and with the latest consoles having more RAM, the number of games that will push well beyond 6GB is only going to grow.
Ik ben niet helemaal overtuigd van dit argument, omdat ik nog steeds denk dat je het qua paardenkracht al snel niet gaat trekken bij die "toekomstige games" -- je kunt niet alles op ultra cranken en/of 1440p en dan goede FPS (blijven) halen met een 2060, ook als je geen last hebt van een memory bottleneck. Maar hij toont in ieder geval concreet aan dat zulke bottlenecks al bestaan, waar dat bij HZD niet zo was, en er zullen vast mensen zijn die blij zullen zijn als ze een spel op 30 FPS kunnen spelen als het alternatief is dat het helemaal niet kan.

Dus ja, dit zou de kaart interessanter maken, als die beschikbaar was tegen een redelijke prijs. Op dit moment lijkt het qua beschikbaarheid al niks te zijn (niet eerder dan 2022 volgens PC Gamer), en dan hebben we het nog niet eens mogen hebben over de prijs. Letterlijk niet: het heeft er alle schijn van dat Nvidia bewust geen MSRP op deze kaart plakt en de prijsstelling lekker bij OEMs laat.

[ Voor 3% gewijzigd door MneoreJ op 10-12-2021 17:38 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 14:23
In deze benchmark is er weinig verschil tussen de 6gb en 12gb versie van de rtx 2060.
YouTube: RTX 2060 12GB vs RTX 2060 6GB - Test in 10 Games

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
ruftman schreef op vrijdag 10 december 2021 @ 20:49:
In deze benchmark is er weinig verschil tussen de 6gb en 12gb versie van de rtx 2060.
YouTube: RTX 2060 12GB vs RTX 2060 6GB - Test in 10 Games
De helft van het verschil is denk ik dat de 12GB versie een net iets beter bin heeft en daardoor een hogere clocksnelheid. De rest komt misschien van het geheugen, maar het zou beter zijn geweest als ze met de test 60fps hadden getarget om zo een betere vergelijking te kunnen doen.
De settings onspeelbaar hoog zetten zodat ram een impact heeft lijkt mij nutteloos.

De kaart heeft in games gewoon nauwelijks iets aan 12GB geheugen (8GB zou beter zijn geweest....), hij is daar te zwak voor. Het is gewoon een mining kaart.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Sp3ci3s8472 schreef op maandag 13 december 2021 @ 14:16:
[...]


De helft van het verschil is denk ik dat de 12GB versie een net iets beter bin heeft en daardoor een hogere clocksnelheid. De rest komt misschien van het geheugen, maar het zou beter zijn geweest als ze met de test 60fps hadden getarget om zo een betere vergelijking te kunnen doen.
De settings onspeelbaar hoog zetten zodat ram een impact heeft lijkt mij nutteloos.

De kaart heeft in games gewoon nauwelijks iets aan 12GB geheugen (8GB zou beter zijn geweest....), hij is daar te zwak voor. Het is gewoon een mining kaart.
Zou dat niet gewoon grotendeels komen omdat ze daar eigenlijk een 2060 met een 2060 super SM count aan het vergelijken zijn? Immers is de 2060 12GB eigenlijk een 2060 Super met een 192bit bus.

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
Sp3ci3s8472 schreef op maandag 13 december 2021 @ 14:16:
[...]
De kaart heeft in games gewoon nauwelijks iets aan 12GB geheugen (8GB zou beter zijn geweest....), hij is daar te zwak voor. Het is gewoon een mining kaart.
Je kunt niet zomaar van 12GB naar 8GB zonder de geheugen bus te veranderen, of asynchrone geheugen snelheid waar gamers in her verleden niet over te spreken waren. Geheugen bandbreedte is over het algemeen heel nuttig voor mining. En 8GB is voldoende voor mining en zou hoogst waarschijnlijk een bredere geheugen bus gebruiken, dus nog beter zijn voor mining. Dus je zegt eigenlijk "het is gewoon een mining kaart, want ze zouden de kaart nog hogere mining mining prestaties moeten geven".

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Dennism schreef op maandag 13 december 2021 @ 19:09:
[...]


Zou dat niet gewoon grotendeels komen omdat ze daar eigenlijk een 2060 met een 2060 super SM count aan het vergelijken zijn? Immers is de 2060 12GB eigenlijk een 2060 Super met een 192bit bus.
Ah dat had ik niet opgemerkt. Dan lijkt mij dat een betere verklaring
cnieuweboer schreef op dinsdag 14 december 2021 @ 01:21:
[...]


Je kunt niet zomaar van 12GB naar 8GB zonder de geheugen bus te veranderen, of asynchrone geheugen snelheid waar gamers in her verleden niet over te spreken waren. Geheugen bandbreedte is over het algemeen heel nuttig voor mining. En 8GB is voldoende voor mining en zou hoogst waarschijnlijk een bredere geheugen bus gebruiken, dus nog beter zijn voor mining. Dus je zegt eigenlijk "het is gewoon een mining kaart, want ze zouden de kaart nog hogere mining mining prestaties moeten geven".
Dat weet ik, dat was niet het punt wat ik probeerde te maken. De kaart heeft niks aan meer geheugen boven de 8GB (en dat is misschien al niet eens nodig). Klopt de GTX 970 en de 3.5GB :+.
Daar heb je waarschijnlijk gelijk in, ik volg het minen niet echt. Corrigeer me maar als ik er naast zit; maar was het niet zo dat er steeds meer geheugen nodig is voor minin omdat de blocksize groter wordt?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Volgens mij heeft iedereen gemist dat Nvidia een eigen variant van FSR hebben gemaakt en in de driver gegooid. HardwareUnboxed is niet onder de indruk.


Ik vraag me serieus af waarom Nvidia dit heeft gedaan. Het heeft naast DLSS en FSR nul toegevoegde waarde en met de consoles in AMD's handen gaan de meetste ontwikkelaars eerder voor FSR en daarnaast DLSS ipv een minder goede implementatie van Nvidia voor spatial upsampling.

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
Sp3ci3s8472 schreef op maandag 20 december 2021 @ 20:34:
Volgens mij heeft iedereen gemist dat Nvidia een eigen variant van FSR hebben gemaakt en in de driver gegooid. HardwareUnboxed is niet onder de indruk.
[YouTube: Nvidia Image Scaling vs AMD FSR vs DLSS - Which Works Best in Games?]

Ik vraag me serieus af waarom Nvidia dit heeft gedaan. Het heeft naast DLSS en FSR nul toegevoegde waarde en met de consoles in AMD's handen gaan de meetste ontwikkelaars eerder voor FSR en daarnaast DLSS ipv een minder goede implementatie van Nvidia voor spatial upsampling.
De reden lijkt me vrij duidelijk. Nvidia (en AMD) willen graag dat hun eigen technieken gebruikt worden in spellen. Maar Nvidia had geen gelijkwaardig alternatief voor FSR, dus spellen die door Nvidia gesponsord worden missen functionaliteit of moesten ongewenst een AMD upscaler gebruiken. En DLSS is ondertussen goed genoeg om een USP te blijven.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Specificaties en een foto van de aanstaande RTX 3090 Ti:

NVIDIA GeForce RTX 3090 Ti pictured, specifications confirmed

March of the Eagles


  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 14:23
Voor de geinteresseerden, de review van de 2060 12Gb staat online: https://www.techspot.com/...ia-geforce-rtx-2060-12gb/

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus vandaag kwam blijkbaar de RTX3080 12GB uit.
Waar zijn de reviews precies? Nou, Nvidia lijkt weer eens besloten om Nvidia te zijn en heeft geen driver beschikbaar gesteld voor reviewers voor de launch. :z



Steve denkt dat het komt omdat Nvidia verwacht dat het negatieve reviews gaan worden omdat dit ding alweer een GA102 GPU is uiteraard voor meer verkocht zal moeten worden dan de RTX3080. Tekenend is ook dat Steve niet eens een MSRP van de RTX3080Ti heeft gehoord en betwijfeld of die er wel gaat komen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op dinsdag 11 januari 2022 @ 19:22:
Steve denkt dat het komt omdat Nvidia verwacht dat het negatieve reviews gaan worden omdat dit ding alweer een GA102 GPU is uiteraard voor meer verkocht zal moeten worden dan de RTX3080. Tekenend is ook dat Steve niet eens een MSRP van de RTX3080Ti heeft gehoord en betwijfeld of die er wel gaat komen.
MSRP is ook zinloos in de huidige markt, zie ook de RTX 3050 die voor € 500 te koop staat 8)7

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op dinsdag 11 januari 2022 @ 20:15:
[...]


MSRP is ook zinloos in de huidige markt, zie ook de RTX 3050 die voor € 500 te koop staat 8)7
Daar gaat het alleen niet om. Het gaat erom dat Nvidia de mogelijkheid tot een launch review heeft geblokkeerd en niks wil zeggen over hoeveel dit product moet kosten. Maar we weten allemaal dat het meer is dan de RTX3080 terwijl het nauwelijks een grotere cut van GA102 is. Dit gaat de leverbaarheid van de RTX3080 dus ook treffen omdat een flink aantal chips die RTX3080Ti niveau niet haalden, nu niet verkocht zullen worden als RTX3080, maar als RTX3080 12GB. Dit is gewoon een zoveelste cash grab en dat proberen ze te verhullen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
DaniëlWW2 schreef op dinsdag 11 januari 2022 @ 21:39:
Dit gaat de leverbaarheid van de RTX3080 dus ook treffen omdat een flink aantal chips die RTX3080Ti niveau niet haalden, nu niet verkocht zullen worden als RTX3080, maar als RTX3080 12GB.
Nee, dat is hoogstwaarschijnlijk niet correct.

Voor de reguliere 3080 (GA102-200) worden 16 SM's, twee memory controllers en een deel van de L2$ uitgeschakeld. Voor de 3080-12 (GA102-220) worden er 14 SM's, geen memory controllers en geen L2$ uitgeschakeld.

220 is hoogstwaarschijnlijk juist een afvalproduct van 225 (3080 Ti); in principe een correct functionerende chip die echter veel lekt, waardoor het verbruik de pan uit rijst. Vandaar dat de base clock flink omlaag is geschroefd, zo houden ze dat in toom, in combinatie met het uitschakelen van 2 SM's in de overige GPC's (3090/300 = 2 SM's in 1 GPC uitgeschakeld, 225 = 2 SM's in 2 GPC's, 220 = 2 SM's in alle 7 GPC's). En op 1260 MHz zal het ding trager zijn dan de 200, ondanks het hogere aantal shaders (1260 * 8960 * 2 / 1000000 = 22,6 TF).

De 12 GB is dan ook een bijwerking van het niet uitschakelen van de memory controllers, niet andersom. Op die 12 controllers moeten gewoon 12 chips, punt. En dan is de keus 6 GB of 12 GB...dat is niet lastig lijkt me ;)

Dat is ook waarom Nvidia geen reviews wil en überhaupt niets zegt over het ding. Ik vermoed dat de prestaties niet tot nauwelijks van de gewone 3080 zullen verschillen (en met een beetje pech er zelfs onder vallen). Het verbruik zal waarschijnlijk gewoon ruk zijn.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En wie weet gaat de reguliere RTX 3080 binnenkort nog end of life.

[ Voor 9% gewijzigd door XWB op 12-01-2022 10:34 ]

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 12 januari 2022 @ 09:49:
[...]

Nee, dat is hoogstwaarschijnlijk niet correct.

Voor de reguliere 3080 (GA102-200) worden 16 SM's, twee memory controllers en een deel van de L2$ uitgeschakeld. Voor de 3080-12 (GA102-220) worden er 14 SM's, geen memory controllers en geen L2$ uitgeschakeld.

220 is hoogstwaarschijnlijk juist een afvalproduct van 225 (3080 Ti); in principe een correct functionerende chip die echter veel lekt, waardoor het verbruik de pan uit rijst. Vandaar dat de base clock flink omlaag is geschroefd, zo houden ze dat in toom, in combinatie met het uitschakelen van 2 SM's in de overige GPC's (3090/300 = 2 SM's in 1 GPC uitgeschakeld, 225 = 2 SM's in 2 GPC's, 220 = 2 SM's in alle 7 GPC's). En op 1260 MHz zal het ding trager zijn dan de 200, ondanks het hogere aantal shaders (1260 * 8960 * 2 / 1000000 = 22,6 TF).

De 12 GB is dan ook een bijwerking van het niet uitschakelen van de memory controllers, niet andersom. Op die 12 controllers moeten gewoon 12 chips, punt. En dan is de keus 6 GB of 12 GB...dat is niet lastig lijkt me ;)

Dat is ook waarom Nvidia geen reviews wil en überhaupt niets zegt over het ding. Ik vermoed dat de prestaties niet tot nauwelijks van de gewone 3080 zullen verschillen (en met een beetje pech er zelfs onder vallen). Het verbruik zal waarschijnlijk gewoon ruk zijn.
Ik weet hoe het binning proces werkt. ;)
Mijn punt is alleen dat Nvidia begon met vier GA102 SKU's:
-A40 of A6000 (volledige GA102)
-RTX3090
-RTX3080

Volledig functionele chips werden verkocht als A40/A6000, de iets mindere als RTX3090 en wat overbleef werd verkocht als RTX3080 of niet. En omdat het alternatief niet verkopen was, weet je gewoon dat er een tijd is geweest dat elke chip die niet verkocht kon worden als RTX3090, als RTX3080 verkocht is. Immers waren de enorme tekorten er al vanaf het begin en waren de verhalen dat de AIB's ditmaal serieus werden uitgeknepen als het om de prijs per GA102 GPU ging, er ook al vanaf het begin. Nvidia haar wederom enorm toegenomen kwartaalcijfers lijken dat alleen maar te bevestigen. In een tijd met enorme verstoring van productieketens, is Nvidia haar omzet en winst alleen maar fors toegenomen. Dat kan alleen maar komen uit 1) veel meer productie of 2) veel hogere verkoopprijzen per GPU. Ik ga gerust uit van nummer twee.

We hebben ondertussen een jaar lang geruchten gehad over de RTX3080Ti en RTX3080 12GB. Uiteindelijk hebben we beiden gekregen en ook nog de RTX3090Ti. En er is inmiddels ook een RTX3080Ti 20GB, A10 PCIe en A10G. Allen SKU's met meer delen van GA102 enabled dan de RTX3080 en minder dan de RTX3090. En het gaat verder dan SM configuraties, want Nvidia zit ook uitgebreid te spelen met geheugencontroller configuraties.

Hebben we ook nog A4500, A5000 en CMP 90HX. Allen chips die de RTX3080 SM configuratie niet eens halen.

De lijst is dus als volgt:

-A40 48GB
-A6000 48GB
-RTX3090Ti 24GB
-RTX3090 24GB
-RTX3080Ti 12GB
-RTX3080Ti 20GB
-A10 PCIe 24GB
-A10G 12GB
-RTX3080 12GB
-RTX3080 10GB
-A5000 24GB
-A4500 20GB
-CMP 90HX 10GB

Nvidia heeft vijf SKU's tussen de RTX3090 en RTX3080 gepositioneerd en ze hebben deze ook bewust gesplitst in 320 en 384bit geheugenconfiguraties. Een chip zal waarschijnlijk pas verkocht kunnen worden als de volledige 384 bit aan geheugenconfiguratie niet werkt en de chip ook RTX3080Ti 20GB niveau niet haalt. En dan zit je alsnog met de vraag of Nvidia niet liever een dergelijke chip verkoopt als A4500. Daar verdienen ze immers meer aan.

Ergo, Nvidia heeft de hele GA102 lijn zo volgepropt met SKU's dat ik niet zie hoe je precies bij de RTX3080 uitkomt. Er is een hele lijst aan betere SKU's gelanceerd die allemaal meer kosten en chips die RTX3090 niveau niet halen, weghouden om verkocht te worden als RTX3080. En Nvidia dat het altijd "het beste met de gamers voorheeft", wil niet dat dit al te duidelijk is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
DaniëlWW2 schreef op woensdag 12 januari 2022 @ 11:38:

-A40 48GB
-A6000 48GB
-RTX3090Ti 24GB
-RTX3090 24GB
-RTX3080Ti 12GB
-RTX3080Ti 20GB
-A10 PCIe 24GB
-A10G 12GB
-RTX3080 12GB
-RTX3080 10GB
-A5000 24GB
-A4500 20GB
-CMP 90HX 10GB

Nvidia heeft vijf SKU's tussen de RTX3090 en RTX3080 gepositioneerd en ze hebben deze ook bewust gesplitst in 320 en 384bit geheugenconfiguraties. Een chip zal waarschijnlijk pas verkocht kunnen worden als de volledige 384 bit aan geheugenconfiguratie niet werkt en de chip ook RTX3080Ti 20GB niveau niet haalt. En dan zit je alsnog met de vraag of Nvidia niet liever een dergelijke chip verkoopt als A4500. Daar verdienen ze immers meer aan.

Ergo, Nvidia heeft de hele GA102 lijn zo volgepropt met SKU's dat ik niet zie hoe je precies bij de RTX3080 uitkomt. Er is een hele lijst aan betere SKU's gelanceerd die allemaal meer kosten en chips die RTX3090 niveau niet halen, weghouden om verkocht te worden als RTX3080. En Nvidia dat het altijd "het beste met de gamers voorheeft", wil niet dat dit al te duidelijk is.
Sommige van die SKU's zijn echter dezelfde kwaliteit chips :)

De 3080 Ti 20 GB is een AIB project, die komt niet vanuit Nvidia en is gewoon een GA102-200 met clamshelled geheugen. Dat ding had gewoon 3080 moeten heten.

- 350/875 (84 SM, 12 MC, 6 L2$): A40, A6000, 3090 Ti
- 300 (82 SM, 12 MC, 6 L2$): 3090
- 225 (80 SM, 12 MC, 6 L2$): 3080 Ti (12G)
- 890 (72 SM, 12 MC, 6 L2$): A10, A10G
- 220 (70 SM, 12 MC, 6 L2$): 3080 12 GB
- 200 (68 SM, 10 MC, 5 L2$): 3080 10/20 GB
- 850 (64 SM, 12 MC, 6 L2$): A5000
- 850 (56 SM, 10 MC, 6 L2$): A4500

Merk op hoe de "oude" 3080 de _enige_ in de hele lijst is waar een deel L2$ is uitgeschakeld. De rest heeft allemaal hun volledige L2$. Dat geeft aan dat dat hoogstwaarschijnlijk chips zijn met defecten in dat deel van de chip, terwijl de rest daar geen last van heeft. De 3080/12 bestaat omdat die chips simpelweg te veel lekken om als 3080 Ti/3090 dienst te doen (binnen het power budget), maar wel volledig functioneel zijn en dus "te goed" voor een reguliere 3080. Die laatstgenoemde heeft meer problemen dan enkel een hoog verbruik en wordt daarom verder gecastreerd.

De A4500 is ook een raar beest, ik vermoed dat daar 2 MC's zijn uitgeschakeld om juist een nieuwe SKU te creëren met chips die helemaal niet presteren, want de baseclock van dat ding is ook amper een GHz.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Werelds schreef op woensdag 12 januari 2022 @ 12:24:
[...]

Sommige van die SKU's zijn echter dezelfde kwaliteit chips :)

De 3080 Ti 20 GB is een AIB project, die komt niet vanuit Nvidia en is gewoon een GA102-200 met clamshelled geheugen. Dat ding had gewoon 3080 moeten heten.

- 350/875 (84 SM, 12 MC, 6 L2$): A40, A6000, 3090 Ti
- 300 (82 SM, 12 MC, 6 L2$): 3090
- 225 (80 SM, 12 MC, 6 L2$): 3080 Ti (12G)
- 890 (72 SM, 12 MC, 6 L2$): A10, A10G
- 220 (70 SM, 12 MC, 6 L2$): 3080 12 GB
- 200 (68 SM, 10 MC, 5 L2$): 3080 10/20 GB
- 850 (64 SM, 12 MC, 6 L2$): A5000
- 850 (56 SM, 10 MC, 6 L2$): A4500

Merk op hoe de "oude" 3080 de _enige_ in de hele lijst is waar een deel L2$ is uitgeschakeld. De rest heeft allemaal hun volledige L2$. Dat geeft aan dat dat hoogstwaarschijnlijk chips zijn met defecten in dat deel van de chip, terwijl de rest daar geen last van heeft. De 3080/12 bestaat omdat die chips simpelweg te veel lekken om als 3080 Ti/3090 dienst te doen (binnen het power budget), maar wel volledig functioneel zijn en dus "te goed" voor een reguliere 3080. Die laatstgenoemde heeft meer problemen dan enkel een hoog verbruik en wordt daarom verder gecastreerd.

De A4500 is ook een raar beest, ik vermoed dat daar 2 MC's zijn uitgeschakeld om juist een nieuwe SKU te creëren met chips die helemaal niet presteren, want de baseclock van dat ding is ook amper een GHz.
De prijsstelling van nVidia op de 3080 op $699 MSRP was duidelijk niet de juiste. Dat proberen ze nu te corrigeren door zoals je zegt, alles wat maar een beetje "te goed" is voor een reguliere 3080, opnieuw uit te brengen, liefst zonder MSRP.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 12 januari 2022 @ 12:24:
[...]
Merk op hoe de "oude" 3080 de _enige_ in de hele lijst is waar een deel L2$ is uitgeschakeld. De rest heeft allemaal hun volledige L2$. Dat geeft aan dat dat hoogstwaarschijnlijk chips zijn met defecten in dat deel van de chip, terwijl de rest daar geen last van heeft. De 3080/12 bestaat omdat die chips simpelweg te veel lekken om als 3080 Ti/3090 dienst te doen (binnen het power budget), maar wel volledig functioneel zijn en dus "te goed" voor een reguliere 3080. Die laatstgenoemde heeft meer problemen dan enkel een hoog verbruik en wordt daarom verder gecastreerd.
Oh zo hakken ze de RTX3080 op. :)
Maar dan alsnog. Want hoe ik het altijd had begrepen, zijn cache defects niet bepaald de grootste problematiek bij IC productie. De RTX3080 SKU zo afhankelijk maken van cache defecten lijkt me ook niet bepaald goed voor de toch al dramatische leverbaarheid.

Ik zie de RTX3080 namelijk als een opvallend conservatieve specificatie (GA102-200-KD-A1). Dat was altijd al zo en het vermoeden is dat Nvidia best wel eens problemen gehad kan hebben bij Samsung. Gezien de lange lijst aan andere SKU's, lijkt dat wel minder te zijn. Als Nvidia namelijk de RTX3080 12GB had aangekondigd voor $700 en de RTX3080 EOL had verklaard, dan had ik er ook geen probleem mee gehad. Dat doen ze nu alleen niet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
DaniëlWW2 schreef op woensdag 12 januari 2022 @ 15:32:
[...]


Oh zo hakken ze de RTX3080 op. :)
Maar dan alsnog. Want hoe ik het altijd had begrepen, zijn cache defects niet bepaald de grootste problematiek bij IC productie. De RTX3080 SKU zo afhankelijk maken van cache defecten lijkt me ook niet bepaald goed voor de toch al dramatische leverbaarheid.

Ik zie de RTX3080 namelijk als een opvallend conservatieve specificatie (GA102-200-KD-A1). Dat was altijd al zo en het vermoeden is dat Nvidia best wel eens problemen gehad kan hebben bij Samsung. Gezien de lange lijst aan andere SKU's, lijkt dat wel minder te zijn. Als Nvidia namelijk de RTX3080 12GB had aangekondigd voor $700 en de RTX3080 EOL had verklaard, dan had ik er ook geen probleem mee gehad. Dat doen ze nu alleen niet.
Yields van Samsung lijken positief te zijn uitgevallen, vergeleken met de aanvankelijke verwachtingen. Oefening baart kunst?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
DaniëlWW2 schreef op dinsdag 11 januari 2022 @ 19:22:


Steve denkt dat het komt omdat Nvidia verwacht dat het negatieve reviews gaan worden omdat dit ding alweer een GA102 GPU is uiteraard voor meer verkocht zal moeten worden dan de RTX3080. Tekenend is ook dat Steve niet eens een MSRP van de RTX3080Ti heeft gehoord en betwijfeld of die er wel gaat komen.
3080TI 'MSRP' is er toch gewoon? Volgens mij €1199

Verder vind ik het hier niet onlogisch dat er geen MSRP is vanuit Nvidia. Een MSRP wordt immers door de fabrikant van het eind product bepaald normaal gesproken, daar er geen Founders Edition kaart is, zal er waarschijnlijk ook geen MSRP van Nvidia zijn. Partner kaarten hebben immers normaal gesproken eigen MSRP's en die hoeven niet gelijk te zijn aan die van Founders Edition kaarten.

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 02-02 20:58
Dennism schreef op woensdag 12 januari 2022 @ 21:43:
[...]


3080TI 'MSRP' is er toch gewoon? Volgens mij €1199

Verder vind ik het hier niet onlogisch dat er geen MSRP is vanuit Nvidia. Een MSRP wordt immers door de fabrikant van het eind product bepaald normaal gesproken, daar er geen Founders Edition kaart is, zal er waarschijnlijk ook geen MSRP van Nvidia zijn. Partner kaarten hebben immers normaal gesproken eigen MSRP's en die hoeven niet gelijk te zijn aan die van Founders Edition kaarten.
Kunnen ze de kritiek lekker afschuiven op AIBs terwijl ze zelf waarschijnlijk veel meer geld vragen voor het leveren van de chips aan de AIBs. Het is gewoon misbruik maken van een verziekte markt.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Cloggs schreef op woensdag 12 januari 2022 @ 22:20:
[...]

Kunnen ze de kritiek lekker afschuiven op AIBs terwijl ze zelf waarschijnlijk veel meer geld vragen voor het leveren van de chips aan de AIBs. Het is gewoon misbruik maken van een verziekte markt.
Die kritiek was er hoe dan ook wel gekomen, stel ze hadden wel een MSRP genoemd van laten we zeggen €999 (beetje tussen de 3080 en de 3080Ti in), denk jij echt dat er een AIB die de kaarten voor die prijs gaat aanbieden, nee, zo'n MSRP zal echt helemaal niets zeggen, AIB kaarten zullen echt vele malen duurder zijn.

Eigenlijk kan je het in deze markt niet goed doen, noem je geen MSRP is het niet goed, noem je wel een MSRP is het net zo goed minachting van de klant, want je weet gewoon dat het MSRP niet gehaald gaat worden.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
DaniëlWW2 schreef op woensdag 12 januari 2022 @ 15:32:
Oh zo hakken ze de RTX3080 op. :)
Maar dan alsnog. Want hoe ik het altijd had begrepen, zijn cache defects niet bepaald de grootste problematiek bij IC productie. De RTX3080 SKU zo afhankelijk maken van cache defecten lijkt me ook niet bepaald goed voor de toch al dramatische leverbaarheid.

Ik zie de RTX3080 namelijk als een opvallend conservatieve specificatie (GA102-200-KD-A1). Dat was altijd al zo en het vermoeden is dat Nvidia best wel eens problemen gehad kan hebben bij Samsung. Gezien de lange lijst aan andere SKU's, lijkt dat wel minder te zijn. Als Nvidia namelijk de RTX3080 12GB had aangekondigd voor $700 en de RTX3080 EOL had verklaard, dan had ik er ook geen probleem mee gehad. Dat doen ze nu alleen niet.
Wat je hier eigenlijk ziet is dat Samsung veel variatie heeft. Het is niet zo zeer dat yields heel goed of slecht zijn, ze lijken vooral inconsistent te zijn. Het verschil in specificaties binnen hetzelfde budget tussen de 220 en 300 is bizar. Ik vermoed nog steeds dat eerstgenoemde zich wel aan die ~350W zal houden maar dat zal doen met lagere kloksnelheden.

Vergeet ook niet dat de L2$ aan de MC's is verbonden; het is 512 KB L2$ per MC, dus dat is waarschijnlijk waarom de 200 het met 2 MC's minder moet doen. De 4500 heeft wel alle L2$, maar niet alle MC's; met andere woorden, MC's zijn afhankelijk van L2$ maar niet andersom - althans zo lijkt het.

En de schematische weergave van de architectuur is ook misleidend in dit alles. Daar zie je de L2$ tussen de GPC's zitten, maar in werkelijkheid zitten L2$ en de MC's geheel apart.
Dennism schreef op woensdag 12 januari 2022 @ 21:43:
Een MSRP wordt immers door de fabrikant van het eind product bepaald normaal gesproken, daar er geen Founders Edition kaart is, zal er waarschijnlijk ook geen MSRP van Nvidia zijn. Partner kaarten hebben immers normaal gesproken eigen MSRP's en die hoeven niet gelijk te zijn aan die van Founders Edition kaarten.
Die MSRP's heb je normaal gesproken voor reference PCB's. En dat hebben ze nu achterwege gelaten.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Dennism schreef op woensdag 12 januari 2022 @ 21:43:
[...]


3080TI 'MSRP' is er toch gewoon? Volgens mij €1199

Verder vind ik het hier niet onlogisch dat er geen MSRP is vanuit Nvidia. Een MSRP wordt immers door de fabrikant van het eind product bepaald normaal gesproken, daar er geen Founders Edition kaart is, zal er waarschijnlijk ook geen MSRP van Nvidia zijn. Partner kaarten hebben immers normaal gesproken eigen MSRP's en die hoeven niet gelijk te zijn aan die van Founders Edition kaarten.
Dat lijkt me raar, met lowend kaarten waren er ook niet altijd FE kaarten, toch zetten ze een MSRP. Daarnaast hebben ze een 3080 en 3090 FE kaart dus ze kunnen prima op basis daarvan een schatting maken hoe duur het uiteindelijk is.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Sp3ci3s8472 schreef op donderdag 13 januari 2022 @ 17:59:
[...]


Dat lijkt me raar, met lowend kaarten waren er ook niet altijd FE kaarten, toch zetten ze een MSRP. Daarnaast hebben ze een 3080 en 3090 FE kaart dus ze kunnen prima op basis daarvan een schatting maken hoe duur het uiteindelijk is.
Volgens mij niet altijd, maar dan nog, als je zelf geen kaarten gaat verkopen is een MSRP simpelweg niet logisch in deze markt. Immers geen AIB of retailer die er aan zal denken kaarten te gaan verkopen op een door Nvidia gesteld MSRP. Dat zie nu immers nu ook al, de enige kaarten van zowel Nvidia, maar ook AMD, door voor MSRP weggaan zijn de door hen zelf verkochte kaarten.

Bij AMD zie je dit bijvoorbeeld nu met de 6500XT, AMD plakt er een 'MSRP' op van €199 (of $199), maar levert zelf geen kaarten van dat type. De goedkoopste kaart tot nu toe gezien, een Asus 6500XT heeft een MSRP meegekregen van Asus van €299.

Nee, wat dat betreft vind ik het eigenlijk wel prima dat er geen MSRP gecommuniceerd wordt wanneer Nvidia niet zelf kaarten gaat verkopen. Bij retailers gaan we die prijzen toch niet zien. Het heeft dus wat dat betreft weinig zin om op de RTX3080 12GB een MSRP van $999 of iets in die richting te plakken door Nvidia, laat de AIB hun MSRP's maar publiceren.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Werelds schreef op woensdag 12 januari 2022 @ 12:24:
[...]

Sommige van die SKU's zijn echter dezelfde kwaliteit chips :)

De 3080 Ti 20 GB is een AIB project, die komt niet vanuit Nvidia en is gewoon een GA102-200 met clamshelled geheugen. Dat ding had gewoon 3080 moeten heten.

- 350/875 (84 SM, 12 MC, 6 L2$): A40, A6000, 3090 Ti
- 300 (82 SM, 12 MC, 6 L2$): 3090
- 225 (80 SM, 12 MC, 6 L2$): 3080 Ti (12G)
- 890 (72 SM, 12 MC, 6 L2$): A10, A10G
- 220 (70 SM, 12 MC, 6 L2$): 3080 12 GB
- 200 (68 SM, 10 MC, 5 L2$): 3080 10/20 GB
- 850 (64 SM, 12 MC, 6 L2$): A5000
- 850 (56 SM, 10 MC, 6 L2$): A4500

Merk op hoe de "oude" 3080 de _enige_ in de hele lijst is waar een deel L2$ is uitgeschakeld. De rest heeft allemaal hun volledige L2$. Dat geeft aan dat dat hoogstwaarschijnlijk chips zijn met defecten in dat deel van de chip, terwijl de rest daar geen last van heeft. De 3080/12 bestaat omdat die chips simpelweg te veel lekken om als 3080 Ti/3090 dienst te doen (binnen het power budget), maar wel volledig functioneel zijn en dus "te goed" voor een reguliere 3080. Die laatstgenoemde heeft meer problemen dan enkel een hoog verbruik en wordt daarom verder gecastreerd.

De A4500 is ook een raar beest, ik vermoed dat daar 2 MC's zijn uitgeschakeld om juist een nieuwe SKU te creëren met chips die helemaal niet presteren, want de baseclock van dat ding is ook amper een GHz.
Ik vermoed dat nVidia dezelfde strategie zal volgen met de 4xxx kaarten, even los van de professionele kaarten, qua snijden:

4xxx series (speculatie):

AD102 (12*12)
shadersgeheugenmodelsnijden
144 SM12 MC 24 GB4090 Ti
140 SM12 MC 24 GB4090-4 SM
136 SM12 MC 12 GB4080 Ti-8 SM
120 SM12 MC 12 GB4080-24 SM (-12*2)
116 SM10 MC 10/20 GB4080-28 SM -2 MC

AD104 (7*12) = GA102 refresh 5nm, -4MC
shadersgeheugenmodelsnijden
84 SM8 MC 8GB4070 Ti
80 SM8 MC 8GB4070-4 SM
70 SM8 MC 8GB4060 Ti-14 SM (-7*2)
60 SM6 MC 6GB4060-24 SM -2 MC

AD106 (6*8) = GA104 refresh 5nm, -2/-4 MC
shadersgeheugenmodelsnijden
48 SM6 MC 6 GB4060 Mob
46 SM6 MC 6 GB4050 Ti-2 SM
36/38 SM4 MC 4/8 GB4050-12/-10SM -2MC


memo: 3xxx series

GA102 (7*12)
84 SM 12 MC 24GB (3090 Ti)
82 SM 12 MC 24GB (3090) = -2SM
80 SM 12 MC 12GB (3080 Ti) = -4SM
70 SM 12 MC 12GB (3080) = -14SM (-7*2)
68 SM 10 MC 10/20GB (3080) = -16SM -2MC

GA104 (6*8)
48 SM 8 MC 8/16GB (3070 Ti)
46 SM 8 MC 8GB (3070) = -2SM
38 SM 8 MC 8GB (3060 Ti) = -10SM
28 SM 6 MC 12GB (3060) = -20SM -2MC

GA106 (3*10)
30 SM 6 MC 6GB (3060 Mob)
28 SM 6 MC 12GB (3060) = -2SM
18/20 SM 4 MC 4/8GB(3050) = -12/-10SM -2MC

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Cloggs
  • Registratie: April 2004
  • Laatst online: 02-02 20:58
Dennism schreef op donderdag 13 januari 2022 @ 18:22:
[...]


Volgens mij niet altijd, maar dan nog, als je zelf geen kaarten gaat verkopen is een MSRP simpelweg niet logisch in deze markt. Immers geen AIB of retailer die er aan zal denken kaarten te gaan verkopen op een door Nvidia gesteld MSRP. Dat zie nu immers nu ook al, de enige kaarten van zowel Nvidia, maar ook AMD, door voor MSRP weggaan zijn de door hen zelf verkochte kaarten.

Bij AMD zie je dit bijvoorbeeld nu met de 6500XT, AMD plakt er een 'MSRP' op van €199 (of $199), maar levert zelf geen kaarten van dat type. De goedkoopste kaart tot nu toe gezien, een Asus 6500XT heeft een MSRP meegekregen van Asus van €299.

Nee, wat dat betreft vind ik het eigenlijk wel prima dat er geen MSRP gecommuniceerd wordt wanneer Nvidia niet zelf kaarten gaat verkopen. Bij retailers gaan we die prijzen toch niet zien. Het heeft dus wat dat betreft weinig zin om op de RTX3080 12GB een MSRP van $999 of iets in die richting te plakken door Nvidia, laat de AIB hun MSRP's maar publiceren.
MSRPs werden op een uitzondering na altijd gewoon gegeven. De markt is de markt maar dan heb je gewoon een indicatie wat het product in een normale situatie kost. Nu heeft Nvidia MSRPs op de eigen website staan die gewoon misleidend zijn aangezien de AIBs al meer moeten betalen aan Nvidia om alleen al de chips te bemachtigen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nvidia verkoopt zelf ook videokaarten, bijvoorbeeld in Frankrijk kan je deze voor MSRP kopen:

https://store.nvidia.com/...ge=1&limit=9&locale=fr-fr

March of the Eagles


  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Cloggs schreef op dinsdag 18 januari 2022 @ 13:02:
[...]

MSRPs werden op een uitzondering na altijd gewoon gegeven. De markt is de markt maar dan heb je gewoon een indicatie wat het product in een normale situatie kost. Nu heeft Nvidia MSRPs op de eigen website staan die gewoon misleidend zijn aangezien de AIBs al meer moeten betalen aan Nvidia om alleen al de chips te bemachtigen.
Die MSRP's kloppen gewoon, Nvidia verkoopt immers die kaarten voor dat bedrag. Vergeet niet dat een MSRP alleen van toepassing is op het specifieke product. Een MSRP van een Asus Strixx RTX3080 kan (en zal) dus anders zijn dan het MSRP van een RTX3080 Founders Edition. Het MSRP van Nvidia is hoogstens een eikpunt voor vaak de lager gepositioneerde AIB kaarten in een normale markt. De topmoddel van de AIBs hebben sowieso altijd al een flink hoger MSRP.

Kan je het dikgedrukte ook onderbouwen met werkelijke cijfers (en dan het liefst niet uit de niet verifieerbare info van MLID).

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
XWB schreef op dinsdag 18 januari 2022 @ 13:05:
Nvidia verkoopt zelf ook videokaarten, bijvoorbeeld in Frankrijk kan je deze voor MSRP kopen:

https://store.nvidia.com/...ge=1&limit=9&locale=fr-fr
Nederlanders kunnen Nvidia Founders edition kaarten bestellen bij NBB voor MSRP.

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03-01 03:41
Ik heb die optie Dldsr niet ik heb wel DSR.
Gebruik de laatste drivers.

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


  • Acteonis
  • Registratie: November 2018
  • Laatst online: 01-02 16:19
-

[ Voor 100% gewijzigd door Acteonis op 27-01-2022 15:11 ]


  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
mmxmmx schreef op donderdag 27 januari 2022 @ 12:44:
Ik heb die optie Dldsr niet ik heb wel DSR.
Gebruik de laatste drivers.
Het werkt alleen met een RTX 3000 serie en de laatste whql drivers. Je kunt ergens bij 3D instellingen DL aanvinken, ik meende bij DSR boven aan.

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 01-02 20:54
Dennism schreef op dinsdag 18 januari 2022 @ 13:21:
[...]


Nederlanders kunnen Nvidia Founders edition kaarten bestellen bij NBB voor MSRP.
De gewone/ werkende niet echt. Moet je Telegram/ discord oid in de gaten houden. Komt er een moet je razendsnel bestellen en maar hopen dat je beet hebt.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Ik las vandaag dat volgens de geruchten nVidia zijn toekomstige Hopper architectuur bewaart voor datacenter en cloudwerk. Het zou gaan over chips van 1000m² en 1000watt TDP. Mijn god waar gaat het allemaal heen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
XanderDrake schreef op dinsdag 1 februari 2022 @ 20:36:
Ik las vandaag dat volgens de geruchten nVidia zijn toekomstige Hopper architectuur bewaart voor datacenter en cloudwerk. Het zou gaan over chips van 1000m² en 1000watt TDP. Mijn god waar gaat het allemaal heen.
Zolang dat datacenter meer dan 1 GPU gebruikt, en de prestaties van Hopper goed genoeg zijn, lijkt mij 1000watt per GPU voor datacenters geen probleem. Voor datacenters met 1 GPU is het misschien niet nuttig.

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03-01 03:41
Tincahunter schreef op dinsdag 1 februari 2022 @ 16:28:
[...]


Het werkt alleen met een RTX 3000 serie en de laatste whql drivers. Je kunt ergens bij 3D instellingen DL aanvinken, ik meende bij DSR boven aan.
Ik heb natuurlijk een Asus RTX Tuf 3090 OC in mijn computer al meer dan 1 jaar

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op dinsdag 1 februari 2022 @ 20:36:
Ik las vandaag dat volgens de geruchten nVidia zijn toekomstige Hopper architectuur bewaart voor datacenter en cloudwerk. Het zou gaan over chips van 1000m² en 1000watt TDP. Mijn god waar gaat het allemaal heen.
De investering in dergelijke chips heeft Nvidia al terugverdiend met de "lancering".
Er zit enorme marge op datacenter GPGPU's en bedrijven zoals Facebook, Google, Amazzon etc blijven ze in grote partijen kopen naast hun dedicated accelerators.

Maar de geruchten gaan al een hele tijd dat Hopper een aparte architectuur voor die markt is en Lovelace voor de rest van de markt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Wat doet de nieuwe functie DLDSR en is het niet gewoon DSR met een andere naam?

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Tincahunter schreef op woensdag 2 februari 2022 @ 10:10:
Wat doet de nieuwe functie DLDSR en is het niet gewoon DSR met een andere naam?
https://www.windowscentral.com/nvidia-dlss-dsr-dldsr
DLDSR is een upgrade van DSR, die al 7 jaar lang bestaat. Daarmee kan je GPU een hogere resolutie dan je monitor renderen in de buffer, dat er mooier uit ziet. Bijvoorbeeld van 4k naar 1080p.

DLDSR pakt een net iets lagere resolutie, bijvoorbeeld 1620p en maakt daar net zo mooi een 1080p van als een 4k zou hebben gedaan met DSR.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Sp3ci3s8472 schreef op maandag 20 december 2021 @ 20:34:
Volgens mij heeft iedereen gemist dat Nvidia een eigen variant van FSR hebben gemaakt en in de driver gegooid. HardwareUnboxed is niet onder de indruk.
[YouTube: Nvidia Image Scaling vs AMD FSR vs DLSS - Which Works Best in Games?]

Ik vraag me serieus af waarom Nvidia dit heeft gedaan. Het heeft naast DLSS en FSR nul toegevoegde waarde en met de consoles in AMD's handen gaan de meetste ontwikkelaars eerder voor FSR en daarnaast DLSS ipv een minder goede implementatie van Nvidia voor spatial upsampling.
Ik kom er nu pas achter dat deze feature is geïmplementeerd. Het is inderdaad geen concurrent met AMDs FSR; het is niet makkelijker, sneller of mooier. Zeker gezien het in feite dezelfde nVidia GPUs ondersteunt, zou ik altijd voor FSR kiezen.

Maar er zijn zeker use cases, hoor. Ik heb nog een 2-in-1 met een MX150, waar ik af en toe mee op de TV speel, of Civ6 op de bank met de touchcontrols. Dit is een mooie uitkomst, want de nadelen van nVidia NIS zijn dan niet duidelijk op zulke schermen en de 25% meer FPS komen vaak goed uit.
Ook oudere spellen, zoals Civ6, hebben geen scaler options, dus dan is een driver oplossing het enige wat je kan doen. FSR komt niet naar nVidia drivers, dus dan ben ik wél blij met NIS :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XanderDrake schreef op woensdag 9 februari 2022 @ 12:23:
[...]

Ik kom er nu pas achter dat deze feature is geïmplementeerd. Het is inderdaad geen concurrent met AMDs FSR; het is niet makkelijker, sneller of mooier. Zeker gezien het in feite dezelfde nVidia GPUs ondersteunt, zou ik altijd voor FSR kiezen.
Haha, goede marketing :P.
Maar er zijn zeker use cases, hoor. Ik heb nog een 2-in-1 met een MX150, waar ik af en toe mee op de TV speel, of Civ6 op de bank met de touchcontrols. Dit is een mooie uitkomst, want de nadelen van nVidia NIS zijn dan niet duidelijk op zulke schermen en de 25% meer FPS komen vaak goed uit.
Ook oudere spellen, zoals Civ6, hebben geen scaler options, dus dan is een driver oplossing het enige wat je kan doen. FSR komt niet naar nVidia drivers, dus dan ben ik wél blij met NIS :)
Interessant, ik had niet verwacht dat Nvidia zulke oude kaarten ook nog die feature zouden geven.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Sp3ci3s8472 schreef op woensdag 9 februari 2022 @ 13:54:
Interessant, ik had niet verwacht dat Nvidia zulke oude kaarten ook nog die feature zouden geven.
Ik kan niet goed achterhalen welke GPUs NIS ondersteunen. Het zit in de drivers sinds 497.68 dus officieel zou elke GPU die vanaf nu nog ondersteund is met drivers ook NIS moeten ondersteunen, maar ik kan daar geen uitsluitsel over vinden.

Dat zou betekenen dat ook de 900 serie en de 700 serie vanaf de GTX 750 Ti en nieuwer (dus niet de GTX 760 bijv.) deze image scaler kunnen gebruiken! En een kleine check op youtube blijkt dat dit klopt :) De GTX 750 Ti kan nu ineens Cyberpunk 2077 spelen op 1080p Low (28 ipv 16FPS). Heel mooi, want dat spel ondersteunt geen FSR.

edit:
Na patch 1.5 ondersteund Cyberpunk wel FSR dus is dat beter :+

[ Voor 4% gewijzigd door XanderDrake op 20-02-2022 19:50 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

In vervolg op de hack:

Hackers Threaten to Release NVIDIA GPU Drivers Code, Firmware, and Hash Rate Limiter Bypass

Update: The hackers have released part of their files to the public. It's a 18.8 GB RAR file, which uncompresses to over 400,000 (!) files occupying 75 GB, it's mostly source code.

Afbeeldingslocatie: https://www.techpowerup.com/img/i6CPvKFAeejUXwDl.jpg

[ Voor 36% gewijzigd door Help!!!! op 01-03-2022 10:06 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De zouden wel eens de eerste Ada Lovelace specificaties kunnen zijn:

Afbeeldingslocatie: https://www.techpowerup.com/img/pvCDiVwFGx3VUKpX.jpg

NVIDIA "Ada Lovelace" Streaming Multiprocessor Counts Surface

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Vraag me af of we echt iets op zouden schieten met open source drivers :?

NVIDIA Data-breach: Hackers Demand GeForce Drivers be Made Open-Source


Afbeeldingslocatie: https://www.techpowerup.com/img/ErpJa1oo8ZSqeES5.jpg

[ Voor 24% gewijzigd door Help!!!! op 02-03-2022 10:37 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Help!!!! schreef op woensdag 2 maart 2022 @ 10:35:
Vraag me af of we echt iets op zouden schieten met open source drivers :?
Op Linux wel ;)

En misschien kan er dan ook iemand eens kijken waarom Nvidia DP nog steeds zo moeilijk vindt :+

[ Voor 19% gewijzigd door Werelds op 02-03-2022 14:06 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Ik heb me dat al vaker afgevraagd; gelekte source code, valt dat niet onder copyright van de maker? Want dan kan nVidia gewoon de ontwikkelaars aanklagen die open source nVidia drivers aanbieden.

Ik heb daar mijn twijfels over, want aan de andere kant, er Mario64 versies uitgebracht aan de hand van de gelekte sourcecode op een aantal platformen. En ik hoor weinig over rechtzaken.

[ Voor 5% gewijzigd door XanderDrake op 02-03-2022 15:13 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Ai, als ik geweten had van de GA103 (60 SM) had ik AD102, AD103 en AD104 misschien wel precies goed gegokt...

AD102 (12*12)
144 SM 12 MC 24 GB 4090 Ti (y) , 384-bit

AD104 (7*12) = GA102 refresh 5nm, -4MC
84 SM 8 MC 8GB 4070 Ti (y) , 256-bit

AD106 (6*8) = GA104 refresh 5nm, -2/-4 MC
48 SM 6 MC 6 GB 4060 Mob :-( 60SM , 192-bit (y)

https://gathering.tweakers.net/forum/view_message/70236326


Grote L2 cache trouwens van nVidia: toch een beetje infinity cache à la AMD:

https://videocardz.com/ne...vidias-own-infinity-cache

van 2-6 MB naar 32-96 MB (!)

[ Voor 11% gewijzigd door sunsmountain op 02-03-2022 23:02 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA GeForce "Ada Lovelace" Memory Bus-width Info Leaked

Afbeeldingslocatie: https://www.techpowerup.com/img/xaa9tCOsU631FY4L.jpg

[ Voor 50% gewijzigd door Help!!!! op 03-03-2022 09:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Simbob
  • Registratie: December 2009
  • Niet online
Toch maar even wachten op de 4000 serie?
Of zou dat niet zoveel uit maken met de huidige 3000 serie?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Simbob schreef op donderdag 3 maart 2022 @ 10:04:
Toch maar even wachten op de 4000 serie?
Of zou dat niet zoveel uit maken met de huidige 3000 serie?
Deze generatie is waarschijnlijk al verloren. Verder ga er gerust vanuit dat AD102 bijna onbetaalbaar gaat worden. AD103 kan vervolgens alsnog rond RTX3090 niveau of iets beter uitkomen, met betere RT. Ik weet het wel. ;)


Maar nu het gelekt is dat het inderdaad een 144SM chip is voor AD102, tja dan hebben al die leakers waarschijnlijk ook gelijk over het enorme verbruik van deze chip. Makkelijk 400W+ is waar je op mag rekenen.

Vervolgens gaat de combinatie van formaat, verbruik en de overstap naar TSMC N5, de kosten van deze chips ook enorm doen laten oplopen. Ook tekenend is het enorme verschil in specificatie tussen aan de ene kant AD102 en aan de andere kant AD103 en lager. Net zoals met Navi 31 kan je denk ik nu al rekenen op een echte halo product aanpak, inclusief prijs. Voor veel mensen gaat dit waarschijnlijk ver uit de markt geprijsd worden en moet je voor je traditionele high end segment, waarschijnlijk naar AD103 of Navi 32 kijken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Simbob
  • Registratie: December 2009
  • Niet online
Als ik de leaks bekijk zie ik enorme verschillen in cuda cores en L2 cache.
Dan vraag ik af of de 3000 serie niet een zoethoudertje is geweest. Misschien te snel gereleased?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Simbob schreef op donderdag 3 maart 2022 @ 12:00:
Als ik de leaks bekijk zie ik enorme verschillen in cuda cores en L2 cache.
Dan vraag ik af of de 3000 serie niet een zoethoudertje is geweest. Misschien te snel gereleased?
Op die manier was Pascal ook een zoethoudertje. Immers dezelfde architectuur als Maxwell. En Turing ook want geen grote prestatieverbeteringen. ;)
Nvidia bouwt gewoon voort op hun bestaande architectuur. En voor zover we nu weten, is Ada Lovelace gewoon de volgende stap hierin.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Simbob schreef op donderdag 3 maart 2022 @ 10:04:
Toch maar even wachten op de 4000 serie?
Of zou dat niet zoveel uit maken met de huidige 3000 serie?
Ik verwacht meer geheugen, veel meer cache (waardoor de beperkte bandbreedte van de memory bus minder problematisch is, afgekeken van de Infinity Cache van AMD), meer cores en veel zuiniger voor dezelfde prestatie (5 nm). Ik vindt de huidige hoeveelheid geheugen vrij laag, dus lijkt de 3000 serie niet zo toekomstvast.

De verwachte voordelen van Lovelace komen nog bovenop de verwachte prijsdalingen door meer productiecapaciteit, concurrentie van Intel, de introductie van RDNA 3 en de merge van Ethereum (om zo over te gaan naar proof of stake).

Dus ik ga zeker wachten, al heb ik de 'luxe*' van een 1660 S, wat een best redelijk kaartje is. Uiteindelijk hangt het er ook vanaf wat je nu hebt en hoe zwaar het voor je weegt om nu iets snellers te hebben dan eind 2022.

* Dankzij de crisis is dit opeens een vrij luxe kaart.

PS. Naar verluid gaat Nvidia wel veel zwaarder geschut inzetten aan de bovenkant van hun range, met kaarten die extreem veel cores hebben en heel veel stroom gebruiken. Ik verwacht daar dan ook hogere prijzen voor dan de prijzen van de toppers van eerdere generaties. Maar die hoef je natuurlijk niet te kopen. Ik hoop zelf op een redelijk geprijsde 4060 of 4070.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Simbob
  • Registratie: December 2009
  • Niet online
Ludewig schreef op vrijdag 4 maart 2022 @ 17:13:
[...]


Ik verwacht meer geheugen, veel meer cache (waardoor de beperkte bandbreedte van de memory bus minder problematisch is, afgekeken van de Infinity Cache van AMD), meer cores en veel zuiniger voor dezelfde prestatie (5 nm). Ik vindt de huidige hoeveelheid geheugen vrij laag, dus lijkt de 3000 serie niet zo toekomstvast.

De verwachte voordelen van Lovelace komen nog bovenop de verwachte prijsdalingen door meer productiecapaciteit, concurrentie van Intel, de introductie van RDNA 3 en de merge van Ethereum (om zo over te gaan naar proof of stake).

Dus ik ga zeker wachten, al heb ik de luxe van een 1660 S, wat een best redelijk kaartje is. Uiteindelijk hangt het er ook vanaf wat je nu hebt en hoe zwaar het voor je weegt om nu iets snellers te hebben dan eind 2022.

PS. Naar verluid gaat Nvidia wel veel zwaarder geschut inzetten aan de bovenkant van hun range, met kaarten die extreem veel cores hebben en heel veel stroom gebruiken. Ik verwacht daar dan ook hogere prijzen voor dan de prijzen van de toppers van eerdere generaties. Maar die hoef je natuurlijk niet te kopen. Ik hoop zelf op een redelijk geprijsde 4060 of 4070.
Bedankt voor je uitleg.
Ik heb een 2060 super en een Tuf 3070 werkende, maar voor de simrig zoek een vervanger van de 3070 die naar een andere pc is verhuisd.
Maar als ik de info zo lees wacht ik liever tor het najaar.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Simbob schreef op vrijdag 4 maart 2022 @ 17:17:
Bedankt voor je uitleg.
Ik heb een 2060 super en een Tuf 3070 werkende, maar voor de simrig zoek een vervanger van de 3070 die naar een andere pc is verhuisd.
Maar als ik de info zo lees wacht ik liever tor het najaar.
Ik wil zelf erg graag gaan simmen in VR, maar mijn kaart kan dat toch niet echt aan. Ik vermaak me voorlopig wel op een andere manier.

Bij een plat scherm is mijn ervaring dat de snelheid van de kaart bij simmen veel minder kritisch is. Het is al snel speelbaar, op lagere kwaliteit/FPS. Al heeft iedereen een andere definitie van 'speelbaar'.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Simbob
  • Registratie: December 2009
  • Niet online
Ludewig schreef op vrijdag 4 maart 2022 @ 17:27:
[...]


Ik wil zelf erg graag gaan simmen in VR, maar mijn kaart kan dat toch niet echt aan. Ik vermaak me voorlopig wel op een andere manier.

Bij een plat scherm is mijn ervaring dat de snelheid van de kaart bij simmen veel minder kritisch is. Het is al snel speelbaar, op lagere kwaliteit/FPS. Al heeft iedereen een andere definitie van 'speelbaar'.
Bij deze aankoop wil ik graag wat meer futureproof zijn dan de eerdere aankopen. Met deze prijzen haal ik niet jaarlijks een nieuwe kaart.
Volgend jaar zal Assetto Corsa 2 uitkomen en die wil ik graag met alle toetsers en bellen spelen op mijn 49 inch superwidesecreen.

Tot het najaar maar even niet simmen :O

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Simbob schreef op vrijdag 4 maart 2022 @ 17:34:
Bij deze aankoop wil ik graag wat meer futureproof zijn dan de eerdere aankopen. Met deze prijzen haal ik niet jaarlijks een nieuwe kaart.
Ik zie mensen redeneren dat ze juist meer moeten uitgeven aan een videokaart om zo langer er mee te kunnen doen, maar dat is alleen een goede strategie als je denkt dat de prijzen gaan stijgen in de toekomst. Ik verwacht wel dat de prijzen permanent hoger zullen blijven dan voor de crisis voor een kaart in hetzelfde segment, maar toch substantieel lager dan nu. De vraag is vooral hoe snel de prijzen omlaag gaan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Aorus NL gaat trouwens maandag de prijzen flink omlaag gooien (Gigabyte dus). Ze zeggen dat ze prijsleider gaan worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op vrijdag 4 maart 2022 @ 17:13:
[...]


Ik verwacht meer geheugen, veel meer cache (waardoor de beperkte bandbreedte van de memory bus minder problematisch is, afgekeken van de Infinity Cache van AMD), meer cores en veel zuiniger voor dezelfde prestatie (5 nm). Ik vindt de huidige hoeveelheid geheugen vrij laag, dus lijkt de 3000 serie niet zo toekomstvast.

De verwachte voordelen van Lovelace komen nog bovenop de verwachte prijsdalingen door meer productiecapaciteit, concurrentie van Intel, de introductie van RDNA 3 en de merge van Ethereum (om zo over te gaan naar proof of stake).
Er is een probleem hiermee. Een N5 wafer bij TSMC kost naar schatting rond de $17.000. Ter vergelijking, een N7 wafer zou rond de $9.000 zitten en Samsung naar 10/8nm is waarschijnlijk nog een stuk goedkoper dan dit. En iets oudere nodes zoals 14/16nm zaten rond de $4000 dollar per wafer. De prijstoename de afgelopen vijf jaar is gigantisch geweest omdat transistoren veel complexer zijn geworden en de dichtheid op een wafer ook zo enorm is opgelopen. Dat maakt productie veel complexer en vraagt ook om veel duurdere machines. En met N5 kan je niet meer om EUV heen. En hier heeft EUV het nadeel dat het beduidend langzamer is dan DUV in wafer doorvoer. Je hebt dus veel meer machines nodig voor dezelfde productieaantallen en die nemen meer ruimte in. Dat maakt je faciliteit weer duurder, meer personeel nodig etc. Het is de volgende prijs escalatie om überhaupt nog naar een kleinere node te kunnen gaan.

Die prijzen evolueren vervolgens ook. N5 zou normaal gesproken iets goedkoper zijn worden naarmate de node volwassener aan het worden is en TSMC meer van haar investeringskosten kan afschrijven. Dat is in de regel wat Apple financiert en in ruil hiervoor krijgen ze ook grote of exclusieve toegang tot de nieuwste nodes. Maar er lijken problemen te zijn met N3, waardoor veel van de capaciteit voor N5 wafers alsnog bij Apple kan blijven. En dan krijg je krapte op die markt en hogere kosten. Daarboven komt ook nog eens AMD die ook over wil gaan naar N5 voor Zen 4 en Qualcomm met hun ARM SoC's. Fabrikanten betalen hun wafer allocatie vooraf aan TSMC en krijgen hier blijkbaar ook een gegarandeerde allocatie, maar de kosten voor die allocatie kunnen zomaar zijn opgelopen en dat zal doorberekend worden.
Zie: https://www.tomshardware....5nm-is-nearly-dollar17000

Er gaat simpelweg geen prijsverlaging optreden omdat de kosten fors zijn toegenomen en inmiddels ruimschoots bewezen is dat mensen meer willen betalen. Nvidia heeft hier jaren naartoe gewerkt en heeft vanaf Pascal, de markt steeds verder geconditioneerd om hogere prijzen te tolereren. En inmiddels doet AMD hier allang aan mee. Die gaan bij gelijke prestaties misschien $50 dollar onder de prijs zitten zoals ze deze generatie hebben gedaan. En als je kijkt wat AMD volgens geruchten lijkt te plannen, dan zie ik daar weinig hoopgevends uitkomen. Want het zou goed kunnen dat Navi 31 (ruim) over AD102 gaat presteren en Navi 32 over AD103. En dan valt eigenlijk elke prijsdruk weg. Op die manier kan Nvidia namelijk een prijspunt kiezen omdat Ada Lovelace eerder verwacht word en AMD gaat er dan gewoon wat overheen.

Ook zou Etherium echt al bijna naar PoS gaan, sinds 2017...
Dat gaat gewoon niet gebeuren omdat in deze zogenaamd "decentrale" munteenheid, er absoluut mensen zijn met enorme belangen die dit soort zaken controleren. En dat heeft ook gevolgen voor de reguliere videokaarten verkoop aan gamers. De gemiddelde gamer hun enige hoop op meer comfortabele prijzen was dat crypto zou blijven zakken en uiteindelijk weer zou crashen zodat de markt overspoeld zou raken met oude RTX3000 en RX6000 serie videokaarten. En dat lijkt vooralsnog wel vervlogen omdat iemand in het Kremlin zo nodig oorlogje wou spelen en in reactie de Ruslands economie op het moment financieel vernietigd word. En daarom ging crypto weer omhoog als een van de weinige middelen die nog internationaal te gebruiken zijn van en naar Rusland.


Het meer midrange segment is misschien wat hoopvoller. Nvidia lijkt wederom te kiezen voor meerdere chips met kleinere verschillen om marges te maximaliseren. Intel gaat hier instappen met Arc op N7 en voor AMD lijkt er maar een meer midrange chip te komen in Navi 33 op N6 (N7 + EUV). Die lijkt alleen wel meteen gericht te zijn op RTX6900XT niveau. Daaronder, tja misschien rebranden ze Navi 22 voor een merkbaar lagere prijs dan de RX6700XT nu kost.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zaterdag 5 maart 2022 @ 12:09:
Er gaat simpelweg geen prijsverlaging optreden omdat de kosten fors zijn toegenomen en inmiddels ruimschoots bewezen is dat mensen meer willen betalen.
Hogere productiekosten betekenen natuurlijk hogere prijzen, maar aan de hoge prijzen voor oude kaarten kun je zien dat het niet de hogere kosten zijn van de N5/N7 wafers die zorgen voor de huidige extreem hoge prijzen. De 1660 S kost nog steeds bijna twee keer zoveel als ik ervoor betaald heb, en die maken ze niet plotseling met een ander productieproces.

Sowieso bestaat de productie van chips uit allerlei stappen, dus ook als 1 of 2 stappen 20-30% duurder worden, dan betekent dat niet dat de prijs van de chip met 20-30% omhoog hoeft, omdat andere stappen in het productieproces niet duurder worden. Een van de problemen nu is juist dat de packaging stap veel duurder is geworden door een gebrek aan ABF substraat. Deze stap komt pas na het produceren van de chip en gaat om het verbinden van de minieme connecties van de chip zelf met de pins, die veel groter zijn en veel robuuster moeten zijn. Dit is een kunst op zich.

Je begrijpt marktwerking ook niet, volgens mij, want in een competitieve markt concurreren fabrikanten met elkaar. Als een fabrikant teveel geld vraagt voor een product, dan bouwt de andere fabrikant er een fabriek bij en nemen ze een groot deel van de markt over. Dit werkt nu niet goed omdat er niet meer geproduceerd kan worden.

Maar de toekomstige situatie lijkt qua marktwerking juist beter te worden, want AMD heeft een tijdje terug besloten om stevig te investeren in R&D. Intel heeft hetzelfde besloten en wil ook de high-end GPU markt
betreden.
Want het zou goed kunnen dat Navi 31 (ruim) over AD102 gaat presteren en Navi 32 over AD103. En dan valt eigenlijk elke prijsdruk weg.
Aan de top van de markt is er altijd relatief weinig prijsdruk, omdat er mensen zijn die per se het beste willen hebben en een erg hoog budget hebben. De prijs is dan vooral gebaseerd op hoeveel van zulke mensen er zijn en hoeveel productie er is. De prijs/prestatie van een 3090 is extreem veel slechter dan die van een 3060.

Dit is echter niet zo relevant voor de xx60 en xx70 markt, waar de meer prijsbewuste consumenten kopen. Nogmaals, aan de hoge prijzen van zelfs de 1660 S kun je zien dat er marktbreed een probleem is en het niet komt door de top van de markt.
Ook zou Etherium echt al bijna naar PoS gaan, sinds 2017...
Dat gaat gewoon niet gebeuren omdat in deze zogenaamd "decentrale" munteenheid, er absoluut mensen zijn met enorme belangen die dit soort zaken controleren.
Nu verwar je de aankondiging van de overstap naar PoS met een belofte dat men dat dan direct zou doen. Men heeft in 2017 belooft naar PoS te gaan, maar natuurlijk niet dat dit ook in 2017 zou gebeuren.

De overstap gaat in fases en de eerste fase is inderdaad vertraagd geweest, waarbij dit was gepland in 2019, maar naar december 2020 ging. De 'laatste' stap (niet echt de laatste, maar de stap waarna mining niet meer uit kan) is een paar keer uitgesteld van augustus vorig jaar naar juni van dit jaar. Zelfs als dit nog iets uitgesteld wordt en net als de eerste stap in totaal een jaar vertraagd wordt, dan gebeurd het alsnog dit jaar.

Verder geloof je blijkbaar in een complottheorie die niet gebaseerd lijkt op enig echt bewijs.
En daarom ging crypto weer omhoog als een van de weinige middelen die nog internationaal te gebruiken zijn van en naar Rusland.
Het idee van Proof of Stake is juist dat de prijs vrijwel niet meer uitmaakt, omdat er gewoon geen geld meer kan worden verdiend met minen. Rusland kan zich dan helemaal scheel kopen aan crypto, maar dan blijft het verliesgevend om een miningfarm neer te zetten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:06

XanderDrake

Build the future!

Weet iemand of je DLSS en AMD FSR kan combineren in één renderflow? Of bijt het elkaar?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
DaniëlWW2 schreef op zaterdag 5 maart 2022 @ 12:09:
Intel gaat hier instappen met Arc op N7
Ik meende dat Intel ARC had bevestigd op N6? zie o.a. nieuws: Intel laat gpu's voor Arc-videokaarten maken op 6nm-node van TSMC

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op zondag 6 maart 2022 @ 13:11:
Weet iemand of je DLSS en AMD FSR kan combineren in één renderflow? Of bijt het elkaar?
Je zou dan met DLSS naar FSR's basis resolutie moeten renderen en vervolgens de PP van DLSS er uit gooien ofzo.

Je krijgt dan zoiets:
- Scene @ 1080p
- DLSS' upsampling van 1080p naar 1440p
- FSR's upsampling + sharpening van 1440p naar 2160p, PP van DLSS er uit gooien

In theorie kan het wel, maar het bijt elkaar wel en je zit dan twee keer te upsamplen, wat de beeldkwaliteit niet ten goede komt. Wellicht dat je iets tussen 1440p en 2160p zou kunnen kiezen maar ik betwijfel of je dan iets wint.

Andersom (FSR van 1080p naar 1440p en dan met DLSS naar 2160p) zou in theorie ook kunnen, maar dan zit je weer met het probleem dat het neurale net van DLSS wellicht niet overweg kan met enige artifacts.

En het kost uiteraard altijd meer tijd.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

DaniëlWW2 schreef op zaterdag 5 maart 2022 @ 12:09:
Het is de volgende prijs escalatie om überhaupt nog naar een kleinere node te kunnen gaan.
Als ik wat verder lees, zie ik ook het volgende:
But even at current costs it makes a great sense for makers of highly-complex chips to use TSMC’s leading-edge process because of its high transistor density as well as performance. Based on the numbers provided, it costs $238 to make a 610mm2 chip using N5 and $233 to produce the same chip using N7. At 16/12nm node the same processor will be considerably larger and will cost $331 to manufacture.
Ja, de kosten nemen exponentieel toe maar de transistordichtheid ook. Per transistor betaal je dus helemaal niet meer, ook al exploderen de kosten per wafer.

Ja, vroeger namen de kosten veel minder toe voor dezelfde toename in transistordichtheid en waren nieuwe nodes dus veel vanzelfsprekender. Ook was de technische complexiteit minder waardoor de transitie naar nieuwe nodes sneller ging. Maar op de lange termijn lijkt er dus niet echt een reden te zijn voor een chipbakker van high-performance chips om niet naar N5 te gaan.

Heeft geen speciale krachten en is daar erg boos over.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
bwerg schreef op maandag 7 maart 2022 @ 08:33:
Ja, vroeger namen de kosten veel minder toe voor dezelfde toename in transistordichtheid en waren nieuwe nodes dus veel vanzelfsprekender.
Er zijn dan zo'n beetje drie opties:
  1. Men blijft bij ongeveer hetzelfde budget en koopt dus minder vaak iets nieuws en/of men koopt chips die verder af liggen van de maximale mogelijkheden. Dit zorgt dan ook voor minder afzetmarkt voor games die meer eisen, betere monitoren, veel betere VR, etc., waardoor je daar ook een vertraging kan verwachten.
  2. De budgetten gaan omhoog, waarbij men bereid is meer te betalen voor eenzelfde toename in snelheid.
  3. Een sterkere opsplitsing in de markt, doordat 1 gebeurt richting de onderkant van de markt en 2 richting de bovenkant.
Ik denk dat 3 het gevolg is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Simbob
  • Registratie: December 2009
  • Niet online
https://wccftech.com/nvid...ble-gddr7-memory-support/

Nieuwe info over de 4000 serie, zijn wel verwachtingen, geen echte feiten.

Afbeeldingslocatie: https://tweakers.net/i/TMQiy7sIbJcGlBMk2YMVAoSa_yM=/800x/filters:strip_exif()/f/image/p5a7WJwjDwtj5hiCI14HrNcU.png?f=fotoalbum_large

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 19:09
Simbob schreef op dinsdag 8 maart 2022 @ 09:01:
https://wccftech.com/nvid...ble-gddr7-memory-support/

Nieuwe info over de 4000 serie, zijn wel verwachtingen, geen echte feiten.

[Afbeelding]
Zou toch verwachten/hopen dat men efficiëntie hoger in het vaandel zou hebben staan.

Wie goed doet, die goed ontmoet.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Simbob schreef op dinsdag 8 maart 2022 @ 09:01:
https://wccftech.com/nvid...ble-gddr7-memory-support/

Nieuwe info over de 4000 serie, zijn wel verwachtingen, geen echte feiten.

[Afbeelding]
GDDR7 ondersteuning |:(

GDDR7 is nog jaren van ons verwijderd, tegen die tijd wordt deze chip niet meer gebakken. Samsung heeft alleen geplaagd met wat doelstellingen, maar eerst moet de spec vastgelegd worden. Daarna duurt het sowieso nog wel een maand of 6 voordat massa productie begint, wat betekent dat het daarna nog eens 6 maanden duurt voordat er producten op de markt komen met GDDR7.

De GDDR5 spec stamt uit 2007. Dat is bijna 15 jaar geleden. Pas een jaar later kwam AMD met de eerste GDDR5 producten. Voor Nvidia kwam dat eigenlijk pas met Fermi in 2010. GDDR5X is een signaling tweak bovenop GDDR5, dus dat ging rapper. GDDR6 werd al "aangekondigd" in 2016, maar de spec was pas in 2017 klaar en in 2018 ging het in massaproductie.

GDDR7 is nog niet eens "aangekondigd" - de aanhalingstekens zijn omdat de "aankondigingen" van GDDR5 en 6 ook niet meer waren dan "we hopen over een jaar of twee klaar te zijn". Met GDDR5 en GDDR6 gaven Micron, SK Hynix en Samsung al voordat de spec definitief was aan wanneer ze met massaproductie zouden beginnen. Dat hebben ze nu nog niet gedaan. Samsung heeft slechts aangegeven wat het doel is en dat GDDR7 op de roadmap staat. Meer niet. En dat doel is relatief voorspelbaar.

PCIe 7 gaat 128 GT/s doen. Zo, heb ik dat ook even aangekondigd ;)

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De 3080 en 3090 gebruiken GDDR6X, wat dus eigenlijk net nieuw is. Ik verwacht dan ook dat de 40x0 serie dat ook gaat gebruiken (en vast niet eens over de hele range).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zaterdag 5 maart 2022 @ 20:17:
[...]


Hogere productiekosten betekenen natuurlijk hogere prijzen, maar aan de hoge prijzen voor oude kaarten kun je zien dat het niet de hogere kosten zijn van de N5/N7 wafers die zorgen voor de huidige extreem hoge prijzen. De 1660 S kost nog steeds bijna twee keer zoveel als ik ervoor betaald heb, en die maken ze niet plotseling met een ander productieproces.
En dat is marktwerking gezien de enorme vraag en tekorten. Het heeft niks met maken met waferkosten aangezien een 16/12nm wafer, een paar duizend dollar koste in een markt zonder tekorten en constante productieverstoring. We hebben het hier al over minstens het viervoudige aan waferkosten, voordat die enorme productieverstoringen begonnen.
Sowieso bestaat de productie van chips uit allerlei stappen, dus ook als 1 of 2 stappen 20-30% duurder worden, dan betekent dat niet dat de prijs van de chip met 20-30% omhoog hoeft, omdat andere stappen in het productieproces niet duurder worden. Een van de problemen nu is juist dat de packaging stap veel duurder is geworden door een gebrek aan ABF substraat. Deze stap komt pas na het produceren van de chip en gaat om het verbinden van de minieme connecties van de chip zelf met de pins, die veel groter zijn en veel robuuster moeten zijn. Dit is een kunst op zich.
Daarom quote ik dus de kosten per wafer. Die verdeel je door het aantal chips die je eruit kan halen en vervolgens komt er nog wat verwerking bij voordat die GPU's worden verkocht aan de partners. En juist die waferkosten zullen voor Nvidia nog relatief veel harder gaan stijgen dan AMD omdat Nvidia op een oudere node zit.
Je begrijpt marktwerking ook niet, volgens mij, want in een competitieve markt concurreren fabrikanten met elkaar. Als een fabrikant teveel geld vraagt voor een product, dan bouwt de andere fabrikant er een fabriek bij en nemen ze een groot deel van de markt over. Dit werkt nu niet goed omdat er niet meer geproduceerd kan worden.
Er is geen competitieve markt. Dit is een duopolie waarin een partij veel sterker is en al jaren kan vragen wat ze willen en mensen kopen het gewoon. De ander heeft het opgeven en vraagt ook gewoon een fors bedrag.
bwerg schreef op maandag 7 maart 2022 @ 08:33:
[...]

Als ik wat verder lees, zie ik ook het volgende:

[...]

Ja, de kosten nemen exponentieel toe maar de transistordichtheid ook. Per transistor betaal je dus helemaal niet meer, ook al exploderen de kosten per wafer.

Ja, vroeger namen de kosten veel minder toe voor dezelfde toename in transistordichtheid en waren nieuwe nodes dus veel vanzelfsprekender. Ook was de technische complexiteit minder waardoor de transitie naar nieuwe nodes sneller ging. Maar op de lange termijn lijkt er dus niet echt een reden te zijn voor een chipbakker van high-performance chips om niet naar N5 te gaan.
Het probleem is alleen dat prestatietoename eigenlijk vooral uit aantallen transistoren komt. En waar een nieuwe node voor de overstap naar finFET, meestal in de regio van honderden dollars duurder per wafer zat, is het na die overstap gaan versnellen en kijken we nu naar duizenden per generatie. Het hele ratio van oppervlakteverkleining vs prestatiewinst is gewoon verdwenen. Waar het vroeger normaal was dat je met een nieuwe node, een voormalig high end prestatiedoel nu als midrange kon verkopen met een meer kostenefficiëntie chip, kan dat nu gewoon niet meer. In deze situatie kan een nieuwe midrange chip met vergelijkbaar prestatiedoel als high end van de vorige generatie, nu een vergelijkbaar bedrag kosten om te produceren als die high end chip van de vorige generatie.

Je lijkt nu naar een situatie te kijken dat een chip op N5, bijna helft kleiner moet zijn in oppervlakte om een vergelijkbare prijs per wafer te bereiken dan een chip op N7. Dat is gewoon te veel gevraagd als je dezelfde prestatiedoelen wil behouden en dat prestatiedoel wil terugduwen naar mid range. Want de overstap van N7 naar N5 biedt je gewoon deze mogelijkheid niet zonder radicale verbeteringen in architectuur. En de stap van Samsung 8LPP naar TSMC N5 voor Nvidia, zal waarschijnlijk nog veel kostbaarder zijn.

Komt bij dat dankzij die hackers het nu wel duidelijk is dat Nvidia heel wat L2 cache gaat toevoegen aan hun ontwerpen. Dat gaat nog eens extra veel oppervlakte innemen. Het is prestatietechnisch waarschijnlijk een stuk beter dan meer GDDR6X toevoegen, maar het heeft ook zo zijn prijs. En vooralsnog heb ik niks in configuratie gezien dat doet wijzen op een radicale verandering ten opzichte van de Maxwell/Pascal/Turing/Ampere directie die Nvidia heeft ingezet.

Ik zie vooralsnog gewoon geen enkele reden tot optimisme. Het enige dat misschien zou helpen is als Nvidia hun midrange en low end op TSMC N7/N6 gaat produceren net zoals AMD van plan lijkt te zijn. Het probleem is dat die industrie langzaam naar het einde van silicon gaat en het steeds moeilijker en moeilijker zal worden om deze chips te produceren. En dat gaat doorberekend worden aan ons. En de consumenten hebben de afgelopen jaren gedemonteerd ook meer te willen betalen. :/
Werelds schreef op dinsdag 8 maart 2022 @ 12:01:
[...]

GDDR7 ondersteuning |:(

GDDR7 is nog jaren van ons verwijderd, tegen die tijd wordt deze chip niet meer gebakken. Samsung heeft alleen geplaagd met wat doelstellingen, maar eerst moet de spec vastgelegd worden. Daarna duurt het sowieso nog wel een maand of 6 voordat massa productie begint, wat betekent dat het daarna nog eens 6 maanden duurt voordat er producten op de markt komen met GDDR7.

De GDDR5 spec stamt uit 2007. Dat is bijna 15 jaar geleden. Pas een jaar later kwam AMD met de eerste GDDR5 producten. Voor Nvidia kwam dat eigenlijk pas met Fermi in 2010. GDDR5X is een signaling tweak bovenop GDDR5, dus dat ging rapper. GDDR6 werd al "aangekondigd" in 2016, maar de spec was pas in 2017 klaar en in 2018 ging het in massaproductie.

GDDR7 is nog niet eens "aangekondigd" - de aanhalingstekens zijn omdat de "aankondigingen" van GDDR5 en 6 ook niet meer waren dan "we hopen over een jaar of twee klaar te zijn". Met GDDR5 en GDDR6 gaven Micron, SK Hynix en Samsung al voordat de spec definitief was aan wanneer ze met massaproductie zouden beginnen. Dat hebben ze nu nog niet gedaan. Samsung heeft slechts aangegeven wat het doel is en dat GDDR7 op de roadmap staat. Meer niet. En dat doel is relatief voorspelbaar.

PCIe 7 gaat 128 GT/s doen. Zo, heb ik dat ook even aangekondigd ;)
Weer een reden waarom ik dus niks van MILD geloof. Immers was het dezelfde die ook constant liep te roepen dat Nvidia vrij snel na de introductie van Ampere op Samsung 8LPP, wel naar TSMC N7 zou gaan. Ook was het MILD die riep dat de tekorten echt wel op zouden houden hoor, binnenkort. :z
Hebben we ook nog MILD die maar bleef propageren dat Navi 21 een 64CU chip was, terwijl als je ook maar een beetje begrijpt hoe een RDNA1/2 WGP is opgebouwd, je beseft dat dit helemaal niet kan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
DaniëlWW2 schreef op dinsdag 8 maart 2022 @ 13:40:
[...]

Er is geen competitieve markt. Dit is een duopolie waarin een partij veel sterker is en al jaren kan vragen wat ze willen en mensen kopen het gewoon. De ander heeft het opgeven en vraagt ook gewoon een fors bedrag.
Er is wel een markt, maar de competitie vindt plaats op een langere tijdschaal. Het kost tijd voordat de extra EUV productie capaciteit van Intel online komt versus TSMC. nVidia is beter in marketing, maar vergeet niet dat AMD evenveel videokaarten als nVidia verkoopt als je PS5 en Xbox X mee telt. De duopolie lijkt in balans en wordt straks een tripolie.
DaniëlWW2 schreef op dinsdag 8 maart 2022 @ 13:40:
In deze situatie kan een nieuwe midrange chip met vergelijkbaar prestatiedoel als high end van de vorige generatie, nu een vergelijkbaar bedrag kosten om te produceren als die high end chip van de vorige generatie.
Zelfs als de wafer prijs lineair de verkoop prijs zou verhogen, dan zou de vorige node prijs competitief worden met de nieuwe node. Prijzen per prestatie gaan dan niet omhoog, maar in hetzelfde tempo langzaam omlaag. In plaats van met grotere sprongen omlaag, zoals we gewend zijn.

Niet in de huidige videokaart markt, maar dat komt vooral door crypto en eigenlijk door gratis geld. Niet door een enorme vraag of enorm tekort, ga maar na:
  • Vraag naar videokaarten neemt al jarenlang af sinds 2007, van 20 miljoen verkocht per kwartaal naar 10 miljoen. De pandemie heeft dat misschien tijdelijk 10% verhoogd, maar de meeste nieuwe gamers gaan niet voor desktop zelfbouw. Die gaan voor consoles en tablets, of ze laten een gamer vriendje een systeem samen stellen.
  • Aanbod is ook maar een beetje omhoog geschroefd, omdat de pandemie iedereen heeft verrast en zo snel kan productie capaciteit niet omhoog. Logistiek zijn er vertragingen, maar het aanbod op dit moment is hetzelfde als in 2019 +10%.
Dat je het niet kan kopen voor de prijs die je wilt, heeft puur te maken met de print geld knop. En dat heeft te maken met de lage rente, die een paar maanden geleden is aangekondigd omhoog te gaan, met direct een enorme val van bitcoin en etherium, hoe zou dat nou komen? Plus de merge die toch echt eindelijk 2022 lijkt te gaan gebeuren, maar dat is secondair. Gratis geld zal de prijs van bitcoin omhoog drijven, en de prijs van etherium is gekoppeld aan die van bitcoin. Miners zijn aan het verkopen, webshops hebben voorraad, maar zijn nog hebberig en houden de prijzen hoog zo lang ze kunnen.
DaniëlWW2 schreef op dinsdag 8 maart 2022 @ 13:40:

Ik zie vooralsnog gewoon geen enkele reden tot optimisme. Het enige dat misschien zou helpen is als Nvidia hun midrange en low end op TSMC N7/N6 gaat produceren net zoals AMD van plan lijkt te zijn. Het probleem is dat die industrie langzaam naar het einde van silicon gaat en het steeds moeilijker en moeilijker zal worden om deze chips te produceren. En dat gaat doorberekend worden aan ons. En de consumenten hebben de afgelopen jaren gedemonteerd ook meer te willen betalen. :/
Ik denk dat vooral miners hebben gedemonstreerd gemiddeld meer te willen betalen. Een kleine groep consumenten (rijke gamers) hebben dat al laten zien met de nVidia Titan X. Of de 2080 Ti, zo je wilt. Maar die groep is vrij klein en vertegenwoordigt niet de grotere groep consumenten (puber/studenten gamers), die niet bereid zijn de hoofdprijs voor een videokaart te betalen.

Wat betreft het gebruik van oudere nodes, als het prijs competitief is, zullen ze het doen, maar vooralsnog is ook Navi33 aangekondigd op N6. Een logisch vervolg van N7 lijkt me. En de prijs per wafer zal zakken of gelijk blijven dankzij Intel's massale investeringen op dit moment, wereldwijd.

[...]
DaniëlWW2 schreef op dinsdag 8 maart 2022 @ 13:40:
Weer een reden waarom ik dus niks van MILD geloof. Immers was het dezelfde die ook constant liep te roepen dat Nvidia vrij snel na de introductie van Ampere op Samsung 8LPP, wel naar TSMC N7 zou gaan. Ook was het MILD die riep dat de tekorten echt wel op zouden houden hoor, binnenkort. :z
Hebben we ook nog MILD die maar bleef propageren dat Navi 21 een 64CU chip was, terwijl als je ook maar een beetje begrijpt hoe een RDNA1/2 WGP is opgebouwd, je beseft dat dit helemaal niet kan.
Ja, ik vond z'n Intel afbeeldingen en previews van Alchemist wel redelijk nauwkeurig, maar dit is weer zo'n mis-stap die MLID zelf invult. In zijn RDNA2 en RTX30xx voorspellingen zat ook zoveel marge / bereik van specs, dat hij het niet mis kan hebben.

De gelekte info van nVidia zelf lijkt echter wel betrouwbaar, en een grote L2 cache kan ik alleen maar toejuichen. Zo leren nVidia ingenieurs van AMD ingenieurs, en met FSR2 leren AMD programmeurs van nVidia programmeurs. Elk zijn kracht.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Simbob schreef op donderdag 3 maart 2022 @ 10:04:
Toch maar even wachten op de 4000 serie?
Of zou dat niet zoveel uit maken met de huidige 3000 serie?
Op dit moment is wachten beter, omdat miners een flink aantal videokaarten aan het verkopen zijn dit jaar. Los van 3000 of 4000 series.

Van de huidige nVidia 3000 / AMD 6000 series en prijzen zou ik kopen, als ik zou moeten:
  • 6600 XT of een 3060 (500 euro), goede prestaties voor een relatief lage prijs, maar nog steeds duur als "instapmodel".
  • 6800 XT of een 3080 (1100 euro) of een 6900 XT (sealed, tweedehands) als je er een kan vinden.
Er valt me trouwens op dat de nVidia 3000 prijzen nu dichter bij de AMD 6000 prijzen liggen voor dezelfde prestaties, dan een maand geleden. Waarschijnlijk doordat miners vooral nVidia kaarten hebben gekocht vanwege de betere hashrate.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zaterdag 12 maart 2022 @ 14:23:
Waarschijnlijk doordat miners vooral nVidia kaarten hebben gekocht vanwege de betere hashrate.
Dat zag je heel duidelijk in de prijzen. De Nvidia kaarten hadden een hele grote prijsstijging (en nu ook een grotere daling), terwijl dat veel minder was voor de AMD kaarten, die veel stabieler zijn gebleven in de prijs. Bij de Nvidia kaarten zag je ook veel hogere prijzen voor kaarten die heel goed zijn in minen ten opzichte van kaarten waar je even goed mee kan gamen, maar minder goed mee kan minen.

De winst op minen is trouwens nu veel lager dan in het verleden, wat die sterke daling vermoedelijk verklaart. De prijs die ze willen betalen hangt af van de winst die ze kunnen maken.

Ik zie op mining kanalen nu steeds de vraag langskomen of het nog loont om te gaan minen, wat wel aangeeft dat er in elk geval veel twijfels bestaan onder de achterban.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason

Pagina: 1 ... 104 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.