• XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Paprika schreef op woensdag 14 oktober 2020 @ 11:48:
Die 20GB prijs is wel een zeer doordachte prijs zeg! Dat had echt iedereen kunnen roepen. Dat is 880~1039 euro. Dat die gast nog aandacht krijgt.
Ik zal ook een gokje wagen: de prijs komt tussen de 3080 10GB en 3090 24GB te liggen.

March of the Eagles


  • Paprika
  • Registratie: September 2007
  • Nu online
XWB schreef op woensdag 14 oktober 2020 @ 11:49:
[...]


Ik zal ook een gokje wagen: de prijs komt tussen de 3080 10GB en 3090 24GB te liggen.
Ik dacht boven de 3090. We zullen 't zien. :+

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 16:28

XanderDrake

Build the future!

Ja ik lees het nu op de frontpage.

Ook dus 2x zo populair dan de GTX 1080 aka Pascal.
Goed artikel verder, ook qua metrics wat webshops vermelden. Het hele artikel bevestigd op meerdere manieren dat de leveringsproblemen veelal komen door de grote vraag. Natuurlijk zou nVidia méér kunnen en moeten produceren, maar ik denk ook niet dat zij deze grote vraag hadden (kunnen?) voorzien.

Ik vind het dus te simplistisch om alleen maar nVidia te bashen, wat hier zo populair is om te doen. B)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 16:10
XanderDrake schreef op woensdag 14 oktober 2020 @ 12:54:
[...]

Ja ik lees het nu op de frontpage.

Ook dus 2x zo populair dan de GTX 1080 aka Pascal.
Goed artikel verder, ook qua metrics wat webshops vermelden. Het hele artikel bevestigd op meerdere manieren dat de leveringsproblemen veelal komen door de grote vraag. Natuurlijk zou nVidia méér kunnen en moeten produceren, maar ik denk ook niet dat zij deze grote vraag hadden (kunnen?) voorzien.

Ik vind het dus te simplistisch om alleen maar nVidia te bashen, wat hier zo populair is om te doen. B)
Nou ja ze doen alsof de kaart 2x populairder is dan de GTX1080. Als er echter ook twee maal zoveel users actief zijn in de pricewatch klopt dat natuurlijk gewoon niet :X

Daarbij, als je geen paperlaunch hebt besteld iedereen rustig een kaart en is die 2 weken later wel geleverd. Nu hebben mensen bijna een maand geleden een kaart besteld om 15:01 en die is nog steeds niet geleverd. Raad je de koekoek dat iedereen in de pricewatch op zoek gaat naar een 3080 die wél leverbaar is.

Daarbij was de 2000 serie gewoon héél teleurstellend. Als je de series analyseert was de 2000 serie gewoon de slechtste release in 15+ jaar en is de 3000 serie eigenlijk helemaal niet zo impressive. Ik vind het vooral opvallend hoe men het 350W gebruik niet als gigantisch minpunt ziet? Bij vorige generaties was 250W zo'n beetje de max en bij elke AMD serie werd er weer moeilijk gedaan over stroomverbruik (zie Vega, Fury, Hawaii). Komt Nvidia met een serie waarbij de RTX3080 Strix OC tot 450W (!!!) verbruikt en dan wordt het als klein minpuntje genoemd :+

1 ding weet ik wel, ik ga de mijne downvolten tot de 225-250W range en neem dat 3-5% prestatieverlies voor lief.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Santee schreef op woensdag 14 oktober 2020 @ 13:04:
[...]


Nou ja ze doen alsof de kaart 2x populairder is dan de GTX1080. Als er echter ook twee maal zoveel users actief zijn in de pricewatch klopt dat natuurlijk gewoon niet :X

Daarbij, als je geen paperlaunch hebt besteld iedereen rustig een kaart en is die 2 weken later wel geleverd. Nu hebben mensen bijna een maand geleden een kaart besteld om 15:01 en die is nog steeds niet geleverd. Raad je de koekoek dat iedereen in de pricewatch op zoek gaat naar een 3080 die wél leverbaar is.

Daarbij was de 2000 serie gewoon héél teleurstellend. Als je de series analyseert was de 2000 serie gewoon de slechtste release in 15+ jaar en is de 3000 serie eigenlijk helemaal niet zo impressive. Ik vind het vooral opvallend hoe men het 350W gebruik niet als gigantisch minpunt ziet? Bij vorige generaties was 250W zo'n beetje de max en bij elke AMD serie werd er weer moeilijk gedaan over stroomverbruik (zie Vega, Fury, Hawaii). Komt Nvidia met een serie waarbij de RTX3080 Strix OC tot 450W (!!!) verbruikt en dan wordt het als klein minpuntje genoemd :+

1 ding weet ik wel, ik ga de mijne downvolten tot de 225-250W range en neem dat 3-5% prestatieverlies voor lief.
Ik kan mij die zuinige Fermi kaarten gelukkig nog herinneren, die hadden maar een TDP van 250 Watt :+.

  • Paprika
  • Registratie: September 2007
  • Nu online
Santee schreef op woensdag 14 oktober 2020 @ 13:04:
[...]

Bij vorige generaties was 250W zo'n beetje de max en bij elke AMD serie werd er weer moeilijk gedaan over stroomverbruik (zie Vega, Fury, Hawaii). Komt Nvidia met een serie waarbij de RTX3080 Strix OC tot 450W (!!!) verbruikt en dan wordt het als klein minpuntje genoemd :+

1 ding weet ik wel, ik ga de mijne downvolten tot de 225-250W range en neem dat 3-5% prestatieverlies voor lief.
Er wordt altijd door kamp X gezegd dat iets nooit wordt gezegd over kamp Y en Y zegt precies hetzelfde over X. Fermi werd wel degelijk uitgelachen. Waarom? Omdat de HD5870 competitief was en een veel betere p/w leverde.
Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-gtx-480-fermi/images/perfwatt_2560.gif

Vega was laat en leverde eveneens matige p/w.
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-vega-64/images/perfwatt_2560_1440.png

De 3080 doet het niet slecht, althans niet voor wat er vandaag de dag beschikbaar is.
Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/performance-per-watt_3840-2160.png

Verder denk ik dat je het prestatieverlies onderschat om nog geen 250W te trekken. 300W is nog best te doen, maar voor 250W moet je wel wat meer inleveren dan 5%.

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 16:10
Paprika schreef op woensdag 14 oktober 2020 @ 16:23:
[...]

Er wordt altijd door kamp X gezegd dat iets nooit wordt gezegd over kamp Y en Y zegt precies hetzelfde over X. Fermi werd wel degelijk uitgelachen. Waarom? Omdat de HD5870 competitief was en een veel betere p/w leverde.
[Afbeelding]

Vega was laat en leverde eveneens matige p/w.
[Afbeelding]

De 3080 doet het niet slecht, althans niet voor wat er vandaag de dag beschikbaar is.
[Afbeelding]

Verder denk ik dat je het prestatieverlies onderschat om nog geen 250W te trekken. 300W is nog best te doen, maar voor 250W moet je wel wat meer inleveren dan 5%.
Ja in performance per watt, maar er lijkt mij ook een praktisch max te zitten aan wattage. Ik weet niet waar jij zit, maar in mijn game kamer wordt het in de zomers behoorlijk warm. Als je daar met een 450W kachel ipv 200W zit krijg je het wel extra warm dan. Dus leuk dat de performance er ook naar is, maar 8nm Samsung is gewoon erg... dom. Een kostenbesparing die de consument weer gaat moeten betalen, zowel in zijn portomonee als andere dingen. Ik vind het gewoon erg jammer van de 3000 serie en ik vind dat het te weinig benoemd is, ondanks de grotere strap in prestaties.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Help!!!! schreef op dinsdag 13 oktober 2020 @ 12:54:
^
Zo lust ik er nog wel een paar.

Hopelijk zijn de AMD's (erg) goed en beter leverbaar. Dan cancel ik gelijk mijn nvidia bestellingen.
Ik zie liever dat niemand die al betaald heeft voor een order cancelled maar gewoon onder tweakers doorverkoopt voor dezelfde prijs. Winkels vragen momenteel weer absurde prijzen.

Iedere gecancelde order betekent dus dat de winkel meer vraagt aan andere als die kaart binnen komt.
Het is belachelik dat er mensen zijn die 719 betaald hebben en dat diezelfde kaarten voor 900+ verkocht worden nu.
Dat gun ik simpelweg die winkeliers die hier op een wat mij betreft misselijke manier misbruik van maken niet.
Wat mij betreft zijn deze winkels 100% net zo erg als scalpers.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 16:28

XanderDrake

Build the future!

*knip* Dat lijkt me niet nodig.

[ Voor 90% gewijzigd door Blaat op 14-10-2020 20:22 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Santee schreef op woensdag 14 oktober 2020 @ 16:30:
[...]


Ja in performance per watt, maar er lijkt mij ook een praktisch max te zitten aan wattage. Ik weet niet waar jij zit, maar in mijn game kamer wordt het in de zomers behoorlijk warm. Als je daar met een 450W kachel ipv 200W zit krijg je het wel extra warm dan. Dus leuk dat de performance er ook naar is, maar 8nm Samsung is gewoon erg... dom. Een kostenbesparing die de consument weer gaat moeten betalen, zowel in zijn portomonee als andere dingen. Ik vind het gewoon erg jammer van de 3000 serie en ik vind dat het te weinig benoemd is, ondanks de grotere strap in prestaties.
Gewoon een airco nemen in je kamertje.

Het is niet dom, het is goedkoper voor Nvidia en Nvidia weet dat ze genoeg die-hard fan`s hebben die het toch wel kopen ongeacht wat. Win/win voor Nvidia dus.

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
@computerjunky
Wat mij betreft zijn deze winkels 100% net zo erg als scalpers.
Is gewoon marktwerking, als het niet verkocht wordt zakken de prijzen, schijnbaar betalen mensen die bedragen ervoor.

Overigens hoor ik de mensen die klagen over hoge prijzen wel als ze zelf een winkel/shop hebben, dan doen ze namelijk exact hetzelfde. ;)

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 16:13:
[...]


Ik kan mij die zuinige Fermi kaarten gelukkig nog herinneren, die hadden maar een TDP van 250 Watt :+.
Alleen waren de prestaties ook niet geweldig van Fermi 1 en was het probleem dat Fermi 1 stroom lekte. olgens mij is dat niet het probleem met Ampère.

Ik ben benieuwd of in December een RTX 3080 met 20 GB geheugen gaat komen. Dan kan ik eindelijk een keuze maken. DLSS en raytracing vind ik belangrijk. De gemiddelde fps zonder raytracing is al goed genoeg. Het zal dus afhangen van raytracing performance als ik een keuze tussen AMD of Nvidia ga maken.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Tincahunter schreef op woensdag 14 oktober 2020 @ 19:40:
[...]


Alleen waren de prestaties ook niet geweldig van Fermi 1 en was het probleem dat Fermi 1 stroom lekte. olgens mij is dat niet het probleem met Ampère.

Ik ben benieuwd of in December een RTX 3080 met 20 GB geheugen gaat komen. Dan kan ik eindelijk een keuze maken. DLSS en raytracing vind ik belangrijk. De gemiddelde fps zonder raytracing is al goed genoeg. Het zal dus afhangen van raytracing performance als ik een keuze tussen AMD of Nvidia ga maken.
Daar heb je nu gelijk in; wat betreft dat stroom lekken, geen idee daar heb ik te weinig kennis van.

De GTX 480 was iets beter dan de HD5870; als AMD een 6xxx kaart kan maken die 225 Watt gebruikt en in de buurt komt van de RTX 3080 van 320 Watt dan heb je hetzelfde als met Fermi.

Raytracing geef ik nog niet heel veel om, de implementaties tot nu toe hebben mij nog niet overtuigd (en dat gaat niet ineens veranderen als AMD ineens Nvidia voorbij gaat). Met name Metro was bar slecht, het was RT GI of helemaal niks (niet eens baked) dat is gewoon lelijk.
Ik zie liever implementaties die de zwakke punten van rasterization aanpakt, dus zoveel mogelijk screenspace reflecties en dan RT waar nodig. Ik denk dat shadows het meeste kan toevoegen op dit moment.
Het zal met de consoles meer gemeengoed worden en minder houtje touwtje in de engine geknutselt.

  • Paprika
  • Registratie: September 2007
  • Nu online
Het kan sowieso nooit hetzelfde worden, want Nvidia is er op tijd bij dit keer. Fermi was ontzettend vertraagd.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:44
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 19:52:
[...]

De GTX 480 was iets beter dan de HD5870; als AMD een 6xxx kaart kan maken die 225 Watt gebruikt en in de buurt komt van de RTX 3080 van 320 Watt dan heb je hetzelfde als met Fermi.
Pppsstt de 5700xt verbruikt reeds als 225Watt voor een die op 7nm en die chip is heel klein. Als je werkelijk denkt dat big navi onder de 300Watt gaat blijven dan zal ik je vast uit die droom helpen. AMD heeft al heel lang geen top end kaart gemaakt die niet minimaal 300+ Watt zuipt. Gezien het feit dat ze ook altijd pushen om in de buurt van Nvidia te komen lijkt het me aannemelijk dat big navi alles behalve zuinig gaat worden in maar hoog te scoren in de resultaten. En AMD pusht vrijwel altijd over de sweetspot.

Die 50% performance per Watt verbetering, betekend zeer zeker niet dat de chip zuinig is, enkel dat het verbruik niet evenredig hard stijgt ivm huidige chips. Simpele rekensom zegt dat een chip van ruim 2x zo groot dus ongeveer anderhalf keer zoveel gaat verbruiken om die claim te gaan halen. Laten we mild zijn en zeggen dat big navi dan slechts 100Watt meer gaat verbruiken dan een 5700xt, dan kom ik dus uit boven de 300Watt. En daar komt bij AIB nog meer bij, want die pushen hun modellen ook weer verder.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Paprika schreef op woensdag 14 oktober 2020 @ 19:57:
Het kan sowieso nooit hetzelfde worden, want Nvidia is er op tijd bij dit keer. Fermi was ontzettend vertraagd.
Dat is inderdaad wel het verschil dit keer.

@sjekneck
Het is niet zozeer dat AMD veel zuiniger gaat worden, het is het feit dat Ampere gewoon niks verbeterd qua performance/watt; tenminste voor een node change stelt het niks voor.
De 5700 is een heel stuk efficienter dus het is prima mogelijk dat de 5700XT, dus het is best mogelijk.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:44
Sp3ci3s8472 schreef op woensdag 14 oktober 2020 @ 22:06:
[...]


Dat is inderdaad wel het verschil dit keer.

@sjekneck
Het is niet zozeer dat AMD veel zuiniger gaat worden, het is het feit dat Ampere gewoon niks verbeterd qua performance/watt; tenminste voor een node change stelt het niks voor.
De 5700 is een heel stuk efficienter dus het is prima mogelijk dat de 5700XT, dus het is best mogelijk.
Je hebt blinde kritiek op het tdp van de 3080 en de stap naar 8nm. Dat mag, want 320Watt is fors (vind ik persoonlijk ook jammerlijk). Echter zijn de prestaties wel evenredig gestegen ten opzichte van Turing en presteren ze prima. Er is overigens wel degelijk een verbetering in verbruik, maar is deze minimaal. Het is wel zo dan Nvidia niet op niveau blijft ten opzichte van Pascal en Turing, maar is dat de schuld van Ampere, of ligt dat probleem soms aan de nodes die minder efficient zijn (even los van het mindere Samung proces)? Jij kijkt echter alleen maar naar de 3080 en daar ga je wat mij betreft echt de mist in. Zal ik even AMD's sprong er eens bij pakken van de vorige node naar 7nm.

RX580: diesize: 232mm 185tdp
X5700XT: diesize: 251mm 225tdp

Ofwel een hele sprong van 14nm naar 7nm en het verbruik is ook omhoog gegaan in een gelijkwaardig segment en vrijwel gelijkwaardige diesize. Ik zie dus een patroon die erg lijkt op de 3080. En dan kun je ook nog zeggen dat de sprong van Nvidia beperkter is van 12nm (eigenlijk 14+) naar 8nm (ofwel 10+), en AMD van 14nm, naar 7nm. Ik verwacht daarom ook niet dan AMD het op performance per watt veel beter gaat doen versus de 3080 in real life. AMD heeft dat nooit kunnen winnen in de afgelopen 10 jaar. Ga je dan ook op AMD afgeven als die in dezelfde regio komen op performance per watt?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
sjekneck schreef op donderdag 15 oktober 2020 @ 14:14:
[...]

Je hebt blinde kritiek op het tdp van de 3080 en de stap naar 8nm. Dat mag, want 320Watt is fors (vind ik persoonlijk ook jammerlijk). Echter zijn de prestaties wel evenredig gestegen ten opzichte van Turing en presteren ze prima. Er is overigens wel degelijk een verbetering in verbruik, maar is deze minimaal. Het is wel zo dan Nvidia niet op niveau blijft ten opzichte van Pascal en Turing, maar is dat de schuld van Ampere, of ligt dat probleem soms aan de nodes die minder efficient zijn (even los van het mindere Samung proces)?
Ik zeg nergens dat de prestaties niet gestegen zijn. Dat zijn ze wel zeker, maar dat is ten koste gegaan van de performance/watt die nauwelijks is gestegen (hij is wel getstegen en dat had ik beter kunnen verwoorden).
Wat betreft "schuld" met node keuze:
De schuld ligt gedeeltelijk bij Nvidia maar ook voor een gedeelte bij Samsung. Nvidia die niet de prijs van TSMC wilde betalen en Samsung omdat hun node niet voldoet. Dit keer is de schuld bij Nvidia groter, ze gaan immers naar een node die ze nog niet goed kennen met een monster chip; hetzelfde wat ze hebben gedaan met Fermi. Je zag dat ze met de GTX 580 wel een verbetering hadden omdat ze de node nu kenden.
Wat betreft architectuur:
Ik denk dat Ampere deels de reden is dat er weinig verbetering is in performance/watt, je hebt 30TFlops waarvan misschien maar 2/3 effectief kan worden ingezet voor gaming. Wellicht dat ze dit met Hopper? kunnen verbeteren.

Je vergelijkt de 580 met de 5700XT, ja de tweede gebruikt meer maar heeft ook wel degelijk een veel betere performance/watt. De sprong is groter dan wat je zie bij de 2080 Ti naar 3090. Ik vind het dan een beetje hypocriet om die vergelijking te maken. Los daarvan, juist op architectuur heeft AMD veel meer te winnen qua performance/watt dus de kans dat we dat gaan zien beacht ik gewoon groter.
Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/performance-per-watt_2560-1440.png
Afbeeldingslocatie: https://tpucdn.com/review/msi-geforce-rtx-3090-gaming-x-trio/images/performance-per-watt_2560-1440.png

Sowieso is het probleem met deze vergelijkingen dat je kaarten hebt in verschillende klasses en daarnaast dat de RX 580 en RX 590 beiden ook minder efficient zijn dan de RX 480

Maar helemaal los van wat AMD wel of niet gaat doen deze generatie (we zitten in het Nvidia topic). Vergeleken met eerdere generaties is Turing qua performance weinig interessant en Ampere qua performance/watt niet echt veel beter.Tenminste niet op de clocksnelheden die ze nu hebben gepushed.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:44
Sp3ci3s8472 schreef op donderdag 15 oktober 2020 @ 14:52:
[...]

Wat betreft "schuld" met node keuze:
De schuld ligt gedeeltelijk bij Nvidia maar ook voor een gedeelte bij Samsung. Nvidia die niet de prijs van TSMC wilde betalen en Samsung omdat hun node niet voldoet. Dit keer is de schuld bij Nvidia groter, ze gaan immers naar een node die ze nog niet goed kennen met een monster chip; hetzelfde wat ze hebben gedaan met Fermi. Je zag dat ze met de GTX 580 wel een verbetering hadden omdat ze de node nu kenden.
Ik probeerde juist te duidelijk te maken dat een node niet heilig is. Daarom de vergelijking die ik maakte op de GPU die op 7nm is uitgekomen ten opzichte van 14nm. Elke nodesprong zou meer prestaties moeten brengen, omdat je meer transistors kunt proppen op dezelfde oppervlakte bij een vergelijkbaar verbruik. Echter is AMD tot nu toe niet veel zuiniger geworden naar 7nm, wel sneller. Zelfde verhaal bij Nvidia + een schepje samsung om het wat erger te maken.
Wat betreft architectuur:
Ik denk dat Ampere deels de reden is dat er weinig verbetering is in performance/watt, je hebt 30TFlops waarvan misschien maar 2/3 effectief kan worden ingezet voor gaming. Wellicht dat ze dit met Hopper? kunnen verbeteren.
Als ze de tflops beter kunnen inzetten en int32 weer losweken van de fp32 zoals bij turing maar dan het aantal in Ampere extra, dan hebben ze echt 30TFLOPS. Een node shrink zou die ruimte kunnen geven, of een groter design, maar dat lukt niet op Samung 8nm :P
Je vergelijkt de 580 met de 5700XT, ja de tweede gebruikt meer maar heeft ook wel degelijk een veel betere performance/watt. De sprong is groter dan wat je zie bij de 2080 Ti naar 3090. Ik vind het dan een beetje hypocriet om die vergelijking te maken.
Enige wat ik je probeer te laten zien is dat het niet ondenkbaar is dat we mogelijk niet meer kunnen verwachten dat kleinere nodes nu lineair blijven schalen en er voorlopig meer vermogen nodig is om deze chips te voorzien van sap ivm voorgaande generaties. Daarom pakte in het voorbeeld RX580 en 5700XT, deze zijn beide TSMC, ongeveer even groot, maar op een ander proces. De reviews van de 5700xt waren lovend, maar ook kritisch op het relatief hoge verbruik. Nvida was immers nog steeds zuiniger op een ongunstiger proces. Daarom zou het goed kunnen dat ook AMD ook minder per Watt gaat halen of net als Nvidia relatief meer gaat verbruiken om de prestaties te krijgen die ze willen.

Ik vind het niet hypocriet om AMD te vergelijken op hetzelfde niveau als waar jij Nvidia op neersabelt. Jij doet het op 2080ti naar 3090, dan lijkt het me niet meer dan fair dat ik andersom even AMD erbij pak om aan te tonen dat het bij de concurrent ook nog tegenvalt in sprong naar kleinere node tot dusver.
Los daarvan, juist op architectuur heeft AMD veel meer te winnen qua performance/watt dus de kans dat we dat gaan zien beacht ik gewoon groter.
Laten we eerst maar eens zien of het allemaal zo gunstig uit gaat pakken voor Big Navi, ik lees een hoop geruchten, de één nog rooskleuriger dan de ander. Wait for..... ;)

  • Paprika
  • Registratie: September 2007
  • Nu online
Performance per watt vergelijken op 1440p is ook wel een beetje een flauwe use-case voor een 3080. Zowel AMD als Nvidia focussen met de 3080 en RX6000 in hun presentaties op 4K. Natuurlijk komt ie daar het beste uit de verf, maar dat is ook niet gek als je de gemiddelde FPS van vorige generatie GPUs bekijkt op 1440p:
https://www.techpowerup.c...-founders-edition/30.html Als je 4K pakt wordt die performance/watt op de resolutie waar de kaart op wordt ingezet overduidelijk aanwezig en dan valt het wel mee. Fantastisch gaat het er niet van worden, maar dat wisten we volgens mij al voor de aankondiging. Het resultaat was echter beter dan de meesten hadden verwacht gezien de reacties in dit topic.

Maar over node-changes gesproken. AMD heeft het anders ook niet echt fantastisch gedaan. Radeon VII die amper beter was dan Vega (https://www.techpowerup.com/review/amd-radeon-vii/29.html) of een 5700XT (https://www.techpowerup.c...radeon-rx-5700-xt/29.html) die maar net kan tippen aan een Pascal kaart. Ik durf geen enkele uitspraak te maken tot ze hun resultaten hebben laten zien.

We kunnen eindeloos discussie hebben over de Zen 3 announcement waar iets van Navi naar voren kwam en hoe er honderden theorieën zijn over ze wel en niet hebben laten zien, maar voor een node die zoveel beter hoort te zijn ben ik nog altijd niet super enthousiast. Naar mijn verwachting gaat er gewoon geen grote winnaar zijn deze ronde. Het zal wel een jaar lang een feestje worden met "argumenten" als "drivers", "verbruik", "DLSS", "fanboys", "hitte", "popcaps", "historie" en dus vooral veel emotie en weinig technische feiten. De nieuwe hype blijkt te zijn om vooral continue te roepen dat AMD zowel de GPU als CPU levert voor de consoles, dus de wedstrijd is al gespeeld. Andersom wordt er continue het woordje driver genoemd. Vreemd genoeg werden beide ook in 2013 geroepen :+ ...

[ Voor 5% gewijzigd door Paprika op 15-10-2020 16:17 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
@sjekneck
Het zijn valide punten. Wat ik probeerde te stellen is dat bij AMD het verschil met de node sprong iets groter is in performance/watt (zeker als je nog de 580 pakt, ik zou de 480 pakken). Bij Nvidia is de sprong veel kleiner tenzij je de positieve geschetste situatie van Nvidia pak ken de FPS gaat limiten.
AMD heeft meer op architectuur nu te winnen en Nvidia waarschijnlijk meer op node, dat was mijn uiteindelijke conclussie.
Denk dat we het voor een groot deel ook wel eens zijn, het is misschien alleen dat we beiden een ander idee hebben bij welke hoeveelheid perf/watt het noemenswaardig is.

@Paprika
Klopt, ik heb express 1440p gepakt omdat dit dacht ik ook gelde voor de 580 wat geen 4k kaart is. Ik weet dat 1080p helemaal in het nadeel is van Ampere en daarom heb ik de resolutie gepakkt die ertussen in zit. Als je alle data wilt zien kan je natuurlijk altijd de artikelen bekijken (ik link ze in 9 van de 10 gevallen).
Je kan een punt maken dat je voor een kaart een resolutie pakt waar hij zich het meest op zijn "gemak" voelt. Dan nog is het verschil 580/5700XT op 58% tegen de 2080 Ti/ 3090 83%. Mijn punt is dat AMD best wat efficientie erbij heeft gekregen, meer dan Nvidia dit keer.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:41
Paprika schreef op donderdag 15 oktober 2020 @ 16:11:
Performance per watt vergelijken op 1440p is ook wel een beetje een flauwe use-case voor een 3080. Zowel AMD als Nvidia focussen met de 3080 en RX6000 in hun presentaties op 4K.
Mwa we gaan toch meer en meer naar low latency gaming. Nvidia is met Reflex en 360 Hz monitoren een markt aan het creeren voor high-fps gaming.

Overigens naar mijn mening terecht, boven de 100-120 fps speelt in shooters al zo lang ik mij kan herrineren lekkerder, ook op 60 Hz monitoren. Natuurlijk zijn er games die op 60 fps prima te pruimen zijn maar alles dat een beetje souplesse vereist gaat dat al snel niet meer op. Ook een arcade racers als Forza (FH4) speelt boven de 100 fps ook veel prettiger dan op 60. Als ik 60 fps haal dan ga ik meestal details verlagen tot ik wat hoger uit kom.

[ Voor 4% gewijzigd door sdk1985 op 15-10-2020 17:10 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
sjekneck schreef op donderdag 15 oktober 2020 @ 16:02:
Als ze de tflops beter kunnen inzetten en int32 weer losweken van de fp32 zoals bij turing maar dan het aantal in Ampere extra, dan hebben ze echt 30TFLOPS. Een node shrink zou die ruimte kunnen geven, of een groter design, maar dat lukt niet op Samung 8nm :P

...

Daarom pakte in het voorbeeld RX580 en 5700XT, deze zijn beide TSMC, ongeveer even groot, maar op een ander proces.
Polaris is Samsung/GF 14LPP, niet TSMC ;)

Je overschat verder wat ze bij TSMC klaar zouden kunnen spelen; of omgekeerd, onderschat wat Samsung klaar speelt. Samsung 8N en TSMC 7FF zitten op vergelijkbare dichtheid. Het 7FF dat AMD gebruikt is niet het 7nm procedé waar je het over dichtheden van richting de 90m hebt. Nee, dit is een "10nm" klasse procedé waar je het over pakweg de helft hebt.

Vandaar ook dat Navi10 op slechts 41m/mm^2 uit komt. GA102 zit op ~45.

De sprong voor AMD naar TSMC 7FF vanaf Samsung/GF 14LPP was iets minder dan die voor Nvidia van TSMC 12FFN naar Samsung 8N, maar het scheelt maar heel weinig.

M'n punt is dat Nvidia de overstap naar 7FF kan maken, maar dat ze dan niet zoals jij denkt ineens ruimte hebben om even 40% meer chip te bakken met de hybrid units gesplitst (ja, zo veel ruimte zouden ze nodig hebben). Sterker nog, de kans is groot dat ze hun chip dan iets groter zouden moeten maken met hetzelfde aantal transistors.

Ik heb het een tijdje terug ook gezegd in één van deze twee topics: de naam van procedé's heeft tegenwoordig geen enkele betekenis meer. Het zegt echt geen reet over het procedé. Dat cijfertje is klinkklare onzin; 7FF heeft helemaal niets gemeen met 7 EUV. TSMC noemt ze dan wel respectievelijk N7 en N7+, maar het EUV procedé kan zonder problemen meer dan het dubbele aan transistors op een vierkante millimeter persen. Dat zegt overigens meer over wat 7FF is dan iets anders ;)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Een een Duitse webwinkel (Proshop) heeft zijn bestelling en leveringsgetallen publiekelijk gemaakt. Uh. :P
Eerste kolom zijn alle bestellingen die open staan, tweede en derde zijn duidelijk en de vierde is wat ze hebben ontvangen, sinds launch. :o
Afbeeldingslocatie: https://tweakers.net/i/QKy9dii_C5EklYQiB3EgfkFSMOA=/800x/filters:strip_icc():strip_exif()/f/image/kGD2OZbfiFniKIVz6o4YneB3.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/JnfbK2MCyhoto9nPHG_kMxQ8h2c=/800x/filters:strip_icc():strip_exif()/f/image/BdMScuqITxaPZH7QX9nDxQ2U.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/8lCWFVib6HTBIQg_O8tLqLonl10=/800x/filters:strip_icc():strip_exif()/f/image/lqxihw3lR481eXb9lqKk1eha.jpg?f=fotoalbum_large
https://www.proshop.de/RTX-30series-overview

[ Voor 5% gewijzigd door DaniëlWW2 op 16-10-2020 18:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 16 oktober 2020 @ 18:24:
Een een Duitse webwinkel (Proshop) heeft zijn bestelling en leveringsgetallen publiekelijk gemaakt. Uh. :P
Hmm, die hebben maandag een boze Nvidia aan de lijn.

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op vrijdag 16 oktober 2020 @ 18:24:
Een een Duitse webwinkel (Proshop) heeft zijn bestelling en leveringsgetallen publiekelijk gemaakt. Uh. :P
Eerste kolom zijn alle bestellingen die open staan, tweede en derde zijn duidelijk en de vierde is wat ze hebben ontvangen, sinds launch. :o
[Afbeelding]

[Afbeelding]

[Afbeelding]
https://www.proshop.de/RTX-30series-overview
Dit was toch dagen/week geleden al bekend :? Of is dit weer een andere shop/update :?

Verder extreem droevige cijfers. En al die mensen nvidia maar verdedigen :N

[ Voor 3% gewijzigd door Help!!!! op 16-10-2020 18:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Nu online
Help!!!! schreef op vrijdag 16 oktober 2020 @ 18:38:
[...]

Dit was toch dagen/week geleden al bekend :? Of is dit weer een andere shop/update :?

Verder extreem droevige cijfers. En al die mensen nvidia maar verdedigen :N
Zou je echt blijer zijn als ze tot april 2021 zouden wachten? Pre-orders voor een PS5 staan hier in Utrecht bij 1 enkel filiaal al over de 300 met nog geen 50 leverbaar op release en er zijn heel wat meer mediamarkten dan hardware winkels.

[ Voor 20% gewijzigd door Paprika op 16-10-2020 18:44 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op vrijdag 16 oktober 2020 @ 18:42:
[...]

Zou je echt blijer zijn als ze tot april 2021 zouden wachten? Pre-orders voor een PS5 staan hier in Utrecht bij 1 enkel filiaal al over de 300 met nog geen 50 leverbaar op release en er zijn heel wat meer mediamarkten dan hardware winkels.
Zeker, heb niks met paperlaunches. En dat is verder niet beperkt tot nvidia ofzo .

[ Voor 5% gewijzigd door Help!!!! op 16-10-2020 18:46 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Nu online
DaniëlWW2 schreef op vrijdag 16 oktober 2020 @ 18:24:
Een een Duitse webwinkel (Proshop) heeft zijn bestelling en leveringsgetallen publiekelijk gemaakt. Uh. :P
Eerste kolom zijn alle bestellingen die open staan, tweede en derde zijn duidelijk en de vierde is wat ze hebben ontvangen, sinds launch. :o
[Afbeelding]

[Afbeelding]

[Afbeelding]
https://www.proshop.de/RTX-30series-overview
Ik vind het vooral interessant hoeveel mensen bij een lange wachtrij aansluiten voor een paar MHz extra in de BIOS.

3090
STRIX: 9, STRIX OC: 145, Master: 5, Xtreme: 27, Trio: 3, X Trio: 21

3080
STRIX: 104, STRIX OC: 361, Master: 27, Xtreme: 77, Trio: 42, X Trio: 502, Ventus: 37, Ventus OC: 121

De enige uitzondering is de TUF vs TUF OC.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 16 oktober 2020 @ 18:51:
[...]

Ik vind het vooral interessant hoeveel mensen bij een lange wachtrij aansluiten voor een paar MHz extra in de BIOS.

3090
STRIX: 9, STRIX OC: 145, Master: 5, Xtreme: 27, Trio: 3, X Trio: 21

3080
STRIX: 104, STRIX OC: 361, Master: 27, Xtreme: 77, Trio: 42, X Trio: 502, Ventus: 37, Ventus OC: 121

De enige uitzondering is de TUF vs TUF OC.
Ik ben niet zo verbaast dat mensen het OC model pakken. Die trend zien we eigenlijk al jaren.

Wat ik eigenlijk interessant vind is dat dit nog allemaal aantallen zijn die waarschijnlijk ingevlogen worden i.p.v. verscheept. Het lijkt alsof er partijen van enkele tientallen tot misschien een honderdtal arriveert bij een MSI, ASUS of Gigabyte kantoor en er kleine hoeveelheden worden verdeeld over verschillende webwinkels. Zo ga je dit niet wegwerken. De vraag blijft waar het misloopt in de productieketen, maar dat het ergens mis is gegaan is denk ik wel duidelijk. Wat hier eigenlijk nodig is zijn een paar containers vol, maar zelfs directe routes lijken richting een maand te duren van wat ik zo snel kan vinden en dan moet distributie nog plaatsvinden. Weten we alleen niet of en zo ja, wanneer de productie echt goed is begonnen omdat de fabrikanten hun chip allocaties hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Help!!!! schreef op vrijdag 16 oktober 2020 @ 18:38:
[...]

Dit was toch dagen/week geleden al bekend :? Of is dit weer een andere shop/update :?
Dat klopt, ik had de link hier ook al drie dagen geleden geplaatst: choogen in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56" Volgens de titel van dat artikel zou het toen gaan om een Deense webshop, maar dat blijkt toch een Duitse webwinkel te zijn (al hebben ze ook Scandinavische vestigingen.)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

choogen schreef op vrijdag 16 oktober 2020 @ 21:10:
[...]


Dat klopt, ik had de link hier ook al drie dagen geleden geplaatst: choogen in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56" Volgens de titel van dat artikel zou het toen gaan om een Deense webshop, maar dat blijkt toch een Duitse webwinkel te zijn (al hebben ze ook Scandinavische vestigingen.)
Uh, ook gemist ja. Ik had het van het Deense gezien, maar niet gekeken. Maar het is wel geüpdatet voor de 15de.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

DaniëlWW2 schreef op vrijdag 16 oktober 2020 @ 21:20:
[...]


Uh, ook gemist ja. Ik had het van het Deense gezien, maar niet gekeken. Maar het is wel geüpdatet voor de 15de.
Klopt, waarschijnlijk zal deze shop de aantallen geleverde kaarten online blijven updaten, telkens wanneer nieuwe bestellingen zijn binnen gekomen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Australian Steve heeft gewoon even de complete bevoorrading voor heel Australie ontvangen. :P
Maar zo krijgen we wel reviews voordat mensen daadwerkelijk een videokaart kunnen bemachtigen. Kan je dus beter inschatten welke je wil hebben, als je er daadwerkelijk eentje kan kopen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 31-12-2025
Sp3ci3s8472 schreef op donderdag 15 oktober 2020 @ 14:52:
[...]


Ik zeg nergens dat de prestaties niet gestegen zijn. Dat zijn ze wel zeker, maar dat is ten koste gegaan van de performance/watt die nauwelijks is gestegen (hij is wel getstegen en dat had ik beter kunnen verwoorden).
Wat betreft "schuld" met node keuze:
De schuld ligt gedeeltelijk bij Nvidia maar ook voor een gedeelte bij Samsung. Nvidia die niet de prijs van TSMC wilde betalen en Samsung omdat hun node niet voldoet. Dit keer is de schuld bij Nvidia groter, ze gaan immers naar een node die ze nog niet goed kennen met een monster chip; hetzelfde wat ze hebben gedaan met Fermi. Je zag dat ze met de GTX 580 wel een verbetering hadden omdat ze de node nu kenden.
Wat betreft architectuur:
Ik denk dat Ampere deels de reden is dat er weinig verbetering is in performance/watt, je hebt 30TFlops waarvan misschien maar 2/3 effectief kan worden ingezet voor gaming. Wellicht dat ze dit met Hopper? kunnen verbeteren.

Je vergelijkt de 580 met de 5700XT, ja de tweede gebruikt meer maar heeft ook wel degelijk een veel betere performance/watt. De sprong is groter dan wat je zie bij de 2080 Ti naar 3090. Ik vind het dan een beetje hypocriet om die vergelijking te maken. Los daarvan, juist op architectuur heeft AMD veel meer te winnen qua performance/watt dus de kans dat we dat gaan zien beacht ik gewoon groter.
[Afbeelding]
[Afbeelding]

Sowieso is het probleem met deze vergelijkingen dat je kaarten hebt in verschillende klasses en daarnaast dat de RX 580 en RX 590 beiden ook minder efficient zijn dan de RX 480

Maar helemaal los van wat AMD wel of niet gaat doen deze generatie (we zitten in het Nvidia topic). Vergeleken met eerdere generaties is Turing qua performance weinig interessant en Ampere qua performance/watt niet echt veel beter.Tenminste niet op de clocksnelheden die ze nu hebben gepushed.
Ik snap neit waarom mensen kijken naar de undervolt mogelijkheden van bijvoorbeeld de 3080. Met vrijwel geen performance verlies (maar 2% in mijn geval en dat is het gemiddelde van 4 runs met en zonder undervolt) heb ik mijn 3080RTX op rond de 260 watt draaien onder volledige belasting...

Het komt er op neer dat de 3080RTX zichzelf zodanig onredelijk overclocked voor dat laatste beetje performance dat het verbruik ook hoog ligt.

  • lapino
  • Registratie: Juni 2002
  • Laatst online: 02-02 10:48
Ken daar eigenlijk niks van, hoe doe je dat?

  • Paprika
  • Registratie: September 2007
  • Nu online
Sn0wblind schreef op zaterdag 17 oktober 2020 @ 13:22:
[...]

Ik snap neit waarom mensen kijken naar de undervolt mogelijkheden van bijvoorbeeld de 3080. Met vrijwel geen performance verlies (maar 2% in mijn geval en dat is het gemiddelde van 4 runs met en zonder undervolt) heb ik mijn 3080RTX op rond de 260 watt draaien onder volledige belasting...

Het komt er op neer dat de 3080RTX zichzelf zodanig onredelijk overclocked voor dat laatste beetje performance dat het verbruik ook hoog ligt.
2% en 260W lijkt mij wat overdreven, tenzij je consistent meer dan 1900MHz kunt draaien op 0.7V...

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 31-12-2025
Paprika schreef op zaterdag 17 oktober 2020 @ 13:31:
[...]

2% en 260W lijkt mij wat overdreven, tenzij je consistent meer dan 1900MHz kunt draaien op 0.7V...
Ik draai op 0.8 en dat is volgens MSI afterburner rond de 260watt in games waar ik eerst tot 320watt verbruikte. 1850mhz core clock wat maar marginaal lager is dan de 1910 wat deze stock deed (3080FE). De verbruiks curve is niet linear en de gpu krijgt gewoon teveel voltage om te doen wat het moet doen.

Power limiet op 85% zetten is een 4% loss en dan 270 watt terwijl het voltage gelijk blijft
lapino schreef op zaterdag 17 oktober 2020 @ 13:28:
Ken daar eigenlijk niks van, hoe doe je dat?
Dit is een goede tutorial

[ Voor 13% gewijzigd door Sn0wblind op 17-10-2020 14:32 ]


  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 31-12-2025
Paprika schreef op zaterdag 17 oktober 2020 @ 13:31:
[...]

2% en 260W lijkt mij wat overdreven, tenzij je consistent meer dan 1900MHz kunt draaien op 0.7V...
Even een aanvulling op mijn vorige post.

Zie hier het verbruik in Assassins Creed Odyssey, nog onder de 230watt zelfs, 1905mhz.

https://imgur.com/YEtcsNz

Was op dit moment even aan het rommelen met de voltage curve om het nog meer te optimaliseren.

  • Paprika
  • Registratie: September 2007
  • Nu online
Ik ken Odyssey niet goed genoeg om in te schatten of dat een zwaar scenario is. Load % zegt in dit geval heel weinig. Al zou ik sowieso GPU-Z aanraden gezien die wat nuttiger is. Al is dat denk ik wel beter een beter resultaat dan Blaat kon draaien.

[ Voor 36% gewijzigd door Paprika op 17-10-2020 16:28 ]


  • Paprika
  • Registratie: September 2007
  • Nu online
EVGA GeForce RTX 3080 FTW3 Ultra Review
https://www.techpowerup.c...x-3080-ftw3-ultra/37.html

Afbeeldingslocatie: https://i.imgur.com/2sqX80b.png

Afbeeldingslocatie: https://tpucdn.com/review/evga-geforce-rtx-3080-ftw3-ultra/images/tdp-adjustment-limit.png

Afbeeldingslocatie: https://tpucdn.com/review/evga-geforce-rtx-3080-ftw3-ultra/images/fannoise_load.png
Gaming noise levels with the default BIOS are outstanding, almost whisper quiet—very impressive for a card in this performance class. This also makes the card the quietest RTX 3080 we've ever tested. The ASUS TUF with quiet BIOS is just as quiet, but you have to activate the 2nd BIOS, which runs a little bit slower. The EVGA on the other hand has the best noise and performance at the same time, thanks to its large factory overclock.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op zaterdag 17 oktober 2020 @ 16:08:
Ik ken Odyssey niet goed genoeg om in te schatten of dat een zwaar scenario is. Load % zegt in dit geval heel weinig. Al zou ik sowieso GPU-Z aanraden gezien die wat nuttiger is.
Zwaar denk ik niet, gevoelig wel. Ik weet nog dat met mijn RX Vega 56, the Witcher 3 echt de game was die heel snel aangaf of iets stabiel was. Meestal wist je het binnen 15 minuten omdat de boel crashte, maar vaak zag je al sneller duidelijke microstutters en dan wist je al hoe laat het was. Die game stookte de kaart ook aardig op en er lijken wel meer die dat beseffen en hebben gebruikt als power virus.

Odyssey was een vreemde in mijn testen omdat die game een typisch "Ubisoft" product is qua optimalisatie, a.k.a. niet goed. Maar deze game wou nog wel eens periodiek extra hoog boosten. Ik wist dat mijn RX Vega op 910mv, instabiel werd ergens tussen de 1425-1430MHz en deze game tikte dat aan. Voor deze heb ik uiteindelijk mijn instellingen nog wat aangepast. Het deed vrijwel niks voor andere games, maar hier was het nodig.

Voor stabiliteit zal je toch meerdere programma's moeten proberen, maar Odyssey kan best een goede zijn voor max frequentie testen. Wat ik niet uitsluit is dat @Sn0wblind gewoon een goede chip heeft. We weten immers dat de volle GA102 als RTX A6000 word verkocht met hogere base en boostclocks dan de RTX3080 of RTX3090 en een TBP van 300W. De gemiddelde RTX3080 of RTX3090 heeft gewoon lage standaarden.


Maar dit hoort denk ik in het ervaringentopic. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 15:42
Gerucht: NVIDIA allegedly cancels GeForce RTX 3080 20GB and RTX 3070 16GB
NVIDIA allegedly cancels its December launch of GeForce RTX 3080 20GB and RTX 3070 16GB. This still very fresh information comes from two independent sources.

Technically GeForce RTX 3080 20GB and RTX 3070 16GB could launch at a later time, but the information that we have clearly stated that those SKUs have been canceled, not postponed. NVIDIA has already canceled its RTX 3070 Ti model (PG141 SKU 0), so the RTX 3070 16GB (PG141 SKU5) and RTX 3080 20GB (PG132 SKU20) will be joining the list.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 09:20

Mars Warrior

Earth, the final frontier

En weer een leuk gerucht:

NVIDIA allegedly cancels GeForce RTX 3080 20GB and RTX 3070 16GB


kiek nou, het is mij gelukt om een tweet te embedden _/-\o_

[ Voor 40% gewijzigd door Mars Warrior op 21-10-2020 21:11 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 15:42
Hier zijn de eerste RTX 3070 videokaarten te zien: https://www.bilibili.com/video/BV1Bz4y1o7GS
Foto's: https://videocardz.com/ne...eveals-three-custom-cards

Wat een afschuwelijk ding, die Galax RTX 3070 Boomstar.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Kwam deze van Ian Cutress tegen; hoewel het over Intel gaat is hij wel interessant omdat ik op de FP speculatie zag over Nvidia die TSMC 7nm zou gaan gebruiken voor een eventuele refresh. Kans schat ik heel klein; zeker nu ik de details van Ian hoor:

[ Voor 3% gewijzigd door Sp3ci3s8472 op 23-10-2020 12:18 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op vrijdag 23 oktober 2020 @ 12:18:
Kwam deze van Ian Cutress tegen; hoewel het over Intel gaat is hij wel interessant omdat ik op de FP speculatie zag over Nvidia die TSMC 7nm zou gaan gebruiken voor een eventuele refresh. Kans schat ik heel klein; zeker nu ik de details van Ian hoor:
[YouTube: [Clip] Intel Q3 2020 Financial: Highlights and Thoughts]
Het is al vaker voorbij gekomen, maar ik zie weinig redenen om naar 7nm over te stappen. De kloksnelheid is nogal afhankelijk van het architectuur/chip dus het is goed mogelijk dat Nvidia helemaal geen extra performance uit die 7nm node haalt.

Zie bv. ook Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

[ Voor 56% gewijzigd door XWB op 23-10-2020 13:30 ]

March of the Eagles


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 15:42
kopite7kimi zegt dat er een nieuwe kaart komt, die tussen de 3070 en 3080 zal gaan liggen.




628mm2 die size
7424 CUDA cores
232 Tensor cores
58 RT cores
10GB GDDR6X
320-bit memory bus

https://videocardz.com/ne...-gpu-with-7424-cuda-cores

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RobinNL schreef op vrijdag 23 oktober 2020 @ 13:31:
kopite7kimi zegt dat er een nieuwe kaart komt, die tussen de 3070 en 3080 zal gaan liggen.

[Twitter]
[Twitter]

628mm2 die size
7424 CUDA cores
232 Tensor cores
58 RT cores
10GB GDDR6X
320-bit memory bus

https://videocardz.com/ne...-gpu-with-7424-cuda-cores
58SM's, flink wat eraf weer als je het afzet tegen de RTX3080 die op 68SM's zit, de RTX3090 op 82 en de volle GA102 op 84. Nog 69% van de SM's over. Snel uit mijn hoofd gaat Nvidia vaak niet lager dan 75%. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
RobinNL schreef op vrijdag 23 oktober 2020 @ 13:31:
kopite7kimi zegt dat er een nieuwe kaart komt, die tussen de 3070 en 3080 zal gaan liggen.

[Twitter]
[Twitter]

628mm2 die size
7424 CUDA cores
232 Tensor cores
58 RT cores
10GB GDDR6X
320-bit memory bus

https://videocardz.com/ne...-gpu-with-7424-cuda-cores
3070 Ti ;)

March of the Eagles


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XWB schreef op vrijdag 23 oktober 2020 @ 13:27:
[...]


Het is al vaker voorbij gekomen, maar ik zie weinig redenen om naar 7nm over te stappen. De kloksnelheid is nogal afhankelijk van het architectuur/chip dus het is goed mogelijk dat Nvidia helemaal geen extra performance uit die 7nm node haalt.

Zie bv. ook Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Misschien dat ze grotere yields hebben en dat dat een reden zou kunnen zijn; maar eens de winst die ze zouden kunnen halen is waarschijnlijk erg klein.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XWB schreef op vrijdag 23 oktober 2020 @ 13:27:
[...]


Het is al vaker voorbij gekomen, maar ik zie weinig redenen om naar 7nm over te stappen. De kloksnelheid is nogal afhankelijk van het architectuur/chip dus het is goed mogelijk dat Nvidia helemaal geen extra performance uit die 7nm node haalt.

Zie bv. ook Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Mogelijk betere yields. Betere positie aan tafel bij leading edge foundry (terug)krijgen. Capaciteit concurrentie verminderen.

Zat redenen om (ook) naar 7nm te gaan.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het was voor mij ook onderdeel van het leerproces, maar ik denk dat ik de keuze voor Samsung 8N van Nvidia ook steeds meer begin te begrijpen. Nee, het ziet er nu niet goed uit met GA102 haar leverbaarheid, wat het probleem ook moge zijn, maar of GA104 ook zo erg gaat zijn durf ik ergens wel te betwijfelen.

Ik vermoed namelijk dat Nvidia heeft gezien dat iedereen naar TSMC 7nm zou overstappen en het dan krap zou gaan worden als ze als een van de laatste ook de overstap zouden maken. Nvidia heeft haar eigen volumebenodigdheden en bij Samsung lijkt genoeg capaciteit te hebben gezeten. De overstap zou ook wel eens te maken kunnen hebben met de realisatie dat voorbij de 16/14nm node klasse, forse clock speed verhogingen er simpelweg niet meer in lijken te zitten. Dat hebben we nu gezien met Nvidia en de paar Intel 10nm producten. Bij AMD was het wel voor de videokaarten, maar dat lijkt aardig architectuur gerelateerd te zijn met de overstap van GCN naar RDNA.

Het is een belangrijk gegeven omdat de afgelopen decennia, de generatiewinst van processoren toch voor een groot deel uit kleinere nodes die hogere clock speeds mogelijk maakte. Het is iets dat ik ruim een jaar geleden al opmerkte omtrent Navi 10 en het lijkt ook uit te zijn gekomen voor Nvidia. Dit zou verklaren waarom Nvidia bleef hangen op TSMC 16nm voor Turing en waarom ze nu naar Samsung zijn gegaan. 8N is ook een custom node voor Nvidia en GA102 heeft een dichtheid van 45,1miljoen transistoren per mm². Een ruwe vergelijking is Navi 10 met 41 miljoen transistoren per mm².

Laatste is dat als ik de RTX3080 FE (320W) en een OC RTX2080Ti (315W bios) naast elkaar zet, je eigenlijk kan concluderen dat Ampere met net iets meer voltage, vergelijkbare clock speeds en verbruik haalt. Dat kan je natuurlijk uitleggen als Samsung 8N is verschrikkelijk, maar ik neig eigenlijk steeds meer naar de verklaring dat er gewoon weinig meer te winnen valt met een kleinere node en het de Ampere architectuur is die gewoon niet hoger wil clocken.

https://www.techpowerup.c...-ti-gaming-x-trio/37.html
https://www.techpowerup.c...-founders-edition/32.html


Maar het lijkt er dus op dat we een RTX3070S of RTX3070Ti gaan krijgen. Dan zal GA103 ook van de baan zijn. Op zich is dit ook logisch omdat er een duidelijk gat zit tussen de RTX3070 en RTX3080 waar zeker een Navi 21 based SKU in gepositioneerd lijkt te gaan worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
DaniëlWW2 schreef op vrijdag 23 oktober 2020 @ 15:02:
Het was voor mij ook onderdeel van het leerproces, maar ik denk dat ik de keuze voor Samsung 8N van Nvidia ook steeds meer begin te begrijpen. Nee, het ziet er nu niet goed uit met GA102 haar leverbaarheid, wat het probleem ook moge zijn, maar of GA104 ook zo erg gaat zijn durf ik ergens wel te betwijfelen.
GA104 is een stuk kleiner, veel meer dan TU104 dat was. Als de geruchten kloppen wordt dan ding slechts 62% zo groot. Dat is dezelfde verhouding als bij Fermi, Maxwell en Pascal; Kepler was nog extremer (GK104 zat tegen de 50% aan als ik me niet vergis). TU104 is eigenlijk belachelijk groot.

Daardoor krijgen ze sowieso al makkelijk 50-60% meer chips uit een wafer*. Vervolgens gaan ze de volle chip voorlopig niet eens uit brengen, dus de defecten zullen ook minder impact op de uiteindelijke yield hebben.

Dat gezegd hebbende, het heeft er alle schijn van dat Samsung gewoon nog steeds moeite heeft met zo'n grote volumes :)

* ben te lui om de precieze chip afmetingen op te zoeken en daadwerkelijk te rekenen, dus dat is een ruwe schatting uitgaande van perfect vierkante chips, zonder wafer marge in te calculeren ;)
Ik vermoed namelijk dat Nvidia heeft gezien dat iedereen naar TSMC 7nm zou overstappen en het dan krap zou gaan worden als ze als een van de laatste ook de overstap zouden maken.
Dat is iets waar Nvidia zich helemaal niet druk om maakt. Met de volumes die zij nodig hebben dwingen ze dat gewoon af, dat hebben ze in het verleden ook gedaan. En dat doet Apple ook.
8N is ook een custom node voor Nvidia en GA102 heeft een dichtheid van 45,1miljoen transistoren per mm².
Ja en nee. 8N an sich is niet custom voor Nvidia. Echter gebruikt Nvidia niet het "gewone" 8N, net zoals ze niet het "gewone" 12FF gebruikten. Het is nu even goed 8NN, net zoals dat bij TSMC 12FFN was. 8N kan dichtheden produceren die nog eens 50% boven de ~45m liggen waar Nvidia's chips mee gebakken worden.


Punt blijft dat de overstap geen kwestie van even het ontwerp op tafel gooien is. Zelfs voor een leek is er één simpel feit dat dat denk ik wel duidelijk maakt: Samsung's 8N is een EUV procedé, TSMC's N7 (niet N7+!) is DUV. Geheel andere technieken. Los daarvan, kun je zelfs binnen een foundry maar zelden zomaar van het ene naar het andere procedé overstappen. Zelfs N7+ is geheel incompatibel met N7(P), vereist een nieuw ontwerp. En dat doe je niet binnen enkele maanden. Daar heb je makkelijk een jaar voor nodig, omdat je de hele cyclus opnieuw moet doorlopen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 23 oktober 2020 @ 16:55:
[...]

GA104 is een stuk kleiner, veel meer dan TU104 dat was. Als de geruchten kloppen wordt dan ding slechts 62% zo groot. Dat is dezelfde verhouding als bij Fermi, Maxwell en Pascal; Kepler was nog extremer (GK104 zat tegen de 50% aan als ik me niet vergis). TU104 is eigenlijk belachelijk groot.

Daardoor krijgen ze sowieso al makkelijk 50-60% meer chips uit een wafer*. Vervolgens gaan ze de volle chip voorlopig niet eens uit brengen, dus de defecten zullen ook minder impact op de uiteindelijke yield hebben.

Dat gezegd hebbende, het heeft er alle schijn van dat Samsung gewoon nog steeds moeite heeft met zo'n grote volumes :)

* ben te lui om de precieze chip afmetingen op te zoeken en daadwerkelijk te rekenen, dus dat is een ruwe schatting uitgaande van perfect vierkante chips, zonder wafer marge in te calculeren ;)
Ja dat vermoed ik ook.
Dat is iets waar Nvidia zich helemaal niet druk om maakt. Met de volumes die zij nodig hebben dwingen ze dat gewoon af, dat hebben ze in het verleden ook gedaan. En dat doet Apple ook.
Dat weet ik dus niet zo zeker meer. Er is namelijk meermaals wat gedoe geweest dat Nvidia naar Samsung zou gaan, toen weer naar TSMC en toen weer naar Samsung. Komt nog eens bij dat TSMC haar ordeboeken wel heel erg vol lijken te zitten toen AMD erbij kwam + consoles. Ik vermoed eerder dat ze een lucratieve deal hebben kunnen sluiten met Samsung waar TSMC meer per wafer vroeg.
Ja en nee. 8N an sich is niet custom voor Nvidia. Echter gebruikt Nvidia niet het "gewone" 8N, net zoals ze niet het "gewone" 12FF gebruikten. Het is nu even goed 8NN, net zoals dat bij TSMC 12FFN was. 8N kan dichtheden produceren die nog eens 50% boven de ~45m liggen waar Nvidia's chips mee gebakken worden.

Punt blijft dat de overstap geen kwestie van even het ontwerp op tafel gooien is. Zelfs voor een leek is er één simpel feit dat dat denk ik wel duidelijk maakt: Samsung's 8N is een EUV procedé, TSMC's N7 (niet N7+!) is DUV. Geheel andere technieken. Los daarvan, kun je zelfs binnen een foundry maar zelden zomaar van het ene naar het andere procedé overstappen. Zelfs N7+ is geheel incompatibel met N7(P), vereist een nieuw ontwerp. En dat doe je niet binnen enkele maanden. Daar heb je makkelijk een jaar voor nodig, omdat je de hele cyclus opnieuw moet doorlopen.
Uh, Samsung 8N zou een afgeleide zijn van 8LPP, wat weer de derde generatie van Samsung 10nm is. Die zou met een snelle Google check dan 61 milioen transistoren per mm² kunnen.

Samsung 7nm en nu die rebrand naar 5nm is met EUV. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 23 oktober 2020 @ 15:02:
Dat kan je natuurlijk uitleggen als Samsung 8N is verschrikkelijk, maar ik neig eigenlijk steeds meer naar de verklaring dat er gewoon weinig meer te winnen valt met een kleinere node en het de Ampere architectuur is die gewoon niet hoger wil clocken.
Tja, ik kan het linkje blijven posten, maar dat heeft @Werelds al uitgebreid in september behandeld:

Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
@DaniëlWW2 zal het straks even opzoeken, maar als ik me niet vergis was deze variant van 8N ook EUV; althans, enkele lagen :p

Die naamgevingen van de fabs zijn ook echt belachelijk. TSMC is daarin wel de koning, met N7(P) en N7+ die op geen enkele manier vergelijkbaar zijn, behalve de eerste twee letters van hun naam.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op vrijdag 23 oktober 2020 @ 14:21:
[...]


Misschien dat ze grotere yields hebben en dat dat een reden zou kunnen zijn; maar eens de winst die ze zouden kunnen halen is waarschijnlijk erg klein.
Help!!!! schreef op vrijdag 23 oktober 2020 @ 14:23:
[...]

Mogelijk betere yields. Betere positie aan tafel bij leading edge foundry (terug)krijgen. Capaciteit concurrentie verminderen.

Zat redenen om (ook) naar 7nm te gaan.
Niemand weet of de huidige tekorten door Samsung 8nm komen, laatste berichten claimen namelijk dat de bottleneck bij de productie van het GDDR6X geheugen ligt. In dat geval lost de overstap naar TSMC niet zo veel op.

March of the Eagles


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 23 oktober 2020 @ 15:02:
Het was voor mij ook onderdeel van het leerproces, maar ik denk dat ik de keuze voor Samsung 8N van Nvidia ook steeds meer begin te begrijpen. Nee, het ziet er nu niet goed uit met GA102 haar leverbaarheid, wat het probleem ook moge zijn, maar of GA104 ook zo erg gaat zijn durf ik ergens wel te betwijfelen.
GA104 gebruikt in elk geval geen GDDR6X geheugen. Als hier de bottleneck ligt dan moet de 3070 toch veel beter verkrijgbaar zijn.

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 23 oktober 2020 @ 17:10:
[...]


Tja, ik kan het linkje blijven posten, maar dat heeft @Werelds al uitgebreid in september behandeld:

Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Ik heb dat gewoon gelezen en ik heb er weinig op aan te merken. Ik maak mijn eigen punt. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 23 oktober 2020 @ 15:02:
Ik vermoed namelijk dat Nvidia heeft gezien dat iedereen naar TSMC 7nm zou overstappen en het dan krap zou gaan worden als ze als een van de laatste ook de overstap zouden maken. Nvidia heeft haar eigen volumebenodigdheden en bij Samsung lijkt genoeg capaciteit te hebben gezeten.
Samsung is natuurlijk geen kleine speler op de foundry markt. Ik kan helaas geen cijfers voor 2020 vinden maar in 2019 domineerden Samsung en TSMC de top:

Afbeeldingslocatie: https://tweakers.net/i/DhjQLipEWrnyN2Ej1YWuvEgLyBE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/4QUFprTMIuiBFRiLDYeGRrAV.png?f=user_large

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 23 oktober 2020 @ 17:22:
[...]


Samsung is natuurlijk geen kleine speler op de foundry markt. Ik kan helaas geen cijfers voor 2020 vinden maar in 2019 domineerden Samsung en TSMC de top:

[Afbeelding]
Ik weet dat Samsung van vergelijkbare grote is als TSMC in totale capaciteit. Ze zitten alleen beiden in andere markten en hebben geen volledige overlap en een ander portfolio als het om nodes gaat. TSMC is een pure play foundry die hun oude node capaciteit ook aanhoud. Ze produceren nog steeds heel wat 28nm, 16nm etc naast de 7nm en nu de 5nm.

Samsung is gedeeltelijk pure play, gedeeltelijk geheugenchips in alle soorten. Samsung lijkt behoorlijk goed in geheugenchips te zijn en is ook marktleider, maar als je kijkt naar de grote spelers zoals Apple, Qualcomm, MediaTek, HiSilicon, AMD, Nvidia etc, tja die lijken allemaal een voorkeur voor TSMC te hebben als ze niet exclusief zijn.

[ Voor 3% gewijzigd door DaniëlWW2 op 23-10-2020 17:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op vrijdag 23 oktober 2020 @ 17:28:
[...]


Ik weet dat Samsung van vergelijkbare grote is als TSMC in totale capaciteit. Ze zitten alleen beiden in andere markten en hebben geen volledige overlap en een ander portfolio als het om nodes gaat. TSMC is een pure play foundry die hun oude node capaciteit ook aanhoud. Ze produceren nog steeds heel wat 28nm, 16nm etc naast de 7nm en nu de 5nm.

Samsung is gedeeltelijk pure play, gedeeltelijk geheugenchips in alle soorten. Samsung lijkt behoorlijk goed in geheugenchips te zijn en is ook marktleider, maar als je kijkt naar de grote spelers zoals Apple, Qualcomm, MediaTek, HiSilicon, AMD, Nvidia etc, tja die lijken allemaal een voorkeur voor TSMC te hebben als ze niet exclusief zijn.
Exact en dat zal niet zonder reden zijn. Tegelijkertijd zou het me niet echt verbazen als nvidia een deel hun sterke financiele positie gebruikt heeft om wel degelijk (consumer) ampere ook tegelijkertijd voor te bereiden voor TSMC.

Afhankelijk zijn van 1 foundry is ook best risicovol en Samsung heeft misschien best veel potentie.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Help!!!! schreef op vrijdag 23 oktober 2020 @ 19:58:
[...]

Afhankelijk zijn van 1 foundry is ook best risicovol
Dat was in het verleden nooit een probleem, toch?

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XWB schreef op vrijdag 23 oktober 2020 @ 20:00:
[...]


Dat was in het verleden nooit een probleem, toch?
AMD, kuch.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op vrijdag 23 oktober 2020 @ 19:58:
[...]

Exact en dat zal niet zonder reden zijn. Tegelijkertijd zou het me niet echt verbazen als nvidia een deel hun sterke financiele positie gebruikt heeft om wel degelijk (consumer) ampere ook tegelijkertijd voor te bereiden voor TSMC.

Afhankelijk zijn van 1 foundry is ook best risicovol en Samsung heeft misschien best potentie.
Ik ga er dus steeds meer over twijfelen of Nvidia wel moet. GA100 zit op TSMC en daar zal Nvidia haar redenen voor hebben gehad. Voor GA102 weten we echt niet wat het is. Yields kan, maar ik heb inmiddels ook al GDDR6X en substraten als de "schuldige" gezien. Wanneer GA102 eindelijk begint te lopen, zal je er niemand meer over horen. GA104 verwacht ik eigenlijk ook veel minder problemen. Als dat ook helemaal misgaat, dan moet je denk ik echt vragen gaan stellen.

Maar als het niet misgaat, nou ik begin eigenlijk steeds meer te denken dat Nvidia eigenlijk "gelijk" heeft. De afgelopen jaren zijn zo ongeveer alle foundries afgehaakt, overgenomen of omgevallen in de race naar "1nm". Samsung en TSMC zijn nog over en vrijwel iedereen zit bij TSMC. De race naar 1nm word daar getrokken door Apple en de andere grote ARM spelers volgen. Eigenlijk alleen Qualcomm doet aan dual sourcing met Samsung. AMD heeft een heel ander portfolio en volgt eigenlijk op zodra er capaciteit vrijkomt door de ramp up van een node. De eerste zullen ze daar ook niet snel worden. Ook is AMD haar portfolio dusdanig divers dat ze een node voor meerdere jaren aan producten kunnen gebruiken. Een Zen chiplet is immers een heel andere klasse chip dan een grote GPU.

Een GPU, zeker de grote chips waar Nvidia een voorkeur aan geeft, zitten normaal gesproken in het midden of zelfs aan het einde van een node haar cutting edge cyclus. De ARM SoC's gaan vaak al naar de volgende node als de grote GPU's verschijnen. Dat gebeurd nu ook nu Apple naar 5nm gaat en nu komen chips zoals Navi 21, GA100 en Arcturus pas. De node is nu volwassen, zeker, maar nu komt de capaciteit ook vrij en zullen de waferkosten wat gaan dalen omdat het niet meer cutting edge is. Op gaming GPU's zit nu eenmaal minder marge omdat ze zo groot zijn met het risico op defecten, ze zijn een onderdeel van een videokaart met veel andere onderdelen en het eindproduct als de videokaart is (meestal) relatief goedkoop als je het afzet tegen een CPU.

Als je dan ziet dat een verfijnd proces uit een node die een generatie ouder is, eigenlijk redelijk in staat lijkt te zijn om de gaming GPU's op te produceren, nou waarom niet? Wederom, het ligt eraan wat nu het probleem met GA102 is, maar zelfs als het de yields zijn, zal het als het eenmaal opgelost is voor voordelen zorgen omdat de prijs per wafer lager zal liggen. Laatste is dat MCM er misschien toch aan te komen voor GPU's. Intel Xe heeft het voor tenminste de datacentra chips en voor zowel Hopper als RDNA3 zijn die geruchten er ook. Gebeurd dit, tja dan maakt de keuze Samsung of TSMC waarschijnlijk nog minder uit omdat yields een kleiner probleem zouden worden met veel kleinere GPU chiplets. Maar zelfs zonder MCM voor gaming GPU's zie ik ook wel voordelen in de aanpak van Nvidia. Je houdt Samsung erbij en je hebt capaciteit genoeg.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 23 oktober 2020 @ 17:28:
[...]


Ik weet dat Samsung van vergelijkbare grote is als TSMC in totale capaciteit. Ze zitten alleen beiden in andere markten en hebben geen volledige overlap en een ander portfolio als het om nodes gaat. TSMC is een pure play foundry die hun oude node capaciteit ook aanhoud. Ze produceren nog steeds heel wat 28nm, 16nm etc naast de 7nm en nu de 5nm.

Samsung is gedeeltelijk pure play, gedeeltelijk geheugenchips in alle soorten. Samsung lijkt behoorlijk goed in geheugenchips te zijn en is ook marktleider, maar als je kijkt naar de grote spelers zoals Apple, Qualcomm, MediaTek, HiSilicon, AMD, Nvidia etc, tja die lijken allemaal een voorkeur voor TSMC te hebben als ze niet exclusief zijn.
Allemaal waar, maar Samsung produceert ook veel Exynos SoC's op 8nm en moet daarvoor aardig wat wafer capaciteit hebben.

Verder zien we een kleine shift plaatsvinden. Enerzijds Nvidia die nu bij Samsung zit, anderzijds Qualcomm die zijn volgende SoC ook bij Samsung wil produceren.
De context was Nvidia. Dat heeft voor dit bedrijf toch altijd goed uitgepakt.

[ Voor 96% gewijzigd door XWB op 23-10-2020 22:40 ]

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 23 oktober 2020 @ 22:36:
[...]


Allemaal waar, maar Samsung produceert ook veel Exynos SoC's op 8nm en moet daarvoor aardig wat wafer capaciteit hebben.

Verder zien we een kleine shift plaatsvinden. Enerzijds Nvidia die nu bij Samsung zit, anderzijds Qualcomm die zijn volgende SoC ook bij Samsung wil produceren.
Qualcomm gaat al jaren heen en weer en daar is ook bekend van dat ze het bewust doen. Nvidia is nieuw na hun experiment met GP107. Hoe dat uit gaat pakken, nou over een week weten we denk ik al iets meer. :) Overigens vermoed ik dat er een moment zal komen dat AMD voor hun RDNA iteraties ook naar Samsung zal gaan. Ze werken al samen voor de GPU's van Samsung haar SoC's en met de huidige koers en groeipotentieel gaan ze een gegeven moment meer wafers nodig hebben dan TSMC ze in kan voorzien. Maar dat is een andere discussie voor een ander topic.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Intel, 14nm+++++, ja, we hebben ook 10nm hoor :+.

@XWB
Behaalde resultaten in het verleden bieden geen garantie voor te toekomst. Ik denk dat dat het samenvat; want Intel liep op iedereen voor als het aankwam op process node maar loopt nu achter op TSMC.
Heeft daardoor ook geen betere cpu's kunnen uitbrengen op een nieuwere node.

Dus afhankelijk zijn van een foundry is gewoon niet slim.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
@DaniëlWW2 je hebt gelijk, blijkbaar gebruikt Samsung helemaal geen EUV voor 8N. Ik had kunnen zweren dat ze een paar lagen met EUV deden als opwarmertje voor 7/5.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 23 oktober 2020 @ 23:42:
@DaniëlWW2 je hebt gelijk, blijkbaar gebruikt Samsung helemaal geen EUV voor 8N. Ik had kunnen zweren dat ze een paar lagen met EUV deden als opwarmertje voor 7/5.
Als ze dat deden, dan hadden we misschien onze verklaring waarom je geen GA102 kan kopen. :+
Samsung 7nm lijkt echt iets van twee jaar een papieren node te zijn geweest totdat ze eindelijk met de 9825 kwamen. Nu met de 5nm rebrand lijkt het misschien een beetje te werken en hebben ze enige capaciteit. :P

Maar Samsung haar EUV uitrol lijkt niet al te soepel te zijn gegaan en binnen een halfjaar van massaproductie naar 600mm2+ chips lijkt me wat optimistisch. AdoredTV claime dit ook als "de oplossing", maar het kwam niet uit. Daar kwam misschien de verwarring vandaan want dat is ook meermaals over het internet gegaan. Kwam ook nog eens dat bepaalde AIB's verteld was dat het wel 7nm EUV was en die snel hun statements moesten aanpassen. :)

[ Voor 21% gewijzigd door DaniëlWW2 op 24-10-2020 00:00 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Obv de geruchten denk ik dat het op zich vrij simpel is.

TSMC is al paar jaar de onbetwiste marktleider en heeft momenteel de beste nodes voor dit soort produkten. Daarom zit de GA100 bij TSMC. nVidia wilde met hun zakelijke gpu's geen risico's nemen. Lijkt me logisch.

Voor de consumenten GA 102/104 etc gpu's heeft nvidia TSMC onder druk gezet om betere prijzen te krijgen. TSMC heeft niet toegegeven want ze hebben klanten zat. Dus ging/moest nvidia naar Samsung.

Ik denk dat de Samsung node wel degelijk inferieur is aan de TSMC node anders zouden wel meer partijen (ook) bij Samsung zitten.

Tegelijkertijd is het denk ik niet perse een echt slechte move. Er zijn amper (geschikte) foundries meer over en afhankelijk zijn van één foundry is ook risicovol. Tegelijkertijd ziet nvidia ook wel in dat TSMC vooralsnog nu eenmaal leading is dus daar wil je gewoon zitten. En hoe meer je afneemt en hoe beter je relatie/samenwerking is hoe meer invloed je hebt. Wat nvidia afneemt kan de concurrentie niet meer afnemen. Dat speelt ook mee zolang er meer vraag is dan aanbod op een node.

TSMC zal nvidia verder niet zomaar de deur wijzen, je komt elkaar altijd weer tegen en hebt elkaar nodig, maar als nvidia zich weer eens erg nVidia'aans gedragen heeft (die slechte naam die ze overal schijnen te hebben krijg je niet voor niks) dan spelen dat soort animositeiten ook een rol bij het gunnen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Nu online
TSMC heeft gewoon accountmanagers en financiële resultaten te behalen. Als zij een beter aanbod krijgen dan die van de concurrent dan wordt er gewoon een deal gemaakt. Een leuk contact erbij waar beide partijen zich aan moeten houden en dan zijn ze weer een jaar vriendjes.

De B2B sector heeft weinig met gunnen te maken, zeker wanneer je beursgenoteerd bent.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op zondag 25 oktober 2020 @ 11:25:
TSMC heeft gewoon accountmanagers en financiële resultaten te behalen. Als zij een beter aanbod krijgen dan die van de concurrent dan wordt er gewoon een deal gemaakt. Een leuk contact erbij waar beide partijen zich aan moeten houden en dan zijn ze weer een jaar vriendjes.

De B2B sector heeft weinig met gunnen te maken, zeker wanneer je beursgenoteerd bent.
Ik werk zelf o.a. in de B2B sector en zie decisionmaking op boardroom niveau bij multinationals en grote bedrijven en gunnen speelt gewoon een rol. Ook binnen de board werken mensen met gevoelens en als je iemand een lul vindt en je hebt slechte ervaringen dan gun je hem gewoon minder of je laat hem er meer voor doen of meer voor betalen. Zeker als vraag naar je produkt groter dan aanbod is heb je die leverage.

Goede relaties en continuiteit zijn wel degelijk een hoop waard. Zo vaak gezien, partij X betaald wat meer maar zoveel gezeik ermee, geen zin in, onder de streep kost ons dat gezeik eigenlijk gewoon meer.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 16:28

XanderDrake

Build the future!

Het ligt ergens tussen wat Vipeax en Help!!!! in denk ik. Er zit iets meer emoties en menselijke verhoudingen in het onderhandelingsproces dan wat Vipeax zegt, maar de (negatieve) emoties die Help!!!! blijkt te hebben tegenover nVidia zullen zijn conclusies over de onderhandelingen ook wel kleuren ;)

Een duidelijk voordeel van TSMC versus Samsung natuurlijk is de transistor dichtheid. Maar Ik denk dat productie volume uiteindelijk een vrij grote factor is in de keuze voor Samsung is. TSMC moet dealen met Apple Silicon (welke nu overstapt van Intel naar nóg meer TSMC-made chips) én Sony + Microsoft voor hun consoles én AMD's grote GPUs én de Snapdragons, etc etc.
Het verbaast mij niets dat al veel van deze producten te weinig wordt gemaakt; Apple's iPhone 12 launch was uitgesteld en van de consoles lopen alle pre-orders op zonder grote leveringen in het verschiet. Waarschijnlijk zullen er tevens niet veel Big Navi XTs te krijgen zijn.
nVidia zag de bui al hangen, maar of Samsung nu alles gaat redden? We gaan zien hoe goed de Big Navi's het doet mbt verbruik en clocks, want dán weten hoeveel beter TSMC is!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 15:42
NVIDIA GeForce RTX 3070 Reviewer’s Guide leaked

Embargo gaat op 27 oktober, 15:00u eraf.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zondag 25 oktober 2020 @ 11:22:
Obv de geruchten denk ik dat het op zich vrij simpel is.

TSMC is al paar jaar de onbetwiste marktleider en heeft momenteel de beste nodes voor dit soort produkten. Daarom zit de GA100 bij TSMC. nVidia wilde met hun zakelijke gpu's geen risico's nemen. Lijkt me logisch.

Voor de consumenten GA 102/104 etc gpu's heeft nvidia TSMC onder druk gezet om betere prijzen te krijgen. TSMC heeft niet toegegeven want ze hebben klanten zat. Dus ging/moest nvidia naar Samsung.

Ik denk dat de Samsung node wel degelijk inferieur is aan de TSMC node anders zouden wel meer partijen (ook) bij Samsung zitten.

Tegelijkertijd is het denk ik niet perse een echt slechte move. Er zijn amper (geschikte) foundries meer over en afhankelijk zijn van één foundry is ook risicovol. Tegelijkertijd ziet nvidia ook wel in dat TSMC vooralsnog nu eenmaal leading is dus daar wil je gewoon zitten. En hoe meer je afneemt en hoe beter je relatie/samenwerking is hoe meer invloed je hebt. Wat nvidia afneemt kan de concurrentie niet meer afnemen. Dat speelt ook mee zolang er meer vraag is dan aanbod op een node.

TSMC zal nvidia verder niet zomaar de deur wijzen, je komt elkaar altijd weer tegen en hebt elkaar nodig, maar als nvidia zich weer eens erg nVidia'aans gedragen heeft (die slechte naam die ze overal schijnen te hebben krijg je niet voor niks) dan spelen dat soort animositeiten ook een rol bij het gunnen.
Het ligt eraan waarvoor je het wil gebruiken. Is de Samsung 10nm klasse inferieur aan TSMC 7nm klasse voor ARM SoC's? Waarschijnlijk wel. Immers zit het maximum van de TSMC node ergens tussen de 90-100 miljoen transistoren per mm2. Samsung haar verfijnde 10nm klasse, 8LPP zit maximaal net over de 60 miljoen transistoren per mm2. Dat is relevant voor ARM SoC's, maar niet voor high performance waar dichtheid afgewogen moet worden met clock speeds. Zen 2 zit rond de 51 miljoen transistoren per mm2 en RDNA1 rond de 41 miljoen transistoren per mm2. Zo is de circa 45 miljoen transistoren per mm2 van GA102 opeens niet zo slecht meer.

Als AMD werkelijk de transistordichtheid van N7 beter kon benutten met behoud van clock speeds op zelfs circa 1900MHz, tja dan keken we niet naar een 80CU Navi 21, nee eerder 120CU's. Dat zou ik willen classificeren als een gevalletje "Nvidia ded". :P

Dat zit er alleen niet in. Ik moet nog maar zien wat RDNA2 precies gaat brengen omdat die paar honderd megahertz aan extra clock speed ergens vandaan moeten komen. Het zou goed kunnen dat RDNA2 een lagere dichtheid gaat kennen op een nominaal dichtere node.

GA100 is een heel ander product dat ze niet op Samsung haar 10nm klasse kunnen maken. Immers gaat die met een dichtheid van meer dan 65 miljoen transistoren per mm2 over de maximale dichtheid van de Samsung node. GA100 verliest alleen wel heel erg veel clock speed voor die dichtheid. Daarom hebben de AMD chips ook veel minder dichtheid op dezelfde N7 node.


Het probleem is ook dat verkeerde klasse nodes vergeleken worden. Je moet TSMC 7nm vergelijken met Intel 10nm en Samsung 7nm. Het probleem is dat Intel 10nm nu al jarenlang botweg niet werkt en er productiecapaciteit bestemd voor 10nm al naar 14nm is overgeheveld. Samsung 7nm was eigenlijk een papieren node was tot dit jaar waar je niks kon laten produceren. De fabriek waar Samsung, 7nm wafers produceert, was nog in aanbouw. Inmiddels heeft Samsung hun 7nm hernoemd naar 5nm LPP en Qualcomm neemt dit af. Het is er namelijk eindelijk. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ook Samsung maakt toch gewoon verschillende nodes die bedoeld zijn om verschillende typen chips, qua dichtheid, transistor count en whatever you have te accomoderen.

Voorzover mij bekend probeert Samsung met deze nodes ook gewoon in dezelfde vijver te vissen als TSMC en de klanten van TSMC te winnen zoals Apple, AMD en noem ze maar op.

Het heeft niet zoveel zin om nodes te ontwerpen die niemand wil hebben.

Punt blijft dus dat als Samsung's nodes zo geweldig waren, wel meer partijen ze af zouden nemen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op zondag 25 oktober 2020 @ 12:09:
Het ligt ergens tussen wat Vipeax en Help!!!! in denk ik. Er zit iets meer emoties en menselijke verhoudingen in het onderhandelingsproces dan wat Vipeax zegt, maar de (negatieve) emoties die Help!!!! blijkt te hebben tegenover nVidia zullen zijn conclusies over de onderhandelingen ook wel kleuren ;)
Haha, van mij krijgt nvidia niks!!! :P Oh wacht dan krijg ik mijn 3080 ook nooit meer binnen :P

Volgensmij schreef ik ook duidelijk dat het een rol speelt temidden van vele variabelen. En soms kan het dus ook de doorslag geven.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Punt blijft ook dat geld meespeelt. Als je bij Samsung meer transistoren per dollar krijgt, dan kan dat een prima afweging zijn, ook al zijn die transistoren per stuk wat minder.

Stel je voor dat je 25% meer transistoren krijgt bij Samsung voor je geld als bij TSMC. Dan was een even dure TSMC chip dus 80% van de transistoren geweest. Om dezelfde performance eruit te krijgen, moeten je kloksnelheden op 125% liggen van die bij Samsung. Het is heel sterk de vraag of dat zuiniger zou zijn dan het Samsung equivalent.

Misschien zal het ook nog meespelen dat het simpelweg dingen wat eenvoudiger maakt als je alles bij één partij laat produceren, met PDKs (design kits) die consistenter zijn tussen technologieën. (In theorie, in de praktijk valt dat nog tegen...).

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Dat klopt wel maar onder de streep zit iedereen bij TSMC. Ook Intel wil / gaat naar TSMC. Denk je dat die niet ook naar Samsung gekeken hebben ? Of dat Samsung Intel niet als klant wil.

Al die afwegingen worden zonder meer gemaakt door de betrokken partijen. Bottomline blijft dat als de Samsung propositie aantrekkelijk genoeg zou zijn, dan zaten meer partijen daar.

Overigens, ik ga in het geheel niet verbaasd zijn als Intel haar zaakjes niet snel op orde krijgt dat zij aan TSMC (een deel van) hun fabrieken gaat verkopen die (in eerste instantie) intel exclusive worden.

[ Voor 22% gewijzigd door Help!!!! op 25-10-2020 12:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op zondag 25 oktober 2020 @ 12:35:
^
Dat klopt wel maar onder de streep zit iedereen bij TSMC. Ook Intel wil / gaat naar TSMC. Denk je dat die niet ook naar Samsung gekeken hebben ? Of dat Samsung Intel niet wil.

Al die afwegingen worden zonder meer gemaakt door de betrokken partijen. Bottomline blijft dat als de Samsung propositie aantrekkelijk genoeg zou zijn, dan zaten meer partijen daar.
Ja maar denk je niet dat Nvidia ook die afweging heeft gemaakt? Die kunnen ook het sommetje doen hoeveel ze moeten betalen, en die zullen ook gewoon redelijke performance data hebben gehad voor ze de keuze hebben gemaakt. Gelukkig is voor iedereen de afweging anders, anders was er nog maar één partij over.

Samsung gaat ook de nieuwe Qualcomm processoren maken. Maakt Qualcomm ook een enorme fout omdat ze niet weten wat ze aan het doen zijn daarzo en een stel prutsers zijn? ;)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sissors schreef op zondag 25 oktober 2020 @ 12:39:
[...]

Ja maar denk je niet dat Nvidia ook die afweging heeft gemaakt? Die kunnen ook het sommetje doen hoeveel ze moeten betalen, en die zullen ook gewoon redelijke performance data hebben gehad voor ze de keuze hebben gemaakt. Gelukkig is voor iedereen de afweging anders, anders was er nog maar één partij over.
[...]
Samsung gaat ook de nieuwe Qualcomm processoren maken. Maakt Qualcomm ook een enorme fout omdat ze niet weten wat ze aan het doen zijn daarzo en een stel prutsers zijn? ;)
Qualcomm lijkt me zeker geen stel prutsers. nVidia trouwens ook niet. Ze lijken me eigenlijk vrij slim :P .

Qualcomm zit volgensmij al langer bij verschillende foundries. Ik denk dat zij dit ook doen vanwege risicospreiding.
En waarschijnlijk omdat TSMC gewoon niet genoeg capaciteit heeft om alle vraag van alle grote partijen te vervullen. De vraag neemt de komende jaren volgensmij sneller toe dan dat zij fabrieken kunnen bouwen en van machines voorzien.

Volgensmij heb ik ook niet gezegd dat nvidia een grote fout heeft gemaakt. Ik denk dat wel dat ze onder de streep beter bij TSMC hadden kunnen zitten. Tegelijkertijd is risicospreiding en beperkte capaciteit ook iets om rekening mee te houden. En als je vertrouwen in Samsung's toekomstige nodes hebt kan het geen kwaad daar vroegtijdig in te stappen.

Maar nogmaals, als Samsung zo'n goede propositie had dan zouden veel meer grote partijen hen als eerste keus moeten hebben.

[ Voor 3% gewijzigd door Help!!!! op 25-10-2020 12:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zondag 25 oktober 2020 @ 12:25:
^
Ook Samsung maakt toch gewoon verschillende nodes die bedoeld zijn om verschillende typen chips, qua dichtheid, transistor count en whatever you have te accomoderen.

Voorzover mij bekend probeert Samsung met deze nodes ook gewoon in dezelfde vijver te vissen als TSMC en de klanten van TSMC te winnen zoals Apple, AMD en noem ze maar op.

Het heeft niet zoveel zin om nodes te ontwerpen die niemand wil hebben.

Punt blijft dus dat als Samsung's nodes zo geweldig waren, wel meer partijen ze af zouden nemen.
Je mist het punt nog steeds. Die ARM SoC bedrijven willen de nodes met de grootste dichtheid zodat ze meer chips kunnen produceren. Voor AMD en Nvidia is het veel meer een balanceer act tussen dichtheid en clock speed omdat ze met veel groter verbruik werken, ook per mm2, waardoor hitteafvoer een probleem is. We zien nu al enkele jaren dat die producten iets betere clock speeds halen als ze koeler draaien.

Zeker voor videokaarten is het minder relevant om op de allernieuwste node te zitten omdat ze toch niet de maximale dichtheid van de node benutten. AMD zit niet eens op de helft met N7. Komt nog eens bij wat ik ruim een jaar geleden al duidelijk probeerde te maken. De tijden dat een nieuwe node gepaard ging met een "gratis" merkbare verbetering aan clock speed is voorbij. Dat zien wel met de paar Intel 10nm producten, nu met Nvidia en met AMD in iets mindere mate ook. Qua Zen halen ze er nog steeds wat uit en qua RDNA lijkt het voornamelijk architectuur te zijn die ze nog sprongen oplevert. Het gaat nu veel meer om clock speed behoud terwijl je wel de dichtheid opvoert om meer transistoren kwijt te kunnen. Daarom denk ik ook dat de keuze voor Samsung 8N niet zo slecht is voor Nvidia. Ze hebben iets meer voltage nodig voor een vergelijkbare clock speed met Ampere, maar ruilen dat af tegen een fors hogere dichtheid.

We krijgen over een week ook de eerste test met GA104. Kan je GA104 wel iets beter krijgen, dan kunnen we substraten in ieder geval afstrepen als een mogelijke oorzaak. Kan je GA104 ook niet krijgen dan valt GDDR6X als oorzaak af. Ik vermoed namelijk dat het probleem voornamelijk ligt bij de late start en gerushte launch van GA102. GA104 is vertraagd door Nvidia en als het hier wel gaat lopen en GA102 is over een paar weken wel enigszins normaal te krijgen, dan was het waarschijnlijk niet Samsung. Gaat het nu ook helemaal mis met GA104 en blijft het maar aanhouden, dan moet er denk ik naar Samsung gekeken worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ze bestaan. :P
Afbeeldingslocatie: https://preview.redd.it/e7u8c55l39v51.jpg?width=1280&format=pjpg&auto=webp&s=64cbe8bcbba5a534f0d8de138d22592bfb31eb95
Afbeeldingslocatie: https://preview.redd.it/o876hy4m29v51.jpg?width=1152&format=pjpg&auto=webp&s=c84b8986649d1d519aafa1b481351bf991dba476
Afbeeldingslocatie: https://preview.redd.it/i4f4fkpk29v51.jpg?width=1536&format=pjpg&auto=webp&s=5613848d34d05c12a4d545112903053c71b72eca

En ze zijn te kopen in Irak. :P
https://www.reddit.com/r/...l_3070s_here_in_iraq_but/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 11:55
Zou best een 3070 willen hebben, Maar wil weten wat Cyberpunk aan spec nodig heeft betreft UW. En ze hebben alleen Full HD spec listed atm.
Dus dan word de AMD equivelant mits ze demand aan kunnen en of anders een 3080.

En anders wachten op een TI/Super versie oid met Vram. Wil wel een beetje Future proof wegens Vram.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia haar reviewers guide is gelekt.

Dit lijkt echt een objectieve selectie van games te zijn. :P
Afbeeldingslocatie: https://cdn.videocardz.com/1/2020/10/NVIDIA-GeForce-RTX-3070-RG-Peformance.png

https://videocardz.com/ne...70-reviewers-guide-leaked

Maar ze NDA vervalt op de 27ste en de verkoop begint op de 29ste. Het is bijna alsof ze mensen willen afleiden van iets op de 28ste. ;)

[ Voor 19% gewijzigd door DaniëlWW2 op 25-10-2020 16:34 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dat is toch hetzelfde lijstje als ze voor de 3080 hebben gebruikt? Ik vraag me meer af of het 1440p of 4k is.

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:04
Ik heb zo goed en zo kwaad als het ging de bestaande benches opgezocht voor de 2070 en 2080 Ti om te kijken of de vraag aan de hand daarvan te beantwoorden is. Het antwoord is domweg "nee" omdat beide kaarten redelijk evenredig schalen op beide resoluties (de afwijkingen zijn te klein om er conclusies aan te verbinden). Of datzelfde geldt voor de 3070 moeten we dus maar afwachten.

Edit: en ik ben een sukkel omdat in de bron van dit ding het er gewoon bij staat: "Game performance measured at 1440p, highest game settings, i9, RTX ON, is RT+DLSS".

[ Voor 32% gewijzigd door MneoreJ op 25-10-2020 20:51 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MneoreJ schreef op zondag 25 oktober 2020 @ 20:41:
Ik heb zo goed en zo kwaad als het ging de bestaande benches opgezocht voor de 2070 en 2080 Ti om te kijken of de vraag aan de hand daarvan te beantwoorden is. Het antwoord is domweg "nee" omdat beide kaarten redelijk evenredig schalen op beide resoluties (de afwijkingen zijn te klein om er conclusies aan te verbinden). Of datzelfde geldt voor de 3070 moeten we dus maar afwachten.

Edit: en ik ben een sukkel omdat in de bron van dit ding het er gewoon bij staat: "Game performance measured at 1440p, highest game settings, i9, RTX ON, is RT+DLSS".
Het gaat niet om de onderlinge percentages. Het gaat erom dat Nvidia hier bewust een aantal games geselecteerd heeft die het juist goed lijken te doen met Ampere en voor de vorm hebben ze er Borderlands 3 ook bij gedaan. Maar dat heb ik al eerder duidelijk proberen te maken want ik denk dat de RTX3070 het net niet gaat halen tegenover de RTX2080Ti. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:04
Of het ding het net wel of net niet gaat halen interesseert me vrij weinig, het was een reactie op de vraag van @Sissors. Tuurlijk moet je onafhankelijke benchmarks afwachten als je echte getallen wil, en zeker aangezien we al weten hoe goed de claims van Nvidia overeenkomen met de werkelijkheid voor deze generatie (met andere woorden, meer in de categorie "true from a certain point of view").

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:07
DaniëlWW2 schreef op zondag 25 oktober 2020 @ 16:32:
Nvidia haar reviewers guide is gelekt.

Dit lijkt echt een objectieve selectie van games te zijn. :P
[Afbeelding]

https://videocardz.com/ne...70-reviewers-guide-leaked

Maar ze NDA vervalt op de 27ste en de verkoop begint op de 29ste. Het is bijna alsof ze mensen willen afleiden van iets op de 28ste. ;)
mwah, zoveel games staan er niet tussen.
Sowieso: Wie speelt Ashes nog? Of wie speelde het uberhaupt ooit :+

Wacht wel ff op de reviews ;-)

Maar inderdaad, Nvidia gaat Intel-fratsen uithalen O-) dag voor release concurrent nog ff snel allerlei nieuws uitbrengen, en nog ff benchmarks de wereld in slingeren.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XanderDrake schreef op zondag 25 oktober 2020 @ 12:09:
Het ligt ergens tussen wat Vipeax en Help!!!! in denk ik. Er zit iets meer emoties en menselijke verhoudingen in het onderhandelingsproces dan wat Vipeax zegt, maar de (negatieve) emoties die Help!!!! blijkt te hebben tegenover nVidia zullen zijn conclusies over de onderhandelingen ook wel kleuren ;)
Groen? Gezien zijn videokaart?
Een duidelijk voordeel van TSMC versus Samsung natuurlijk is de transistor dichtheid. Maar Ik denk dat productie volume uiteindelijk een vrij grote factor is in de keuze voor Samsung is. TSMC moet dealen met Apple Silicon (welke nu overstapt van Intel naar nóg meer TSMC-made chips) én Sony + Microsoft voor hun consoles én AMD's grote GPUs én de Snapdragons, etc etc.
Het verbaast mij niets dat al veel van deze producten te weinig wordt gemaakt; Apple's iPhone 12 launch was uitgesteld en van de consoles lopen alle pre-orders op zonder grote leveringen in het verschiet. Waarschijnlijk zullen er tevens niet veel Big Navi XTs te krijgen zijn.
nVidia zag de bui al hangen, maar of Samsung nu alles gaat redden? We gaan zien hoe goed de Big Navi's het doet mbt verbruik en clocks, want dán weten hoeveel beter TSMC is!
Apple zit op 5nm dacht ik en neemt dan waarschijnlijk nauwelijks 7nm chips af. Dan nog heb je verschillende varianten van 7nm bij TSMC (met allemaal hun eigen capaciteit).
Geen garantie dat er dus veel Big Navi kaarten zullen zijn, maar gezien de die kleiner is dan Ampere is de kans wel groter dat er meer zullen zijn.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

'GeForce RTX 3070 bij lancering duidelijk beter verkrijgbaar dan 3080 en 3090':
https://nl.hardware.info/...rijgbaar-dan-3080-en-3090

Vermeende line-up mobiele RTX 30-serie verschijnt online, inclusief RTX 3060:
https://nl.hardware.info/...online-inclusief-rtx-3060

nieuws: Gerucht: Nvidia werkt aan gpu die tussen RTX 3070 en 3080 wordt gepos...

[ Voor 28% gewijzigd door choogen op 26-10-2020 10:30 ]


  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:29
[b]Sp3ci3s8472 schreef op maandag 26 oktober 2020 @ 00:45:

Apple zit op 5nm dacht ik en neemt dan waarschijnlijk nauwelijks 7nm chips af. Dan nog heb je verschillende varianten van 7nm bij TSMC (met allemaal hun eigen capaciteit).
Geen garantie dat er dus veel Big Navi kaarten zullen zijn, maar gezien de die kleiner is dan Ampere is de kans wel groter dat er meer zullen zijn.
Ben benieuwd of daar ergens cijfers van zijn, Apple heeft immers nog genoeg apparatuur in haar product gamma dat gebruikt maakt van op 7nm gefabriceerde SoC's. Nu kan het natuurlijk zijn dat Apple een enorme voorraad heeft aangelegd en daardoor geen 7nm meer nodig heeft, ik vraag me echter af hoe waarschijnlijk dat is, daar je normaliter niet direct met enorme voorraden chips wil zitten.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
choogen schreef op maandag 26 oktober 2020 @ 09:44:
'GeForce RTX 3070 bij lancering duidelijk beter verkrijgbaar dan 3080 en 3090': https://nl.hardware.info/...rijgbaar-dan-3080-en-3090
De 3070 is denk ik de kaart waar Nvidia het hoopt op te winnen, prijs en prestatie gezien. De 3080 is alleen maar neer gezet om snel geld te verdienen (zie tekort) en AMD gaat het op dit vlak gaat winnen. Nvidia zal daarop wel gaan reageren met een nieuwere kaart die mogelijk beter in de markt wordt gezet en 3080 langzaam uit productie (1e kwartaal volgend jaar?).
Pagina: 1 ... 95 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.