• enchion
  • Registratie: Februari 2002
  • Niet online
Postman schreef op vrijdag 11 december 2020 @ 13:41:
Even wat olie op het vuur: ik snap niet dat mensen überhaupt voor de hele raytracing marketing truuk vallen. Het is nog steeds een techniek die in zijn kinderschoenen staat, het voegt in de titels die het gebruiken niet altijd iets toe, en als het al iets toevoegt daalt je performance ontzettend hard (je moet dus óf RT gebruiken óf ultra settings, beide gaat niet).
Daarbij is het maar de vraag of het ooit iets gaat worden. Als de implementatie niet van de grond komt is het 'leuk' dat het er is, maar meer ook niet. Kijk maar naar SLI en CrossFire. Super techniek, geen enkele recente game die hier gebruik van maakt. Voor de 6900XT op CrossFire review hebben ze spellen van 4-5 jaar oud moeten gebruiken, simpelweg omdat er geen recentere titels zijn die het ondersteunen.

Hetzelfde geldt ook voor multi-threading. 'Can it run Crysis' is nog steeds actueel, simpelweg omdat het allemaal op 1 CPU thread draait. Een beetje mainstream CPU heeft tegenwoordig 4 of 6 cores met 8 tot 12 threads. Waarom dan alles single core maken?

In plaats van onnodige technieken bedenken om de 0,1% van de markt even een gimmick te geven (ja zo weinig, wie heeft het er geld om elke 6-12 maanden een nieuwe PC samen te stellen met het duurste van het duurste...) zouden ze iets moeten gaan doen aan optimalisatie en technieken gebruiken die er al jaren zijn. We leven niet meer in de jaren '90, hoe moeilijk kan het zijn om een game engine multi-threaded te maken en dit als spel ontwikkelaar ook te gebruiken.
Raytracing is absoluut geen gimmick, rasterization daarentegen wel.

Zonder raytracing had rasterization nooit bestaan. (hoe kan je iets cheaten als je het doel niet weet.)

Raytracing is ongeveer de meest fundamentele techniek in 3d rendering.

Bijna alle spellen waar je het verschil niet ziet komt omdat de studio de schaduwen heeft geraytraced en dan die schaduw heeft opgeslagen als texture om die vervolgens in de 3dwereld in te plakken.
Daarom ook zou je bijna geen enkel 3d spel kunnen spelen als er geen raytracing bij aan te pas is gekomen.

De kapitale fout die nVidia bewust heeft gemaakt is dat ze geen generieke implementatie van de hardware acceleratie hebben genomen maar een nVidia specifieke en aan dat "spelletje" doen sommige kanalen niet mee.
Waardoor Jensen nu gedwongen is zichzelf belachelijk te maken.

How do you save a random generator ?


  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

chris_vanr schreef op vrijdag 11 december 2020 @ 11:01:
[...]


Ik zag dit ook vanochtend, wat een bizarre actie van nVidia. Hier mag best wel wat aandacht aan gegeven worden door Tweakers IMO.
Slechte zaak inderdaad. Waarom ook Hardware Unboxed, ik vind hun vrij fair en neutraal in hun reviews.
Staat ook op de frontpage nu.

Denk niet dat ze hiermee lekker weg gaan komen.
Verwijderd schreef op vrijdag 11 december 2020 @ 08:06:
[...]


Ligt ook aan je resolutie, op 1440p is eigenlijk alles beneden de "quality" DLSS setting behoorlijk wazig.
(In zowel Cyberpunk als Watch Dogs Legion bijvoorbeeld) Op 4k en 8k zullen de lagere instellingen het beduidend beter doen.
Vooralsnog kan ik alleen maar zeggen dat DLSS me toch een beetje tegen valt, het draagt zeker bij aan betere frame rates, maar in de spellen die ik tot nu toe gespeeld heb is dit onvoldoende om de performance-hit van Ray tracing te compenseren. (Op 1440p iig)
Tenzij je bereid bent om de aanzienlijke vermindering in scherpte en beeldkwaliteit van "Balanced" of "Performance" te accepteren.
Ik zou DLSS zelf ook niet direct "kapot" noemen, maar ik zou de lagere instellingen ook nooit gebruiken...
Ik zou RT alleen doen als je ook een behapbare resolutie hebt. Ze zijn er nog niet, zelfs second gen RT. AMD RX 6800XT zal al helemaal niet lekker lopen in deze game.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
@DaniëlWW2 Het probleem van Cyberpunk zit al in de manier waarop ze threaden. Het spel loopt op 1080p al tegen een keiharde CPU limiet aan. Elke benchmark die ik heb gezien heeft alles vanaf 3070/6800 erg dicht op elkaar zitten. Voor de consoles zou ik daar het grootste probleem zoeken.

De INT32 balans zal zeker iets uit maken, echter waarschijnlijk niet op de manier waarop jij denkt, althans niet geheel. Er zit ook rekenwerk omtrent geheugen adressen in de workload en dat is allemaal integer. En juist dat speelt op hogere resoluties ook een rol. Dat is overigens iets dat in RDNA2 (en console-RDNA) ook anders is; mixed precision throughput is verdubbeld voor 16/32. INT8/INT32 (en 4/32) worden nu ook ondersteund, in RDNA1 nog niet.

Verder is het spel inderdaad gewoon gebouwd voor Nvidia, iets anders had ik ook niet verwacht. Op medium zie je op 1080p de balans tussen GPU's zoals je die in de meeste andere games ziet. Op 1440p zakt AMD een halve "kaart" terug en op 2160p zitten ze een "kaart" te laag - bandbreedte zou best een dingetje kunnen zijn. Op high en ultra zitten dus een hoop dingen waar Nvidia beter in is. Kwestie van tijd tot iemand het uit vogelt, misschien is het wel weer gewoon een kwestie van een tessellation clamp ;)

Ik herhaal mijn punt uit de eerste alinea echter wel even: op 1080p high/ultra loopt je al snel tegen een CPU limiet aan. Die CPU limiet verdwijnt bij medium. Ik heb het spel zelf nog niet en koop het voorlopig ook nog niet (toch geen tijd om het te spelen), maar ik vermoed dat er 1 of 2 settings zijn die zorgen voor een bizar aantal draw calls op high/ultra. Dat kan extra NPC's zijn die inefficiënt worden afgehandeld, maar het kan ook een hoop bullshit geometry zijn. Ergens is iets niet pluis, want met lichtere grafische settings zou je juist eerder tegen een CPU limiet aan moeten lopen.


Dat sabbelen laat ik trouwens wel achterwege, met corona lijkt me dat niet zo slim :+


Sorry, kon het niet laten, een van de leukere dyslectische vergissingen. Modje plagen, mag dat? :P

  • M-spec
  • Registratie: September 2004
  • Niet online
Verwijderd schreef op vrijdag 11 december 2020 @ 08:06:
[...]


Ligt ook aan je resolutie, op 1440p is eigenlijk alles beneden de "quality" DLSS setting behoorlijk wazig.
(In zowel Cyberpunk als Watch Dogs Legion bijvoorbeeld) Op 4k en 8k zullen de lagere instellingen het beduidend beter doen.
Vooralsnog kan ik alleen maar zeggen dat DLSS me toch een beetje tegen valt, het draagt zeker bij aan betere frame rates, maar in de spellen die ik tot nu toe gespeeld heb is dit onvoldoende om de performance-hit van Ray tracing te compenseren. (Op 1440p iig)
Tenzij je bereid bent om de aanzienlijke vermindering in scherpte en beeldkwaliteit van "Balanced" of "Performance" te accepteren.
Ik zou DLSS zelf ook niet direct "kapot" noemen, maar ik zou de lagere instellingen ook nooit gebruiken...

Vind dit ook wel een minpuntje van de de diverse "tech kanalen": Er wordt voornamelijk gekeken naar de prestaties bij 4k , waarbij (de combinatie van) beide nieuwe technieken de hemel in geprezen worden, terwijl het op 1440p veel minder indrukwekkend is.
XanderDrake schreef op vrijdag 11 december 2020 @ 18:15:
[...]
[...]

Ik zou RT alleen doen als je ook een behapbare resolutie hebt. Ze zijn er nog niet, zelfs second gen RT. AMD RX 6800XT zal al helemaal niet lekker lopen in deze game.
Ook op een toch redelijk resolutie van 1280x720p heeft Ray Tracing:Medium of Ultra settings (maakt niet uit) nog een behoorlijk andere performance hit met Cyberpunk: namelijk op de CPU. Zie deze review.

Edit: er blijkt een Hex fix te zijn ivm SMT gebruik.

Voorbeeld test met eigen systeem:
CPU: 3800X @ stock ~4350MHz XFR ingame met DDR4 3733CL14.

Bij gebrek aan een referentie benchmark een zelfde stukje rondlopen in een druk gedeelte van de stad op 720p, DLSS off:

RT uit : 80-115FPS
RT aan: 60-75FPS
Hex Fix RT aan: 60 > 76+ FPS met nu 89% CPU load.
Op 3440x1440 zakt de CPU load naar 69% op 16 threads.

RT snoept even ~25% FPS af op de CPU. De 3090 is dan nog laid back bezig op 52% PL.

Tot aan 2560x1440p Ultra RT en DLSS op Quality zit de 3090 nog op ~84%PL te dobberen met de 3800X. Een 3080 met RT aan zal dus ook een flinke CPU nodig hebben bij deze game op deze resolutie. De meeste reviewers gebruiken immers al sneller CPU materiaal.

Op 3440x1440 zit de 3090 wel op zijn power limit te werken maar DLSS kwaliteit verlagen heeft in dit geval geen voordeel, het beeld wordt alleen maar belabberd en de 3090 gaat alsnog weer iets onderuit hangen. Op Ultra en Quality is alles wel goed speelbaar op 60FPS met strakke frametimes en ziet het er verder schitterend uit.

[ Voor 11% gewijzigd door M-spec op 13-12-2020 15:26 ]

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • M-spec
  • Registratie: September 2004
  • Niet online
@Werelds CPU limit inderdaad maar schaalt nog wel naar veel threads en snel geheugen.

[ Voor 89% gewijzigd door M-spec op 11-12-2020 23:38 ]

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 11 december 2020 @ 23:32:
@DaniëlWW2 Het probleem van Cyberpunk zit al in de manier waarop ze threaden. Het spel loopt op 1080p al tegen een keiharde CPU limiet aan. Elke benchmark die ik heb gezien heeft alles vanaf 3070/6800 erg dicht op elkaar zitten. Voor de consoles zou ik daar het grootste probleem zoeken.

De INT32 balans zal zeker iets uit maken, echter waarschijnlijk niet op de manier waarop jij denkt, althans niet geheel. Er zit ook rekenwerk omtrent geheugen adressen in de workload en dat is allemaal integer. En juist dat speelt op hogere resoluties ook een rol. Dat is overigens iets dat in RDNA2 (en console-RDNA) ook anders is; mixed precision throughput is verdubbeld voor 16/32. INT8/INT32 (en 4/32) worden nu ook ondersteund, in RDNA1 nog niet.

Verder is het spel inderdaad gewoon gebouwd voor Nvidia, iets anders had ik ook niet verwacht. Op medium zie je op 1080p de balans tussen GPU's zoals je die in de meeste andere games ziet. Op 1440p zakt AMD een halve "kaart" terug en op 2160p zitten ze een "kaart" te laag - bandbreedte zou best een dingetje kunnen zijn. Op high en ultra zitten dus een hoop dingen waar Nvidia beter in is. Kwestie van tijd tot iemand het uit vogelt, misschien is het wel weer gewoon een kwestie van een tessellation clamp ;)

Ik herhaal mijn punt uit de eerste alinea echter wel even: op 1080p high/ultra loopt je al snel tegen een CPU limiet aan. Die CPU limiet verdwijnt bij medium. Ik heb het spel zelf nog niet en koop het voorlopig ook nog niet (toch geen tijd om het te spelen), maar ik vermoed dat er 1 of 2 settings zijn die zorgen voor een bizar aantal draw calls op high/ultra. Dat kan extra NPC's zijn die inefficiënt worden afgehandeld, maar het kan ook een hoop bullshit geometry zijn. Ergens is iets niet pluis, want met lichtere grafische settings zou je juist eerder tegen een CPU limiet aan moeten lopen.
Ik denk niet dat het een setting is. Het is heel wat kleine beetjes. Ik heb ook nog niet echt een goede plek gevonden om zelf te testen. De pijn zit in ieder geval in verschillende schaduws, volumetric effecten en Screen Space Reflection die allemaal eigenlijk ook niet heel bijzonder lijken te zijn. Het helpt niet dat de game echt blurry is en ik drukker bezig was met technische problemen zoals key bindings werkende krijgen. Ik had dus ook nog niet eens gedacht aan de CPU.

Maar de game voelt technisch ook niet echt af. Ik krijg er eigenlijk een beetje de indruk bij dat de vele elementen losjes aan elkaar hangen omdat de ontwikkeltijd zo enorm lang is geweest. Sommige dingen zijn goed, andere buggy en grafisch lijkt het soms ook niet helemaal voltooid. Pop in gebeurd, soms zijn textures ook op PC eigenlijk een veel te lage resolutie en eigenlijk zelfs met FidelityFX CAS is het niet erg scherp. Het zou best kunnen dat er wat dingen zijn die nog wat optimalisatie kunnen gebruiken.

Ik heb ook nog niet gekeken naar wat de DLSS presets doen, maar ik kan me goed voorstellen dat die niet allemaal even goed werken of dat er plekken in de game zijn waar ze niet goed werken. Dynamic FidelityFX CAS op 95% is al dramatisch qua blur waar ik eerst teste. Dus 95% resolution en CAS eroverheen. Op andere plekken lijkt het wat minder erg te zijn. Het doet wel heel veel voor je framerate om dit een klein beetje te verlagen. Waar het namelijk niet blurry wordt, is naar 85% gaan zo richting de 20 frames voor mijn RX5700XT.
Dat sabbelen laat ik trouwens wel achterwege, met corona lijkt me dat niet zo slim :+

Sorry, kon het niet laten, een van de leukere dyslectische vergissingen. Modje plagen, mag dat? :P
Ik ga je verbanning morgen maar regelen. :N :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
enchion schreef op vrijdag 11 december 2020 @ 17:46:
De kapitale fout die nVidia bewust heeft gemaakt is dat ze geen generieke implementatie van de hardware acceleratie hebben genomen maar een nVidia specifieke en aan dat "spelletje" doen sommige kanalen niet mee.
Wat bedoel je hier precies mee?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Linus heeft de hele e-mail gekregen van Hardware Unboxed. Ik kan zo snel niet de uitgeschreven tekst vinden, maar uitgesproken lijkt het me duidelijk. Je bent onvoorwaardelijk met Nvidia of Nvidia is tegen je. Geen FE modellen meer vanwege redactionele redenen...


Pre release drivers blijven wel, maar de videokaarten zullen van AIB's moeten komen. Dat is bij lange na niet zo onschuldig als het lijkt aangezien Nvidia nog wel eens hun FE model wil voortrekken door deze een paar dagen eerder vrij te geven.


edit: En nu is wel duidelijk dat ze terecht zijn verbannen. Ik bedoel, ze geven gewoon aan dat DLSS settings buiten quality, eigenlijk helemaal niet zo goed werken. Zeker op 1440p wordt het blurry. Ik bedoel mensen proberen te informeren over welke setting ze het beste kunnen gebruiken en objectief benaderen wat werkt en wat niet. Nota bene in een video die min of meer gratis reclame voor Nvidia is op deze manier. Dat kan niet hoor. :z


Oh en kijk het begin ook even. Was vermakelijk. :+

[ Voor 33% gewijzigd door DaniëlWW2 op 12-12-2020 12:22 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 23:33
DaniëlWW2 schreef op zaterdag 12 december 2020 @ 11:15:
Ik bedoel, ze geven gewoon aan dat DLSS settings buiten quality, eigenlijk helemaal niet zo goed werken. Zeker op 1440p wordt het blurry.
Dus de DLSS instelling die bedoeld is voor min of meer native resolutie kwaliteit doet min of meer native resolutie kwaliteit. En de DLSS instellingen die bedoeld zijn voor lagere kwaliteit doet lagere kwaliteit. Wat een troep is het ook.

Aanvullend, de Nvidia mail aan HWU is hier te lezen https://www.reddit.com/r/...ed_hardware_unboxed_from/ Niet echt iets om je druk over te maken imo.

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

cnieuweboer schreef op zaterdag 12 december 2020 @ 12:42:
[...]


Dus de DLSS instelling die bedoeld is voor min of meer native resolutie kwaliteit doet min of meer native resolutie kwaliteit. En de DLSS instellingen die bedoeld zijn voor lagere kwaliteit doet lagere kwaliteit. Wat een troep is het ook.

Aanvullend, de Nvidia mail aan HWU is hier te lezen https://www.reddit.com/r/...ed_hardware_unboxed_from/ Niet echt iets om je druk over te maken imo.
Dan zou ik toch echt even ltt kijken. Het gaat nml niet om wat er letterlijk in die brief staat....hoewel }:|
Wat Linus mijn inziens terecht zegt, is dat alle ontvangers van FE modellen nu impliciet in het groene kamp worden gezet. NV voorkomt hier bovendien mee dat er op launchday een kritisch geluid naar buiten komt.

Ik bedenk me ineens dat wanneer HU nu iets positiefs over NV zegt, het met een korrel zout genomen gaat worden want ze willen hun straatje schoonvegen. Daarentegen als ze iets negatiefs zeggen, is het omdat ze kamp rood zijn volgens NV en hun fanatieke aanhang. Links of rechtsom, genoeg mensen die vanaf nu GPU reviews van HU in twijfel gaan trekken qua objectiviteit...slechte zaak.

[ Voor 18% gewijzigd door onsgeluk op 12-12-2020 13:30 ]

iR Profiel


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^^
Wat het betekent is dat je je nu moet afvragen of wat de reviewers (die nog wel een FE kaart krijgen) over RT schrijven ook hetgeen is wat ze echt willen schrijven of dat ze het vanwege deze praktijken expres zodanig gekleurd hebben dat het binnen de gewenste parameters van het nVidia politburo valt.

Ik zie in deze actie in ieder geval niets positiefs voor kamp consumer.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • enchion
  • Registratie: Februari 2002
  • Niet online
Hoe het mij een beetje overkomt is alsof een medewerker die al jaren de domme vragen van z`n superieuren zit te begeleiden/sturen/blokkeren mbt bv wat er in een marketing email/paper/presentatie voorkomt, nu de beslissing heeft genomen om alle domme kreten in 1 email achter elkaar te zetten en z`n leiding op die manier hun "zin" te geven.

Want het lijkt me sterk dat zo`n groot bedrijf zo`n domme email stuurt naar de 2 kanalen die ongeveer het centrum zijn van alle youtube benchmarking/nieuws.
Het centrum omdat ze in het neutrale midden liggen wat affiniteit voor persoonlijkheid betreft, de andere kanalen kijk je meer voor hun persoonlijkheid enof produkt/concept/doelgroep keuze.
Linus kijk je voor Linus, L1 voor linux/servers/gezellig-nieuws, Adored voor AMD/anti nVidia, Jayz voor casemodding en nVidia chillness.

Als je enig ander kanaal kijkt kijk je meestal ook wel eens HWU en GN, daarom is het zo ontzettend negatief voor nVidia om juist deze op die manier aan te spreken.

How do you save a random generator ?


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

enchion schreef op zaterdag 12 december 2020 @ 13:35:
Hoe het mij een beetje overkomt is alsof een medewerker die al jaren de domme vragen van z`n superieuren zit te begeleiden/sturen/blokkeren mbt bv wat er in een marketing email/paper/presentatie voorkomt, nu de beslissing heeft genomen om alle domme kreten in 1 email achter elkaar te zetten en z`n leiding op die manier hun "zin" te geven.

Want het lijkt me sterk dat zo`n groot bedrijf zo`n domme email stuurt naar de 2 kanalen die ongeveer het centrum zijn van alle youtube benchmarking/nieuws.
Het centrum omdat ze in het neutrale midden liggen wat affiniteit voor persoonlijkheid betreft, de andere kanalen kijk je meer voor hun persoonlijkheid enof produkt/concept/doelgroep keuze.
Linus kijk je voor Linus, L1 voor linux/servers/gezellig-nieuws, Adored voor AMD/anti nVidia, Jayz voor casemodding en nVidia chillness.

Als je enig ander kanaal kijkt kijk je meestal ook wel eens HWU en GN, daarom is het zo ontzettend negatief voor nVidia om juist deze op die manier aan te spreken.
De verzender wordt met naam en toenaam genoemd. Global head of marketing, niet zomaar een werknemer die met het verkeerde been uit bed is gestapt.

iR Profiel


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
DaniëlWW2 schreef op zaterdag 12 december 2020 @ 11:15:
Linus heeft de hele e-mail gekregen van Hardware Unboxed. Ik kan zo snel niet de uitgeschreven tekst vinden, maar uitgesproken lijkt het me duidelijk. Je bent onvoorwaardelijk met Nvidia of Nvidia is tegen je. Geen FE modellen meer vanwege redactionele redenen...
[YouTube: NVIDIA might ACTUALLY be EVIL... - WAN Show December 11, 2020]

Pre release drivers blijven wel, maar de videokaarten zullen van AIB's moeten komen. Dat is bij lange na niet zo onschuldig als het lijkt aangezien Nvidia nog wel eens hun FE model wil voortrekken door deze een paar dagen eerder vrij te geven.


edit: En nu is wel duidelijk dat ze terecht zijn verbannen. Ik bedoel, ze geven gewoon aan dat DLSS settings buiten quality, eigenlijk helemaal niet zo goed werken. Zeker op 1440p wordt het blurry. Ik bedoel mensen proberen te informeren over welke setting ze het beste kunnen gebruiken en objectief benaderen wat werkt en wat niet. Nota bene in een video die min of meer gratis reclame voor Nvidia is op deze manier. Dat kan niet hoor. :z
[YouTube: Cyberpunk 2077 Ray Tracing and DLSS Benchmark, What GPU You Need For 1080p, 1440p, 4K]

Oh en kijk het begin ook even. Was vermakelijk. :+
Allemachtig wat gaat die Linus tekeer zeg. Ik geef hem wel grotendeels gelijk hoor. Alleen het stukje ver pissen dat hij wel erg veel verdient aan het begin had wat mij betreft niet gehoeven.

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op zaterdag 12 december 2020 @ 13:47:
[...]


Allemachtig wat gaat die Linus tekeer zeg. Ik geef hem wel grotendeels gelijk hoor. Alleen het stukje ver pissen dat hij wel erg veel verdient aan het begin had wat mij betreft niet gehoeven.
Dit moet ook gezegd worden. Eigenlijk sinds Maxwell gaat Nvidia steeds verder deze kant op. Telkens zoeken ze nieuwe grenzen op en tasten ze af. Met een situatie zoals nu, kunnen ze zomaar weer eens een stap terug nemen, om later alsnog door te drukken. Het probleem ontstaat als mensen het tolereren. Heel veel mensen hebben zonder er over na te denken, maar eindeloze prijsverhogingen geaccepteerd. Er worden vaak niet eens vragen meer gesteld bij bepaalde features en nu lijkt Nvidia zelf de mentaliteit te willen kweken dat kritische vragen stellen, "anti Nvidia" is. En het werkt ook gewoon want er er genoeg die weigeren even stil te staan bij wat Nvidia hier nu precies doet.

Zo zijn we op het punt beland dat het topmodel een "instapprijs" van $1500 krijgt en veel modellen alsnog duurder zijn. Zo zijn we op het punt uitgekomen dat de traditioneel meest populaire SKU's, de goed presterende xx70 en de relatief betaalbare xx60, zo belachelijk duur zijn geworden. Een xx70 zou maximaal $400 moeten zijn, niet minimaal $500. Ik hou hier ook rekening met de kostentrend. De afgelopen jaren zijn videokaarten beduidend meer energie gaan gebruiken en worden ze veel sneller ook warm. Dat vraagt om koeloplossingen die snel die hitte kunnen afvoeren en daar zitten al kosten in. Idem voor PCB componenten. Ook worden de kwaliteitseisen steeds hoger. Zelfs zonder inflatie zijn de tijden van de $200 xx60 en $300 xx70 voorbij. Maar Nvidia maakt het wel heel erg bont. Die hebben jaren lopen experimenteren en mensen laten berusten in dat dit de prijzen zijn terwijl hun omzet en winstmarges gigantisch toenamen.

Ik betrapte mezelf er ook op met de "maar" $700 voor de RTX3080, terwijl ik het weet. Een van de weinige reviewers die nog over prijs heeft, tja Hardware Unboxed. Dat ze vaak hele aparte video's maken waar ze DLSS en RT behandelen als er een game is die het heeft, blijkbaar niet erg relevant. Ik ben nota bene een historicus, zeker geen serieus onderlegd technisch type, maar ik zie aardig wanneer Nvidia of AMD ons probeert te belazeren met hardware features die helemaal niet werken. Dat doen ze om hun te dure product te verkopen. Ze weten echt wel dat ze niet eerlijk zijn. Als reviewers dan terecht er weinig aandacht aan besteden en je dan selectief er eentje eruit gaat halen en die gaat straffen, nee dat horen we niet te accepteren. Die reviewers zijn belangrijk voor ons zodat wij kunnen weten wat we kopen en ze zijn met een steeds verder geconditioneerde markt van kopers die blijkbaar heel wat willen betalen, een van de weinige barrières tegen nog veel belachelijke prijzen dan we nu al voorgeschoteld krijgen. Ik hoop echt dat Intel Xe geen complete flop zal zijn, want wat heeft deze markt wanhopig een derde speler nodig zeg. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 20-01 01:14
Die JayzTwoCents waait ook met alle winden mee... Eerst maakt hij de slechtste 6900 XT review die er bestaat. Met oude games en irrelevante Benchmarks die alleen maar Nvidia ten goede komen. En nu valt hij Publiek Nvidia aan. Wil zijn imago weer oppoetsen ofzo?

  • Paprika
  • Registratie: September 2007
  • Laatst online: 08:56
deregtx schreef op zaterdag 12 december 2020 @ 16:07:
Die JayzTwoCents waait ook met alle winden mee... Eerst maakt hij de slechtste 6900 XT review die er bestaat. Met oude games en irrelevante Benchmarks die alleen maar Nvidia ten goede komen. En nu valt hij Publiek Nvidia aan. Wil zijn imago weer oppoetsen ofzo?
Alleen moeite steken in content die veel views op kan leveren heet dat.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

deregtx schreef op zaterdag 12 december 2020 @ 16:07:
Die JayzTwoCents waait ook met alle winden mee... Eerst maakt hij de slechtste 6900 XT review die er bestaat. Met oude games en irrelevante benchmarks die alleen maar Nvidia ten goede komen. En nu valt hij publiekelijk Nvidia aan. Wil hij zijn imago weer oppoetsen of zo?
In welke video haalt hij uit naar Nvidia? Ik probeer hem te vinden op YT, maar nog geen succes.

Edit: geen YT-video, maar een tweet begrijp ik inmiddels.

[ Voor 6% gewijzigd door choogen op 12-12-2020 16:54 ]


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

deregtx schreef op zaterdag 12 december 2020 @ 16:07:
Die JayzTwoCents waait ook met alle winden mee... Eerst maakt hij de slechtste 6900 XT review die er bestaat. Met oude games en irrelevante Benchmarks die alleen maar Nvidia ten goede komen. En nu valt hij Publiek Nvidia aan. Wil zijn imago weer oppoetsen ofzo?
Ik neem aan dat je het over zn twitterfeed hebt. Die gaat nog wel even wat verder dan de FU van Linus.

Het is duidelijk dat Jay geen NV kaarten meer wilt reviewen ;)

I have just heard the email from
@NVIDIAGeForce
to
@HardwareUnboxed
for the first time and I have to say that if you didn't believe that NVIDIA was a slimy company before now, rest assured, they made sure you do now. NVIDIA and BDR specifically... get off your high horse.

At this point, NVIDIA is a brand that everyone should consider shady, unethical liars, and down right cheats. And this is the company culture from the CEO down. I have always had my issues with their management, but for the sake of consumers have looked past it.

But NVIDIA has continued to show over and over that they simply do not care about consumers and always do their best to control as much messaging as they can. WE do not work for NVIDIA, and they are obviously not concerned with independent opinions.

And if you REALLY want to cringe, you should see the way they treat their AIBs... I have so many stories that I could share on how they "do business" with their AIBs. Its sickening. Thank god AMD is catching up... I am rooting for NVIDIA to go down, more than anyone

And as for
@bdelrizzo
's "You can continue to work with our AIBs" keep this in mind... the AIBs have to submit their list of reviewers to NVIDIA for approval... so even that, is a BS statement... they can still black list him from launch day reviews..

iR Profiel


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
onsgeluk schreef op zaterdag 12 december 2020 @ 16:49:
[...]

Ik neem aan dat je het over zn twitterfeed hebt. Die gaat nog wel even wat verser dan de FU van Linus.

Het is duidelijk dat Jay geen NV kaarten meer wilt reviewen ;)

I have just heard the email from
@NVIDIAGeForce
to
@HardwareUnboxed
for the first time and I have to say that if you didn't believe that NVIDIA was a slimy company before now, rest assured, they made sure you do now. NVIDIA and BDR specifically... get off your high horse.

At this point, NVIDIA is a brand that everyone should consider shady, unethical liars, and down right cheats. And this is the company culture from the CEO down. I have always had my issues with their management, but for the sake of consumers have looked past it.

But NVIDIA has continued to show over and over that they simply do not care about consumers and always do their best to control as much messaging as they can. WE do not work for NVIDIA, and they are obviously not concerned with independent opinions.

And if you REALLY want to cringe, you should see the way they treat their AIBs... I have so many stories that I could share on how they "do business" with their AIBs. Its sickening. Thank god AMD is catching up... I am rooting for NVIDIA to go down, more than anyone

And as for
@bdelrizzo
's "You can continue to work with our AIBs" keep this in mind... the AIBs have to submit their list of reviewers to NVIDIA for approval... so even that, is a BS statement... they can still black list him from launch day reviews..
Inmiddels heeft hij ook een filmpje erover gemaakt.

YouTube: NVIDIA... You've officially gone TOO far this time...

* AtlAntA pakt popcorn oOo

Wie goed doet, die goed ontmoet.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Het is eigenlijk treurig dat gamers er tot voor kort vrijwel niet omheen konden om Nvidia producten aan te schaffen wanneer ze kozen voor high-end videokaarten. Met de huidige BIg Navi generatie is er in dat opzicht nu dan weliswaar eindelijk een alternatief, maar ook AMD opereert niet altijd even netjes, al meen ik dat ze zeker niet kunnen tippen aan Nvidia qua misbruik van een dominante marktpositie. Helemaal eens daarom met DanielWW2 dat het hoog tijd wordt dat Intel een serieuze poging gaat doen om de GPU markt te betreden.

"The Big Green Machine", om met JayzTwoCents te spreken, mag wel eens even een toontje lager gaan zingen...

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het probleem blijft dat het allemaal big corporates zijn. Dus ipv 1 dominante Dalton heb je zodirekt 3 iets minder dominate Daltons die elkaar in evenwicht houden :X :P

AMD is imo vooralsnog minst 'Evil', heeft dit het minst in haar genen zitten, maar dat blijft denk ik niet zo.

[ Voor 22% gewijzigd door Help!!!! op 12-12-2020 18:17 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • psy
  • Registratie: Oktober 1999
  • Laatst online: 22-01 08:50

psy

DaniëlWW2 schreef op zaterdag 12 december 2020 @ 11:15:
Linus heeft de hele e-mail gekregen van Hardware Unboxed. Ik kan zo snel niet de uitgeschreven tekst vinden, maar uitgesproken lijkt het me duidelijk.
Hi Steve,

We've reached a critical juncture in the adoption of ray tracing and it has gained industry-wide support from top titles, developers, game engines, APIs, consoles and GPUs. As you know Nvidia is all in for ray tracing. RT is important and core to the future of gaming, but it's also one part of our focused R&D efforts on revolutionizing video games and creating a better experience for gamers.This philosophy is also reflected in developing technologies such as DLSS, reflex and broadcast that offer immense value to customers who are purchasing a GPU. They don't get free GPUs, they work hard for their money, and they keep their GPUs from multiple years.

Despite all this progress, your GPU reviews and recommendations have continued to focus singularly on rasterization performance and you have largely discounted all of the other technologies we offer gamers. It is very clear from your community commentary that you do not see things the same way that we, gamers, and the rest of the industry do. Our founder's editions boards and other Nvidia products are being allocated to media outlets that recognize the changing landscape of gaming and the features that are important to gamers and anyone buying a GPU today. Be it for gaming, content creation, or studio and streaming.

Hardware Unboxed should continue to work with our add-in card partners to secure GPUs to review. Of course you will still have access to obtain pre-release drivers and press materials, that won't change. We are open to revisiting this in the future should your editorial direction change.

Brian Del Rizzo
Director of Global PR, GeForce

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • RobinNL
  • Registratie: December 2009
  • Nu online

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Wat een PR ramp voor Nvidia dit. Eigenlijk kun je hier geen excuses meer voor aanbieden, het is niet alsof er een stagiaire ergens een foutje heeft gemaakt. Ik snap overigens wel dat HU de excuses accepteert, maar de schade voor Nvidia is al geleden. Ze zijn weer een nieuwe grens overgegaan - alleen dit keer zijn ze er dan niet mee weggekomen.

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Vraag me af of onderstaand de water bij de wijn is geweest.

YouTube: Cyberpunk 2077 Ray Tracing and DLSS Benchmark, What GPU You Need For...

[ Voor 50% gewijzigd door onsgeluk op 12-12-2020 23:53 ]

iR Profiel


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nah. ;)
Dit moet ook gezegd worden. Eigenlijk sinds Maxwell gaat Nvidia steeds verder deze kant op. Telkens zoeken ze nieuwe grenzen op en tasten ze af. Met een situatie zoals nu, kunnen ze zomaar weer eens een stap terug nemen, om later alsnog door te drukken. Het probleem ontstaat als mensen het tolereren. Heel veel mensen hebben zonder er over na te denken, maar eindeloze prijsverhogingen geaccepteerd. Er worden vaak niet eens vragen meer gesteld bij bepaalde features en nu lijkt Nvidia zelf de mentaliteit te willen kweken dat kritische vragen stellen, "anti Nvidia" is. En het werkt ook gewoon want er er genoeg die weigeren even stil te staan bij wat Nvidia hier nu precies doet.
Ben echt niet verbaast dat ze terug moesten krabbelen, maar dat is het halve werk. Nu is het opletten dat ze het niet weer proberen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Daar heb je zowaar een punt. Het beestje heeft z'n ware aard (wederom) laten zien. Voor de grote spelers maakt dat niets uit, die roepen in koor f*ck you naar NV. Maar al die kleinere techtubies? Het zal me niet verbazen als die ietwat voorzichtiger zijn in de toekomst.
Want het niet meer verstrekken van reviewsamples hoeft natuurlijk niet van een begeleidende email te worden voorzien. Gewoon stilzwijgend de das om doen.

iR Profiel


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

De geruchtenmolen dan. ;)








Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
Zegt de geruchten molen ook nog steeds januari voor de 3080ti?

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op zondag 13 december 2020 @ 08:09:
Zegt de geruchten molen ook nog steeds januari voor de 3080ti?
Koester je nog de illusie dat je in januari wel iets kan kopen? Nvidia zelf heeft het inmiddels over maart als het niet april is. Wat denk je zelf? ;) :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
DaniëlWW2 schreef op zondag 13 december 2020 @ 10:23:
[...]


Koester je nog de illusie dat je in januari wel iets kan kopen? Nvidia zelf heeft het inmiddels over maart als het niet april is. Wat denk je zelf? ;) :P
Haha in dit geval zit tussen 'hopen' en 'denken' een groot verschil. CP2077 draait kak op mijn 1080ti dus een upgrade wordt ineens 'noodzakelijk'. Ik wil geen 1500euro voor een GPU uitgeven maar ~1000 euro zou ik nog kunnen rechtvaardigen (vooral als 3090 performance wordt gehaald) als ik er weer 3+ jaar mee kan doen. Dus ik HOOP dat ik in januari kan upgraden maar ik DENK dat het wel april zal worden.

Vooralsnog ga ik achter mijn hoop aan en en zal ik in januari wel teleurgesteld zijn. 8)7

Wie goed doet, die goed ontmoet.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

choogen schreef op zaterdag 12 december 2020 @ 23:44:
Wat een PR ramp voor Nvidia dit. Eigenlijk kun je hier geen excuses meer voor aanbieden, het is niet alsof er een stagiaire ergens een foutje heeft gemaakt. Ik snap overigens wel dat HU de excuses accepteert, maar de schade voor Nvidia is al geleden. Ze zijn weer een nieuwe grens overgegaan - alleen dit keer zijn ze er dan niet mee weggekomen.
Inderdaad. Tegelijkertijd krijgen ze waarschijnlijk toch (deels) hun zin.

Hoeveel (kleinere) review outlets gaan bewust danwel onbewust nu toch hun gedrag aanpassen bij hun volgende review ? Het is vast niet al te moeilijk voor nvidia om met een iets geloofwaardigere drogreden kaarten weg te houden bij outlets. En dan is het moeilijk om je kanaal te laten groeien. Dus dat risico wil je niet lopen.

Dat is waarom dit soort streken zo kwalijk en verradelijk zijn. Net als cartoonisten van hun bed lichten of een politieagent in je tuin krijgen omdat je iemand interviewt die een andere visie heeft dan het gezag. Het is verre van onwaarschijnlijk dat anderen met dit in hun achterhoofd hun gedrag aanpassen omdat ze zich geintimideerd voelen.

Het verhaal controleren is ook wat ze met GPP beoogden maar dan op een nog verradelijkere manier.
Vraag me af in hoeverre dat nog in één of andere variant is doorgegaan op de achtergrond.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op zondag 13 december 2020 @ 10:43:
[...]


Haha in dit geval zit tussen 'hopen' en 'denken' een groot verschil. CP2077 draait kak op mijn 1080ti dus een upgrade wordt ineens 'noodzakelijk'. Ik wil geen 1500euro voor een GPU uitgeven maar ~1000 euro zou ik nog kunnen rechtvaardigen (vooral als 3090 performance wordt gehaald) als ik er weer 3+ jaar mee kan doen. Dus ik HOOP dat ik in januari kan upgraden maar ik DENK dat het wel april zal worden.

Vooralsnog ga ik achter mijn hoop aan en en zal ik in januari wel teleurgesteld zijn. 8)7
Zet Volumetric Cloud Quality en Screen Space Reflection Quality op uit/low. Ambient Occlusion naar medium kan ook nog. Alles van DoF, motion blur en film grain kan ook uit. Vervolgens zet je Dynamic FidelityFX CAS aan en experimenteer eens met hoe laag je het nog prettig vind. Het gaat met name om op afstand waardoor ik testte in het appartement. Zelf kwam ik uit op 85%. Verschil in framerate met mijn RX5700XT was aanzienlijk. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
DaniëlWW2 schreef op zondag 13 december 2020 @ 11:20:
[...]


Zet Volumetric Cloud Quality en Screen Space Reflection Quality op uit/low. Ambient Occlusion naar medium kan ook nog. Alles van DoF, motion blur en film grain kan ook uit. Vervolgens zet je Dynamic FidelityFX CAS aan en experimenteer eens met hoe laag je het nog prettig vind. Het gaat met name om op afstand waardoor ik testte in het appartement. Zelf kwam ik uit op 85%. Verschil in framerate met mijn RX5700XT was aanzienlijk. ;)
offtopic:
Bedankt maar zelfs op low en Dynamic fidelity op 50% zit ik nog maar net rond 70fps op 3440x1440p en dat zijn concessies die ik liever niet wil doen. :9 ;)

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op zondag 13 december 2020 @ 11:27:
[...]


offtopic:
Bedankt maar zelfs op low en Dynamic fidelity op 50% zit ik nog maar net rond 70fps op 3440x1440p en dat zijn concessies die ik liever niet wil doen. :9 ;)
Tja, dan heb je een (luxe) probleem. :P
Maar ik zou eerder je hoop vestigen op AMD die eens gaat leveren. Daar is namelijk misschien nog enige hoop op. Je weet nu toch al dat zodra de RTX3080Ti verschijnt, die ook meteen niet te krijgen is en er opnieuw een enorme wachtrij bij gaat komen. Dat Nvidia zelf al zegt dat het nog maanden gaat duren voor alle Ampere modellen normaal leverbaar zijn, zegt alles eigenlijk al.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
DaniëlWW2 schreef op zondag 13 december 2020 @ 10:23:
[...]


Koester je nog de illusie dat je in januari wel iets kan kopen? Nvidia zelf heeft het inmiddels over maart als het niet april is. Wat denk je zelf? ;) :P
Als ik kijk naar de wachtlijst en wat er binnen druppelt zou het mij niets verbazen als het zelfs juli of augustus word.

Verder denk ik dat de 3080ti qua prijs tegenover de 6900xt gezet word of iets meer als ze echt voor 20gb gaan en dat is mij te duur. Ik trek toch echt een streep bij 750 tenzij ze een stuk zuiniger worden.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

computerjunky schreef op zondag 13 december 2020 @ 13:00:
[...]


Als ik kijk naar de wachtlijst en wat er binnen druppelt zou het mij niets verbazen als het zelfs juli of augustus word.

Verder denk ik dat de 3080ti qua prijs tegenover de 6900xt gezet word of iets meer als ze echt voor 20gb gaan en dat is mij te duur. Ik trek toch echt een streep bij 750 tenzij ze een stuk zuiniger worden.
Ga er gerust vanuit dat het $1000 word ja. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:51
En zuinig wordt ie natuurlijk ook niet.
Lekker makkelijk, kun je hem nu alvast uit je hoofd zetten.

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

AtlAntA schreef op zondag 13 december 2020 @ 10:43:
[...]


Haha in dit geval zit tussen 'hopen' en 'denken' een groot verschil. CP2077 draait kak op mijn 1080ti dus een upgrade wordt ineens 'noodzakelijk'.
Hoe slecht is kak?
Ik vind het opvallend dat de 3060 Ti echt veel beter draait dan de 1080 Ti, maar de Turing and RX 5700 kaarten doen het niet veel beter dan de high end Pascal GPUs. Tenminste als ik de reviews mag geloven.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
XanderDrake schreef op zondag 13 december 2020 @ 14:28:
[...]

Hoe slecht is kak?
Ik vind het opvallend dat de 3060 Ti echt veel beter draait dan de 1080 Ti, maar de Turing and RX 5700 kaarten doen het niet veel beter dan de high end Pascal GPUs. Tenminste als ik de reviews mag geloven.
AtlAntA in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Sinds Ampere is uitgekomen laat de 1080Ti echt zijn leeftijd zien in de benchmarks/reviews. An sich is dat voor mij niet zo erg maar als ik op de allerlaagste settings nog maar 70 fps haal terwijl bij zo goed als alle games voor mij de sweetspot 90 fps is dan komt het toch nog wat hard aan. ;)

Wie goed doet, die goed ontmoet.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
AtlAntA schreef op zondag 13 december 2020 @ 14:58:
[...]


AtlAntA in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Sinds Ampere is uitgekomen laat de 1080Ti echt zijn leeftijd zien in de benchmarks/reviews. An sich is dat voor mij niet zo erg maar als ik op de allerlaagste settings nog maar 70 fps haal terwijl bij zo goed als alle games voor mij de sweetspot 90 fps is dan komt het toch nog wat hard aan. ;)
Mijn 1070 had dat al maanden na de release van de 2060.
Of de optimalisatie stopte gewoon volkomen of er zit iets inefficient in de architectuur of er is ergens een bottleneck in die kaart zoals bijvoorbeeld de geheugenbus.
Waar hij bij de release ongeveer even snel was als de 20670 is hij nu tot wel40% trager in nieuwe titels. erg jammer.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou, daar gaan we. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Veelzeggend kort excuus-mailtje van die Del Rizzo. "Lockdown fatigue" is waar hij het op gooit. Een boer met kiespijn.

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
choogen schreef op maandag 14 december 2020 @ 12:40:
Veelzeggend kort excuus-mailtje van die Del Rizzo. "Lockdown fatigue" is waar hij het op gooit. Een boer met kiespijn.
Ja die vond ik ook wat apart. Heb het idee dat dit van nog hogerop komt.

Hier stond iets onnodigs :)

[ Voor 29% gewijzigd door AtlAntA op 14-12-2020 12:55 ]

Wie goed doet, die goed ontmoet.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
AtlAntA schreef op maandag 14 december 2020 @ 12:45:
[...]


Ja die vond ik ook wat apart. Heb het idee dat dit van nog hogerop komt.

edit:

[Afbeelding]
Wat moet die afbeelding betekenen? Dat is gewoon een 3090 :)

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
Werelds schreef op maandag 14 december 2020 @ 12:52:
[...]

Wat moet die afbeelding betekenen? Dat is gewoon een 3090 :)
Ja je hebt gelijk. Excuus ik was iets te enthousiast haha

[ Voor 12% gewijzigd door AtlAntA op 14-12-2020 12:56 ]

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op maandag 14 december 2020 @ 12:53:
[...]


Wacht dat is toch de 3080ti chip?
Nee, die zou ook 82SM's zijn, maar ook 320 bit als het 20GB aan VRAM is. Waarschijnlijk noemt Nvidia die dan GA102-250. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
AtlAntA schreef op maandag 14 december 2020 @ 12:53:
[...]


Wacht dat is toch de 3080ti chip?
GA102-300 is gewoon de volle GA102 chip (op A1 spin), zoals die in de 3090 gebruikt wordt. Dus als dat een "3080 Ti" voor moet stellen, wordt dat dus een 3090 met waarschijnlijk 12 GB VRAM. Of ze schakelen 1/2 MC's uit en gaan voor 22/20 GB, maar normaal gesproken gaat dat gepaard met het uitschakelen van SM's en dan zou het dus niet GA102-300 zijn ;)

Edit: ah, al aangepast _O-

Ik heb het al heel vaak gezegd, maar Nvidia is heel erg consistent in hun chip namen. Daar kun je veel uit af leiden ;)

[ Voor 13% gewijzigd door Werelds op 14-12-2020 12:58 ]


  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Weinig spannend eigenlijk en lijkt een beetje uit te draaien op wat ik al vermoedde, al sprak ik over een stagiar / junior die dit uitgedacht moest hebben en niet een medewerker met schijnbaar een persoonlijke vete waar Steve naar hint.

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
DaniëlWW2 schreef op maandag 14 december 2020 @ 12:56:
[...]


Nee, die zou ook 82SM's zijn, maar ook 320 bit als het 20GB aan VRAM is. Waarschijnlijk noemt Nvidia die dan GA102-250. :)
Werelds schreef op maandag 14 december 2020 @ 12:56:
[...]

GA102-300 is gewoon de volle GA102 chip (op A1 spin), zoals die in de 3090 gebruikt wordt. Dus als dat een "3080 Ti" voor moet stellen, wordt dat dus een 3090 met waarschijnlijk 12 GB VRAM. Of ze schakelen 1/2 MC's uit en gaan voor 22/20 GB, maar normaal gesproken gaat dat gepaard met het uitschakelen van SM's en dan zou het dus niet GA102-300 zijn ;)
ok ok ik ben afgesabbeld :X ;)

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op maandag 14 december 2020 @ 12:58:
[...]


[...]


ok ok ik ben afgesabbeld :X ;)
Je weet zeker dat je dit wil doen? ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
DaniëlWW2 schreef op maandag 14 december 2020 @ 13:00:
[...]


Je weet zeker dat je dit wil doen? ;)
offtopic:
Haha sorry maar het was echt een super humoristische typo. Of het nu door dyslexie komt of niet. ;)


Ontopic:

Het zijn die shots van de ga102-300. Zelfs voor de leek (zoals mijzelf) zeer indrukwekkend en interessant om te zien.

https://twitter.com/Fritz...tatus/1338201495007793152

[ Voor 24% gewijzigd door AtlAntA op 14-12-2020 13:06 ]

Wie goed doet, die goed ontmoet.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Gloednieuwe RTX 4080 opgedoken!: https://www.marktplaats.n...m1640471467-rtx-4080.html?
;)

[ Voor 4% gewijzigd door choogen op 14-12-2020 13:16 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op maandag 14 december 2020 @ 12:57:
[...]


Weinig spannend eigenlijk en lijkt een beetje uit te draaien op wat ik al vermoedde, al sprak ik over een stagiar / junior die dit uitgedacht moest hebben en niet een medewerker met schijnbaar een persoonlijke vete waar Steve naar hint.
Dat is wel spannend omdat deze blijkbaar toegang heeft tot het account van de grote baas en in zijn naam, maar een persoonlijke vedette kan uitleven. De reputatieschade is enorm en we zullen toch echt moeten blijven opletten dat dit niet terug gaat komen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
DaniëlWW2 schreef op maandag 14 december 2020 @ 13:25:
[...]


Dat is wel spannend omdat deze blijkbaar toegang heeft tot het account van de grote baas en in zijn naam, maar een persoonlijke vedette kan uitleven. De reputatieschade is enorm en we zullen toch echt moeten blijven opletten dat dit niet terug gaat komen.
Dat is toch echt niet spannend, dat soort constructies kom je overal tegen, waar medewerkers kunnen communiceren uit naam van een leidinggevende. Toegang tot het account hoeft trouwens niet, daar kun je hele mooie 'send as' contructies e.d. voor bedenken of misschien heeft de grote baas het wel zelfs verzonden nadat een medewerker de te verzenden e-mails voor hem heeft klaargezet.

En ja, daar kan uiteraard misbruik van gemaakt worden, echter ook dat is op zich niet spannend dat is in veel gevallen gewoon een ingecalculeerd risico, dit zal zeker niet de eerste keer zijn en ook zeker niet de laatste keer.

Qua reputatie zal dit ze zeker geen goed doen, maar of de schade enorm is betwijfel ik ook wel. Grote kans dat reddit het hier nog een weekje over heeft en het dan al vrij snel gaat verstommen waarna er binnen de kortste keren amper nog aandacht aan besteed gaat worden in meeste gevallen. Uiteraard zal je dan onder de tech enthousiasts zo nu en dan hebben dat het weer eens ter sprake komt en bijvoorbeeld bij de volgende launch wat fanboy's diehet weer oprakelen om een punt te maken als "Zie je wel, insert techtuber in een nvidia shill want hij doet RT benchmarks die hij vorig jaar niet deed", maar dat zal het ook wel zijn denk ik. Het zou mij verbazen als in algemene zin dit verhaaltje niet als een nachtkaars uitgaat in het nieuwe jaar, en misschien zelfs daarvoor nog wel.

[ Voor 3% gewijzigd door Dennism op 14-12-2020 13:38 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Die moet wel 2GB aan RTX Cache™ hebben om "GDDR2" snelheden op te vangen :+.

  • M-spec
  • Registratie: September 2004
  • Niet online
Werelds schreef op maandag 14 december 2020 @ 12:56:
[...]

GA102-300 is gewoon de volle GA102 chip (op A1 spin), zoals die in de 3090 gebruikt wordt. Dus als dat een "3080 Ti" voor moet stellen, wordt dat dus een 3090 met waarschijnlijk 12 GB VRAM. Of ze schakelen 1/2 MC's uit en gaan voor 22/20 GB, maar normaal gesproken gaat dat gepaard met het uitschakelen van SM's en dan zou het dus niet GA102-300 zijn ;)

Edit: ah, al aangepast _O-

Ik heb het al heel vaak gezegd, maar Nvidia is heel erg consistent in hun chip namen. Daar kun je veel uit af leiden ;)
Een 3090 heeft bij mijn weten nog net niet helemaal de volledige chip met 10496 CC en 82 SM. De Quadro RTX Ampere met 10752 CC en 84 SM is dat wel zoals op de Die shots. Een 2% verschil.

Wat de 3080Ti betreft lijkt het nu te gaan om een GA102-250-A1 benaming, ik vermoed eerder met 9984 CC, 78 SM's en 20GB 320-bit GDDR6X om tussen de 3080 en 3090 in te plaatsen.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
M-spec schreef op maandag 14 december 2020 @ 14:02:
[...]


Een 3090 heeft bij mijn weten nog net niet helemaal de volledige chip met 10496 CC en 82 SM. De Quadro RTX Ampere met 10752 CC en 84 SM is dat wel zoals op de Die shots. Een 2% verschil.

Wat de 3080Ti betreft lijkt het nu te gaan om een GA102-250-A1 benaming, ik vermoed eerder met 9984 CC, 78 SM's en 20GB 320-bit GDDR6X om tussen de 3080 en 3090 in te plaatsen.
Je hebt gelijk, zelfs GA102-300 mist 2 SM's. Verandert echter niets aan dat die shot, is nog steeds "gewoon" de GA102-300 en is dus niet van een eventuele 84-SM Quadro. Een volledige chip wordt hoogstwaarschijnlijk GA102-400 genoemd ;)

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:13
Werelds schreef op maandag 14 december 2020 @ 14:09:
Een volledige chip wordt hoogstwaarschijnlijk GA102-400 genoemd ;)
Dat klopt volgens mij, voor zover ik weet zit in de A6000 inderdaad een GA102-400

  • M-spec
  • Registratie: September 2004
  • Niet online
Werelds schreef op maandag 14 december 2020 @ 14:09:
[...]

Je hebt gelijk, zelfs GA102-300 mist 2 SM's. Verandert echter niets aan dat die shot, is nog steeds "gewoon" de GA102-300 en is dus niet van een eventuele 84-SM Quadro. Een volledige chip wordt hoogstwaarschijnlijk GA102-400 genoemd ;)
Jij zegt het, die benaming zou best kunnen.
Welke 2 van de 84 SM's disabled zijn op de Die shot (in rij van 12x7) kan ik er verder niet aan af zien :+ ;)

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op maandag 14 december 2020 @ 14:26:
[...]


Dat klopt volgens mij, voor zover ik weet zit in de A6000 inderdaad een GA102-400
Volgens mij noemt Nvidia die chips tegenwoordig anders, eindigend op -8xx. Onderhuids gewoon dezelfde chips, maar omdat er meestal het maximale geheugen in clamshell aanhangt krijgen ze een andere benaming. Wellicht dat ze ze anders binnen.

Edit: yep, volgens TPU en Wikipedia krijgen de Quadro's sinds Maxwell -8xx chips.
M-spec schreef op maandag 14 december 2020 @ 14:35:
Jij zegt het, die benaming zou best kunnen.
Welke 2 van de 84 SM's disabled zijn op de Die shot (in rij van 12x7) kan ik er verder niet aan af zien :+ ;)
Kun je ook niet zien :P


AtlAntA schreef op maandag 14 december 2020 @ 13:03:
[...]


offtopic:
Haha sorry maar het was echt een super humoristische typo. Of het nu door dyslexie komt of niet. ;)


Ontopic:

Het zijn die shots van de ga102-300. Zelfs voor de leek (zoals mijzelf) zeer indrukwekkend en interessant om te zien.

https://twitter.com/Fritz...tatus/1338201495007793152
Om hier ook maar even op te reageren, er is vast wel ergens een annotated versie van dit shot te vinden, duurt meestal niet lang.

Kleine samenvatting van mijn kant (geenszins compleet!):
- Die 12 blokken aan de rand van de chip zijn de 12 32-bit GDDR I/O
- Die zooi helemaal onderin aan de rand is de display I/O en dergelijke; dat wordt altijd een beetje weggestouwd :P
- Onderste kwart (+/-) is de functionele kern: frontend en scheduler in het midden, ernaast de caches en aan de rand (bijna tegen de GDDR I/O aan) zitten de 6 memory controllers
- Elke "kolom" (7 stuks) is een GPC, met helemaal onderaan de polymorph engine (geometry) en backend (ROP's); alle kleinere blokjes van 2 breed (12 per GPC) zijn een SM elk

Komt dus heel mooi overeen met de tekeningen die ze altijd vrijgeven. Enkel een TPC kun je niet zien omdat dat meer een "logische" split is dan een harde split. Op de logische tekeningen bestaat een TPC uit 8 SM's en een poly engine. 6 van die dingen zouden dan een GPC maken. In werkelijkheid is dat niet zo, ze worden enkel zo aangedreven.

Enige wat mij zo 1-2-3 op valt is dat me nou niet meteen binnen schiet wat dat blok linksboven en rechtsonder is. Het is identiek en zit op bijna tegenovergestelde uiteindes van de chip. Een helemaal ingesloten door GDDR I/O en nog een klein blokje, de ander tussen alle overige I/O.

[ Voor 57% gewijzigd door Werelds op 14-12-2020 16:28 ]


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

"RTX 3060 komt eind januari, RTX3080 ti volgt een maand later":
https://nl.hardware.info/...ti-volgt-een-maand-laterr

  • jurjen120
  • Registratie: April 2018
  • Laatst online: 25-03-2023
Mijn reverb G2 kan dus lekker stof blijven verzamelen:(

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:51
Die beschikbaarheid eind januari is natuurlijk moeilijk te geloven...

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

[ Voor 56% gewijzigd door A87 op 16-12-2020 01:47 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • Waah
  • Registratie: Maart 2009
  • Laatst online: 09:11
mitsumark schreef op dinsdag 15 december 2020 @ 18:41:
[...]

Die beschikbaarheid eind januari is natuurlijk moeilijk te geloven...
Er zullen pallets vol verstuurd worden hoor! Naar de miners ;-)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

"Samsung gaat ook RTX3000 Super-GPU's produceren":
https://nl.hardware.info/...000-super-gpus-produceren

Edit: zie ook: https://wccftech.com/repo...tured-by-samsung-as-well/

[ Voor 26% gewijzigd door choogen op 19-12-2020 14:17 ]


  • RobinNL
  • Registratie: December 2009
  • Nu online
Dit is toch eigenlijk oud nieuws? Het was volgens mij al bekend dat Samsung de productie doet van de kaarten die begin volgend jaar verschijnen.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

RobinNL schreef op donderdag 17 december 2020 @ 22:51:
[...]


Dit is toch eigenlijk oud nieuws? Het was volgens mij al bekend dat Samsung de productie doet van de kaarten die begin volgend jaar verschijnen.
Volgens mij is het toch wel nieuws dat Nvidia opnieuw met Samsung in zee gaat. Het contract is volgens die Koreaanse zakenkrant vandaag getekend:

Samsung, the world’s second-largest foundry player, has clinched a deal to make Nvidia’s next-generation graphic processing unit (GPU), the Ampere GeForce RTX30 series, using its 8-nanometer process technology, according to the semiconductor industry on Dec. 17. The contract is Samsung’s second order this year from the Santa Clara, California-based company, following a similar deal in September.

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Dusss we gaan door met de super verwarrende Vanilla/Super/Ti SKU naming, awesome :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
choogen schreef op donderdag 17 december 2020 @ 23:00:
[...]

Volgens mij is het toch wel nieuws dat Nvidia opnieuw met Samsung in zee gaat. Het contract is volgens die Koreaanse zakenkrant vandaag getekend:
Niet echt, want in tegenstelling tot wat velen geloven, kan Nvidia niet zomaar even op TSMC over stappen. Dat kan niet op een paar maanden tijd.

Edit: ik zal maar even een klein beetje uitweiden, omdat ik wat plusjes krijg zonder dat ik echt iets zeg.

Los van de naamgeving die niets zegt (TSMC N7(P) en Samsung 8LPP zijn heel erg vergelijkbaar), heb je gewoon met andere fabrieken en processen te maken. Met name van Samsung weten we maar heel weinig. Ook al gebruiken ze in beide gevallen apparatuur van ASML, dat betekent niet dat wat je er bij de één in stops er precies hetzelfde uit rolt bij de ander. Ze stellen die apparatuur beide anders af (de transistors hebben andere afmetingen), waardoor chips andere eigenschappen krijgen. Denk aan spanningen, haalbare kloksnelheden, lekstroom. Dat betekent dat je om over te stappen je een run moet draaien (6-8 weken normaal gesproken) en vervolgens je hele validatie proces opnieuw moet uitvoeren (verschilt heel erg, maar meestal maanden). 6 maanden voor dit alles is niets. Het is niet voor niets dat velen (inclusief ikzelf) zo vaak zeggen dat deze chips al jaren klaar zijn. Ampère en RDNA2 zoals wij ze nu (proberen te :P) krijgen waren al meer dan een jaar volledig uitontworpen, anders halen ze het gewoon niet qua productie.

Dat Nvidia A100 wel bij TSMC bakt verandert daar helemaal niets aan. A100 heeft maar weinig met GA102 te maken.

Los van dat alles kan Nvidia op dit moment waarschijnlijk niet eens meer zomaar bij TSMC binnen komen wandelen voor meer capaciteit. Voor dit kwartaal heeft AMD alleen al voor de consoles een derde van TSMC's capaciteit opgekocht, de overige 2/3e gaat dus naar Zen 3, RDNA2, Apple, Qualcomm en anderen. Voor Q1 ligt dat waarschijnlijk niet veel anders, AMD zal voor dat kwartaal ook al een hele tijd geleden flink ingekocht hebben. Apple zal hetzelfde ingekocht hebben (volume van de A12 en A13 zal redelijk constant zijn), alsmede Qualcomm. Het is niet zo dat Nvidia nu binnen kan wandelen en even alles op kan kopen, die capaciteit is al lang vergeven.

[ Voor 69% gewijzigd door Werelds op 18-12-2020 11:50 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Linus, brutal as of 13:40 - ~19:00.

[ Voor 17% gewijzigd door Help!!!! op 19-12-2020 19:13 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Misschien hadden ze bij nvidia zo'n filmpje moeten maken als PR materiaal:

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
Is Digital Foundry onderhand niet gewoon onderdeel van hun marketing machine? ;)

Wie goed doet, die goed ontmoet.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Aan het einde zegt hij dat DLLS balanced er goed eruit ziet. Ik vind het te blurry; is dat met hogere DLSS settings beter?
Ze zouden wat mij betreft anders CAS aan mogen zetten, niet iedereen heeft 0/20 vision in het dagelijkse leven :P.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
AtlAntA schreef op zondag 20 december 2020 @ 15:42:
[...]


Is Digital Foundry onderhand niet gewoon onderdeel van hun marketing machine? ;)
Nvidia Foundry of Digital Nvidia? :P

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Nvidia rumored to introduce GPU architecture named after Ada Lovelace:
https://videocardz.com/ne...-named-after-ada-lovelace

  • Cornugon
  • Registratie: Juli 2011
  • Laatst online: 14-05-2025
Sp3ci3s8472 schreef op zondag 20 december 2020 @ 19:27:
[...]


Aan het einde zegt hij dat DLLS balanced er goed eruit ziet. Ik vind het te blurry; is dat met hogere DLSS settings beter?
Ze zouden wat mij betreft anders CAS aan mogen zetten, niet iedereen heeft 0/20 vision in het dagelijkse leven :P.
Blijkbaar kun je het met Inspector scherper maken door de LOD-bias lager te zetten (iets wat door Nvidia wordt geadviseerd maar wat de Cyberpunk devs zijn vergeten te doen):
https://wccftech.com/here...s-when-using-nvidia-dlss/

Ik heb het zelf nog niet geprobeerd, het was me nog niet erg opgevallen, al ben ik gewend aan 1440p met een Radeon Vega op mijn 4K-scherm.

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
Op wccftech staat dat sommige mensen beweren dat de de 3080ti wel eens sneller zou kunnen zijn dan de 3090 vanwege hogere kloksnelheden. Aangezien de core count hetzelfde is en het verbruik ook dan moet dit verschil komen door minder geheugen chips waardoor meer power naar de GPU kan. Is dit correct?

https://wccftech.com/asus...stom-graphics-cards-leak/

Wie goed doet, die goed ontmoet.


  • M-spec
  • Registratie: September 2004
  • Niet online
AtlAntA schreef op zaterdag 26 december 2020 @ 09:54:
Op wccftech staat dat sommige mensen beweren dat de de 3080ti wel eens sneller zou kunnen zijn dan de 3090 vanwege hogere kloksnelheden. Aangezien de core count hetzelfde is en het verbruik ook dan moet dit verschil komen door minder geheugen chips waardoor meer power naar de GPU kan. Is dit correct?

https://wccftech.com/asus...stom-graphics-cards-leak/
De specs zijn nog niet definitief zover ik weet maar ik kan je wel zeggen dat sneller alleen maar mogelijk zou zijn op minstens gelijke specs met een nog hogere powerlimit of een speciale binning en dat zie ik in beide gevallen niet snel gebeuren. Daarbij is ook nog een betere of grotere koeler nodig.

Sommige AIB's laten een 3090 GA102-300 chip al 'los' met een 390W PL tov een FE, tenminste wanneer je het aantal cuda core vergelijkt met een 3080 is 30W extra voor een 3090 niet genoeg om de extra cores te laten schalen met ook nog eens meer dan het dubbele aan geheugen wat extra energie vraagt. Het maakt een 3090FE wel efficiënter met meer cores op een lage spanning. Ampere schaalt voornamelijk met een hogere powerlimit, dat zal ook de voornaamste beperking zijn met zoveel cuda cores. Een board power draw van 390W heb je al snel met de GPU op 'maar' 950mV richting 2000MHz core clock. Boven 1000mV richting 2100MHz is de schaling er ook wel uit. Dat is waar een gebinde Kingpin 3090 incl 360 rad nog mee werkt.

Als een 3080Ti 4GB minder geheugen meekrijgt geeft dit misschien wel ietsje ruimte aan power draw voor GPU maar dat zal het verschil in geheugenbandbreedte waarschijnlijk niet gelijk trekken.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 03-02 18:32
Ik had eigenlijk verwacht dat ze een 3080Ti met 12GB uit zouden brengen om de maximale performance uit de chip te persen. Zoals ze in het verleden gedaan hebben met de 780Ti.

Mechwarrior Online: Flapdrol


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
haarbal schreef op zondag 27 december 2020 @ 14:13:
Ik had eigenlijk verwacht dat ze een 3080Ti met 12GB uit zouden brengen om de maximale performance uit de chip te persen. Zoals ze in het verleden gedaan hebben met de 780Ti.
Technisch gezien zou dat misschien(?) beter werken maar op de doos is het cijfertje dan lager dan de 16GB bij AMD dus hier zal de marketingafdeling wel het laatste woord in hebben gehad. :)

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op zaterdag 26 december 2020 @ 09:54:
Op wccftech staat dat sommige mensen beweren dat de de 3080ti wel eens sneller zou kunnen zijn dan de 3090 vanwege hogere kloksnelheden. Aangezien de core count hetzelfde is en het verbruik ook dan moet dit verschil komen door minder geheugen chips waardoor meer power naar de GPU kan. Is dit correct?

https://wccftech.com/asus...stom-graphics-cards-leak/
Even heel bot, maar je neemt de reacties daar serieus? :P
Verder hoef je weinig tot geen verbetering in effectieve clock speeds te verwachten. Er zit nauwelijks nog iets in GA102 tenzij het verbruik gewoon nog hoger komt te liggen. Maar aangezien er al RTX3090's zijn die echt naar het totaal belachelijke gaan, kan dat natuurlijk. Ik zie Nvidia alleen bewust de RTX3080Ti FE, net een paar procent langzamer maken. Want het zal gewoon een RTX3090 met een paar VRAM chips weggelaten zijn. De duurdere RTX3090 moet natuurlijk wel beter blijven. De 16, 20 of 24GB discussie is ook vrij zinloos voor gaming doeleinden. Het gaat hier om bandbreedte en de RTX3080Ti zal minder GB/s halen. Daarom zal de RTX3080Ti waarschijnlijk net iets lager uitvallen met gelijkwaardige clock speeds.

Het is alleen volstrekt irrelevant of het een paar procent langzamer is. De RTX3090 blijft veel te duur en zou eigenlijk niet eens een overweging moeten zijn voor een normaal gamesysteem. Je betaalt veel te veel, voor veel te weinig extra en je zet een behoorlijk slecht precedent neer omdat zo alweer word bewezen dat Nvidia maar kan vragen wat ze willen voor het topsegment. Elke generatie zal het zo duurder worden totdat mensen eindelijk stoppen met alsmaar meer te betalen voor alsmaar minder extra over een stap lager. Zeker nu moet je dat niet meer gaan doen. Die acceleratie in sprongen tussen generaties, tja die zit er wel aan te komen. AMD heeft duidelijk die handschoen opgepakt en voor Nvidia is het zo ook wel klaar met kleine sprongetjes maken en doen alsof ze het wiel driemaal opnieuw hebben uitgevonden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
DaniëlWW2 schreef op zondag 27 december 2020 @ 21:37:
[...]


Even heel bot, maar je neemt de reacties daar serieus? :P
Verder hoef je weinig tot geen verbetering in effectieve clock speeds te verwachten. Er zit nauwelijks nog iets in GA102 tenzij het verbruik gewoon nog hoger komt te liggen. Maar aangezien er al RTX3090's zijn die echt naar het totaal belachelijke gaan, kan dat natuurlijk. Ik zie Nvidia alleen bewust de RTX3080Ti FE, net een paar procent langzamer maken. Want het zal gewoon een RTX3090 met een paar VRAM chips weggelaten zijn. De duurdere RTX3090 moet natuurlijk wel beter blijven. De 16, 20 of 24GB discussie is ook vrij zinloos voor gaming doeleinden. Het gaat hier om bandbreedte en de RTX3080Ti zal minder GB/s halen. Daarom zal de RTX3080Ti waarschijnlijk net iets lager uitvallen met gelijkwaardige clock speeds.

Het is alleen volstrekt irrelevant of het een paar procent langzamer is. De RTX3090 blijft veel te duur en zou eigenlijk niet eens een overweging moeten zijn voor een normaal gamesysteem. Je betaalt veel te veel, voor veel te weinig extra en je zet een behoorlijk slecht precedent neer omdat zo alweer word bewezen dat Nvidia maar kan vragen wat ze willen voor het topsegment. Elke generatie zal het zo duurder worden totdat mensen eindelijk stoppen met alsmaar meer te betalen voor alsmaar minder extra over een stap lager. Zeker nu moet je dat niet meer gaan doen. Die acceleratie in sprongen tussen generaties, tja die zit er wel aan te komen. AMD heeft duidelijk die handschoen opgepakt en voor Nvidia is het zo ook wel klaar met kleine sprongetjes maken en doen alsof ze het wiel driemaal opnieuw hebben uitgevonden.
Lol nee die lees ik nooit.
Ik doelde meer op dit stukje:
There are reports that the RTX 3080 Ti may end up faster than the RTX 3090 due to its higher clock speeds while the RTX 3090 could remain a Titan class product serving the enthusiast and content creation market with its higher VRAM buffer.
Zelf heb ik de 1080ti voor rond de 800 euro gekocht tijdens release. En zou de 3080ti net onder de 1000 euro blijven dan zou ik dat er wel voor over hebben. Ook al doet het wat pijn wetende dat de gemiddelde prijs van GPU's steeds hoger komt te liggen. Iets wat die pijn wel weer wat doet verzachten is dat de 2e hands markt voor high end GPU's best booming is nu en dat ik verwacht toch nog wel 300 voor mijn 1080ti te kunnen krijgen.

De 3090 is voor mij gewoon veels te duur om te rechtvaardigen en eerlijk gezegd denk ik dat ik na aanschaf van de 3080ti ook wel een paar dagen buyers remorse buikpijn heb maar dat vervaagt wel weer.

Maar nu komen de eerste lekken over de volgende generatie alweer bovendrijven en wordt het misschien toch wat aantrekkelijker om nog een generatie uit te zitten. :p

nieuws: Gerucht: Nvidia's komende Lovelace-gpu's krijgen maximaal 18.432 CUDA...

Wie goed doet, die goed ontmoet.


  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op zondag 27 december 2020 @ 21:37:
[...]


Het is alleen volstrekt irrelevant of het een paar procent langzamer is. De RTX3090 blijft veel te duur en zou eigenlijk niet eens een overweging moeten zijn voor een normaal gamesysteem. Je betaalt veel te veel, voor veel te weinig extra en je zet een behoorlijk slecht precedent neer omdat zo alweer word bewezen dat Nvidia maar kan vragen wat ze willen voor het topsegment. Elke generatie zal het zo duurder worden totdat mensen eindelijk stoppen met alsmaar meer te betalen voor alsmaar minder extra over een stap lager. Zeker nu moet je dat niet meer gaan doen. Die acceleratie in sprongen tussen generaties, tja die zit er wel aan te komen. AMD heeft duidelijk die handschoen opgepakt en voor Nvidia is het zo ook wel klaar met kleine sprongetjes maken en doen alsof ze het wiel driemaal opnieuw hebben uitgevonden.
Het heeft weinig met een slecht precedent te maken. Een top segment luxe product en een normaal game systeem gaan immers al niet samen. Niemand hoeft het ook te kopen, het mag. Volgende keer is weer een nieuwere/betere.. net als met Hi-Fi audio of auto's en maar net waar je het aan uit geeft. Je betaalt dan veel meer inderdaad voor een ~15% extra prestaties bij de AIB's en 24GB. Is niets nieuws en voor de huidige of oude Titan prijzen had ik zelf ook geen watergekoelde 3090 gekocht. Waar blijft en wat kost een watergekoelde 6900XT AIB en die heeft helaas nog niet de RT prestaties. Ook lang niet elke generatie wordt duurder op hardware gebied als je kijkt wat je er voor krijgt. Dat is met CPU's ook niet het geval geweest afgelopen jaren zolang er maar goede concurrentie is. Als AMD er niet was met de 6000 serie, dan was een 3080 in verhouding ook niet zoveel goedkoper geweest. De huidige prijzen en leverbaarheid is gewoon weer een apart verhaal in de situatie waarin we leven.

Zou ik een 3090 of een 6900XT als beide topkaarten aanraden? Niet voor de prijs/prestatie verhouding, natuurlijk niet en men kan in dat geval nog beter een nieuwe console kopen met deels gesponsorde PC hardware. Maar ik word er zelf niet minder van als mensen producten uit een topsement kopen die in die zin niet te rechtvaardigen zijn. Als je er zelf maar plezier van hebt, daar gaat het om.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • RobinNL
  • Registratie: December 2009
  • Nu online
AtlAntA schreef op maandag 28 december 2020 @ 13:16:
[...]
Zelf heb ik de 1080ti voor rond de 800 euro gekocht tijdens release. En zou de 3080ti net onder de 1000 euro blijven dan zou ik dat er wel voor over hebben. Ook al doet het wat pijn wetende dat de gemiddelde prijs van GPU's steeds hoger komt te liggen. Iets wat die pijn wel weer wat doet verzachten is dat de 2e hands markt voor high end GPU's best booming is nu en dat ik verwacht toch nog wel 300 voor mijn 1080ti te kunnen krijgen.
Jij denkt een RTX 3080 Ti te kunnen kopen voor iets minder dan 1000 euro? De mogelijke adviesprijs is al $999 (gerucht), in euro's is dat al wat hoger. Reken de schaarste, problemen bij Nvidia/Samsung en mogelijk COVID erbij op en je zit volgens mij vrij snel aan minimaal 1100 euro voor een 3080 Ti.

Hebben we eigenlijk 3080 en 3090 kaarten gezien voor de adviesprijzen die zijn gegeven?

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Er beginnen geruchten over de volgende nVidia GPUs rond te zoemen. Codename Lovelace, niet afkomstig van de vintage pornstar maar van de wiskundige :P

https://tweakers.net/nieu...aal-18432-cuda-cores.html

Bij Pascal waren het 128 per cluster of SM (de 1080Ti had 3584 shaders over 28 clusters als ik het goed heb) bij Turing waren het er 64 per SM, ondanks dat deze shaders per stuk veel sneller zijn dan die van Pascal. Dit heeft iets met fp32 te maken geloof ik, maar ik zit er waarschijnlijk naast en daar kan iemand van de AMD Discussie Club me vanalles over kan vertellen :P
Bij Ampere is dit weer 128 als ik Techpowerup mag geloven, en Lovelace heeft hetzelfde maar dan gewoon meer SMs. Beetje jammer, niet efficienter maar gewoon grotere die's, dus duurder over het algemeen.

Men zou ergens IPC voor GPU's moeten bij houden. Zo veel FPS per SM op 1000mhz ofzo.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XanderDrake schreef op maandag 28 december 2020 @ 17:33:
Er beginnen geruchten over de volgende nVidia GPUs rond te zoemen. Codename Lovelace, niet afkomstig van de vintage pornstar maar van de wiskundige :P

https://tweakers.net/nieu...aal-18432-cuda-cores.html

Bij Pascal waren het 128 per cluster of SM (de 1080Ti had 3584 shaders over 28 clusters als ik het goed heb) bij Turing waren het er 64 per SM, ondanks dat deze shaders per stuk veel sneller zijn dan die van Pascal. Dit heeft iets met fp32 te maken geloof ik, maar ik zit er waarschijnlijk naast en daar kan iemand van de AMD Discussie Club me vanalles over kan vertellen :P
Bij Ampere is dit weer 128 als ik Techpowerup mag geloven, en Lovelace heeft hetzelfde maar dan gewoon meer SMs. Beetje jammer, niet efficienter maar gewoon grotere die's, dus duurder over het algemeen.

Men zou ergens IPC voor GPU's moeten bij houden. Zo veel FPS per SM op 1000mhz ofzo.
Als ik zo de kaarten naast elkaar leg is de IPC van de shader cores niet heel veel omhoog gegaan, niet meer dan 5-7% gok ik zo. De 2080 Ti is 26% sneller dan een 1080 Ti.

Ik ben vooral benieuwd hoe dat doorschaalt met Lovelace. Bij de 3080 en 3090 zie je vooral dat ze het goed doen op 4k en hoger. Daaronder denk ik dat niet alle shader cores aan het werk zitten.

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
RobinNL schreef op maandag 28 december 2020 @ 17:30:
[...]


Jij denkt een RTX 3080 Ti te kunnen kopen voor iets minder dan 1000 euro? De mogelijke adviesprijs is al $999 (gerucht), in euro's is dat al wat hoger. Reken de schaarste, problemen bij Nvidia/Samsung en mogelijk COVID erbij op en je zit volgens mij vrij snel aan minimaal 1100 euro voor een 3080 Ti.

Hebben we eigenlijk 3080 en 3090 kaarten gezien voor de adviesprijzen die zijn gegeven?
Rond de 1000 euro moet wel lukken denk ik ja. De 3090 was bij release inderdaad moeilijk te vinden voor 15-1600 maar echt niet onmogelijk en ook nu zijn ze wel voor die prijs te vinden en in sommige gevallen zelfs lager als je bereid bent om op een (EVGA) wachtlijst te gaan staan. Of als je bereid bent verder te kijken dan de PW hier of Nederland.

Buiten dat om heb ik wel geduld en hoef ik niet per se haantje de voorste te zijn. Ik ben van plan te gaan waterkoelen dus het is in het begin toch even aftasten voor welke versie's wel/geen blokken worden gemaakt. Maar goed dat is hier allemaal wat off-topic. ;)

Wie goed doet, die goed ontmoet.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 28 december 2020 @ 17:33:
Bij Pascal waren het 128 per cluster of SM (de 1080Ti had 3584 shaders over 28 clusters als ik het goed heb) bij Turing waren het er 64 per SM, ondanks dat deze shaders per stuk veel sneller zijn dan die van Pascal. Dit heeft iets met fp32 te maken geloof ik, maar ik zit er waarschijnlijk naast en daar kan iemand van de AMD Discussie Club me vanalles over kan vertellen :P
Bij Ampere is dit weer 128 als ik Techpowerup mag geloven, en Lovelace heeft hetzelfde maar dan gewoon meer SMs. Beetje jammer, niet efficienter maar gewoon grotere die's, dus duurder over het algemeen.
Niet helemaal. Eerste deel klopt: Pascal heeft 128xFP32 per SM, Turing heeft er 64. Dat heeft echter niets te maken met hoe snel ze zijn, maar juist met de manier waarop Nvidia ze aan wil sturen. Er zijn in Turing ook fors meer SM's; elke SM bevat dan wel minder FP32 units, maar wat er voor de rest de SM zit is ook anders. Het heeft meer te maken met de logische verdeling tussen RT, Tensor en FP32. Ze wilden gewoon 64 FP32 units per RT core hebben ;)

Ampère heeft er nog steeds 64 per SM - pure FP32 ALU's welteverstaan. Wat ik hierboven bewust niet heb vermeld, is dat elke SM in Turing en Pascal ook een evenredig aantal INT32 ALU's heeft. En daar zit het verschil in bij Ampère: nog steeds hetzelfde, echter zijn het nu geen pure INT32 ALU's, dat zijn ALU's die óf INT32 kunnen doen, of FP32.

GA102-300 (3090) heeft dus helemaal geen 10496 shaders zoals Nvidia beweert. Het zijn er 5248, met daarnaast nog eens 5248 units die een deel van de tijd óók FP32 kunnen doen, maar het grootste deel van de tijd zich gewoon gedragen als de pure INT32 in Pascal en Turing.

Samengevat:
- GP102-350 (1080 Ti): 3584 FP32 + 3584 INT32
- TU102-300 (2080 Ti): 4352 FP32 + 4352 INT32
- GA102-300 (3090): 5248 FP32 + 5248 FP32/INT32
Men zou ergens IPC voor GPU's moeten bij houden. Zo veel FPS per SM op 1000mhz ofzo.
Even los van de bullshit term "IPC", zou je dat niet per SM moeten doen :)

Een SM is enkel een logisch element voor de aansturing, dat is geen maatstaaf om mee te rekenen. Je zou dan gewoon het aantal teraflops moeten normaliseren. Een vaste kloksnelheid forceren heb je wel juist, want teraflops zijn gewoon het aantal shaders maal de kloksnelheid, maal 2 (die ALU's werken op zowel rise als fall van een kloktik). Genormaliseerd op 1500 MHz geven GP102-350 en TU102-300 respectievelijk 10,75 en 13,05 FP32 TF. GA102-300 heeft sowieso 15,74 FP32 TF en dan in theorie nog eens 15,74 FP32 TF uit die mixed units. Echter zullen die units het grootste deel van de tijd gewoon INT32 werk moeten doen, waardoor je in de praktijk zelfs in het gunstigste geval slechts 20-40% van de tijd iets extra's aan FP32 units hebt.

Dat zie je ook allemaal terug in de reviews van TPU; waar TU102 ~21% meer FP32 units heeft dan GP102, komt dat er ook gewoon uit in de benchmarks. Bijna exact zelfs, op 1080p is het ook daadwerkelijk 21% meer. Op hogere resoluties gaan dingen als bandbreedte ook een rol spelen, dus dan verschuift de balans. Waar GA102 volgens Nvidia's onzin maar liefst ~141% meer "CUDA Cores" heeft (en het in werkelijkheid ~20,6% is), zie je in benchmarks dat het dat laatste is dat naar voren komt. Op 1080p is een 3090 19,5% sneller dan een 2080 Ti. Pas op hogere resoluties komt er meer van die extra rekenkracht vrij, maar bij lange na niet die 141%. Eerder een derde daarvan, zo'n 45%. Een deel daarvan zal komen doordat de INT32/FP32 verhouding iets verschuift, maar ook een deel komt simpelweg uit bandbreedte.

Het probleem met teraflops is echter dat dat een cijfer is dat afhankelijk is van de kloksnelheid. En die is tegenwoordig niet constant, dus je kunt uit reviews geen "FPS per TF" of iets dergelijks halen, omdat de TF constant variëert.

En dan als laatste, voordat ik klaar ben met m'n muur (:+), er is niet zoiets als "IPC". Voor CPU's slaat het al nergens op (wat voor instructie? FMA? AVX-512? AES?), maar voor GPU's is het al helemaal bullshit. Het meeste werk dat GPU's doen is letterlijk twee decimale cijfers optellen, aftrekken, vermenigvuldigen of delen. Dat is wat zo'n unit kan doen. Niet meer, niet minder. Erger nog, de meeste units in een GPU kunnen dat enkel doen voor een specifiek type cijfer: een floating point of een integer. En dan wordt het nog erger, want in sommige gevallen maakt het aantal bits waar dat cijfer uit bestaat ook nog iets uit; als jij vooral 16-bits floating point rekenwerk hebt, kun je beter een AMD GPU hebben, want AMD's units zijn flexibeler en kunnen twee FP16 ops per kloktik uitvoeren.

Er is simpelweg geen "IPC" die omhoog kan gaan in een GPU, althans niet voor het gros van het rekenwerk. Voor de simpele rekeneenheden gaat dat gewoon niet op, want die doen bijna niets. Het enige waar je iets van "IPC" zou kunnen uitvogelen, zijn in de fixed-function stukjes hardware: geometry, textures en ja, ray tracing. Die units werken op meerdere inputs, produceren meerdere outputs en hebben meerdere cycles nodig om hun werk te doen. Wat je wél kan meten is de effectiviteit van de driver(s) en/of scheduler(s). Die is bij AMD fors omhoog gegaan, waardoor de teraflops van RDNA2 ineens wél enigszins gebruikt kunnen worden als maatstaaf vergeleken met Nvidia.


Lovelace, zoals die geruchten het brengen, lijkt niets meer dan Ampère te zijn, maar dan op een nieuw procedé. Ze maken het ding gewoon weer meer dan 600mm^2 groot om zo een performance sprong te krijgen. Zelfde als de afgelopen paar generaties dus.

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Werelds, je stelt niet teleur :)
Maar ik heb nog wel een idee.
Werelds schreef op maandag 28 december 2020 @ 21:20:
En dan als laatste, voordat ik klaar ben met m'n muur (:+), er is niet zoiets als "IPC". Voor CPU's slaat het al nergens op (wat voor instructie? FMA? AVX-512? AES?), maar voor GPU's is het al helemaal bullshit. Het meeste werk dat GPU's doen is letterlijk twee decimale cijfers optellen, aftrekken, vermenigvuldigen of delen. Dat is wat zo'n unit kan doen. Niet meer, niet minder.
Ik denk dat je het hier te specifiek denkt. Mensen gebruiken IPC simpelweg als wat de relatieve performance van één CPU tegenover een andere, genormaliseerd voor clock snelheid. AMD deed dat met een suite van tools die CPU rekenkracht nodig hebben en vergelijkt een Zen 2 met een Zen 3 processor met dezelfde cores en threads, ze kwamen uit op een 19% increase. Je kan zeggen dat dit niet de betekenis van IPC is, maar who cares?

Waarom wordt dat dan niet gedaan? TPU doet dat met een GPUs tegenover elkaar in veel verschillende games en resoluties, maar niet genormaliseerd per clock. Je kan een clock vastzetten, ik doe dat met de voltage curve in MSI Afterburner. De volgende stap is de SMs pakken als gemene deler.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XanderDrake schreef op maandag 28 december 2020 @ 23:33:
Ik denk dat je het hier te specifiek denkt. Mensen gebruiken IPC simpelweg als wat de relatieve performance van één CPU tegenover een andere, genormaliseerd voor clock snelheid. AMD deed dat met een suite van tools die CPU rekenkracht nodig hebben vergelijkt een Zen 2 met een Zen 3 processor met dezelfde cores en threads, ze kwamen uit op een 19% increase. Je kan zeggen dat dit niet de betekenis van IPC is, maar who cares?
En daar zit nu juist het probleem: een suite van tools. Kies de juiste software (of juist niet) en de "IPC" verandert. Gebruik eens wat software waar je een hoop met AES doet en dan is Zen 2 ineens beter dan Zen 3 (laat staan Intel :P). Zo'n suite is en blijft subjectief en vertelt niet het hele verhaal. Zen 1 had minder "IPC" dan Intel, maar maakte wel gehakt van Intel met encryptie en dat is nog steeds zo. Met AVX is het juist omgekeerd (hoewel dat gat inmiddels kleiner is).

Nu zou je zeggen zeggen dat het met GPU's iets makkelijker is, want je kunt gewoon een game kiezen en die altijd gebruiken. Echter zijn veel games ook in meer of mindere mate geoptimaliseerd voor Nvidia of AMD, waardoor je nooit het maximale uit de GPU geperst krijgt. Gebruikt een game iets meer tessellation, zal dat er op Nvidia beter uit komen. Dat AMD de rest van het frame dan wellicht twee keer zo snel rendert zie je dan niet. Dus de "IPC" die je er uit haalt is dan altijd specifiek voor die game.

Dus moet je weer met een suite gaan werken, maar ook dan zul je onderscheid moeten maken. Zo zul je raster en RT gescheiden moeten houden, omdat een GPU van 4 jaar geleden dat niet ondersteunt.

Mijn probleem is niet zo zeer het idee van een generieke performance indicator, maar vooral de term "IPC". Die staat voor "instructions per cycle" (of clock). Dat getal varieert echter per instructie. Het is een term die van oudsher gebruikt wordt, toen er veel minder instructies waren; maar vooral ook veel minder instructies die zo enorm verschillen in hoe veel cycles ze nodig hebben. En juist op een GPU is het heel onlogisch om IPC als term te gebruiken, omdat die dingen zo breed en parallel zijn. Het gaat niet om het aantal instructies per tik. Dat is helemaal niet boeiend en die cijfers hebben we. FLOPS, IOPS, enzovoort. Vroeger keken we naar vertices/clock, pixels/clock, texture fill rate. Allemaal theoretische "IPC" die in de praktijk zelden gehaald kunnen worden omdat de ene instructie er voor zorgt dat een ander trager loopt.
Waarom wordt dat dan niet gedaan? TPU doet dat met een GPUs tegenover elkaar in veel verschillende games en resoluties, maar niet genormaliseerd per clock. Je kan een clock vastzetten, ik doe dat met de voltage curve in MSI Afterburner. De volgende stap is de SMs pakken als gemene deler.
Nog steeds niet de SM's, want dat is ook geen constante én niet vergelijkbaar met AMD. Clocks normaliseren geeft je al een betere index, namelijk FPS/clock of iets in die trant :)

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Werelds schreef op dinsdag 29 december 2020 @ 00:10:
En daar zit nu juist het probleem: een suite van tools. Kies de juiste software (of juist niet) en de "IPC" verandert. Gebruik eens wat software waar je een hoop met AES doet en dan is Zen 2 ineens beter dan Zen 3 (laat staan Intel :P). Zo'n suite is en blijft subjectief en vertelt niet het hele verhaal. Zen 1 had minder "IPC" dan Intel, maar maakte wel gehakt van Intel met encryptie en dat is nog steeds zo. Met AVX is het juist omgekeerd (hoewel dat gat inmiddels kleiner is).
Het is natuurlijk evident dat producenten deze suite cherry-picken, en het is vervolgens aan de reviewers en de hardware-pers om daar doorheen te prikken. Blijkt dat de 19% IPC gain van AMDs Zen 3 ietsjes optimistisch was, maar dat veel andere websites op 15-16% uitkwamen vinden weinig mensen een groot probleem. Uiteindelijk is de waarheid voor genormaliseerde performance per core per clock te achterhalen voor CPU's, als je maar een brede selectie tools pakt.
Nu zou je zeggen zeggen dat het met GPU's iets makkelijker is, want je kunt gewoon een game kiezen en die altijd gebruiken. Echter zijn veel games ook in meer of mindere mate geoptimaliseerd voor Nvidia of AMD, waardoor je nooit het maximale uit de GPU geperst krijgt. Gebruikt een game iets meer tessellation, zal dat er op Nvidia beter uit komen. Dat AMD de rest van het frame dan wellicht twee keer zo snel rendert zie je dan niet. Dus de "IPC" die je er uit haalt is dan altijd specifiek voor die game.
TPU doet dit redelijk netjes met hun Relative Performance chart. Alleen kunnen we niet uit elkaar halen waar die relatieve performance verbeteringen nou vandaan komen.
Ik denk dat iedereen hier liever betere architextures ziet dan grotere en duurdere chips, maar daar bewegen we wél naar toe nu kleinere procedes steeds lastiger te implementeren worden. Daarom ben ik op zoek naar genormaliseerde performance data, want daar kan je die fundamentele verbeteringen mee in kaart brengen.
Dus moet je weer met een suite gaan werken, maar ook dan zul je onderscheid moeten maken. Zo zul je raster en RT gescheiden moeten houden, omdat een GPU van 4 jaar geleden dat niet ondersteunt.
Je kan natuurlijk suites maken voor DX11, DX12/Vulkan, VR en RayTracing. Ondertussen heb je snel 10 games per suite, dat geeft een redelijk beeld.
Mijn probleem is niet zo zeer het idee van een generieke performance indicator, maar vooral de term "IPC". Die staat voor "instructions per cycle" (of clock).
OK dan noemen we het vanaf nu... tromgeroffel... Dromedaris :+
Weinig mensen zitten hiermee, verzin een leuke titel en we houden die aan :P
Nog steeds niet de SM's, want dat is ook geen constante én niet vergelijkbaar met AMD. Clocks normaliseren geeft je al een betere index, namelijk FPS/clock of iets in die trant :)
De RTX 3090 heeft 82 SM's en de RX 6900XT heeft 80 Compute Units. Ze presteren ongeveer hetzelfde. Wat is nou het grote probleem ? :+ Ik begrijp dat je zegt dat de onderliggende design keuzes anders zijn en dat deze keuzes specifieke voorkeuren en downsides hebben. Maar dat wil niet zeggen dat je die prestaties niet kan normaliseren? Dan kan je juist per suite kijken wat die keuzes qua voordeel hebben per soort game én je weet wat de impact van de clocks zijn.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Blijkbaar is er een zeecontainer met 500.000 RTX 3080 videokaarten gevonden. Samsung was de container kwijtgeraakt maar die is nu terecht:

500,000 NVIDIA RTX 3080 Cards Found in Lost Shipping Container

Je verzint het niet.

March of the Eagles


  • PainkillA
  • Registratie: Augustus 2004
  • Laatst online: 03-02 11:15
XWB schreef op dinsdag 29 december 2020 @ 17:35:
Blijkbaar is er een zeecontainer met 500.000 RTX 3080 videokaarten gevonden. Samsung was de container kwijtgeraakt maar die is nu terecht:

500,000 NVIDIA RTX 3080 Cards Found in Lost Shipping Container

Je verzint het niet.
250 a 500 miljoen aan voorraad kwijt raken klinkt niet heel geloofwaardig

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 03-02 18:27
Passen er uberhaupt wel zoveel in 1 container?

  • AtlAntA
  • Registratie: Maart 2011
  • Nu online
Voel me gefopt

[ Voor 96% gewijzigd door AtlAntA op 29-12-2020 22:50 ]

Wie goed doet, die goed ontmoet.

Pagina: 1 ... 99 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.