When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
https://www.nvidia.com/nl-nl/geforce/technologies/reflex/Werelds schreef op dinsdag 20 september 2022 @ 23:25:
[Afbeelding]
[Afbeelding]
Uhm...blijkbaar is Lovelace niet zo goed in wiskunde? Ik snap niet wat die millisecondes zijn, want het zijn geen frametimes. Komt uit deze video op deze pagina. Moet dat input lag voorstellen
Zal deze output moeten voorstellen denk ik zo.
DLSS 3 also incorporates NVIDIA Reflex, which synchronizes the GPU and CPU, ensuring optimum responsiveness and low system latency. Lower system latency makes game controls more responsive, and ensures on-screen actions occur almost instantaneously once you click your mouse or other control input. When compared to native, DLSS 3 can reduce latency by up to 2X.

Een heleboel blabla is erbij gekomen deze release, maar gewoon games renderen met een stuk meer FPS, ho maarIn a pre-release version of Cyberpunk 2077’s new Ray Tracing: Overdrive mode, DLSS 3 enables DLSS Super Resolution, DLSS Frame Generation, and NVIDIA Reflex to boost performance by up to 4X, and increase responsiveness by 2X, compared to native resolution, all while maintaining great image quality.
[ Voor 35% gewijzigd door Paprika op 21-09-2022 10:41 ]
En natuurlijk de prijzen die nu "normaal" zijn geworden. Als kikkers in een langzaam warm wordende pan.sunsmountain schreef op dinsdag 20 september 2022 @ 23:44:
Iets anders, ben ik de enige die een beetje teleurgesteld is in de 4080 12 en 16 GB? Inderdaad maar 0-20% beter dan een 3090 Ti in de gewone game benchmarks (links), Flight Simulator en de andere best case scenario's buiten beschouwing.
[Afbeelding]
Zeker als de 3090 Ti verder in prijs gaat zakken/instorten... $899 en $1199 gaat dan heel raar zijn.
Ik kan de tijden nog herinneren waarbij je voor 900 euro gewoon dé top dog kaart had. Nu krijg je voor 900 euro nog niet eens de xx80 kaart... En blijkbaar blijven mensen kopen voor deze prijzen.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Ik heb ook een flinke Nvidia kater na deze launch, wat een deceptie!DaniëlWW2 schreef op woensdag 21 september 2022 @ 09:15:
Weet je, ik probeer Nvidia gewoon elk voordeel van de twijfel te geven omdat dit anders echt een totale deceptie lijkt te worden. Waarschijnlijk tegen beter weten in. Zonder DLSS3.0 lijkt het echt een overclocked Ampere refresh met belachelijke prijzen te worden.
Ik heb namelijk een zekere voorkeur voor concurrentie in kapitalistische markten en niet een kansloze, eenzijdige afstraffing met belachelijke prijzen. Want ik zie het gebeuren dat RDNA3 het zo makkelijk gaan winnen op pure rasterisation en ben bang dat het niet leuk gaat worden voor de gemiddelde consument.
Gelukkig ben ik optimistischer voor de consument, maar dat komt puur door de GPU tsunami die er aan komt
RDNA3 Navi31 RX 7900+ XT gaat niet veel beter zijn dan de RTX 4090 qua performance, maar ik denk wel wel veel beter qua TBP (375W) en prijs ($999 hoop ik).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Eigenlijk een xx70 kaart, ja, voor 900 euroJeroenneman schreef op woensdag 21 september 2022 @ 10:39:
[...]
En natuurlijk de prijzen die nu "normaal" zijn geworden. Als kikkers in een langzaam warm wordende pan.
Ik kan de tijden nog herinneren waarbij je voor 900 euro gewoon dé top dog kaart had. Nu krijg je voor 900 euro nog niet eens de xx80 kaart... En blijkbaar blijven mensen kopen voor deze prijzen.


kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Jaja, de NV special sauce die dingen mogelijk maakt die gewoon niet kunnen op hardware anders dan de nieuwste NV kaarten. Joh, je bent toch niet tegen innovatie of zo?Paprika schreef op woensdag 21 september 2022 @ 10:37:
Dit zou overigens de achterliggende uitleg moeten zijn:
[...]
Benieuwd wat de volgende versie van FSR brengt...
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Uiteraard, ik zie wel meer mensen ineens kiezen voor 3000 kaarten, waar ik dat eigenlijk niet verwacht had. Bijvoorbeeld gister in de discord van een gaming community waar ik inzit, 3 man die ineens voor een, nog altijd, dure RTX 3000 kaart kozen en zo zie ik nog mensen ineens zonder duidelijke aanleiding de laatste tijd naar 3000 kaarten neigen.Ludewig schreef op woensdag 21 september 2022 @ 10:38:
[...]
Deze strategie staat of valt met de concurrentie van AMD en de tweedehandsmarkt, en met de koopbereidheid van de klanten. Ik zie opvallend veel mensen die zeggen dat ze tot nu toe elke generatie upgraden, maar deze generatie overslaan.
Moet zeggen dat wat jij zegt, ik nog niet direct zie, maar ik heb in mijn directie omgeving ook weinig mensen die iedere generatie upgraden onder de gamers, het overgrote deel slaat altijd wel 1 of meerdere generaties over. Wat ik wel zie is veel gamers (ook terugkerend) die in de corona periode een Ampere of RDNA2 kaart gekocht hebben, en het gros daarvan zal inderdaad deze generatie niet upgraden.
Staan geen clock speeds bij. Die zullen dus lager zijn.Dennism schreef op woensdag 21 september 2022 @ 09:53:
[...]
Ook een flinke stap efficiënter zo lijkt het, laat mogelijk wel zien wat er met een undervolt bereikt kan worden met de 4090 op den duur. 300W v.s. 450W TBP, terwijl er meer cores zijn.
Ja en ja.hubhib schreef op woensdag 21 september 2022 @ 10:01:
[...]
Wat ik dan niet snap, als ik naar die efficiëntie grafiek kijk, is waarom nVidia de 4090 450 watt laat gebruiken. Volgens de curve zou de chip op 350 watt ook al een aardig stuk sneller zijn dan de 3090 Ti.
Zou het kunnen dat ze hem zo veel moeten laten verbruiken, omdat hij in rauwe raster performance helemaal niet zo veel sneller is dan Ampere. Of omdat ze weten waar AMD mee gaat komen?
De RTX4090 heeft uiteindelijk 50% meer rekeneenheden dan de RTX3090Ti. Clockspeedverbetering zal waarschijnlijk 700-800MHz worden. In een scenario van perfect lineaire opschalende prestaties, kijk je naar maximaal 80% sneller. In de praktijk gebeurd dit vrijwel nooit met videokaarten omdat ze tegen allerlei beperkingen aanlopen. Een betere inschatting is waarschijnlijk 50-70% sneller.
Tweede punt is dat er ook al een hele tijd de vermoedens bestaan dat N32, niet eens de grootste chip van RDNA3 wat N31 is, 50% meer rekeneenheden heeft dan N21. Dat is dus meteen het probleem en waarschijnlijk de verklaring waarom we een beginpunt van 450W zien. Nu zijn veel RDNA3 details nog steeds een beetje vaag wat het nu echt precies is. Maar het is niet zo moeilijk om in te zien dat als het klopt, ze het waarschijnlijk vrij makkelijk kunnen winnen in pure rasterisation workloads. Immers zou N31 140% extra rekeneenheden hebben dan N21.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Uiteraard, daarom geef ik ook aan dat het mogelijk het undervolt potentie laat zienDaniëlWW2 schreef op woensdag 21 september 2022 @ 10:44:
[...]
Staan geen clock speeds bij. Die zullen dus lager zijn.
Daarnaast verwacht ik wel dat die RTX 6000 kaarten uiteraard wel de top bins krijgen toebedeeld en deze dus ook via die weg al beter zijn dan 4090 qua verbruik bij een bepaalde clockspeed.
[ Voor 19% gewijzigd door Dennism op 21-09-2022 10:47 ]
Maar dan zie ik het gebeuren dat die RTX4090 het dadelijk echt moet opnemen tegen N32 en het misschien niet eens daarvan wint. Dat zal Nvidia ook niet willen. Het probleem lijkt ook te zijn dat ze van 28 naar 76 miljard transistoren zijn gegaan en dat aan alles behalve rasterisation hebben besteed. En nu zitten ze klem omdat die chip zo duur is en niet presteert zoals je zou verwachten van zo'n gigantische sprong in transistoren. Dus probeert Nvidia om het te compenseren met AI technieken waarvan het maar de vraag is of ze ook zo goed werken als beloofd.Dennism schreef op woensdag 21 september 2022 @ 10:46:
[...]
Uiteraard, daarom geef ik ook aan dat het mogelijk het undervolt potentie laat zienIets inleveren op top boost en veel efficiënter zonder dat je eigenlijk echt merkbaar performance verliest.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het is toch al een hele tijd standaard dat Nvidia de kaarten op een inefficient hoge clock laat draaien? Ik heb het idee dat de gemiddelde consument de kaart koopt op basis van de prestaties. Pas nadat de kaart in hun systeem zit gaan ze dan klagen over de hitte. Maar ja, dan heeft Nvidia het geld dus al binnen.hubhib schreef op woensdag 21 september 2022 @ 10:01:
[...]
Wat ik dan niet snap, als ik naar die efficiëntie grafiek kijk, is waarom nVidia de 4090 450 watt laat gebruiken. Volgens de curve zou de chip op 350 watt ook al een aardig stuk sneller zijn dan de 3090 Ti.
AMD heeft met hun 6x50 kaarten ook een overclock op hun kaarten gezet om vervolgens de prijs wat te kunnen verhogen (al moest die weer omlaag door de crisis).
Dit gaat alleen veranderen als mensen het wattage ook stevig gaan meewegen in hun koopbeslissing.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Maar dit komt natuurlijk omdat de architectuur niet wezenlijk is veranderd en deze gewoon heel slecht schaalt, wat we al zagen bij Ampere. Dus gooien ze voor gaming alles maar op RT, wat dan alsnog niet voldoende presteert, wat je dan weer wordt geacht te compenseren met DLSS technieken.DaniëlWW2 schreef op woensdag 21 september 2022 @ 10:52:
[...]
Het probleem lijkt ook te zijn dat ze van 28 naar 76 miljard transistoren zijn gegaan en dat aan alles behalve rasterisation hebben besteed. En nu zitten ze klem omdat die chip zo duur is en niet presteert zoals je zou verwachten van zo'n gigantische sprong in transistoren. Dus probeert Nvidia om het te compenseren met AI technieken waarvan het maar de vraag is of ze ook zo goed werken als beloofd.
Ik ben totaal niet onder de indruk en verwacht nu eigenlijk dat AMD de kroon gaat pakken bij rasterisation.
Ik vraag me trouwens überhaupt af in hoeverre men zich op games richt en niet op CUDA, tensor cores, etc. Ik heb sowieso het idee dat je bij Nvidia als high-end gamer nu betaalt voor een chip waarin heel veel die space is ingericht voor bedrijfstoepassingen, waar je als gamer niet zoveel aan hebt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
De GTX 1080 Ti en de RTX 2080 Ti hebben beide een TDP van 250 watt. Pas sinds Ampere is het TDP omhoog gegaan. Toevallig is dat ook het moment waarop AMD weer competitief is geworden.Ludewig schreef op woensdag 21 september 2022 @ 11:03:
[...]
Het is toch al een hele tijd standaard dat Nvidia de kaarten op een inefficient hoge clock laat draaien? Ik heb het idee dat de gemiddelde consument de kaart koopt op basis van de prestaties. Pas nadat de kaart in hun systeem zit gaan ze dan klagen over de hitte. Maar ja, dan heeft Nvidia het geld dus al binnen.
AMD heeft met hun 6x50 kaarten ook een overclock op hun kaarten gezet om vervolgens de prijs wat te kunnen verhogen (al moest die weer omlaag door de crisis).
Dit gaat alleen veranderen als mensen het wattage ook stevig gaan meewegen in hun koopbeslissing.
Ik gok erop dat nVidia vermoedt dat RDNA 3 erg goed mee gaat komen en daarom de 4090 ver buiten zijn efficiëntie curve clocked.
Of Ada Lovelace is gewoon niet erg efficiënt voor games en al die extra transistoren zijn alleen maar goed voor AI.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
En het moet nog steeds aan de software kantDaniëlWW2 schreef op woensdag 21 september 2022 @ 09:15:
Hierbij mist de logica voor mij. Waarom noem je iets Shader Execution Reordering als je shaders er niet meer kan herordenen?
Tot dusver lijken ze precies gedaan te hebben wat ik verwachtte: de chip via brute force groter maken. Ze maken nergens melding over enige serieuze veranderingen aan de architectuur. Niets over een geheugen layout, een betere frontend, scheduler(s) of wat dan ook. Gewoon de hele handel wat groter maken en de rest van de transistors zijn deels in RT gaan zitten, maar vooral in de tensor cores. Gaming wordt gewoon steeds meer bijzaak.Weet je, ik probeer Nvidia gewoon elk voordeel van de twijfel te geven omdat dit anders echt een totale deceptie lijkt te worden. Waarschijnlijk tegen beter weten in. Zonder DLSS3.0 lijkt het echt een overclocked Ampere refresh met belachelijke prijzen te worden.
Ik heb namelijk een zekere voorkeur voor concurrentie in kapitalistische markten en niet een kansloze, eenzijdige afstraffing met belachelijke prijzen. Want ik zie het gebeuren dat RDNA3 het zo makkelijk gaan winnen op pure rasterisation en ben bang dat het niet leuk gaat worden voor de gemiddelde consument.

De kloksnelheden voor dat ding zullen fors lager liggen. Een RTX A6000 zit ook op 300W, maar dat gaat ook ten koste van performance, waardoor een 3090 alsnog sneller is (uiteraard in games, maar ook in DL, het komt niet door de drivers), zolang je binnen de geheugen limiet blijft.Dennism schreef op woensdag 21 september 2022 @ 09:53:
Ook een flinke stap efficiënter zo lijkt het, laat mogelijk wel zien wat er met een undervolt bereikt kan worden met de 4090 op den duur. 300W v.s. 450W TBP, terwijl er meer cores zijn.
Undervolten heeft er niets mee te maken, deze kaarten blijven binnen hun power limiet door fors trager te tikken, niet door op een lagere spanning te draaien. Verbruik is bij Quadro's veel belangrijker. Vroeger draaiden Quadro's vaak onder de 150W terwijl de consumenten kaarten over de 200W gingen.
Undervolten zal zeker een ding worden, maar je moet niet naar dit ding kijken als voorbeeld van wat er haalbaar is puur op die 300W en het aantal shaders. Ik zou eerder kijken naar wat er haalbaar is met een 3090 Ti + undervolt, dat is veel beter vergelijkbaar.
Ach so. Nog steeds quatsch dus, want met 63 FPS heb je van z'n leven geen 65ms input lag, tenzij je een scherm met minder dan 60 Hz hebtPaprika schreef op woensdag 21 september 2022 @ 10:39:
Zal deze output moeten voorstellen denk ik zo.
Die 165ms op 22 FPS zou wel in de buurt kunnen komen (hoewel ik denk dat dat nog steeds te veel is), ik ben te lui om dat uit te gaan rekenen. Dit zou een mooie voor battle(non)sense geweest zijn
Ik heb het idee dat DLSS 3.0 eigenlijk vooral een marketing term is, waarbij:ItalianStyle schreef op woensdag 21 september 2022 @ 09:47:
Wat gaat er met DLSS 2.0 gebeuren kan dit blijven bestaan naast DLSS 3.0 gezien er genoeg mensen zijn met een RTX 2000 of RTX 3000 hebben.
DLSS 3.0 = temporal upscaling + frame interpolation
DLSS 2.x = dezelfde temporal upscaling
Met 3000/2000 kaarten mis je dan slechts de frame interpolation, wat zorgt voor een vloeiender beeld, maar niet voor minder input lag.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik denk oprecht dat Nvidia meer toekomst ziet in AI technieken en daarom daar vol op inzet, en dat rasterisation steeds minder focus krijgt. Het lijkt in elk geval een bewuste keuze te zijn, niet dat ze zich "per ongeluk" klem hebben gezet ofzo.DaniëlWW2 schreef op woensdag 21 september 2022 @ 10:52:
[...]
Maar dan zie ik het gebeuren dat die RTX4090 het dadelijk echt moet opnemen tegen N32 en het misschien niet eens daarvan wint. Dat zal Nvidia ook niet willen. Het probleem lijkt ook te zijn dat ze van 28 naar 76 miljard transistoren zijn gegaan en dat aan alles behalve rasterisation hebben besteed. En nu zitten ze klem omdat die chip zo duur is en niet presteert zoals je zou verwachten van zo'n gigantische sprong in transistoren. Dus probeert Nvidia om het te compenseren met AI technieken waarvan het maar de vraag is of ze ook zo goed werken als beloofd.
Anderzijds had Nvidia dan AD102 in de RTX 4080 gestopt, zoals Turing en Ampere een xx102 chip kregen. Want ik neem aan dat Nvidia de performance van RDNA3 al lang kent.DaniëlWW2 schreef op woensdag 21 september 2022 @ 10:44:
[...]
offtopic:
Tweede punt is dat er ook al een hele tijd de vermoedens bestaan dat N32, niet eens de grootste chip van RDNA3 wat N31 is, 50% meer rekeneenheden heeft dan N21. Dat is dus meteen het probleem en waarschijnlijk de verklaring waarom we een beginpunt van 450W zien. Nu zijn veel RDNA3 details nog steeds een beetje vaag wat het nu echt precies is. Maar het is niet zo moeilijk om in te zien dat als het klopt, ze het waarschijnlijk vrij makkelijk kunnen winnen in pure rasterisation workloads. Immers zou N31 140% extra rekeneenheden hebben dan N21.
Maar waarom zien ze minder toekomst in rasterisation? Zou dat niet komen omdat het ze niet meer goed lukt om daarin op te schalen?Ik denk oprecht dat Nvidia meer toekomst ziet in AI technieken en daarom daar vol op inzet, en dat rasterisation steeds minder focus krijgt. Het lijkt in elk geval een bewuste keuze te zijn, niet dat ze zich "per ongeluk" klem hebben gezet ofzo.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Bij nader onderzoeken liggen de geadverteerde kloks niet eens lager bij de vorige generatie, dit dacht ik ook, maar lijkt dus niet zo te zijn. De boostclocks in de praktijk kunnen natuurlijk nog wel verschillen.Werelds schreef op woensdag 21 september 2022 @ 11:30:
De kloksnelheden voor dat ding zullen fors lager liggen. Een RTX A6000 zit ook op 300W, maar dat gaat ook ten koste van performance, waardoor een 3090 alsnog sneller is (uiteraard in games, maar ook in DL, het komt niet door de drivers), zolang je binnen de geheugen limiet blijft.
Undervolten heeft er niets mee te maken, deze kaarten blijven binnen hun power limiet door fors trager te tikken, niet door op een lagere spanning te draaien. Verbruik is bij Quadro's veel belangrijker. Vroeger draaiden Quadro's vaak onder de 150W terwijl de consumenten kaarten over de 200W gingen.
Undervolten zal zeker een ding worden, maar je moet niet naar dit ding kijken als voorbeeld van wat er haalbaar is puur op die 300W en het aantal shaders. Ik zou eerder kijken naar wat er haalbaar is met een 3090 Ti + undervolt, dat is veel beter vergelijkbaar.
Voltage ligt voor zover ik weet juist wel lager bij RTX A modellen, ik zal een kijken als ik er weer een tegen kom in het wild, maar voor zover ik me herinner lag het stock voltage van een RTX A6000 lager dan dat van een stock 3090.
Wat dus juist een voorproefje kan geven van wat er mogelijk kan zijn qua undervolting van de 4090 (waarschijnlijk niet 100%, want de RTX A kaarten zullen betere bins zijn).
Een RTX 3090 Ti undervolt is juist eigenlijk niet vergelijkbaar, immers andere chip, andere architechtuur en ander proces. Volledig andere karakteristieken dus.
Performance lijkt ook niet direct te kloppen, als ik hier kijk, presteert een RTX A6000 beter dan de 3090 over het algemeen https://www.techpowerup.com/gpu-specs/rtx-a6000.c3686 terwijl het TBP ook daar duidelijk lager ligt, al is het verschil minder groot, 300 t.o.v. 350W, waardoor ik verwacht dat de RTX 6000 wel wat lagere kloks zal hebben dan de 4090, itt de RTX A6000 en 3090.
Kunnen die "geruchten" niet ook een cover zijn om te verhullen dat ze geen yields hebben ?Paprika schreef op woensdag 21 september 2022 @ 02:59:
[...]
Wekenlang geruchten en berichten dat Nvidia te veel productie heeft ingekocht en dat er al stapels kaarten opgeslagen klaarliggen en nu kom jij met het verhaal dat er geen kaarten zijn.
How do you save a random generator ?
Omdat ze meer geld zien zitten in AI dan in old-school renderen en hun hele business op AI gericht lijkt te zijn. Hun marketcap is nog altijd bijna 3x die van AMD, dus de analisten zien de potentie in ieder geval wel. Zie de stream gisteren, luttele minuten gingen over gamen, de rest was gericht op AI.Ludewig schreef op woensdag 21 september 2022 @ 12:00:
[...]
Maar waarom zien ze minder toekomst in rasterisation? Zou dat niet komen omdat het ze niet meer goed lukt om daarin op te schalen?
[ Voor 8% gewijzigd door Paprika op 21-09-2022 12:13 ]
Geen yields bij TSCM lijkt me zeer onwaarschijnlijk, nog onwaarschijnlijker dan een eventueel gerucht dat ze geen kaarten zouden hebben en dat deze chip niet zou bestaan, las ik net ook ergens in dit topic.enchion schreef op woensdag 21 september 2022 @ 12:12:
[...]
Kunnen die "geruchten" niet ook een cover zijn om te verhullen dat ze geen yields hebben ?
Hoeveel kaarten ze gaan hebben zal de vraag zijn, ik verwacht initieel ook niet al te veel (dat is immers eigenlijk nooit zo), en een groot deel van de ingekochte capaciteit voor deze generatie zal natuurlijk ook naar de andere segmenten gaan verwacht ik.
[ Voor 23% gewijzigd door Dennism op 21-09-2022 12:16 ]

Ben zelf wel gecharmeerd van DLSS (2.0) maar ben erg benieuwd naar het daadwerkelijke effect van de helft aan frames slim bij 'verzinnen'.
Just pick a dead end and chill out 'till you die.
Dat zei ik gisteren al.Werelds schreef op woensdag 21 september 2022 @ 11:30:
[...]
En het moet nog steeds aan de software kant
Ik verwachte dit ook wel, maar alsnog is het teleurstellend. Je zou toch tenminste iets hopen omdat Ampere niet bepaald een ideaal eindpunt is voor vier jaar aan rasterisation. Natuurlijk is de beslissing voor Lovelace al gemaakt voordat Ampere echt in de winkels cryptomijnen was, maar ze hadden het ook wel kunnen voorzien met simulaties.Tot dusver lijken ze precies gedaan te hebben wat ik verwachtte: de chip via brute force groter maken. Ze maken nergens melding over enige serieuze veranderingen aan de architectuur. Niets over een geheugen layout, een betere frontend, scheduler(s) of wat dan ook. Gewoon de hele handel wat groter maken en de rest van de transistors zijn deels in RT gaan zitten, maar vooral in de tensor cores. Gaming wordt gewoon steeds meer bijzaak.
Immers als je rasterisation beduidend efficiënter zou maken, dan heb je nog meer ruimte voor nog grotere tensor cores.
Amen.
Dat is AD102 zeker ook. Het lijkt eigenlijk meer een workstation GPU te zijn dan gaming GPU.Ludewig schreef op woensdag 21 september 2022 @ 11:20:
Maar dit komt natuurlijk omdat de architectuur niet wezenlijk is veranderd en deze gewoon heel slecht schaalt, wat we al zagen bij Ampere. Dus gooien ze voor gaming alles maar op RT, wat dan alsnog niet voldoende presteert, wat je dan weer wordt geacht te compenseren met DLSS technieken.
Ik ben totaal niet onder de indruk en verwacht nu eigenlijk dat AMD de kroon gaat pakken bij rasterisation.
Ik vraag me trouwens überhaupt af in hoeverre men zich op games richt en niet op CUDA, tensor cores, etc. Ik heb sowieso het idee dat je bij Nvidia als high-end gamer nu betaalt voor een chip waarin heel veel die space is ingericht voor bedrijfstoepassingen, waar je als gamer niet zoveel aan hebt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Overigens maar half een grap, als je ziet wat er nu al kan door AI maar gewoon bestaande dingen creatief te laten remixen zal het niet lang duren voor dit echt doorsijpelt in content, al is het zwaartepunt volledig verschuiven nog wel even weg.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
De geadverteerde kloksnelheden niet, maar die zijn bij Nvidia ook volstrekt niet betrouwbaar voor de GeForces. 1695 MHz voor een 3090? 1800 is min of meer standaard voor die dingen en zoals we enkele pagina's geleden zagen, zitten er samples tussen die 1900 doen.Dennism schreef op woensdag 21 september 2022 @ 12:08:
Bij nader onderzoeken liggen de geadverteerde kloks niet eens lager bij de vorige generatie, dit dacht ik ook, maar lijkt dus niet zo te zijn. De boostclocks in de praktijk kunnen natuurlijk nog wel verschillen.
Nee hoor, hier is Igor die de spanningscurve van een A6000 op een 3090 Ti plakt (link):Voltage ligt voor zover ik weet juist wel lager bij RTX A modellen, ik zal een kijken als ik er weer een tegen kom in het wild, maar voor zover ik me herinner lag het stock voltage van een RTX A6000 lager dan dat van een stock 3090.

Vergelijk dat met TPU's metingen voor de 3090 Ti FE. Zij hebben van 1860@960 mV tot 2010 @ 1075 mV gemeten. Daar wijkt die curve nauwelijks van af. Je zou al de volledige curves van stock kaarten naast elkaar moeten leggen en vervolgens kijken naar de kloksnelheden die ze in games halen, maar de verschillen zijn bijzonder klein.
De reden dat je beter naar de 3090 Ti kunt kijken is juist het verschil tussen een Quadro en een GeForce. Quadro's draaien met GDDR6 op veel lagere kloksnelheden (16000 vs 21000), wat netto ~0,5W per chip lager uit komt ondanks het onzuinigere GDDR6. Maar dan wel dubbel zo veel. Spanningscurve voor de chip verschilt niet veel, maar doordat ze meer van hun budget kwijt zijn aan het geheugen moet de chip zich in houden.
TPU's performance is overigens puur theoretisch, staat onder de tabel ("Performance estimated based on architecture, shader count and clocks."). Zij hebben de A6000 nooit aan een test onderworpen en zelfs Igor's test was enkel met World War Z, wat dus vrij nutteloos is
Verder is de RTX 6000 waarschijnlijk harder geknepen dan voorheen, aangezien ze die gecastreerde chip al 450W laten trekken. Voor Quadro's is verbruik veel meer een dingetje. Als ze over de 300 heen zouden gaan, kan dat niet zomaar in bestaande workstations en moeten daar overal duurdere voedingen in. Daarom was de A6000 ook beperkt tot 300W. Je gaat nergens een Quadro of Tesla vinden die over de 300 gaat, met uitzondering van H100...maar die gaat dan ook niet in een workstation
Hoewel dat 100% een eis zal zijn van de OEM's denk ik eigenlijk dat dit in de praktijk wel meevalt, als ik naar de werkstations die wij wegzetten met dit soort hardware, zijn die voedingen echt zwaar over bemeten, laatst bijv. nog wat Z8 G4's met 1700W PSU's.Werelds schreef op woensdag 21 september 2022 @ 13:21:
[...]
Verder is de RTX 6000 waarschijnlijk harder geknepen dan voorheen, aangezien ze die gecastreerde chip al 450W laten trekken. Voor Quadro's is verbruik veel meer een dingetje. Als ze over de 300 heen zouden gaan, kan dat niet zomaar in bestaande workstations en moeten daar overal duurdere voedingen in. Daarom was de A6000 ook beperkt tot 300W. Je gaat nergens een Quadro of Tesla vinden die over de 300 gaat, met uitzondering van H100...maar die gaat dan ook niet in een workstation
Dit zal verwacht ik eerder een probleem zijn in desktops die eigenlijk het label workstation niet eens mogen dragen
Maar dat laat toch juist mijn punt zien? Igor undervolt daar een RTX 3090 Ti tot 300W (net als de A6000) en geeft die RTX 3090Ti dezelfde V/F curve als de RTX 6000Werelds schreef op woensdag 21 september 2022 @ 13:21:
Nee hoor, hier is Igor die de spanningscurve van een A6000 op een 3090 Ti plakt (link):
[Afbeelding]
Zie ook deze quote behorende bij jouw screenshot
Interessant was geweest als de orginele V/F curve van de 3090Ti, (wanneer deze 500W mag gebruiken) ook in het screenshot had gestaan.Power break, test system and evaluation software
This time I not only narrowed down the power limit, but also adjusted the VF curve. I used the curve of the NVIDIA RTX A6000 as a blueprint, which is also slowed down with a power limit of 300 watts and has the same, uncut GA102.
[ Voor 35% gewijzigd door Dennism op 21-09-2022 13:46 ]
Maar als nVidia alleen maar puur bruteforce de chip groter maakt, dan zou de switch van Samsung 8nm naar TSMC 4N toch al een significante verbetering moeten opleveren in clocks, verbruik en die-size?Werelds schreef op woensdag 21 september 2022 @ 11:30:
Tot dusver lijken ze precies gedaan te hebben wat ik verwachtte: de chip via brute force groter maken. Ze maken nergens melding over enige serieuze veranderingen aan de architectuur. Niets over een geheugen layout, een betere frontend, scheduler(s) of wat dan ook. Gewoon de hele handel wat groter maken en de rest van de transistors zijn deels in RT gaan zitten, maar vooral in de tensor cores. Gaming wordt gewoon steeds meer bijzaak.
Uit nVidia's eigen vergelijkingen is de RTX 4080 12GB even snel als de RTC 3090 Ti in games met "normale" features. Als ik Techpowerup mag geloven dan is de RTX 4080 aanzienlijk kleiner (300m²) versus de RTX 3090 Ti (628m²) dus daar zit al winst. De clocks zijn ook veel hoger waarschijnlijk, dat is TSMCs specialiteit. Dus er zijn wel architecturale verbeteringen, ondanks dat ze er niet heel duidelijk over zijn.
Misschien heeft Techpowerup het fout, maar anderzijds zou het betekenen dat we er wel op vooruit gaan.
Qua prijs niet. 900$? In deze markt? Met zoveel productie overschot bij TSMC? Bizar nVidia, ik ga er in ieder geval dat geld niet voor neerleggen....
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
https://videocardz.com/ne...orce-rtx-4090-4080-series
Dat ontwerp ook.Cloggs schreef op woensdag 21 september 2022 @ 14:00:
GALAX heeft nu dus bevestigd dat de de 4080 12GB variant gebaseerd is op de AD104-400.
https://videocardz.com/ne...orce-rtx-4090-4080-series

Ik weet dat er een hele weeb markt en industrie bestaat, maar jeetje...
Maar kijk nu eens naar de stekkers van zo'n voeding en zoiets als de A6000?Dennism schreef op woensdag 21 september 2022 @ 13:36:
Hoewel dat 100% een eis zal zijn van de OEM's denk ik eigenlijk dat dit in de praktijk wel meevalt, als ik naar de werkstations die wij wegzetten met dit soort hardware, zijn die voedingen echt zwaar over bemeten, laatst bijv. nog wat Z8 G4's met 1700W PSU's.
Het is al even geleden dat ik een workstation van binnen heb gezien, maar doorgaans is dat 2 of 4 6/8-pins, wat bedoeld is voor 2 GPU's naast elkaar (ja ja, ik weet het
Die size van die chip (of zelfs de naam) zijn nog niet bevestigd voor zover ik weet, maar ja, 4N heeft toch ook iets opgeleverd?XanderDrake schreef op woensdag 21 september 2022 @ 13:46:
Maar als nVidia alleen maar puur bruteforce de chip groter maakt, dan zou de switch van Samsung 8nm naar TSMC 4N toch al een significante verbetering moeten opleveren in clocks, verbruik en die-size?
Uit nVidia's eigen vergelijkingen is de RTX 4080 12GB even snel als de RTC 3090 Ti in games met "normale" features. Als ik Techpowerup mag geloven dan is de RTX 4080 aanzienlijk kleiner (300m²) versus de de RTX 3090 Ti (628m²) dus daar zit al winst. De clocks zijn ook veel hoger waarschijnlijk, dat is TSMCs specialiteit. Dus er zijn wel architecturale verbeteringen, ondanks dat ze er niet heel duidelijk over zijn.
Wat ik met m'n opmerking bedoel is echter dat er weinig tot geen innovatie is buiten de RT en tensor cores, wat betekent dat deze chips nog steeds dezelfde problemen gaan hebben als Ampère. Leuk en aardig dat er 50% meer shaders zijn op 25% hogere kloksnelheden, maar doordat ze de problemen niet aanpakken levert dat netto minder op dan wat het op papier zou moeten doen. Er zitten een hoop transistors in die chip die een heel groot deel van de tijd niets zitten te doen.
Zoals het nu lijkt en hoe ik het inschat voor mezelf;
voorlopig hoef ik geen nV kaart meer.
Ze doen hetzelfde als ze bij de GTX6 serie deden. Een "mid end" chip GTXxx80 noemen. Terwijl het feitelijk een .70 chip (of .60 chip int geval van de 6-serie) is.
En de prijzen van de 4 serie zijn zo hoog dat als je een streep zou trekken qua price performance, de RTX3070 en 3080 bijv nog steeds aantrekkelijk zijn wat dat betreft. Helemaal met de huidige prijzen. (Vast niet onbewust)
Dus geen enkele vooruitgang. Qua price performance. (En ook het stroomverbruik is wel érg hoog bij de .90. Met de huidige energiecrisis in t achterhoofd)
Plus voor mij geldt dat mijn 6900XT nog steeds nagenoeg alles vol open op 3440x1440 met 100FPS kan draaien... Dus ik laat zowieso deze RTX4000 serie (en mss ook de volgende amd 7 serie) aan me voorbij gaan.
Ff afwachten waar AMD mee komt, en hoe hun pricing zal zijn. Glazen bol modus: Denk 1200/1300 voor 7900XT en 850 tot 1000 voor de 7800XT. 700-750 voor de 7800
We zullen zien. Kan me niet echt voorstellen dat mensen echt superhappig zullen zijn op de volgende generatie. Omdat ze voor de huidige games eigenlijk al veel teveel power hebben. Met een 6800 of 3070 kan je nog prima "high end" gamen. Of zelfs een 2080ti.
Vroeger bouwden we pc 's met 4 gpu's omdat de games (op 1080p!!!
[ Voor 28% gewijzigd door Format-C op 21-09-2022 14:24 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
True.OMD schreef op woensdag 21 september 2022 @ 14:38:
Vergeet ook niet dat de kwaliteit van games steeds meer achteruit gaat plus er komt veel minder uit waarbij je echt veel kracht nodig hebt (enkeling daar gelaten)
Er komt idd echt heeeeeel weinig AAA-waardig spul uit de laatste paar jaar.
Hopelijk zal 2023 wat dat betreft wat beter zijn. Dan kunnen we in /rond mei altijd nog ff rond kijken voor een nieuwe GPU.
Edit: Vroeger hadden we Crysis. Die kreeg jarenlang elke pc op de knieën. Dat waren nog eens tijden... Hoe meer power hoe beterrrr.
[ Voor 17% gewijzigd door Format-C op 21-09-2022 14:54 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
De RTX4090 heeft anders wel 50% meer SM's als waarschijnlijk 700-800MHz meer clock speed dan de RTX3090Ti voor dezelfde 450W. Er is dus zeker een verbetering. Het punt is juist dat GA102 op iets meer dan 28 miljard transistoren zit en AD102 op meer dan 76 miljard. Die extra transistoren zijn voornamelijk naar tensor cores gegaan, zoveel is nu wel duidelijk. Daarom betaal je nu zoveel voor een complexe chip waarvan een aanzienlijk deel niet echt iets gaat doen in gaming workloads. De verbeteringen zitten gewoon niet in rasterisation omdat we die wel hadden gehoord als ze er waren.XanderDrake schreef op woensdag 21 september 2022 @ 13:46:
[...]
Maar als nVidia alleen maar puur bruteforce de chip groter maakt, dan zou de switch van Samsung 8nm naar TSMC 4N toch al een significante verbetering moeten opleveren in clocks, verbruik en die-size?
Uit nVidia's eigen vergelijkingen is de RTX 4080 12GB even snel als de RTC 3090 Ti in games met "normale" features. Als ik Techpowerup mag geloven dan is de RTX 4080 aanzienlijk kleiner (300m²) versus de RTX 3090 Ti (628m²) dus daar zit al winst. De clocks zijn ook veel hoger waarschijnlijk, dat is TSMCs specialiteit. Dus er zijn wel architecturale verbeteringen, ondanks dat ze er niet heel duidelijk over zijn.
Misschien heeft Techpowerup het fout, maar anderzijds zou het betekenen dat we er wel op vooruit gaan.
Qua prijs niet. 900$? In deze markt? Met zoveel productie overschot bij TSMC? Bizar nVidia, ik ga er in ieder geval dat geld niet voor neerleggen....
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dus nVidia maakt een grote gok op de gedachte dat next gen games allemaal Ray Tracing worden en tevens netjes kunnen upscalen qua resoluties. Want anders heb je niet zoveel aan DLSS, welke versie dan ook.DaniëlWW2 schreef op woensdag 21 september 2022 @ 14:44:
De RTX4090 heeft anders wel 50% meer SM's als waarschijnlijk 700-800MHz meer clock speed dan de RTX3090Ti voor dezelfde 450W. Er is dus zeker een verbetering. Het punt is juist dat GA102 op iets meer dan 28 miljard transistoren zit en AD102 op meer dan 76 miljard. Die extra transistoren zijn voornamelijk naar tensor cores gegaan, zoveel is nu wel duidelijk. Daarom betaal je nu zoveel voor een complexe chip waarvan een aanzienlijk deel niet echt iets gaat doen in gaming workloads. De verbeteringen zitten gewoon niet in rasterisation omdat we die wel hadden gehoord als ze er waren.
Als AMD vol blijft inzetten op Rasterisation dan krijg je een soort splitsing van graphics implementatie, dat is wel spannend
Iedereen zegt altijd: Ray Tracing is de toekomst, ook qua game en level design. Maar is die toekomst al NU??
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Nee want ik plaats ook twijfels bij hoe goed de RT hardware van de RTX4090 nu is. Immers lieten ze in Cyberpunk op 4K met psycho settings ook maar 22fps zien zonder upscaling (2.0) en frame insertion (3.0). Ik probeerde gisteravond al eens te kijken of ik een RTX3090Ti kon vinden met 4K Psycho RT zonder DLSS, maar geen succes. Ik wil namelijk wel eens zien wat de framerate van GA102 nu is met die settings. Iets dat Nvidia ook niet liet zien, waardoor ik extra benieuwd raakte.XanderDrake schreef op woensdag 21 september 2022 @ 15:05:
[...]
Dus nVidia maakt een grote gok op de gedachte dat next gen games allemaal Ray Tracing worden en tevens netjes kunnen upscalen qua resoluties. Want anders heb je niet zoveel aan DLSS, welke versie dan ook.
Als AMD vol blijft inzetten op Rasterisation dan krijg je een soort splitsing van graphics implementatie, dat is wel spannend![]()
Iedereen zegt altijd: Ray Tracing is de toekomst, ook qua game en level design. Maar is die toekomst al NU??
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
TDP (Watt) | TFLOPS FP32 | Huidige prijs (EUR) | GFLOPS / Watt | GFLOPS / EUR | |
4090 | 450 | 82,58 | 1969 | 184 | 41,94 |
3090Ti | 450 | 33,55 | 1249 | 75 | 26,86 |
3090 | 350 | 29,28 | 1139 | 84 | 25,71 |
2080Ti | 250 | 11,75 | 649 | 47 | 18,10 |
Bronnen: Tweakers.net nieuwsartikel over introductie 40xx series, nVidia persbericht, en Pricewatch.
De 3090 moet ongeveer naar EUR 700 om interessant te worden tov de 4090 qua kosten, maar dan nog steeds krijg ik veel minder Ops/Watt.
Met een huidige elektriciteitsprijs van 90 ct/kWh bespaar ik met een 4090 ook zo'n EUR 200 per jaar aan stroomkosten t.o.v. een 3090 (uitgaande van 4u per dag @ 100% TDP voor een 3090, wat dan ongeveer 2u per dag wordt met een 4090).
Iedereen heeft z'n eigen toepassing (voor mij met name Machine Learning), maar ik begrijp de negativiteit niet helemaal.
Dat zegt Nvidia vooral. Ik lig er niet wakker van als een spel zonder uit komt.XanderDrake schreef op woensdag 21 september 2022 @ 15:05:
Iedereen zegt altijd: Ray Tracing is de toekomst, ook qua game en level design. Maar is die toekomst al NU??
Zeker niet als je dus 1099 euro neer mag leggen om daar volgens Nvidia van te genieten. Je zult ook bij deze generatie games weer zien dat consoles gewoon de snelheid van vooruitgang bepalen en niet PCs. AAA games zullen vast allemaal Ray-Tracing of vergelijkbaar krijgen, maar dat moet ook altijd blijven draaien op consoles in 1080p verschaalt.
Ik vind het ook een apart verhaal worden als DLSS 3.0 dus als het verkooppraatje word gebruikt om deze kaarten aan de man te brengen. Performance zelf lijkt helemaal niet meer interessant, enkel nog wat men middels AI upscaling er bij kan plussen.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Waarschijnlijk omdat het publiek dat specifiek interesse heeft in de performance voor games toch nog altijd net iets groter is dan het publiek voor ML -- in ieder geval wel op Tweakers. Qua ruwe rekenkracht kom je inderdaad vast aan je trekken, dat is ook waarom NV het meer over AI had dan wat anders, en dat is stiekem ook waar kaarten als de 4090 voor bedoeld zijn, in plaats van die 8K gaming onzin en whatnot waar NV het mee adverteert.oli4100 schreef op woensdag 21 september 2022 @ 15:20:
Iedereen heeft z'n eigen toepassing (voor mij met name Machine Learning), maar ik begrijp de negativiteit niet helemaal.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
YouTube: Cyberpunk 2077 Psycho Ray Tracing Native 4K | RTX 3090 Ti | i9 12900...DaniëlWW2 schreef op woensdag 21 september 2022 @ 15:14:
[...]
Nee want ik plaats ook twijfels bij hoe goed de RT hardware van de RTX4090 nu is. Immers lieten ze in Cyberpunk op 4K met psycho settings ook maar 22fps zien zonder upscaling (2.0) en frame insertion (3.0). Ik probeerde gisteravond al eens te kijken of ik een RTX3090Ti kon vinden met 4K Psycho RT zonder DLSS, maar geen succes. Ik wil namelijk wel eens zien wat de framerate van GA102 nu is met die settings. Iets dat Nvidia ook niet liet zien, waardoor ik extra benieuwd raakte.
Deze? Volgens mij zegt ie native 4k psycho settings.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
4090 - 24 - 384/21 - 1008GB/s
4080 - 16 - 256/23 - 736GB/s
4080 - 12 - 192/21 - 504GB/s
3090 - 24 - 384/21 - 1008GB/s
3090 - 24 - 384/19 - 936GB/s
3080 - 12 - 384/19 - 912GB/s
3080 - 10 - 320/19 - 760GB/s
Nu zegt dat niet alles maar dat kachelt ook fijn achteruit.
[ Voor 3% gewijzigd door Help!!!! op 21-09-2022 16:37 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat is niet waar. Dit is een verhaal dat ik heel vaak gehoord heb, al sinds begin jaren 2000. Al die grafische hacks die engine en game developers moeten toepassen om een realistisch lijkend spel uit te brengen zouden met Ray Tracing overbodig worden.zzzzz schreef op woensdag 21 september 2022 @ 15:23:
Dat zegt Nvidia vooral.
Mooi overzicht! Maar stel dat alleen JIJ en andere ML developers voordeel hebben aan al die RT en Tensor cores, dan begrijp je toch wel dat wij wat minder happy zijn?oli4100 schreef op woensdag 21 september 2022 @ 15:20:
Iedereen heeft z'n eigen toepassing (voor mij met name Machine Learning), maar ik begrijp de negativiteit niet helemaal.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Bedankt.OMD schreef op woensdag 21 september 2022 @ 15:33:
[...]
YouTube: Cyberpunk 2077 Psycho Ray Tracing Native 4K | RTX 3090 Ti | i9 12900...
Deze? Volgens mij zegt ie native 4k psycho settings.
Maar uh dat ziet er wel heel erg vergelijkbaar uit met wat Nvidia demonstreerde. Dus of Nvidia koos bewust voor een lagere framerate om te suggereren dat DLSS3.0 zo geweldig is, of ze gaan qua RT helemaal niks opschieten...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Begreep ik ook niet helemaal. Op het filmpje heeft hij gemiddeld zo een 24fps ( vaak zelfs ruim boven de 30 gps) maar de 4090 demo 22fps. Wat gaat hiet niet goed.DaniëlWW2 schreef op woensdag 21 september 2022 @ 15:37:
[...]
Bedankt.
Maar uh dat ziet er wel heel erg vergelijkbaar uit met wat Nvidia demonstreerde. Dus of Nvidia koos bewust voor een lagere framerate om te suggereren dat DLSS3.0 zo geweldig is, of ze gaan qua RT helemaal niks opschieten...
[ Voor 3% gewijzigd door OMD op 21-09-2022 15:40 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Ik hoop toch echt dat Nvidia bewust een te lage framerate liet zien of ze hun demo niet met een RTX4090 draaide. Want anders gaat het wel heel erg treurig worden...OMD schreef op woensdag 21 september 2022 @ 15:40:
[...]
Begreep ik ook niet helemaal. Op het filmpje heeft hij gemiddeld zo een 24fps ( vaak zelfs ruim boven de 30 gps) maar de 4090 demo 22fps. Wat gaat hiet niet goed.
edit: Ik ben bang dat het misschien toch de RTX4090 was. Het komt niet helemaal overheen omdat Nvidia hier claimt met DLSS performance mode te testen, maar alsnog. Zeker als je die tekst uitlegt dat alleen de RTX40 series GPU's zo getest zijn, iets dat ik Nvidia zeker zie doen...

[ Voor 33% gewijzigd door DaniëlWW2 op 21-09-2022 16:13 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wel inderdaad met de kanttekening die je zelf al een beetje inkopt inderdaad dat mensen die kijken naar een 4090 of voor heen een 3090/3090ti over het algemeen die kaarten niet kopen voor enkel gaming, maar ofwel in het prosumer segment zitten of bijvoorbeeld kleinzakelijk of in het wetenschappelijk onderzoek.MneoreJ schreef op woensdag 21 september 2022 @ 15:25:
[...]
Waarschijnlijk omdat het publiek dat specifiek interesse heeft in de performance voor games toch nog altijd net iets groter is dan het publiek voor ML -- in ieder geval wel op Tweakers. Qua ruwe rekenkracht kom je inderdaad vast aan je trekken, dat is ook waarom NV het meer over AI had dan wat anders, en dat is stiekem ook waar kaarten als de 4090 voor bedoeld zijn, in plaats van die 8K gaming onzin en whatnot waar NV het mee adverteert.
Dat weet je niet. Dat is echt een enorme aanname. Enige maatstaf die ik weet is forums zoals Tweakers, linus etc. Daar kocht iedereen ( uiteraard sommige niet maar je snapt wat ik bedoel) er één voor gaming en geen ander doeleinde.Dennism schreef op woensdag 21 september 2022 @ 15:56:
[...]
Wel inderdaad met de kanttekening die je zelf al een beetje inkopt inderdaad dat mensen die kijken naar een 4090 of voor heen een 3090/3090ti over het algemeen die kaarten niet kopen voor enkel gaming, maar ofwel in het prosumer segment zitten of bijvoorbeeld kleinzakelijk of in het wetenschappelijk onderzoek.
Probleem is dat forums over wetenschappelijk onderzoek een beetje dun bezaaid zijn en al helemaal de technische kant qua pc’s.
Ik kan in ieder geval niet echt cijfers vinden. Quadro kaarten zijn een ander verhaal, daar kan je makkelijker aannemen dat die in prosumer, kleinzakelijk of wetenschappelijk onderzoek gebruikt worden.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Je doet de hopelijk kleinere maar vocalere doelgroep tekort van mensen die veel meer geld dan verstand hebben en dat graag uitgeven aan de snelste en beste kaart hebben met bijbehorende e-peen, relatieve perf be damned, en die doelgroep is toch waar marketing zich expliciet op richt, wat altijd een beetje potsierlijk aandoet en wat bijkans met iedere generatie gekker wordt. De 3090 (of de Ti, I forget) was 's werelds eerste 8K kaart, kennen we die nog? Tja, je moet wat.Dennism schreef op woensdag 21 september 2022 @ 15:56:
Wel inderdaad met de kanttekening die je zelf al een beetje inkopt inderdaad dat mensen die kijken naar een 4090 of voor heen een 3090/3090ti over het algemeen die kaarten niet kopen voor enkel gaming, maar ofwel in het prosumer segment zitten of bijvoorbeeld kleinzakelijk of in het wetenschappelijk onderzoek.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
De 4080 ziet er flink gecastreerd uit als je het mij vraagt. Ben wel benieuwd hoe die gaat scoren in games op 4K zonder RT tov de huidige generatie.Help!!!! schreef op woensdag 21 september 2022 @ 15:34:
Overigens, geheugenbandbreedte:
4090 - 24 - 384 - 1008GB/s
4080 - 16 - 256 - 736GB/s
4080 - 12 - 192 - 504GB/s
3090 - 24 - 384 - 1008GB/s
3090 - 24 - 384 - 936GB/s
3080 - 12 - 384 - 912GB/s
3080 - 10 - 320 - 760GB/s
Nu zegt dat niet alles maar dat kachelt ook fijn achteruit.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Snap je ook meteen waarom Nvidia zo hard inzet op DLSS. Als je op 4k probeert te gamen met een 4080 12GB zul je flinke performance mindering zien door de relatief gelimiteerde bandbreedte. Zal zich waarschijnlijk uiten in flinke performance verschil in spellen die wel en niet DLSS ondersteunen (op 4k en up).Help!!!! schreef op woensdag 21 september 2022 @ 15:34:
Overigens, geheugenbandbreedte:
4090 - 24 - 384 - 1008GB/s
4080 - 16 - 256 - 736GB/s
4080 - 12 - 192 - 504GB/s
3090 - 24 - 384 - 1008GB/s
3090 - 24 - 384 - 936GB/s
3080 - 12 - 384 - 912GB/s
3080 - 10 - 320 - 760GB/s
Nu zegt dat niet alles maar dat kachelt ook fijn achteruit.
Edit; zowieso ben ik meer voorstander / fan van AMD FSR. Omdat dat open is.
[ Voor 24% gewijzigd door Format-C op 21-09-2022 16:35 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Die hacks worden pas overbodig als een spel alle lightning (en reflecties in een mindere mate) met RT doet. Doe je dat niet dan is een developer nog steeds het extra werk kwijt om zowel een RT als een non-RT versie te maken.XanderDrake schreef op woensdag 21 september 2022 @ 15:36:
Dat is niet waar. Dit is een verhaal dat ik heel vaak gehoord heb, al sinds begin jaren 2000. Al die grafische hacks die engine en game developers moeten toepassen om een realistisch lijkend spel uit te brengen zouden met Ray Tracing overbodig worden.
Als een developer geen geld heeft of te lui is dan krijg je Metro Exodus wat er in mijn ogen gewoon niet uit ziet. De Metro Exodus Enhanced editie is naar mijn idee wel de manier waarop het zou moeten en dat ziet er goed uit.
Format-C schreef op woensdag 21 september 2022 @ 14:44:
[...]
True.
Er komt idd echt heeeeeel weinig AAA-waardig spul uit de laatste paar jaar.
Hopelijk zal 2023 wat dat betreft wat beter zijn. Dan kunnen we in /rond mei altijd nog ff rond kijken voor een nieuwe GPU.
Edit: Vroeger hadden we Crysis. Die kreeg jarenlang elke pc op de knieën. Dat waren nog eens tijden... Hoe meer power hoe beterrrr.Tegenwoordig kan zelfs een console Crysis op 4k 60FPS draaien. Haha. 🤡
Er zijn weinig AAA spellen waarvan de graphics echt de kaarten pushen of waaraan ik de tijd wil verspillen omdat het allemaal zo middelmatig is qua verhaal, gameplay en innovatie.
Ik speel Doom met die nieuwe voxel mod
Forged Alliance met de LOUD mod is ook fantastisch.
@hierboven
Zonder een vorm van caching zoals Infinity Cache lijkt mij dat die dat DLSS de enige manier is om die bandbreedte goed op te vangen gezien er qua architectuur niet heel veel is veranderd.
[ Voor 8% gewijzigd door MneoreJ op 21-09-2022 16:35 ]
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Dat was met de gtx20x0 series toch ook hun stokpaardje, zonder deze setting waren ze niet veel sneller dan hun voorgangerszzzzz schreef op woensdag 21 september 2022 @ 15:23:
[...]
Dat zegt Nvidia vooral. Ik lig er niet wakker van als een spel zonder uit komt.
Zeker niet als je dus 1099 euro neer mag leggen om daar volgens Nvidia van te genieten. Je zult ook bij deze generatie games weer zien dat consoles gewoon de snelheid van vooruitgang bepalen en niet PCs. AAA games zullen vast allemaal Ray-Tracing of vergelijkbaar krijgen, maar dat moet ook altijd blijven draaien op consoles in 1080p verschaalt.
Ik vind het ook een apart verhaal worden als DLSS 3.0 dus als het verkooppraatje word gebruikt om deze kaarten aan de man te brengen. Performance zelf lijkt helemaal niet meer interessant, enkel nog wat men middels AI upscaling er bij kan plussen.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Eigenlijk niet - kun je het uitleggen? Waarom is men niet happy?XanderDrake schreef op woensdag 21 september 2022 @ 15:36:
[...]
Mooi overzicht! Maar stel dat alleen JIJ en andere ML developers voordeel hebben aan al die RT en Tensor cores, dan begrijp je toch wel dat wij wat minder happy zijn?
Ik zie een product dat x% beter is dan de vorige generatie, en y% meer kost (en in het algemeen x > y) (kies zelf je x, Ops, game FPS, etc). Ik snap niet waarom mensen er dan in het algemeen niet blij mee zijn. Of je die FPS of Ops nodig hebt, is een ander verhaal.
Het is een beetje als afknappen wanneer een nieuwe vrachtwagen 2x zoveel lading kan vervoeren dan z'n voorganger voor 1.5x de prijs. Is het een duur product? Ja, idioot duur. Heb jij een vrachtwagen nodig? Nee, een personenauto is waarschijnlijk prima voor jouw toepassingen. Maakt dat de vrachtwagen een slecht product? Nee. Waarom dan niet happy zijn met de aankondiging van de vrachtwagen?
Mbt scaling: waar blijkt uit dat het zo slecht is?Paprika schreef op woensdag 21 september 2022 @ 16:42:
@oli4100, als je niet kunt zien dat de scaling een stuk slechter is in games dan dat jij het schetst en niet inziet dat 450W verbruik in een normale kast en normale huissetting niet te doen is (dat is echt heel veel warmte), dan is het vast een fantastische kaart ja.
De 4090 is geen product voor een normale kast en een normale huissetting, dus moet je het denk ik ook niet als zodanig evalueren. Voor die settings zijn de lager gepositioneerde kaarten.
Ik kijk voornamelijk naar aan wie ik die kaarten verkocht zie worden, en waar ik ze dus tegenkom in het wild.OMD schreef op woensdag 21 september 2022 @ 16:07:
[...]
Ik kan in ieder geval niet echt cijfers vinden. Quadro kaarten zijn een ander verhaal, daar kan je makkelijker aannemen dat die in prosumer, kleinzakelijk of wetenschappelijk onderzoek gebruikt worden.
Quadro kaarten zie je juist niet vaak in het prosumer of kleinzakelijk segment, en zelfs wetenschappelijk onderzoek (denk bijvoorbeeld ook aan veel universitaire studenten e.d) proberen waar mogelijk vaak consumenten kaarten te gebruiken om simpelweg de kosten te drukken (Quadro is normaal gesproken 2 tot +-4x duurder), dat is best vaak voor klein zakelijk gebruik niet te verantwoorden tenzij vereist door bijvoorbeeld de software.
@Paprika legt uit waarom men over het algemeen niet happy is.oli4100 schreef op woensdag 21 september 2022 @ 16:39:
Eigenlijk niet - kun je het uitleggen? Waarom is men niet happy?
Ik zie een product dat x% beter is dan de vorige generatie, en y% meer kost (en in het algemeen x > y) (kies zelf je x, Ops, game FPS, etc). Ik snap niet waarom mensen er dan in het algemeen niet blij mee zijn. Of je die FPS of Ops nodig hebt, is een ander verhaal.
Het is een beetje als afknappen wanneer een nieuwe vrachtwagen 2x zoveel lading kan vervoeren dan z'n voorganger voor 1.5x de prijs. Is het een duur product? Ja, idioot duur. Heb jij een vrachtwagen nodig? Nee, een personenauto is waarschijnlijk prima voor jouw toepassingen. Maakt dat de vrachtwagen een slecht product? Nee. Waarom dan niet happy zijn met de aankondiging van de vrachtwagen?
Mijn specifieke uitleg is: Het zou kunnen dat dit een hele goede AI/ML kaart wordt, maar we zitten hier in het Videokaarten forum; wij willen graag gamen en daar wordt deze GPU (Graphics Processing Unit) ook voor gepromoot door nVidia. Dus om in jou metafoor te blijven: deze vrachtwagen wordt vooral gepromoot als een héééle grote stationwagen, kost €200k, zuipt benzine en we vragen ons af of hij geschikt is om de kinderen op te halen in de binnenstad...
P.S. Volgens mij zijn de datacenter of workstation versies van deze Ada Lovelace chip beter voor jou werk dan de GPU versies, maar dat even terzijde. Ik deel de twijfels die @DaniëlWW2 heeft: worden al die RT/Tensor transistors wel goed en evenredig gebruikt? Of draaien ze tijdens games vooral idle??
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Sorry, maar je praat echt onzin.oli4100 schreef op woensdag 21 september 2022 @ 16:51:
[...]
Mbt scaling: waar blijkt uit dat het zo slecht is?
De 4090 is geen product voor een normale kast en een normale huissetting, dus moet je het denk ik ook niet als zodanig evalueren. Voor die settings zijn de lager gepositioneerde kaarten.
De 4090 is gewoon een gaming kaart. Voor zakelijke doeleinden hebben ze de quadro lijn. NVidia positioneert de 4090 ook gewoon als gaming kaart. Wellicht moet je de aankondiging nog even kijken of de website van nVidia bezoeken.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
En dan krijg je straks games die op AMD 7900XT met 25 FPS draaien en op een nV RTX4000 kaart 150. EN kan je sommige games niet meer spelen met een AMD kaart.
(Edit; offtopic misschien; maar nV is mij de laatste paar jaar wat te agressief, te duur, en egoïstisch. Alles proprietary. Zag van de week dat EVGA ook stopt met nV kaarten terwijl dat 80% van hun omzet is... omdat het werken met nV onwerkbaar (grofgezegd) is. En dat soort gedrag hou ik niet zo van./ontopic)
[ Voor 28% gewijzigd door Format-C op 21-09-2022 17:06 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Maar kom dan met cijfers. Je bent niet echt een betrouwbare bron met zulke statements. Waar kom je ze tegen in het wild?Dennism schreef op woensdag 21 september 2022 @ 16:56:
[...]
Ik kijk voornamelijk naar aan wie ik die kaarten verkocht zie worden, en waar ik ze dus tegenkom in het wild.
Quadro kaarten zie je juist niet vaak in het prosumer of kleinzakelijk segment, en zelfs wetenschappelijk onderzoek (denk bijvoorbeeld ook aan veel universitaire studenten e.d) proberen waar mogelijk vaak consumenten kaarten te gebruiken om simpelweg de kosten te drukken (Quadro is normaal gesproken 2 tot +-4x duurder), dat is best vaak voor klein zakelijk gebruik niet te verantwoorden tenzij vereist door bijvoorbeeld de software.
Ik kom ze namelijk alleen maar tegen in het wild in gaming pc’s en als ik zie aan wie ze verkocht worden dan zijn dat vooral gamers. Is mijn statement nu minder waard?
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Mits die spellen alleen DLSS 3 ondersteunen en geen FSR, en mits de devs het goed vinden dat iedereen met een RTX 3xxx en lager ook performance heeft die brak is (want die ondersteunen het niet), en mits niemand met hacks komt om de DLSS te vervangen door FSR, zoals nu ook gebeurt.Format-C schreef op woensdag 21 september 2022 @ 16:57:
Tja. Zit er eens wat over na te denken... maar games die DLSS ondersteunen zullen wel eens veel veeeeel VEEEEL sneller kunnen draaien op nV dan AMD. In games die het ondersteunen... Deze generatie? Zou t niet?
En dan krijg je straks games die op AMD 7900XT met 25 FPS draaien en op een nV RTX4000 kaart 150. EN kan je sommige games niet meer spelen met een AMD kaart.
Met andere woorden, ik denk niet dat wij of AMD daar heel erg voor hoeven te vrezen.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Dat zal natuurlijk afhangen van de game, is het een game zonder RT en DLSS support zullen die units verwacht ik inderdaad zeer weinig tot niets doen.XanderDrake schreef op woensdag 21 september 2022 @ 16:57:
Ik deel de twijfels die @DaniëlWW2 heeft: worden al die RT/Tensor transistors wel goed en evenredig gebruikt? Of draaien ze tijdens games vooral idle??
2022: RTX 4080 12GB @ €1.099,00oli4100 schreef op woensdag 21 september 2022 @ 16:51:
[...]
Mbt scaling: waar blijkt uit dat het zo slecht is?
De 4090 is geen product voor een normale kast en een normale huissetting, dus moet je het denk ik ook niet als zodanig evalueren. Voor die settings zijn de lager gepositioneerde kaarten.
60 SMs, 7680 CUDA Cores, 504GB/s bandwidth
2020: RTX 3080 10GB @ €719,00
68 SMs, 8704 CUDA Cores, 760GB/s bandwidth
Voor de rest heeft verder reageren weinig toegevoegde waarde als je het benadert vanuit het oogpunt dat een product oneindig kan stijgen in prijs, zolang het maar betere prestaties levert dan je vorige product.
Ben iig blij dat XBOX op AMD draait. En PS5 ook. Er zullen dus nog een hoop games voor AMD geoptimaliseerd worden. Al dan niet met FSR. DLSS zal het dus nooit "winnen". En dat lijkt mij ook beter voor de consument.MneoreJ schreef op woensdag 21 september 2022 @ 17:01:
[...]
Mits die spellen alleen DLSS 3 ondersteunen en geen FSR, en mits de devs het goed vinden dat iedereen met een RTX 3xxx en lager ook performance heeft die brak is (want die ondersteunen het niet), en mits niemand met hacks komt om de DLSS te vervangen door FSR, zoals nu ook gebeurt.
Met andere woorden, ik denk niet dat wij of AMD daar heel erg voor hoeven te vrezen.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Wat voor cijfers wil je exact, verkoop cijfers gesplits naar segment zijn er uiteraard niet (Volgens Nvidia zijn ze immers allemaal aan gamers verkochtOMD schreef op woensdag 21 september 2022 @ 17:00:
[...]
Maar kom dan met cijfers. Je bent niet echt een betrouwbare bron met zulke statements. Waar kom je ze tegen in het wild?
Ik kom ze namelijk alleen maar tegen in het wild in gaming pc’s en als ik zie aan wie ze verkocht worden dan zijn dat vooral gamers. Is mijn statement nu minder waard?
Ik zeg echter ook nergens dat geen gamer een 3090 zal kopen (of straks een 4090), alleen dat dit soort kaarten voor de pure gamer over het algemeen geen goede koop is en dat ik ze dus over het algemeen ook niet aan pure gamers verkocht zie worden, die zijn immers over het algemeen wel verstandiger dan dat.
En dat is eigenlijk ook hoe Nvidia de kaart aanprijst, een deel gaming, want ja, dat is ook een markt die ze bedienen, maar het grootste deel van de presentaties gaat inmiddels over zaken als ML/AI en meer van dat soort zaken, daar zetten ze dan ook veel meer op in. En dat is echt niet omdat die kaart een pure gaming kaart is, dat is juist omdat ze steeds verder wegraken van 'het is een pure gaming kaart'.
[ Voor 21% gewijzigd door Dennism op 21-09-2022 17:18 ]
Ik zeg niet dat het een zakelijke kaart is, en ik zeg ook niet dat het geen gaming kaart is.OMD schreef op woensdag 21 september 2022 @ 16:57:
[...]
Sorry, maar je praat echt onzin.
De 4090 is gewoon een gaming kaart. Voor zakelijke doeleinden hebben ze de quadro lijn. NVidia positioneert de 4090 ook gewoon als gaming kaart. Wellicht moet je de aankondiging nog even kijken of de website van nVidia bezoeken.
Het is zeker (primair) een gaming kaart, uiteraard! Maar is het een product voor een normale kast en een normale huissetting? Nee. Is het een product voor de gemiddelde gamer? Ik denk het ook niet.
een gamer heeft geen videokaart nodig met 24GB VRAM, en die 1700 euro kost.
Dat is weggegooid geld. Dan moet je er professioneel ook nog iets mee doen.
En daar sluit ik me bij aan.
Edit; maar ieder moet lekker doen wat hij/ zij zelf wil/kan. Eigen keuze.
[ Voor 40% gewijzigd door Format-C op 21-09-2022 17:23 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Nee hoor, AD102 is waarschijnlijk uitstekend als workstation kaart. Dat is juist het probleem als je om gaming performance geeft en niet om ML/AI. Het is inderdaad een €200K luxe auto voor wat boodschappen doen. En de RTX4080, zowel de echte als de nepperd zijn eigenlijk nog veel erger.XanderDrake schreef op woensdag 21 september 2022 @ 16:57:
[...]
@Paprika legt uit waarom men over het algemeen niet happy is.
Mijn specifieke uitleg is: Het zou kunnen dat dit een hele goede AI/ML kaart wordt, maar we zitten hier in het Videokaarten forum; wij willen graag gamen en daar wordt deze GPU (Graphics Processing Unit) ook voor gepromoot door nVidia. Dus om in jou metafoor te blijven: deze vrachtwagen wordt vooral gepromoot als een héééle grote stationwagen, kost €200k, zuipt benzine en we vragen ons af of hij geschikt is om de kinderen op te halen in de binnenstad...
P.S. Volgens mij zijn de datacenter of workstation versies van deze Ada Lovelace chip beter voor jou werk dan de GPU versies, maar dat even terzijde. Ik deel de twijfels die @DaniëlWW2 heeft: worden al die RT/Tensor transistors wel goed en evenredig gebruikt? Of draaien ze tijdens games vooral idle??

Maar om dit maar eens te beslechten kijken we naar Nvidia hun eigen cijfers. Specifiek die eerste drie games die geen DLSS ondersteunen. Tja de nep RTX4080 12GB wint het niet van de RTX3090Ti. De echte RTX4080 16GB wint het met iets van 20% en de RTX4090 lijkt rond de 50-70% sneller te zitten.

Dit zag ik ook totaal niet aankomen. Ja dit moet ik pluggen omdat ik het gewoon leuk vind dat ik het eigenlijk een week geleden al goed inschatte.
DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik bedoelde alleen de 4090, maar snap je punt, alhoewel ik niet helemaal snap hoe een verschil in geheugenbandbreedte tussen verschillende architecturen iets zegt over 'scaling' in games (?) Ben iig benieuwd naar de benchmarks.Paprika schreef op woensdag 21 september 2022 @ 17:09:
[...]
2022: RTX 4080 12GB @ €1.099,00
60 SMs, 7680 CUDA Cores, 504GB/s bandwidth
2020: RTX 3080 10GB @ €719,00
68 SMs, 8704 CUDA Cores, 760GB/s bandwidth
Ik zeg niet dat een product oneindig mag stijgen in prijs. Wat mij betreft is het - in dit specifieke geval - een logisch geprijsd product gezien de stijging in prestaties t.o.v. het vorige product.Voor de rest heeft verder reageren weinig toegevoegde waarde als je het benadert vanuit het oogpunt dat een product oneindig kan stijgen in prijs, zolang het maar betere prestaties levert dan je vorige product.
Dat is een leuk idee wanneer je halo product vele malen duurder is voor amper betere performance, maar in dit geval (zie ook 't plaatje van @DaniëlWW2) geldt dat de 4090 eigenlijk de betere koop is.Format-C schreef op woensdag 21 september 2022 @ 17:17:
Gamersnexus zei het mooi bij de 3090 (en ik denk dat hij dat bij de 4090 zal herhalen):
een gamer heeft geen videokaart nodig met 24GB VRAM, en die 1700 euro kost.
Dat is weggegooid geld. Dan moet je er professioneel ook nog iets mee doen.
En daar sluit ik me bij aan.
Edit; maar ieder moet lekker doen wat hij/ zij zelf wil/kan. Eigen keuze.
1469 euro vs 1959 euro geeft een toename van 36% in prijs, maar als je dan naar de performance kijkt, dan schaalt het 1:1 tot zelfs in het voordeel van de 4090.
Ja, dat kan een upgrade waard zijn.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Linus forums zij gewoon mensen die content zijn met hun aankoop van de 3090 en dat delen. Lijkt mij prima betrouwbaar , net zo betrouwbaar als jouw woord toch? Je bent immers iemand van het Tweakers forumDennism schreef op woensdag 21 september 2022 @ 17:10:
[...]
Wat voor cijfers wil je exact, verkoop cijfers gesplits naar segment zijn er uiteraard niet (Volgens Nvidia zijn ze immers allemaal aan gamers verkocht), misschien is het gros wel verkocht aan miners (ook zakelijk gebruik). Ik ga dus enkel uit van wat ik in de markt zie bij relaties van o.a. mijn werkgever en in mijn persoonlijke kring, waar bijvoorbeeld inderdaad gamers tussen zitten met een RTX 3090, maar die hebben hem wel gekocht omdat ze er overdag hun geld mee verdienen en s'avonds wordt ie dan gebruikt om lol mee te hebben, echter heeft geen enkele pure gamer in mijn omgeving zo'n kaart gekocht, die zitten allemaal met lager gepositioneerde kaarten van Nvidia of AMD (zoals ikzelf).. En sorry dat ik mijn first party observaties wat betrouwbaarder vind dan wat iemand op het forum van LTT aangeeft.
Ik zeg echter ook nergens dat geen gamer een 3090 zal kopen (of straks een 4090), alleen dat dit soort kaarten voor de pure gamer over het algemeen geen goede koop is en dat ik ze dus over het algemeen ook niet aan pure gamers verkocht zie worden, die zijn immers over het algemeen wel verstandiger dan dat.
En dat is eigenlijk ook hoe Nvidia de kaart aanprijst, een deel gaming, want ja, dat is ook een markt die ze bedienen, maar het grootste deel van de presentaties gaat inmiddels over zaken als ML/AI en meer van dat soort zaken, daar zetten ze dan ook veel meer op in. En dat is echt niet omdat die kaart een pure gaming kaart is, dat is juist omdat ze steeds verder wegraken van 'het is een pure gaming kaart'.
Verder met je eens hoor alhoewel ik die ml/ai lastig vindt, dat wordt in dezelfde aankondiging gedaan als de 4080 12gb wat eigenlijk een 4070 is. Die is helemaal niet zo krachtig zo op het eerste gezicht.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Mea culpa, ik heb je originele bericht niet goed gelezen. Excuzesoli4100 schreef op woensdag 21 september 2022 @ 17:11:
[...]
Ik zeg niet dat het een zakelijke kaart is, en ik zeg ook niet dat het geen gaming kaart is.
Het is zeker (primair) een gaming kaart, uiteraard! Maar is het een product voor een normale kast en een normale huissetting? Nee. Is het een product voor de gemiddelde gamer? Ik denk het ook niet.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Ja deze vermeld gewoon even wat er waarschijnlijk gaat gebeuren met input lag. Dat is waarom Nvidia ook Reflex erbij combineert om het te verminderen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wel met DLSS.Paprika schreef op woensdag 21 september 2022 @ 17:27:
[...]
Dat is een leuk idee wanneer je halo product vele malen duurder is voor amper betere performance, maar in dit geval (zie ook 't plaatje van @DaniëlWW2) geldt dat de 4090 eigenlijk de betere koop is.
1469 euro vs 1959 euro geeft een toename van 36% in prijs, maar als je dan naar de performance kijkt, dan schaalt het 1:1 tot zelfs in het voordeel van de 4090.
En persoonlijk vind ik een GPU van meer dan 1000 euro al geen goede koop meer. (Heb zelf 1200 voor mn 6900XT betaald, en dat was echt de absolute grens, maar nog nooit een kaart zo lang gehad, en nog nooit zo tevreden geweest over een kaart, maar dat terzijde)
Maar over 4090's kan ik dus maar beter even niet mee discussiëren. Haha.
[ Voor 12% gewijzigd door Format-C op 21-09-2022 17:40 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een echt groot kanaal beeldt in de eerste 10 seconden anders pas echt kritisch uit wat de boodschap van nvidia aan ons isDaniëlWW2 schreef op woensdag 21 september 2022 @ 17:37:
Wat krijgen we nu? Grotere YT kanalen die kritisch zijn over Nvidia? Moet niet veel gekker meer worden zeg.
[YouTube: DLSS 3 - My predictions about the feature]
Ja deze vermeld gewoon even wat er waarschijnlijk gaat gebeuren met input lag. Dat is waarom Nvidia ook Reflex erbij combineert om het te verminderen.
[ Voor 4% gewijzigd door Help!!!! op 21-09-2022 18:07 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Help!!!! schreef op woensdag 21 september 2022 @ 18:07:
[...]
Een echt groot kanaal beeldt in de eerste 10 seconden anders pas echt kritisch uit wat de boodschap van nvidia aan ons is

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Lol!!Help!!!! schreef op woensdag 21 september 2022 @ 18:07:
[...]
Een echt groot kanaal beeldt in de eerste 10 seconden anders pas echt kritisch uit wat de boodschap van nvidia aan ons is
Hangt heel erg van de ML datasets af; het zal een leuke kaart zijn voor kleinere datasets; maar ik vermoed dat je voor alles meer dan dat naar de cloud moet.XanderDrake schreef op woensdag 21 september 2022 @ 16:57:
[...]
@Paprika legt uit waarom men over het algemeen niet happy is.
Mijn specifieke uitleg is: Het zou kunnen dat dit een hele goede AI/ML kaart wordt, maar we zitten hier in het Videokaarten forum; wij willen graag gamen en daar wordt deze GPU (Graphics Processing Unit) ook voor gepromoot door nVidia. Dus om in jou metafoor te blijven: deze vrachtwagen wordt vooral gepromoot als een héééle grote stationwagen, kost €200k, zuipt benzine en we vragen ons af of hij geschikt is om de kinderen op te halen in de binnenstad...
P.S. Volgens mij zijn de datacenter of workstation versies van deze Ada Lovelace chip beter voor jou werk dan de GPU versies, maar dat even terzijde. Ik deel de twijfels die @DaniëlWW2 heeft: worden al die RT/Tensor transistors wel goed en evenredig gebruikt? Of draaien ze tijdens games vooral idle??
Kliksphilip ftwDaniëlWW2 schreef op woensdag 21 september 2022 @ 17:37:
Wat krijgen we nu? Grotere YT kanalen die kritisch zijn over Nvidia? Moet niet veel gekker meer worden zeg.
[YouTube: DLSS 3 - My predictions about the feature]
Ja deze vermeld gewoon even wat er waarschijnlijk gaat gebeuren met input lag. Dat is waarom Nvidia ook Reflex erbij combineert om het te verminderen.
Enige punt waar ik het niet mee eens ben is dat het goed is voor VR. Ik verwacht dat juist met VR dat je geen extra input lag wil.
De 4090 lijkt eigenlijk de enige kaart die te verdedigen is. De 4080's zijn dat nauwelijks. Zeker de 12 GB versie met z'n kleine bus. Goede kans dat de 3080 het net zo goed gaat doen in 4K met zijn veel bredere bus.
Ik hoop dat de 3000 serie kaarten massaal tweedehands beschikbaar komen en/of AMD wel met redelijk geprijsde kaarten komt. Alles onder de 4090 lijkt me pas interessant als Nvidia de prijs (noodgedwongen) moet verlagen omdat men de kaarten massaal laat liggen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
/f/image/rg9RVjxvOeewGXVzgMs9NaD4.png?f=fotoalbum_large)
http://www.szgalaxy.com/_...ws5/NewsDetail?newsID=956
Toch vind ik dat gememe, hoewel grappig, ook wel weer vreemd, een 80 serie kaart met de x04 die is niet heel erg vreemd voor Nvidia, volgens mij was zelfs Ampere voor het eerst sinds Maxwell? Dat de x80 kaart weer een x02 die had.Ludewig schreef op woensdag 21 september 2022 @ 21:27:
Opvallend is dat het verschil tussen de 4080 16GB en 12GB versies groter lijkt te zijn dan tussen de 3090 Ti en de 3080 10 GB. Dit wijst er toch echt op dat dit een poging is om kunstmatig ruimte te maken om de 3000 serie te kunnen blijven verkopen door de 4070 te hernoemen naar de 4080. Grappig genoeg zie ik in de YouTube comments op sommige channels dat mensen de 4080 12 GB al massaal de 4070 noemen.
Daarnaast zou ik niet verwacht hebben dat de full fat x04 die de x70 kaart zou worden, ook dat is volgens mij al een decennium ofzo niet meer voorgekomen, en lag dus imho ook niet heel erg in de verwachting. Dan had ik daar eerder de x70 Ti verwacht, als het een 70 serie kaart zou zijn.
Neemt niet weg dat het nogal geklungel van Nvidia zo, maar verwachten dat dit de 4070 geweest zou zijn weet ik ook niet direct of dat nu in de lijn der verwachtingen lag, niet bij mij in ieder geval, ik had de 4070 zeker ingeschat op een cut down x40 die.
Normaal gesproken is het een dag erna nog steeds hoe geweldig de nieuwe generatie is, ik ga zeker SKU X kopen, deze feature of die is geweldig etc.
Nu is het compleet anders. Er is enorme kritiek op wat Nvidia heeft laten zien. Vrijwel niemand vindt de prijzen acceptabel of verdedigbaar. De RTX4080 12GB wordt steevast beschreven als een RTX4070 die te duur is gemaakt. DLSS3.0 wordt steeds meer beschreven als gegarandeerde input lag. Anderen zijn boos dat RTX20/30 series het niet krijgen. Er is geen optimisme dat RT nu wel goed zal zijn. En ik zie ook dat er steeds meer kritische geluiden en vraagtekens worden gesteld bij rasterisation. Laatste is nog wel dat op r/Nvidia openlijk word gesproken over een Ampere GPU kopen of helemaal pure ketterij aldaar, voor RDNA3 gaan.
Dit hebben we volgens mij nog nooit gezien. Opeens lijkt er een deuk te zitten in de gedachte dat Nvidia onfeilbaar en altijd beter is. Dat is op zijn zachts gezegd opvallend te noemen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het is wat mij betreft vooral de combinatie van het uitbrengen van twee chips onder dezelfde naam, de 192 bit bus en de prijsverhoging die gezamenlijk zorgen voor een product dat volstrekt onsamenhangend is en meer dan riekt naar misleiding van de consument. Nu zal de gemiddelde consument die deze dozen naast elkaar ziet staan in de winkel denken dat het enige verschil is dat er wat minder geheugen in zit, maar het is echt een tier naar beneden. De chip en het aantal cores zetten ze immers niet voorop de doos, dus de productnaam is het enige waar een normale consument zonder voorkennis redelijkerwijs aan kan zien dat de chip anders is.
Als ze de AD103 hadden uitgebracht als de 4080 Ti en dan de AD104 als de 4080 met een prijs die minimaal $100 lager was, of met een bredere bus, zou het er al veel beter uit zien.
Als ik de eerste schattingen zie van de echte rasterisation performance verwacht ik dat de 4080 12GB al vrij slecht uit de bus gaat komen vergeleken met een 3080, laat staan met waar AMD mee komt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
DLSS komt standaard in zo'n beetje iedere nieuwe game die zelfs Sony exclusieve is. Ik denk dat we niet over winnen en verliezen kunnen praten. We gaan alleen wel meer games zien met zo wel DLSS als FSR zoals het dus hoord want zo word niemand benadeeld.Format-C schreef op woensdag 21 september 2022 @ 17:09:
[...]
Ben iig blij dat XBOX op AMD draait. En PS5 ook. Er zullen dus nog een hoop games voor AMD geoptimaliseerd worden. Al dan niet met FSR. DLSS zal het dus nooit "winnen". En dat lijkt mij ook beter voor de consument.
Ik lees ook vaker dat door de consoles AMD beter is dan Nvidia maar ik zie dat in de jaren dat dat word gezegt niet echt terug. Kijk naar vorige gen consoles toen werd dat al gezegt, ja maar er zit AMD in. Ik denk niet dat het zo werkt.
Edit
Is Nvidia te prijzig, ja maar dat zal ook deels van de prestaties afhangen en daar weten we nog te weinig over. Ik heb nog geen onafhankelijke benchmarks gezien waar word vergeleken met RDNA 3. Voor mij persoonlijk lijkt de RTX 4080 16gb goedkoop als ik vergelijk met wat ik heb betaald voor de RTX 3080 uit pure nood en wanhoop, ik heb 2 jaar geen videokaart voor een normale prijs kunnen kopen dus was het klaar dan maar de hoofdprijs betalen omdat het kan.
[ Voor 21% gewijzigd door ItalianStyle op 21-09-2022 22:33 ]
In het allerbeste geval zorgt DLSS 3 ervoor dat je spel de vloeiende beelden heeft van bijv 120 Hz, maar de input lag van 60 Hz. Dus dat zal voor de gebruiker al minder prettig aanvoelen dan een echte 120 Hz.DaniëlWW2 schreef op woensdag 21 september 2022 @ 21:56:
DLSS3.0 wordt steeds meer beschreven als gegarandeerde input lag.
Maar als de kaart het volgende frame inderdaad eerst rendered, maar dan eerst een tussenframe genereert en toont, en de volgende frame pas wat later toont, neemt de input lag nog verder toe.
Ik voorzie in elk geval grote verwarring, met mensen die zich afvragen waarom dezelfde FPS toch veel minder prettig aanvoelt met DLSS 3. Zeker als de 'echte' renderresolutie richting de 30 Hz gaat.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
De mining-crisis is afgelopen, dus het is volstrekt onlogisch om die prijzen als maatstaf te nemen. Je hebt nu voor €860 een 12 GB 3080, dus een 12 GB 4080 van €1099 moet een kwart sneller zijn alleen maar om geen slechtere prijs/performance te hebben. Ik heb nogal mijn twijfels of dat gehaald wordt.
Ik zou in elk geval iedereen die interesse heeft in een 4080 sterk adviseren om minimaal te wachten waar AMD mee komt. Al is het maar om te kijken of Nvidia niet verplicht wordt om de prijzen te verlagen omdat het verschil met AMD te schunnig wordt.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Daar gaan we vast snel terug zien in de reviews of er daadwerkelijk zo veel inputlag bij komt kijken. Dan heeft Nvidia voor mij gefaald wat DLSS 3.0 betreft. Ik zou toch verwachten dat Nvidia niet zo'n enorme fout zal begaan en dat zelf ook wel weet?Ludewig schreef op woensdag 21 september 2022 @ 22:33:
[...]
In het allerbeste geval zorgt DLSS 3 ervoor dat je spel de vloeiende beelden heeft van bijv 120 Hz, maar de input lag van 60 Hz. Dus dat zal voor de gebruiker al minder prettig aanvoelen dan een echte 120 Hz.
Maar als de kaart het volgende frame inderdaad eerst rendered, maar dan eerst een tussenframe genereert en toont, en de volgende frame pas wat later toont, neemt de input lag nog verder toe.
Ik voorzie in elk geval grote verwarring, met mensen die zich afvragen waarom dezelfde FPS toch veel minder prettig aanvoelt met DLSS 3. Zeker als de 'echte' renderresolutie richting de 30 Hz gaat.
Edit
@Ludewig
Ik ga zelf wel van de crisis prijzen want ik heb het er ook voor betaald, als dat niet het geval zou zijn ga ik het ook niet voor mij persoonlijk vergelijken.
Er zijn 2 dingen die ik belangrijk vind en waar mee Nvidia voor mij de doorslag zal kunnen zijn. Met raster zal de prestaties voor 4k gamen waarschijnlijk meer dan voldoende zijn, het zal dan afhalen wat AMD qua RT gaat brengen daar word over hett algemeen m8nder hoge fps gehaald, die prestatie vergelijking zal voor mij de doorslag zijn met of zonder upscale technieken. Dan nog moeten er in de toekomt voldoende nieuwe games komen die voor mij aantrekkelijk zijn. Deadspace remake bijvoorbeeld, als zo'n enkele game ook nog prima met RT op de 3080 draaid met DLSS koop ik waarschijnl8jk helemaal niets nieuws.
[ Voor 29% gewijzigd door ItalianStyle op 21-09-2022 22:56 ]
Ik kwam deze ook nog tegen op reddit:

Of de 4080 12GB het lastig gaat krijgen met de 3080 weet ik niet, ik verwacht voor een full fat x04 die toch echt minstens RTX 3090 performance, zo niet RTX 3090 Ti performance bij een vergelijking over veel titels en workloads zoals bijv. zo'n 50 games roundup van HWU. Alles minder is eigenlijk imho niet acceptabel (individuele workloads die bijv. extreem goed scalen met memory bandwidth daargelaten).
[ Voor 4% gewijzigd door Dennism op 21-09-2022 22:56 ]
Ik zou niet al te veel hoop koesteren.Dennism schreef op woensdag 21 september 2022 @ 22:49:
@Ludewig
Ik kwam deze ook nog tegen op reddit:
[Afbeelding]
Of de 4080 12GB het lastig gaat krijgen met de 3080 weet ik niet, ik verwacht voor een full fat x04 die toch echt minders RTX 3090 performance, zo niet RTX 3090 Ti performance bij een vergelijking over veel titels en workloads. Alles minder is eigenlijk imho niet acceptabel (individuele workloads die bijv. extreem goed scalen met memory bandwidth daargelaten).
Ik blijf maar in herhaling vallen, maar AD104 is een kleinere chip dan de RTX3080 configuratie. Die moet het puur hebben van de 800MHz+ hogere boostclock. Het is fors, maar die chip gaat onherroepelijk tegen haar limieten aanlopen op hogere resoluties. En zelfs Nvidia suggereerde RTX3090 niveau. Dus iets sneller dan de RTX3080 zal wel gebeuren, maar niet veel.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ook met hoge input lag kan het prima technologie zijn voor games die toch vrij traag zijn, zoals MSFS, die Nvidia vast niet toevallig had gekozen voor de demo. In een echte Airbus zal je vast ook flinke input lag hebben met al die computers die de inputs van de piloot beoordelen en eventueel aanpassen voordat die naar de stuurvlakken gaat. En die grote stuurvlakken reageren ook niet meteen.
Maar het is wel extreem misleidend om te doen alsof een tussenframe evenveel waard is als een keyframe, wat Nvidia deed. De presentatie van Nvidia had misleidende opmerkingen en claims, zoals ook al zo was bij de presentatie van Turing en Ampere. Dus ik geef Nvidia zeker niet het voordeel van de twijfel.
@Dennism @DaniëlWW2
Frame chasers schat op basis van de specs zo'n 10-20% verbetering van de 12 GB 4080 t.o.v. de 3080 12 GB. Al weet ik niet of hij de extra cache daarin voldoende meetelt of voldoende rekening houd met de slechte scaling.
YouTube: Your GPU is Obsolete!!
Maar de 3090 is ook maar zo'n 13% sneller dan de 3080, dus dat klopt wel vrij aardig als Nvidia claimt dat de 4080 op 3090 niveau zit. Dan gaat de prijs/performance toch echt omlaag als de 4080 12 GB een kwart duurder is dan de 3080.
Uiteraard weten we het pas als de reviews uitkomen, maar ik denk dat het geen toeval is dat Nvidia zo de nadruk legde op DLSS 3 en RT.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Na 2 jaar 1099 euro vragen (oftewel 50% price increase t.o.v. de 3080 10GB) en bij lange na niet 50% meer performance behalen is gewoon ronduit belachelijk. Dit is gewoon hetzelfde als de 2080. Wel betalen en er amper iets voor krijgen (t.o.v. 1080 en zeker de 1080Ti). Dan was een 3090 de betere koop. Dan had je nog altijd een 24GB buffer gehad en de kaart al meermaals terugverdiend met mining.Ludewig schreef op woensdag 21 september 2022 @ 23:15:
Maar de 3090 is ook maar zo'n 13% sneller dan de 3080, dus dat klopt wel vrij aardig als Nvidia claimt dat de 4080 op 3090 niveau zit. Dan gaat de prijs/performance toch echt omlaag als de 4080 12 GB een kwart duurder is dan de 3080.
Uiteraard weten we het pas als de reviews uitkomen, maar ik denk dat het geen toeval is dat Nvidia zo de nadruk legde op DLSS 3 en RT.
[ Voor 13% gewijzigd door Paprika op 21-09-2022 23:23 ]
Inderdaad dat vermoed ik ook. In het slechtste geval en krijg je 120Hz met de input lag van 60Hz VSync (niet tripple buffered).Ludewig schreef op woensdag 21 september 2022 @ 22:33:
In het allerbeste geval zorgt DLSS 3 ervoor dat je spel de vloeiende beelden heeft van bijv 120 Hz, maar de input lag van 60 Hz. Dus dat zal voor de gebruiker al minder prettig aanvoelen dan een echte 120 Hz.
Vind persoonlijk niet dat je hetzelfde kan zeggen over de 2080. Ja, qua rasterization was de 2080 nou niet echt fantastisch tov een 1080ti (zeg maar rustig rukPaprika schreef op woensdag 21 september 2022 @ 23:22:
[...]
Na 2 jaar 1099 euro vragen (oftewel 50% price increase t.o.v. de 3080 10GB) en bij lange na niet 50% meer performance behalen is gewoon ronduit belachelijk. Dit is gewoon hetzelfde als de 2080. Wel betalen en er amper iets voor krijgen (t.o.v. 1080 en zeker de 1080Ti). Dan was een 3090 de betere koop. Dan had je nog altijd een 24GB buffer gehad en de kaart al meermaals terugverdiend met mining.In die zin heb ik mijn 3080 eigenlijk met winst gekocht, al is het achteraf makkelijk praten natuurlijk.
Ze hebben simpelweg niet de research gestopt in rasterization. Ik heb die haat naar de 20 serie nooit echt begrepen, het was het begin van het Raytracing tijdperk.
Maar goed, ga je uiteraard niet mee eens zijn en dat mag
Wat je zegt over de 1099 en geen 50% meer performance bieden kan ik je alleen maar gelijk geven. Het is bijna een circus act met een opper clown aan het roer.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Ik had er zelf 1 en mijn ervaring was vooral dat de 3000-series het bruikbaar maakte, maar goed, alles is relatief en zal afhankelijk zijn van de gebruiker.OMD schreef op woensdag 21 september 2022 @ 23:31:
[...]
Vind persoonlijk niet dat je hetzelfde kan zeggen over de 2080. Ja, qua rasterization was de 2080 nou niet echt fantastisch tov een 1080ti (zeg maar rustig ruk) maar daar draaide de 20 serie Launch ook niet om. Raytracing was de key en zelfs nu kan ik samen met DLSS 2 veel titels met RT spelen.
Ze hebben simpelweg niet de research gestopt in rasterization. Ik heb die haat naar de 20 serie nooit echt begrepen, het was het begin van het Raytracing tijdperk.
Maar goed, ga je uiteraard niet mee eens zijn en dat mag
Oh, maar daar ben ik het zeer zeker mee eens. De 20 serie was duidelijk het introductie kindje van een nieuwe techniek. Daardoor bleef echter de rauwe performance best achter. De 30 serie is vele malen bruikbaarder qua Raytracing.Paprika schreef op woensdag 21 september 2022 @ 23:36:
[...]
Ik had er zelf 1 en mijn ervaring was vooral dat de 3000-series het bruikbaar maakte, maar goed, alles is relatief en zal afhankelijk zijn van de gebruiker.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Nvidia had twee jaar geleden toch een input latency tester (LDAT) rondgestuurd aan reviewers? Nou dat was misschien een vergissing met DLSS3.0 in aantocht.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.