X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ben je dan nog niet steeds voltage limited? NVidia heeft een behoorlijke sterke cap opvallend kaarten gezet, dat is ook de reden dat eigenlijk elke aib met een oc niet echt verder komt dan 5% extra snelheid.SG schreef op woensdag 2 november 2022 @ 07:30:
[...]
Sommige 4090 modellen zijn volledig gericht op LN2 overklokking en dan zal 800+ watts mogelijk.
De reden van 12 pin is zeer korte PCB design van founder editions en sommige AIB die dat concept volgen. Zo een stekker wil je direct op de PCB hebben en 2 12pins heb je nodig als je verwachte power draw rond de 600watt komt ook ivm trancient helaas is ipv 8 pins naast die 12pins neemt 2de 12pins bijna evenveel in beslag dus die 2 12pin is nodig als PCB beperkt is en je 550 tot 1000 watt mer 200wat marge gaat trekken de reden kan zijn of 575 tdp of 610 tdp 777 tdp houd niet in 1100tdp
Als de load goed verdeeld wordt is er dus heel veel marge over.
De8bauer had wel meer voltage voor elkaar gekregen alleen klokte de kaart niet echt eerder dan met een reguliere overclock.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Wat is 'meekomen?'Sp3ci3s8472 schreef op woensdag 2 november 2022 @ 02:12:
Schaamteloze crosspost, AdoredTV denkt dat Nvidia deze generatie nog kan meekomen;
Ik denk dat Nvidia deze generatie al dramatisch hoge productiekosten heeft, voor dezelfde performance. Ze kunnen wel een goed prestatieniveau halen met een grote en hele dure chip, die heel inefficient is qua aantallen transistoren vs de performance.
Dit is eigenlijk ook vergelijkbaar met Intel vs AMD bij de CPU's. Intel levert een aantrekkelijk product, maar hun marges zijn veel slechter dan die AMD heeft. Ze kunnen dus niet concurreren als ze dezelfde marges rekenen.
Nvidia heeft dan wel de mazzel ten opzichte van Intel dat GPU's veel minder uitwisselbaar zijn dan CPU's, in elk geval in de ogen van de klanten. Dus Nvidia kan het zich veroorloven om tot bepaalde hoogte minder ruwe prestaties te leveren per euro. Maar daar zit natuurlijk altijd een grens aan.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Wacht maar op Navi31 7700XT 225W voor ~$499. Daar kan Nvidia met AD104 RTX 4070 alleen maar van dromen, lager dan $699 *kunnen* ze gewoon niet (zonder zwaar te snijden in marges en zelfs dan, het ding is 285W!). Het RDNA3 bloedbad zal als eerste daar plaats vinden.
Blackwell vs RDNA4 zullen we zien, of AMD de high end kan verzilveren.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Waarom zou AMD? Dat is toch ontzettend domme actie. Nvidia zijn flagship zit op $1599,-. Denk je dat investeerders het leuk vinden als morgenavond wordt gezegd dat de flagship 999 kost?sunsmountain schreef op woensdag 2 november 2022 @ 12:17:
De high end kan Nvidia nog wel meekomen deze generatie, de mainstream totaal niet.
Wacht maar op Navi31 7700XT 225W voor ~$499.
Een concurrerende kaart die 499 kost tegen een 4070 die (waarschijnlijk) 799 of 899 gaat kosten is gewoon geld weggooien, hup, zo het water in. een concurrerende kaart die jij veel goedkoper kan aanbieden plaats je dan gewoon een dollar of 100 lager of 150. Meer marge, meer geld voor R&D, meer geld voor investeerders. Ik wil ook zeggen marketing maar volgens mij zit er bij AMD maar eentje op die afdeling
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
AMD kan met deze prijzen goede marges maken voor de investeerders. Nvidia niet. Of AMD superhebberig gaat worden net als Nvidia, omdat Nvidia het doet, weet ik niet. Volgens mij doet Nvidia dat omdat ze teveel RTX 3000 kaarten hebben, maar ik denk niet dat AMD rekening gaat houden met de RX 6000 kaarten in Q1 2023.OMD schreef op woensdag 2 november 2022 @ 12:29:
[...]
Waarom zou AMD? Dat is toch ontzettend domme actie. Nvidia zijn flagship zit op $1599,-. Denk je dat investeerders het leuk vinden als morgenavond wordt gezegd dat de flagship 999 kost?
Een concurrerende kaart die 499 kost tegen een 4070 die (waarschijnlijk) 799 of 899 gaat kosten is gewoon geld weggooien, hup, zo het water in. een concurrerende kaart die jij veel goedkoper kan aanbieden plaats je dan gewoon een dollar of 100 lager of 150. Meer marge, meer geld voor R&D, meer geld voor investeerders. Ik wil ook zeggen marketing maar volgens mij zit er bij AMD maar eentje op die afdeling
Verder wordt de 7700XT een paradepaard in laptops en de PS5 Pro refresh refresh. Het ding gaat massaal geproduceerd worden en is goedkoop. $499 is een psychologisch prijspunt.
Dus nee dat is geen geld weggooien, dat is massa is kassa mainstream, met
~200 mm² op N6 met ~225W TDP versus
~300 mm² op N4 met ~300W TDP.
edit: Vergelijk het met Nvidia die een RTX 3070 uitbrengt die net zo goed is als een RTX2080 Ti, die was toch ook $499 qua MSRP? Waarom zou AMD niet precies hetzelfde doen met hun 7700XT en 6900XT? Dat Nvidia het dit keer niet doet is omdat ze het niet kunnen, that's why.
[ Voor 9% gewijzigd door sunsmountain op 02-11-2022 13:09 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
AMD zou er ook voor kunnen kiezen om voor marktaandeel te gaan. Als ze zo dicht bij Nvidia blijven zitten met de prijzen zullen ze nooit, zoals op de CPU markt, het aandeel vergroten. Eigenlijk doen ze dit nu al een beetje met de 6000 serie die relatief lager geprijsd is dan de 30 serie terwijl juist het aanbod "oude" kaarten aan de kant van Nvidia groter is.OMD schreef op woensdag 2 november 2022 @ 12:29:
[...]
Waarom zou AMD? Dat is toch ontzettend domme actie. Nvidia zijn flagship zit op $1599,-. Denk je dat investeerders het leuk vinden als morgenavond wordt gezegd dat de flagship 999 kost?
Een concurrerende kaart die 499 kost tegen een 4070 die (waarschijnlijk) 799 of 899 gaat kosten is gewoon geld weggooien, hup, zo het water in. een concurrerende kaart die jij veel goedkoper kan aanbieden plaats je dan gewoon een dollar of 100 lager of 150. Meer marge, meer geld voor R&D, meer geld voor investeerders. Ik wil ook zeggen marketing maar volgens mij zit er bij AMD maar eentje op die afdeling
Ik heb het idee dat er een enorme onverzadigde markt is die echt wacht op die 500 euro kaart die kan wedijveren met de 3090/6900XT. Weet alleen niet of dat mogelijk is met de marges die ze willen maken.
Ik kan je vertellen als ondernemer zijnde, dat is geld weggooien.sunsmountain schreef op woensdag 2 november 2022 @ 13:04:
[...]
AMD kan met deze prijzen goede marges maken voor de investeerders. Nvidia niet. Of AMD superhebberig gaat worden net als Nvidia, omdat Nvidia het doet, weet ik niet. Volgens mij doet Nvidia dat omdat ze teveel RTX 3000 kaarten hebben, maar ik denk niet dat AMD rekening gaat houden met de RX 6000 kaarten in Q1 2023.
Verder wordt de 7700XT een paradepaard in laptops en de PS5 Pro refresh refresh. Het ding gaat massaal geproduceerd worden en is goedkoop. $499 is een psychologisch prijspunt.
Dus nee dat is geen geld weggooien, dat is massa is kassa mainstream, met
~200 mm² op N6 met ~225W TDP versus
~300 mm² op N4 met ~300W TDP.
Product X kunnen verkopen voor 599 of 699 is vele malen verstandiger dan 499. Er is geen concurrentie op dat niveau, waarom zou je dan van je eigen portemonnee stelen? Does not make sense. AMD is geen liefdadigheid instelling.
Je hebt nooit genoeg marge, nooit. Dat bestaat niet. Dat is echt niet commercieel denken. Wanneer je 20% afzet verliest op 699 door die prijs op 100.000 stuks ten opzichte van 499.
499 x 100.000 = 49.900.000
699 x 80.000 = 55.920.000
Je hebt dus zo verschrikkelijk veel minder units nodig om dezelfde bruto omzet te realiseren (maar met een veel hogere winst). Dat gaat gepaard met een logistieke kostenbesparing van echt enorme bedragen.
We gaan het zien. Bovenstaand verhaal is ook een punt. Marktaandeel. Ze kunnen nu een enorme slag slaan en een groot deel van de taart "stelen". Dat is je zelf sterker de markt in kopen en dat kost geld. Dat doe je dan inderdaad weer door lagere prijzen te hanteren en je concurrentie compleet te vloeren.
[ Voor 9% gewijzigd door OMD op 02-11-2022 13:18 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Dat moet ik nog zien. AD102 misschien, de rest is veel twijfelachtiger als je alleen al kijkt naar Nvidia hun eigen cijfers.Sp3ci3s8472 schreef op woensdag 2 november 2022 @ 02:12:
Schaamteloze crosspost, AdoredTV denkt dat Nvidia deze generatie nog kan meekomen; maar dat ze tegen de limiet zitten van wat ze kunnen zonder ook chiplets te gebruiken; ze zijn volledig afhankelijk van de volgende node van TSMC:
[YouTube: RDNA3 - AMD's Zen Graphics Moment]
Dit is denk ik de verkeerde vraag.Geen idee of Nvidia al bezig is met chiplets; maar ze moeten heel erg hard bezig chiplets.
Natuurlijk is Nvidia al bezig met chiplets als ze over tien jaar nog willen bestaan. Het einde van silicon nodeshrinks zit er namelijk aan te komen en vanaf dit punt is het alleen maar complexer, duurder en minder grote prestatie winsten per node. Immers gaat je logic nog fors kleiner worden maar je SRAM en analog niet.
Ik denk dat het alleen de verkeerde vraag is omdat chiplets, Nvidia hun problemen helemaal niet oplossen. Nvidia is nu al jaren bezig om hun gaming GPU's dual use te maken. Ze willen met een architectuur, gaming, rendering en ML/AI doen. En daarvoor hebben ze drie aparte hardwareblokken in een SM gestopt vanaf Turing. Die twee laatste gaan alleen ten koste van de eerste terwijl die eerste uiteindelijk een van de belangrijkste markten is en blijft.
Als Nvidia nu een chiplet architectuur maakt met wat ze hebben, dan zit je alsnog met een gigantische GPU waarbij ze maar weinig af kunnen splitsen in aparte chiplets. Nvidia kan hun L2 cache niet zomaar losmaken van hun GPC, TPC en SM structuur. Dit omdat L2 een zeer hoge bandbreedte cache is en dat reproduceren met chiplets is een uitdaging. Niet alleen in de bandbreedte zelf, maar ook in energieconsumptie van een dergelijke verbinding beperken is behoorlijk uitdagend. Immers is dat de verbinding tussen elke GPC nu.
Hoe het nu namelijk staat met Nvidia zou het splitsen van een of een paar GPC's per chiplet, waarschijnlijk de meest logische keuze zijn als ze kosten willen drukken alsmede snellere GPU's willen maken. Dan krijg je alleen een complex monster waarbij je bijna gegarandeerd een actieve interposer nodig hebt (duurder) en alsnog met grote SM's zit die niet erg efficiënt zijn.
Ik zie de hele Maxwell-Lovelace ontwikkeling eigenlijk niet werken voor een chiplet based architectuur. Die hele ontwikkeling die eigenlijk al verder gaat dan Maxwell, opereert op het principe van vele relatief kleine en autonome rekenclusters die relatief los met elkaar verbonden zijn. Dat geeft nu al problemen en als je naar chiplets gaat, dan maak je die groter. Voor specifiek gaming krijg je te maken krijgt met enorme problemen qua scheduling tussen verschillende chiplets alsmede het verplaatsen en verkrijgen van data tussen die chiplets. En het idee van chiplets is uiteindelijk ook meer rekeneenheden die in dit geval het probleem groter maken. Alsof Nvidia hun problemen nog niet groot genoeg waren hierin.
De overstap voor Nvidia betekent waarschijnlijk ook nog eens een nieuwe architectuur vanaf de grond af moet gaan ontwerpen en meteen ook overstappen naar MCM, zonder ervaring hierin. Dan moeten ze maar hopen dat het werkt terwijl ze juist door hun eis van zoveel verschillende fixed function hardware, waarschijnlijk ook niet de grootste voordelen uit MCM zullen halen. Dat kunnen ze alleen verhelpen als ze hun SM drastisch op de schop nemen, dus veel efficiënter maken in zowel oppervlakte, occupency als verbruik. Verder zit die constante groei in tensor cores ook enorm in de weg. Ik zie niet hoe ze dat in een generatie allemaal gaan doen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat een architectuur zonder chiplets uiteindelijk gaat falen is duidelijk. Met chiplets kan je het probleem tenminste nog ligt verminderen omdat je dan op de gaming lijn gewoon minder Tensor cores plakt.DaniëlWW2 schreef op woensdag 2 november 2022 @ 13:52:
[...]
Dat moet ik nog zien. AD102 misschien, de rest is veel twijfelachtiger als je alleen al kijkt naar Nvidia hun eigen cijfers.
[...]
Dit is denk ik de verkeerde vraag.
Natuurlijk is Nvidia al bezig met chiplets als ze over tien jaar nog willen bestaan. Het einde van silicon nodeshrinks zit er namelijk aan te komen en vanaf dit punt is het alleen maar complexer, duurder en minder grote prestatie winsten per node. Immers gaat je logic nog fors kleiner worden maar je SRAM en analog niet.
Op zich mooi dat AMD CDNA en RDNA heeft.
1.050mv is max stock en tot 1.100mv kan je forceren, tenminste met mijn RTX 4090.OMD schreef op woensdag 2 november 2022 @ 08:19:
[...]
Ben je dan nog niet steeds voltage limited? NVidia heeft een behoorlijke sterke cap opvallend kaarten gezet, dat is ook de reden dat eigenlijk elke aib met een oc niet echt verder komt dan 5% extra snelheid.
De8bauer had wel meer voltage voor elkaar gekregen alleen klokte de kaart niet echt eerder dan met een reguliere overclock.
Dat denk ik ook niet.Sp3ci3s8472 schreef op woensdag 2 november 2022 @ 13:58:
[...]
Dat een architectuur zonder chiplets uiteindelijk gaat falen is duidelijk. Met chiplets kan je het probleem tenminste nog ligt verminderen omdat je dan op de gaming lijn gewoon minder Tensor cores plakt.
Ik denk dat die hele roep van "chiplets is de oplossing", verkeerd is. Nvidia moet eerst maar eens hun architectuur echt op de schop nemen in plaats van meer rekeneenheden toevoegen en verbruik vergelijkbaar proberen houden. Het probleem is dat dit fundamenteel is wat Nvidia de afgelopen twintig jaar vooral heeft gedaan. Die ene echt grote uitzondering is G80/Tesla/8800.
En dat is dan ook geen toeval, inclusief dat CDNA en RDNA ook heel andere methode lijken te gebruiken voor hun MCM ontwerpen. CDNA2 is eigenlijk monolithisch waar je een extra GPU chip kan toevoegen op een interposer. Immers is scheduling een veel kleiner probleem in datacenter wereld waar gebruik van meerdere GPU's al normaal is.Op zich mooi dat AMD CDNA en RDNA heeft.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het zou me erg verbazen als ze niet reeds iets nieuws qua architectuur in de startblokken hebben staan. TSMC kan hen prima ondersteuning bieden met chiplets, interposers, packaging, 2,5D/3D etc.
Tegelijkertijd heeft nvidia nog geen praktijkervaring met chiplets en dat is denk ik de belangrijkste mogelijke zwakte. Naast dat een nieuwe architectuur in de eerste generatie denk ik niet vaak al helemaal top is.
De RDNA3 launch vind ik vooral erg interessant om te zien hoe goed de chiplet insteek bij GPU's werkt bij een eerste iteratie en wat de zwakheden in de praktijk zijn. Hoe deze je gebruikerservaring beinvloeden.
Als AMD, die natuurlijk al veel ervaring hebben met chiplets, geen goede eerste indruk levert dan zie ik het wel wat somberder in voor nvidia voor wat betreft een vlekkeloze start in de chiplet scene.
[ Voor 5% gewijzigd door Help!!!! op 02-11-2022 14:26 ]
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Voltage limited is wat anders dan maximale voltage wat je kan ingeven in bijvoorbeeld Afterburner of GPU Tweak.ItalianStyle schreef op woensdag 2 november 2022 @ 14:02:
[...]
1.050mv is max stock en tot 1.100mv kan je forceren, tenminste met mijn RTX 4090.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
AMD gaat er uiteindelijk niet over, dat zijn de board partners. Als de vraag werkelijk hoog is zoals met crypto, dan worden de prijzen vanzelf meer dan de MSRP. Verder tendeert AMD al jaren naar een bepaalde gross profit margin van 50%:OMD schreef op woensdag 2 november 2022 @ 13:17:
[...]
Ik kan je vertellen als ondernemer zijnde, dat is geld weggooien.
Product X kunnen verkopen voor 599 of 699 is vele malen verstandiger dan 499. Er is geen concurrentie op dat niveau, waarom zou je dan van je eigen portemonnee stelen? Does not make sense. AMD is geen liefdadigheid instelling.
Je hebt nooit genoeg marge, nooit. Dat bestaat niet. Dat is echt niet commercieel denken. Wanneer je 20% afzet verliest op 699 door die prijs op 100.000 stuks ten opzichte van 499.
499 x 100.000 = 49.900.000
699 x 80.000 = 55.920.000
Je hebt dus zo verschrikkelijk veel minder units nodig om dezelfde bruto omzet te realiseren (maar met een veel hogere winst). Dat gaat gepaard met een logistieke kostenbesparing van echt enorme bedragen.
We gaan het zien. Bovenstaand verhaal is ook een punt. Marktaandeel. Ze kunnen nu een enorme slag slaan en een groot deel van de taart "stelen". Dat is je zelf sterker de markt in kopen en dat kost geld. Dat doe je dan inderdaad weer door lagere prijzen te hanteren en je concurrentie compleet te vloeren.
https://www.macrotrends.n...ts/AMD/amd/profit-margins
Daar kunnen ze best tijdelijk of met halo producten van afwijken, maar +$200 zou wel heel a-historisch zijn en board partners zullen dat niet per se van AMD accepteren. Bovendien, de vraag zal afnemen doordat de pandemie voorbij is, crypto gestopt, en er steeds meer tweedehands videokaarten op de markt komen.
Van wat we horen van board partners, zien ze er naar uit om met AMD samen te werken, mogelijk omdat ze dan meer marge kunnen maken. Maar vanuit AMD kunnen ze prima uit de voeten met $499 voor Navi33, is wat ik zeg. Dat is mèt 60% voor AMD en 20% voor board partners. Voor Nvidia is dat eenvoudigweg te laag voor AD104, de gelijk presterende chip. Zelfs met 50% voor Nvidia en 10% voor board partners, kom je niet lager dan $699.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Iets constateren en er ook iets aan doen zijn twee heel andere dingen. AMD wist immers ook wel tien jaar geleden dat ze iets beters nodig hadden dan Bulldozer net zoals dat Intel vijf jaar geleden ook wel wist dat er iets heel erg mis was met hun 10nm node.Help!!!! schreef op woensdag 2 november 2022 @ 14:24:
Als hier de problemen in de nvidia architectuur beredeneerd kunnen worden dan weten ze dat bij nvidia natuurlijk ook allang. Die zijn daar niet gek. Natuurlijk kunnen zij ook een Intel moment krijgen maar dat is verre van een zekerheid.
Het zou me erg verbazen als ze niet reeds iets nieuws qua architectuur in de startblokken hebben staan. TSMC kan hen prima ondersteuning bieden met chiplets, interposers, packaging, 2,5D/3D etc.
Tegelijkertijd heeft nvidia nog geen praktijkervaring met chiplets en dat is denk ik de belangrijkste mogelijke zwakte. Naast dat een nieuwe architectuur in de eerste generatie denk ik niet vaak al helemaal top is.
De RDNA3 launch vind ik vooral erg interessant om te zien hoe goed de chiplet insteek bij GPU's werkt bij een eerste iteratie en wat de zwakheden in de praktijk zijn. Hoe deze je gebruikerservaring beinvloeden.
Als AMD, die natuurlijk al veel ervaring hebben met chiplets, geen goede eerste indruk levert dan zie ik het wel wat somberder in voor nvidia voor wat betreft een vlekkeloze start in de chiplet scene.
Er iets aan doen is wat lastiger. Ik heb bijvoorbeeld geen flauw idee hoe groot Nvidia hun ontwerpafdeling is, wat hun capaciteiten precies zijn en welke ideeën ze daar hebben. Belangrijker nog weet ik niet wat hun ontwikkelfocus is. We hebben in ieder geval meermaals Jensen Huang horen zeggen dat ze beter zijn met monolithische chips. En gezien wat ze willen bereiken lijkt dat ook logisch. Zeker bij Nvidia speelt ook nog eens dat ze veel meer met software doen waardoor het zomaar kan dat Nvidia hun softwareontwikkelafdeling veel groter is dan de hardwareafdeling en ook de dominante factor is. En wie zegt dat die zitten te wachten op een compleet nieuwe architectuur waar ze tijdenlang de drivers voor moeten gaan schrijven om een probleem op te lossen dat een andere afdeling heeft?
Het is niet zo makkelijk om iets te constateren waarna het opgelost word. Voor AMD was het makkelijk omdat ze twee keuzes hadden: Radicaal andere aanpak of failliet. En AMD hun chiplets aanpak was ook een enorme gok die je alleen maar neemt als je geen keuze meer hebt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ten tijde van Bulldog had AMD onvoldoende geld om iets anders te doen, ze hadden geen keus. nVidia heeft dat probleem helemaal niet. Die bulken al jaren van het geld.
Intel's 10nm vind ik niet echt te vergelijken. Als ineens je fabtechnologie niet meer functioneert dan kun je dat niet perse zomaar oplossen door er geld tegenaan te gooien. Ze zijn weliswaar iets te ambitieus geweest maar het is niet iets wat je echt ziet aankomen zoals chiplets. Als TSMC ineens vastloopt en Intel niet dan kan de volgende generatie intel GPU's zomaar gehakt maken van AMD en nvidia.
Maar goed het kan natuurlijk dat nvidia het onderschat of te lang scherp aan de wind blijft zeilen om maar zo veel mogelijk van hun huidige investeringen en kennis te profiteren.
Echter aangezien Ryzen alweer bijna 6 jaar geleden gelaunched is denk ik echt niet dat nvidia stil is blijven zitten. Ze hebben volgensmij ruim voldoende geld en kennis om dit te kunnen.
Het klopt dat ze het nog moeten laten zien maar dat geldt voor AMD GPU chiplets ook. Ik denk wel dat AMD de goede keuze maakt door hier nu mee te komen. Al ervaring hebben met (GPU) chiplets lijkt me zeker een groot voordeel. Ik hoop in ieder geval op een Ryzen watershed moment voor RDNA3 / GPU chiplets.
[ Voor 4% gewijzigd door Help!!!! op 03-11-2022 11:08 ]
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Waar kijken we naar? Misschien mis ik de punchline namelijk.Help!!!! schreef op zaterdag 5 november 2022 @ 17:39:
Techindustrie en ethics....
[YouTube: I'm Frankly Disgusted - WAN Show November 4, 2022]
Filmpje start bij mij over een shift en dan naar de backpack van LTT
Edit:
Gaat denk ik om time stamp 17:30? Mijn YouTube doet vaag, die start elke video blijkbaar op 75%.
Edit 2:
Corporate greed. Bleegh
[ Voor 23% gewijzigd door OMD op 05-11-2022 18:04 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
LTT mag dan niet de meest technische reviewer zijn maar als grootste techkanaal neemt hij wel vaak zijn verantwoordelijkheid om de grote techbedrijven de maat te nemen als het gaat om questionable practices.
[ Voor 51% gewijzigd door Help!!!! op 05-11-2022 18:34 ]
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Het is weer jammer dat de typische naam naar voren komt; namelijk Nvidia (en een boardpartner Zotac).Help!!!! schreef op zaterdag 5 november 2022 @ 18:32:
Bij mij start de link op 17:33. Het is een bloemlezing van corporate abuse m.n. bij de wat kleinere channels.
LTT mag dan niet de meest technische reviewer zijn maar als grootste techkanaal neemt hij wel vaak zijn verantwoordelijkheid om de grote techbedrijven de maat te nemen als het gaat om questionable practices.
Mijn goal voor 2023, nog minder Nvidia aanraden aan vrienden; tenzij ze echt Cuda nodig hebben.

https://videocardz.com/ne...103-gpu-pictured-up-close
Nee ik wil verder niks zeggen over hoe het erop lijkt dat de helft van de VRM's van de GPU gehaald lijken te zijn...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Lijkt op een 4090 die een ongeluk heeft gehad.DaniëlWW2 schreef op maandag 7 november 2022 @ 23:36:
Nee ik wil verder niks zeggen over hoe het erop lijkt dat de helft van de VRM's van de GPU gehaald lijken te zijn...
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dus toch ook de 12Vhpwr connector op de 4080 lijkt het?DaniëlWW2 schreef op maandag 7 november 2022 @ 23:36:
Dit zou het RTX4080 FE PCB zijn PCB.![]()
[Afbeelding]
https://videocardz.com/ne...103-gpu-pictured-up-close
Nee ik wil verder niks zeggen over hoe het erop lijkt dat de helft van de VRM's van de GPU gehaald lijken te zijn...
https://videocardz.com/ne...2gb-sku-launch-in-janaury
Dat wordt dus de enige Ti voorlopig. Geen enkele andere ti. Dat wordt weer wat als de Ti versies worden aangekondigd van de overige kaarten. Misschien krijg je dan wel de Ti Super oid.
[ Voor 38% gewijzigd door OMD op 08-11-2022 08:42 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Dan heeft Nvidia heeft nog steeds geen ruimte voor een tweede SKU op AD103. Immers is de RTX4080 een 5% SM cut down.OMD schreef op dinsdag 8 november 2022 @ 08:39:
Jaja, het wordt waarschijnlijk de 4070Ti
https://videocardz.com/ne...2gb-sku-launch-in-janaury
Dat wordt dus de enige Ti voorlopig. Geen enkele andere ti. Dat wordt weer wat als de Ti versies worden aangekondigd van de overige kaarten. Misschien krijg je dan wel de Ti Super oid.
Dat was al bekend. Ook een leuke omdat de ellende alsmaar doorgaat.Zuvio schreef op dinsdag 8 november 2022 @ 07:22:
[...]
Dus toch ook de 12Vhpwr connector op de 4080 lijkt het?
Verder kijk eens wat wel bestaat.
[ Voor 14% gewijzigd door DaniëlWW2 op 08-11-2022 09:13 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik neem even aan dat het over dit gaat? YouTube: A Whole New Tech ScandalSp3ci3s8472 schreef op zaterdag 5 november 2022 @ 21:30:
[...]
Het is weer jammer dat de typische naam naar voren komt; namelijk Nvidia (en een boardpartner Zotac).
Mijn goal voor 2023, nog minder Nvidia aanraden aan vrienden; tenzij ze echt Cuda nodig hebben.
Nvidia en Zotac zijn daar niet de enige genoemde partijen. Gigabyte, Asus en AMD worden ook door LTT benoemd.
https://videocardz.com/ne...2gb-sku-launch-in-janaury
Edit
Ik ben benieuwd of Nvidia zich aan de RTX 4080 12gb prijs vast blijft houden.
[ Voor 23% gewijzigd door ItalianStyle op 08-11-2022 10:00 ]
Jay heeft er ook 1, was in het ervaringen & Discussie topic gedeeld. Beetje lastig wat nu nieuws is en discussieDaniëlWW2 schreef op dinsdag 8 november 2022 @ 09:10:
[...]
Dan heeft Nvidia heeft nog steeds geen ruimte voor een tweede SKU op AD103. Immers is de RTX4080 een 5% SM cut down.
[...]
Dat was al bekend. Ook een leuke omdat de ellende alsmaar doorgaat.![]()
Verder kijk eens wat wel bestaat.
[YouTube: EVGA RTX 4090 FTW3 Tear-Down & Disassembly: A Major Loss]
Die van Steven ziet er wel iets beter uit maar leuk dat ze de engineering samples weggeven, zover ik heb begrepen mogen ze het houden.
Nog steeds jammer dat dit merk van de kaart weg is maar het is niet anders. Als het zo doorgaat met nVidia richting hun partners zal het niet niet lang meer duren voordat meer partners de stekker er uit trekken. Alleen de HOF is nog een bijzondere kaart, de rest is eigenlijk allemaal hetzelfde en heeft geen meerwaarde meer tov de FE versie.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Misschien gaat die dan naar de mobile lineup? Ze kunnen ook een geknipte AD103 verkopen als een 4070 Ti of een 4070, naast een AD104 versie.DaniëlWW2 schreef op dinsdag 8 november 2022 @ 09:10:
[...]
Dan heeft Nvidia heeft nog steeds geen ruimte voor een tweede SKU op AD103. Immers is de RTX4080 een 5% SM cut down.
De GA103 zat ook heel vreemd in de line-up, want de volle GA103 zat slechts in de mobiele 3080 Ti en een sterk geknipte versie in de 3060 Ti. Dus het is niet automatisch zo dat ze netjes een volle en geknipte variant uitbrengen in desktop-kaarten die net boven en onder elkaar gepositioneerd zijn.
[ Voor 212% gewijzigd door Ludewig op 08-11-2022 11:26 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ja, maar ik heb het van hun podcast. Daar werden alleen Nvidia en Zotac genoemd.Dennism schreef op dinsdag 8 november 2022 @ 09:34:
[...]
Ik neem even aan dat het over dit gaat? YouTube: A Whole New Tech Scandal
Nvidia en Zotac zijn daar niet de enige genoemde partijen. Gigabyte, Asus en AMD worden ook door LTT benoemd.
Echt het is soms bedroevend hoe slecht de informatie van hun analyses is. Aan het einde van de video, je kan frame gen aanzetten op 30FPS en je hebt geen input lag!! Soms kan ik mij ergeren aan de onzin die LTT post.
Je hebt minimaal 1 frame latency dus frame generation aanzetten op 30FPS zou ik nooi overwegen, want dit zou een extra +/-30ms extra latency geven tenopzichte van 30FPS met Reflex (in situaties met een cpu bottleneck zal de latency een beetje lager zijn).
Daarnaast denken ze dat de latency komt door de overhead van de interpolatie
Ze maken daar een gigantisch lab, maar als de kwaliteit dat naar buiten komt dit is dan skip ik het.
Mooi overzicht en toont wel aan dat alles onder de 4090 niet serieus te nemen is voor de huidige prijzen. Verwacht namelijk niet dat die 4070 Ti voor 600 of minder gaat verschijnen.Paprika schreef op dinsdag 8 november 2022 @ 12:13:
[Afbeelding]
Vervang 4080 12GB dan maar met 4070 Ti...
[ Voor 8% gewijzigd door Cloggs op 08-11-2022 14:41 ]
Ik zie LTT vooral als (vaak gesponsord) entertainment. Het is typisch zo'n channel dat alles maar oppakt waar mensen interesse in hebben, of ze er nu verstand van hebben of niet.
Niet voor niets hebben ze 15 miljoen subs. Dan weet je wel dat het nooit serieus kan zijn, want er zijn geen 15 miljoen mensen die ook serieus zijn, maar wel 15 miljoen mensen die gaan voor vrij oppervlakkige entertainment.
@Cloggs
Ja, de prijzen van Nvidia gaan over de hele linie te hoog zijn. De enige kans die je hebt is dat de verkopen totaal inkakken wanneer de ergste fanboys hun kaarten hebben, terwijl AMD massaal marktaandeel pakt. Dan zou heet kunnen dat Nvidia 'tijdelijk' hun prijzen verlaagd of komt met 'Super' kaarten voor normalere prijzen.
Maar ik verwacht dat ook bij AMD de prijzen eerst aan de hoge kant zullen zijn en pas na een tijdje zullen zakken.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
+/- 17ms extra latency t.o.v. oorspronkelijk 30FPS met reflex, je geïnterpoleerde frame zit immers ongeveer op de plaats van de oorspronkelijke 2de frame, de oorspronkelijke 2de, 33ms/2 later (als je naar ongeveer 60FPS gaat) + een beetje overhead postprocessing. Of je die extra latency wil is natuurlijk persoonlijk en game afhankelijk.
Nee, zo werkt het helaas dus niet.redzebrax schreef op dinsdag 8 november 2022 @ 16:25:
@Sp3ci3s8472
+/- 17ms extra latency t.o.v. oorspronkelijk 30FPS met reflex, je geïnterpoleerde frame zit immers ongeveer op de plaats van de oorspronkelijke 2de frame, de oorspronkelijke 2de, 33ms/2 later (als je naar ongeveer 60FPS gaat) + een beetje overhead postprocessing. Of je die extra latency wil is natuurlijk persoonlijk en game afhankelijk.
Het tweede frame moet eerst gerendered zijn voordat je de data krijgt die je nodig hebt voor de interpolatie. Als je uitgebreide uitleg wilt dan kan je terug in het topic gaan waar ik (en anderen) dit uitleggen.
Wat jij beschrijft is extrapolatie (ten opzichte van het eerste frame).
De interpolatieframe kan "delay postprocessing" later getoond worden als waar de oorspronkelijke 2de frame zat, de oorspronkelijke 33ms /2 later aangezien je je frequentie ongeveer verdubbeld.
Nee.redzebrax schreef op dinsdag 8 november 2022 @ 16:39:
Op het moment dat je tweede frame gerendered is, heb je dus data om te interpoleren. De interpolatie is postprocessing. Je kent dus de interpolatieframe op tijdstip: originele 2de frame + delay postprocessing.
De interpolatieframe kan "delay postprocessing" later getoond worden als waar de oorspronkelijke 2de frame zat, de oorspronkelijke 33ms /2 later aangezien je je frequentie ongeveer verdubbeld.
In tijd volgorde dat de frames worden gemaakt.
Frame 1 -> Frame 2 = 33ms
Frame 1 -> Frame 2 -> Frame 1.5 = waarschijnlijk iets meer dan 33ms.
/f/image/GhR4KLg0Ud1MPVJWVTS2kPYd.png?f=fotoalbum_large)
Zoals je ziet in de meting van HardwareUnboxed. Op 72fps kost het 13.9ms om een frame te renderen.
Doen we 47ms + 13.9ms dan komen we uit op 60.9ms. Dus los van meetafwijkingen omdat de situatie nooit 100% hetzelfde is komen we heel dicht in de buurt van de gemeten 62.6 waar frame gen aanstaat. Waarschijnlijk heb je dan nog 1-2ms nodig om een frame te genereren.
Situatie twee waar we 90fps halen; daar kost het 11.1ms om een frame te renderen.
Doen we 42.7 + 11.1 dan komen we uit op 53.8 wat net iets hoger is dan we zouden verwachten; maar niet heel raar als we een cpu bottleneck hebben of meet variatie.
Je zal dus altijd +/- 1 frame extra latency hebben.
Kijkvoer
Of tijdstamp waar de input latency wordt uitgelegd:
YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed
In je voorbeeld doe je wel wat veronderstellingen bv het zal wel een meetafwijking zijn.
Maar je tweede bij performance: (jammer dat we geen meting hebben bij alleen frame gen en over vele FPS)
1) FPS 90 -> gemiddelde frametime 11.1 ms
delay 42.7
2) FPS 142 -> gemiddelde frametime 7ms
delay 52.1
is het verschil 9.4 ms
of 7ms + 2.4 ms delay wat mijn punt bevestigt. Maar inderdaad moeten we die metingen misschien met een korreltje zout nemen.
Nee, je snapt het concept niet. Het is wel inherent aan interpolatie dat je moet wachten op het 2e frame; anders zouden ze het wel extrapolatie hebben genoemd; bij extrapolatie krijg je weer andere artifacts. Nergens heeft Nvidia het ooit gehad over extrapolation dus dat kun je gewoon afschrijven. Interpolation zal altijd op het tweede frame moeten wachten; anders is het extrapolation. Zoek anders op in het woordenboek wat interpolatie en extrapolatie betekent.redzebrax schreef op dinsdag 8 november 2022 @ 18:47:
Het is niet inherent bij interpolatie dat je een hele oude frametijd moet wachten, in principe heb je alleen de postprocessingstijd + 1/nieuwe FPS nodig, hoe NVIDIA dit geïmplementeerd heeft, eventueel nog een extra buffer is een andere vraag.
In je voorbeeld doe je wel wat veronderstellingen bv het zal wel een meetafwijking zijn.
Maar je tweede bij performance: (jammer dat we geen meting hebben bij alleen frame gen en over vele FPS)
1) FPS 90 -> gemiddelde frametime 11.1 ms
delay 42.7
2) FPS 142 -> gemiddelde frametime 7ms
delay 52.1
is het verschil 9.4 ms
of 7ms + 2.4 ms delay wat mijn punt bevestigt. Maar inderdaad moeten we die metingen misschien met een korreltje zout nemen.
Zou het een andere vorm zijn zoals met VR dan is het eerder vergelijkbaar met warping; maar ook daar heeft Nvidia het niet over.
Jij hebt het over extra buffer; dat zou bekenen dat je met Reflex nog een frame eerder het beeld kan krijgen maar dat je dat dus niet krijgt omdat Nvidia dat niet wil om frame gen beter te laten lijken? Lijkt mij zeer onwaarschijnlijk.
HardwareUnboxed en andere reviewers doen over het algemeen 3 runs en pakken het gemiddelde. Dus ja, het zijn wel meetwaarden die kunnen uitwijken. Daarnaast heb je ook nog de latency van het scherm zelf; wat misschien een betere verklaring geeft dat hij in situatie net iets onder de 1 frame zit.
Daarnaast zit je te cherrypicken want in het eerste voorbeeld dat ik noem bevestigd het mijn casus.
Ik laat het hierbij; gezien ik het blijkbaar niet goed kan uitleggen. Wellicht dat @Werelds dat wil doen
Maar je interpolatie frame is klaar postprocessingstijd nadat je 2de frame er is.
Als je vergelijkt met je originele 30FPS:
1__________2___________3 __________ 4
Nieuwe is 60 FPS waarbij * delay postprocessing is
1__________*1,5 ___*2___ *2,5 ___*3___ *3,5
zoals jij het voorstelt:
1 _______________ *1.5 __*2 ____*2.5 __*3
edit
aangepast, en misschien had ik me in het vorig bericht wat verkeerd uitgedrukt : "een hele oude frametijd moet wachten" : moest zijn "een hele extra oude frametijd".
Ik heb nergens over extrapolatie gesproken, de discussie ging over wat de minimale extra delay is bij interpolatie.
[ Voor 48% gewijzigd door redzebrax op 08-11-2022 22:28 ]
Ik weet niet goed hoe ik dit plaatje moet interpreteren. Is het puur een percentage van het aantal cuda cores t.o.v. de 4090 of zegt het ook daadwerkelijk iets over performance t.o.v. de kolom links
Het is het formaat van de grootste chip van een generatie afgezet tegen de rest van de SKU's.JeroenNietDoen schreef op dinsdag 8 november 2022 @ 19:44:
[...]
Ik weet niet goed hoe ik dit plaatje moet interpreteren. Is het puur een percentage van het aantal cuda cores t.o.v. de 4090 of zegt het ook daadwerkelijk iets over performance t.o.v. de kolom links
Het doel is om te laten zien hoe enorm het verschil tussen de RTX4090 en de rest is.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik snap je. Maar daar kunnen we niet echt een conclusie uittrekken wat dat voor performance betekent denk ik zo.DaniëlWW2 schreef op dinsdag 8 november 2022 @ 19:49:
[...]
Het is het formaat van de grootste chip van een generatie afgezet tegen de rest van de SKU's.
Het doel is om te laten zien hoe enorm het verschil tussen de RTX4090 en de rest is.
De performance weten we toch al? RTX 4070 Ti zit qua raster performance beneden RTX 3090 Ti niveau, dus reken op de prestaties tussen een RTX 3090 Ti en een RTX 3090 en de RTX 4080 zit op RTX 3090 Ti niveau +10 a 20% afhankelijk van de game, waar een RTX 4090 op +65% zit gemiddeld.JeroenNietDoen schreef op dinsdag 8 november 2022 @ 19:52:
[...]
Ik snap je. Maar daar kunnen we niet echt een conclusie uittrekken wat dat voor performance betekent denk ik zo.
[ Voor 5% gewijzigd door Paprika op 08-11-2022 20:05 ]
NVIDIA RTX 4080 tested in Geekbench
Op 1440P is dat iets meer dan 40% beter dan mijn 6900XT.XWB schreef op dinsdag 8 november 2022 @ 20:20:
En onderstaande scores geven een eerste beeld van de RTX 4080 performance:
NVIDIA RTX 4080 tested in Geekbench
90,5% SM's (9728)
145% clock speed (2900MHz)
141% meer TFLOPS (56,4)
Misschien halen ze er dan toch 30-35% eruit. Iets beter dan 20% en dat maakt Nvidia hun zelf gepubliceerde benchmarks weer vreemd omdat ze daar zelf respectievelijk 24%, 9% en 16% verbetering vermelden.



Oh en userbenchmark dook op in zoekresultaten en dit prachtige stukje literaire verfijning wou ik toch even delen. Ik bedoel, de RTX4080 is nog niet eens uit en de copium dosis lijkt me al wat hoog.
https://gpu.userbenchmark.com/Nvidia-RTX-4080/Rating/4138The 4080 has an MSRP of $1,200 USD. Since PC gamers rarely buy AMD GPUs, Nvidia only have themselves to compete with. AMD continue to burn their credibility with PC gamers. Following a series of over-hyped releases which were heavily promoted on youtube, forums, reddit and twitter, consumers have little interest in the Radeon brand. As time goes on, AMD’s “Advanced Marketing” has a decreasing impact on consumers. Nvidia on the other hand remains focussed on novel goals such as frame consistency, game compatibility and driver stability. Consumers looking for better value should wait a few more months for the 4060 / 4070 models by which time AMD's 7900 series will also be heavily discounted.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Okay
Duidelijk welke kant van de lijn die site staat...einde geloofwaardigheid
Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.
Die waren ze, voor zover ze het ooit gehad hebben, jaren geleden al kwijt. Dit is niet iets nieuws ofzo. Die lui zijn al jaren aan het trollen.dierkx36 schreef op dinsdag 8 november 2022 @ 22:02:
[...]
Okay![]()
Duidelijk welke kant van de lijn die site staat...einde geloofwaardigheid
Amd zou ze moeten aanklagen, gaat best ver dit... Had er geen idee van.
Zo gaat het al jaren. Het is inmiddels meer ter vermaak dan echt serieus die site.dierkx36 schreef op dinsdag 8 november 2022 @ 22:02:
[...]
Okay![]()
Duidelijk welke kant van de lijn die site staat...einde geloofwaardigheid
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dennism schreef op dinsdag 8 november 2022 @ 22:11:
[...]
Die waren ze, voor zover ze het ooit gehad hebben, jaren geleden al kwijt. Dit is niet iets nieuws ofzo. Die lui zijn al jaren aan het trollen.
Okay, lees eigenlijk geen stukken daarDaniëlWW2 schreef op dinsdag 8 november 2022 @ 22:23:
[...]
Zo gaat het al jaren. Het is inmiddels meer ter vermaak dan echt serieus die site.
Vandaar dat het nooit is opgevallen.
[ Voor 26% gewijzigd door dierkx36 op 08-11-2022 22:25 ]
Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.
Nou niet meer doen dus. Ze manipuleren scores ook als AMD eens een beter product heeft dan Intel of Nvidia. Ze zijn ook verboden op de meeste grote Reddit pagina's. Als je een userbenchmark link plaats op bijvoorbeeld r/Intel of r/Nvidia dan verwijderd een bot meteen je reactie.dierkx36 schreef op dinsdag 8 november 2022 @ 22:24:
[...]
[...]
Okay, lees eigenlijk geen stukken daarkijk puur naar benches
Vandaar dat het nooit is opgevallen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Vond het al wat raar de eerste keer dat ik het lasredzebrax schreef op dinsdag 8 november 2022 @ 19:42:
Waar snap ik concept niet ? Je moet inderdaad wachten op je 2de frame anders kan je geen interpolatie doen.
Maar je interpolatie frame is klaar postprocessingstijd nadat je 2de frame er is.
Als je vergelijkt met je originele 30FPS:
1__________2___________3 __________ 4
Nieuwe is 60 FPS waarbij * delay postprocessing is
1__________*1,5 ___*2___ *2,5 ___*3___ *3,5
zoals jij het voorstelt:
1 _______________ *1.5 __*2 ____*2.5 __*3
edit sry aangepast
Nee, de kadens is dat het gegenereerde frame precies tussen de andere twee in komt. Dat kan je voor elkaar krijgen doordat frame 2 in een buffer blijft staan tot dat frame 1.5 de deur uit is. Vandaar dat je 1 frame aan lag hebt. De situatie die jij omschrijft als wat ik bedoel bedoel ik helemaal niet. Als je dat op die manier zou doen zou je gigantische microstuttering krijgen.
Als een 4090 al 2.4ms bezig is met het genereren van een frame (wat jij voorstelt) lijkt dat mij niet heel erg goed nieuws voor de tragere kaarten; of is het een fixed function unit die niet verschilt tussen de snelle en trage kaarten? Dan nog vind ik 2.4ms erg veel voor het genereren van een frame, dat zou voor mijn gevoel echt niet meer mogen zijn dan de overhead van DLSS 2.
Laten we overeenkomen dat we hier niet overeenkomen (klinkt voor geen meter in het Nederlands).
OkayDaniëlWW2 schreef op dinsdag 8 november 2022 @ 22:28:
[...]
Nou niet meer doen dus. Ze manipuleren scores ook als AMD eens een beter product heeft dan Intel of Nvidia. Ze zijn ook verboden op de meeste grote Reddit pagina's. Als je een userbenchmark link plaats op bijvoorbeeld r/Intel of r/Nvidia dan verwijderd een bot meteen je reactie.
Zit effe hun "review" te lezen over de 5800x3D....je2u$
[ Voor 16% gewijzigd door dierkx36 op 08-11-2022 22:43 ]
Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.
[ Voor 42% gewijzigd door redzebrax op 08-11-2022 23:35 ]
Ik kan het niet meer terug vinden maar volgens mij zeiden ze in de LTT video dat ze van Nvidia gehoord hadden dat het tot 3 ms ging. Maar dit betekend niet dat het allemaal overhead is. Als de optical flow unit bijvoorbeeld fixed function is kan je die parallel laten draaien terwijl de kaart met andere dingen bezig is. Wel is het extra latency die je erbij krijgt.Sp3ci3s8472 schreef op dinsdag 8 november 2022 @ 22:31:
[...]
Vond het al wat raar de eerste keer dat ik het las.
Nee, de kadens is dat het gegenereerde frame precies tussen de andere twee in komt. Dat kan je voor elkaar krijgen doordat frame 2 in een buffer blijft staan tot dat frame 1.5 de deur uit is. Vandaar dat je 1 frame aan lag hebt. De situatie die jij omschrijft als wat ik bedoel bedoel ik helemaal niet. Als je dat op die manier zou doen zou je gigantische microstuttering krijgen.
Als een 4090 al 2.4ms bezig is met het genereren van een frame (wat jij voorstelt) lijkt dat mij niet heel erg goed nieuws voor de tragere kaarten; of is het een fixed function unit die niet verschilt tussen de snelle en trage kaarten? Dan nog vind ik 2.4ms erg veel voor het genereren van een frame, dat zou voor mijn gevoel echt niet meer mogen zijn dan de overhead van DLSS 2.
Laten we overeenkomen dat we hier niet overeenkomen (klinkt voor geen meter in het Nederlands).
[ Voor 101% gewijzigd door redzebrax op 08-11-2022 23:51 ]
Is het op de oudere kaarten ook een fixed function unit? Of wordt dat gewoon met compute gedaan? Kan even niets over vinden. Dit maakt namelijk wel uit voor de overhead die je krijgt. Wel kan ik vinden dat op de 4000 series optical flow berekeningen 2x zo snel gaan dus zit je bij de oude kaarten al op 5ms, misschien 6ms (afhankelijk hoeveel procent van de tijd aan de optical flow wordt besteed)redzebrax schreef op dinsdag 8 november 2022 @ 23:36:
die 3ms komt dan dicht in de buurt van 2,4ms gemeten, als je daar al last van wil hebben zit rond de 200 FPS. Maar wat interessanter is, die optical flow units zitten ook in mindere mate in de oudere kaarten, gaat Nvidia daar ook gebruik van maken of krijgen we iets in het voorjaar van AMD, het gros van de kaarten wat gebruikt wordt is een pak ouder.
Ze doen inderdaad veel dingen fout in die video maar ook wat dingen goed. Zo hebben we bij nvidia bevestigd dat de interpolatie bij camera cuts inderdaad een bug is waar een fix voor uit komt. En ook hebben ze daadwerkelijk soort van a/b testing gedaan (maar wel met een laag aantal kandidaten), iets wat andere sites/youtube channels niet hebben. Vooral die test met 30fps native vs 60fps met fg laat ook zien dat er veel waarde is voor fg bij de toekomstige goedkopere kaarten in de 4000 serie.Sp3ci3s8472 schreef op dinsdag 8 november 2022 @ 13:00:
[...]
Ja, maar ik heb het van hun podcast. Daar werden alleen Nvidia en Zotac genoemd.
[YouTube: Double your FPS for FREE!*** - Nvidia DLSS 3.0]
Echt het is soms bedroevend hoe slecht de informatie van hun analyses is. Aan het einde van de video, je kan frame gen aanzetten op 30FPS en je hebt geen input lag!! Soms kan ik mij ergeren aan de onzin die LTT post.
Je hebt minimaal 1 frame latency dus frame generation aanzetten op 30FPS zou ik nooi overwegen, want dit zou een extra +/-30ms extra latency geven tenopzichte van 30FPS met Reflex (in situaties met een cpu bottleneck zal de latency een beetje lager zijn).
Daarnaast denken ze dat de latency komt door de overhead van de interpolatie![]()
![]()
. Serieus doen ze daar aan onderzoek of proofreaden?
Ze maken daar een gigantisch lab, maar als de kwaliteit dat naar buiten komt dit is dan skip ik het.

https://www.reddit.com/r/...gineering_change_request/
https://pcisig.com/specifications/review-zone
Tweede is een round up van al bekende RTX4080 modellen waarbij herhaaldelijk RTX4090 koeloplossingen worden hergebruikt. Dan vermoed ik meteen al dat die 320W misschien wat optimistisch is...
https://www.tomshardware....ust-as-large-as-rtx-4090s
[ Voor 3% gewijzigd door DaniëlWW2 op 09-11-2022 10:13 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dan ligt het volgens deze paper aan de kabel en niet de connector op de borden, of is het probleem op te lossen door een aanpassing aan connector de kabel te doen. Dat is nog niet met zekerheid te zeggen n.a.v. wat hier staat.DaniëlWW2 schreef op woensdag 9 november 2022 @ 09:41:
Ja hoor, daar gaan we met de 12VHPWR. Er loopt dus al een review om iets aan die connector aan te gaan passen. Wat is niet duidelijk.
[Afbeelding]
https://www.reddit.com/r/...gineering_change_request/
https://pcisig.com/specifications/review-zone
Tweede is een round up van al bekende RTX4080 modellen waarbij herhaaldelijk RTX4090 koeloplossingen worden hergebruikt. Dan vermoed ik meteen al dat die 320W misschien wat optimistisch is...
https://www.tomshardware....ust-as-large-as-rtx-4090s
Goed dat de PCI-SIG, de verantwoordelijke voor de standaard, hier wat aan doet. Jammer dat Nvidia er nog steeds niets over heeft gemeld.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
ItalianStyle in "[NVIDIA GeForce RTX 40XX] Ervaringen & Discussie"
Dat zou op weinig slagen want zelfs de 4090 is vooral gelimiteerd door voltage en raakt in veel spellen niet aan de 450W. Als je dan kijkt naar de 4080 heeft die een pak meer stroom per SM dan de 4090. Het is niet heel typisch voor Nvidia om de lagere modellen veel hogere kloksnelheden te geven.DaniëlWW2 schreef op woensdag 9 november 2022 @ 09:41:
Tweede is een round up van al bekende RTX4080 modellen waarbij herhaaldelijk RTX4090 koeloplossingen worden hergebruikt. Dan vermoed ik meteen al dat die 320W misschien wat optimistisch is...
https://www.tomshardware....ust-as-large-as-rtx-4090s
Heb je dan hetzelfde vermoeden bij de 7900 XTX? De 7900XTX TUF is immers groter dan de 4090 TUF en die laatste zou in principe 600W aan moeten kunnen.
Het hergebruik van koelers is iets dat je vaak terug ziet om, althans dit vermoed ik, kosten te besparen en snel een ontwerp op de markt te hebben. Later zie je dan een hoop revisies.
:strip_exif()/f/image/tqSjbELa47Jl5hTlRkTFmWHd.jpg?f=fotoalbum_large)

Time Spy Extreme:
GeForce RTX 4090 19398 (100%)
GeForce RTX 4080 OC + Power Limit 15062 (78%)
GeForce RTX 4080 Power Limit 14200 (73%)
GeForce RTX 4080 13778 (71%)
GeForce RTX 3090 Ti 10709 (55%)
Radeon RX 6950 XT 10644 (55%)
GeForce RTX 3090 10293 (53%)
Radeon RX 6900 XT 9952 (51%)
GeForce RTX 3080 Ti 10042 (52%)
GeForce RTX 3080 12GB 9358 (48%)
Radeon RX 6800 XT 9203 (47%)
GeForce RTX 3080 10GB 8898 (46%)
Radeon RX 6800 7648 (39%)
Port Royal (100% ontbreekt?):
NVIDIA GeForce RTX 4090 24883 (98%)
NVIDIA GeForce RTX 4080 OC 18941 (75%)
NVIDIA GeForce RTX 4080 17650 (69%)
NVIDIA GeForce RTX 3090 Ti 14851 (58%)
NVIDIA GeForce RTX 3090 13642 (54%)
NVIDIA GeForce RTX 3080 Ti 13226 (52%)
NVIDIA GeForce RTX 3080 12GB 12151 (48%)
AMD Radeon RX 6950 XT 10788 (42%)
AMD Radeon RX 6900 XT 10398 (41%)
AMD Radeon RX 6800 XT 9536 (38%)
AMD Radeon RX 6800 7812 (31%)
Bij zowel Time Spy als Port Royal valt dus mooi te zien dat de 4080 inderdaad (weinig verrassend) < 75% zit van een 4090 als je beide zou OCen of beide stock laat.
RTX 4090 vs RTX 4080
Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
COD MW2: 137 FPS vs 127 FPS (+7.9%)
En ook in de games waar de CPU niet de limiterende factor is zie je dit weer terug.
https://videocardz.com/ne...-gaming-benchmarks-leaked
[ Voor 18% gewijzigd door Paprika op 09-11-2022 13:55 ]
Als het inderdaad ook 30-35% gaat worden over de RTX3090Ti dan zit de RTX4080 op de helft tussen de RTX3090Ti en RTX4090. Dat roept bij mij de vraag op: Hoe slecht is AD102 dat ze daar niet meer uithalen?
Tweede is dat ik de RT echt zwaar teleurstellend zou vinden gebaseerd op Port Royal. De RTX4080 zou daarin 64% sneller zijn dan de RX6950XT. Met AMD hun 50% per RA claim + 20% extra RA units kunnen ze dat zomaar helemaal goedmaken met de RX7900XTX.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Misschien wel handig om hierbij te vermelden dat de 4090 getest is icm een i9-12900KF en de 4080 icm een Ryzen 7 7600XPaprika schreef op woensdag 9 november 2022 @ 13:52:
RTX 4090 vs RTX 4080
Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
COD MW2: 137 FPS vs 127 FPS (+7.9%)
En ook in de games waar de CPU niet de limiterende factor is zie je dit weer terug.
https://videocardz.com/ne...-gaming-benchmarks-leaked
Niet eens alle AIB's hebben zo te zien een model op MSRP en kijk eens wat er extra gevraagd word voor een iets beter model. Uiteraard is ASUS ook helemaal bezopen bezig. Daar lijken ze alleen door Nvidia gedwongen te zijn om toch een MSRP model te hebben, maar de TUF OC is $300 meer. Dan weet je al hoe goed het niet OC model te krijgen is.
Dit zijn toch geen prijzen meer. Zeker omdat ik allang heb doorgerekend hoeveel duurder Lovelace chips ongeveer zullen zijn tegenover Ampere. Het is absoluut geen verantwoording voor honderden dollars duurder.
https://videocardz.com/ne...pricing-from-1199-to-1549ASUS ROG STRIX OC: $1,549.99
ASUS TUF OC: $1,499.99
ZOTAC AMP AIRO: $1,399.99
MSI SUPRIM X: $1,399.99
GIGABYTE AORUS MASTER: $1,349.99
MSI GAMING X TRIO: $1,324.99
MSI VENTUS 3X OC: $1,279.99
GIGABYTE GAMING OC: $1,269.99
GIGABYTE EAGLE OC: $1,239.99
PNY XLR8 VERTO: $1,199.99
ASUS TUF: $1,199.99
ZOTAC TRINITY: $1,199.99
GIGABYTE EAGLE: $1,199.99
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Voor 1450 al een 4080, vroeger kon je er een 3080 naast zetten in sli, nu neem je de restwaarde van de oude 3080, leg je het geld bij van een nieuwe (nog steeds te dure) 3080, en dan heb je de 4080.. mits je nog een beetje bij betaald.
Zijn gek geworden daar.
[ Voor 5% gewijzigd door meljor op 10-11-2022 17:43 ]
Wie gaat er nou 30% meer betalen voor dezelfde kaart als een 4080 FE die op z'n best 2-3% meer performance haalt als je de FE versie stock laat en qua performance zal de FE hetzelfde zijn als je deze ook overclockt, en dan heb je voor 100 euro meer gewoon een 4090 FE die dan ook echt 33% sneller is en waarschijnlijk richting de 35-40% gaat zitten bij een overclock.
De niet-OC versie bestaat ook alleen maar voor de "brochure" zo te zien. Waarom zou ASUS deze verkopen voor $1200 als ze door een andere BIOS mee te geven en de letters OC op een doosje printen een marge van $300 in de zak kunnen steken.ASUS TUF OC: $1,499.99
ASUS TUF: $1,199.99
Omdat Nvidia eist dat er een versie wordt aangeboden op msrp. Dat die vervolgens zelden tot nooit leverbaar is....tjaPaprika schreef op donderdag 10 november 2022 @ 19:08:
Oh en:
[...]
De niet-OC versie bestaat ook alleen maar voor de "brochure" zo te zien. Waarom zou ASUS deze verkopen voor $1200 als ze door een andere BIOS mee te geven en de letters OC op een doosje printen een marge van $300 in de zak kunnen steken.
Je kunt het ook positief zien. Er is in ieder geval enige moeite die erin gestoken word om de boel onder controle te houden qua prijzen. En dat is bijzonder lastig in het mijnenveld met allerlei instanties die miljoenenboetes kunnen uitdelen m.b.t. prijsafspraken.meljor schreef op donderdag 10 november 2022 @ 19:16:
[...]
Omdat Nvidia eist dat er een versie wordt aangeboden op msrp. Dat die vervolgens zelden tot nooit leverbaar is....tja
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
[ Voor 95% gewijzigd door stylezzz op 10-11-2022 21:35 . Reden: Offtopic ]
Ik moest even de geheugenklok controleren, want ik ben waarden gewend van 2000MHz (bij RNDA2).Paprika schreef op woensdag 9 november 2022 @ 13:52:
[Afbeelding]
[Afbeelding]
Time Spy Extreme:
GeForce RTX 4090 19398 (100%)
GeForce RTX 4080 OC + Power Limit 15062 (78%)
GeForce RTX 4080 Power Limit 14200 (73%)
GeForce RTX 4080 13778 (71%)
GeForce RTX 3090 Ti 10709 (55%)
Radeon RX 6950 XT 10644 (55%)
GeForce RTX 3090 10293 (53%)
Radeon RX 6900 XT 9952 (51%)
GeForce RTX 3080 Ti 10042 (52%)
GeForce RTX 3080 12GB 9358 (48%)
Radeon RX 6800 XT 9203 (47%)
GeForce RTX 3080 10GB 8898 (46%)
Radeon RX 6800 7648 (39%)
Port Royal (100% ontbreekt?):
NVIDIA GeForce RTX 4090 24883 (98%)
NVIDIA GeForce RTX 4080 OC 18941 (75%)
NVIDIA GeForce RTX 4080 17650 (69%)
NVIDIA GeForce RTX 3090 Ti 14851 (58%)
NVIDIA GeForce RTX 3090 13642 (54%)
NVIDIA GeForce RTX 3080 Ti 13226 (52%)
NVIDIA GeForce RTX 3080 12GB 12151 (48%)
AMD Radeon RX 6950 XT 10788 (42%)
AMD Radeon RX 6900 XT 10398 (41%)
AMD Radeon RX 6800 XT 9536 (38%)
AMD Radeon RX 6800 7812 (31%)
Bij zowel Time Spy als Port Royal valt dus mooi te zien dat de 4080 inderdaad (weinig verrassend) < 75% zit van een 4090 als je beide zou OCen of beide stock laat.
RTX 4090 vs RTX 4080
Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
COD MW2: 137 FPS vs 127 FPS (+7.9%)
En ook in de games waar de CPU niet de limiterende factor is zie je dit weer terug.
https://videocardz.com/ne...-gaming-benchmarks-leaked
Maar het is dus echt 1400-1500MHz bij de RTX4080 !?
Sommige spellen blijken wel gedeeltelijk CPU bound te zijn op 4k voor de RTX4090, waaronder Forza 5. De knuppel heeft het namelijk met low settings getest ><. Maar voor de rest geeft het wel een goede indicatie waar de RTX4080 gepositioneerd kan worden.
De vraagprijs is alleen totaal niet te verantwoorden. Het is dat dit al voorspelt was, anders had ik er hard om gelachen. $/FPS dat stijgt i.p.v. daalt ten opzichte van een vorige generatie (RTX3080)
Nog een beetje meer en de huidige high end tier heeft het halo prijskaartje van de 3090.
Het zal mij benieuwen of ze de 'gamer' / consument hiervoor weten te strikken.
En dan enkele mensen in het levertijden & prijzen topic die vonden dat het maar jaloers gebash was naar 4090 kopers dat er zo over de prijzen gezeurd werd niet begrijpend dat het om de gehele productstack gaatDaniëlWW2 schreef op donderdag 10 november 2022 @ 17:18:
En dit, dit is dus waarom ik al jaren probeer om (voornamelijk) Nvidia hun onzin te benoemen...
Dit zijn toch geen prijzen meer. Zeker omdat ik allang heb doorgerekend hoeveel duurder Lovelace chips ongeveer zullen zijn tegenover Ampere. Het is absoluut geen verantwoording voor honderden dollars duurder.![]()
[...]
https://videocardz.com/ne...pricing-from-1199-to-1549
Enfin, in een highend build is dus voortaan geen budget meer voor een highend Nvidia GPU. Moet er nu voor de best buy guide een nieuwe categorie verzonnen worden?
[ Voor 3% gewijzigd door JeroenNietDoen op 11-11-2022 06:19 ]
GDDR6x stuurt 8 bits per klokcyclus dus voor de 4080: 1400* 2* 8 = 22400 = 22,4 Gbps. GDDR6 stuurt er 4 per klokcyclus dus op 2000mhz: 2000*2*4 = 16000 = 16 Gbps.CMT schreef op donderdag 10 november 2022 @ 23:28:
[...]
Ik moest even de geheugenklok controleren, want ik ben waarden gewend van 2000MHz (bij RNDA2).
Maar het is dus echt 1400-1500MHz bij de RTX4080 !?
De fabrikanten zijn NTK en Astron en met die laatste lijkt het dus niet goed te zitten. Astron zou de hoofdaannemer zijn en daar zijn twee problemen. Eerste is de manier hoe ze de draden hebben gesoldeerd. Tweede en veel belangrijker is hoe ze de pinnen hebben gemaakt alsmede hoe ze het plastic hebben afgewerkt. Want het lijkt dus een combinatie van hun pin ontwerp en het gebruikte materiaal van de connector te zijn. NTK connectoren hun pinnen zitten beter vast, gaan makkelijker in je socket en klikken beter en luider.
Tweede is dat de aanpassing aan de connector zou gaan om het verkorten van de vier sense pins zodat die alleen nog werken als de connector daadwerkelijk helemaal aangesloten is.
Zie ook: https://www.igorslab.de/e...ackgrounds-investigative/
Laatste is dat voor de RTX4070Ti een nieuwe 2x 8 pin naar 12VHPWR gepland staat. Die zal alleen door NTK gemaakt worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat had ik een tijdje terug ook geopperd als mogelijke oplossing.DaniëlWW2 schreef op maandag 14 november 2022 @ 14:54:
Tweede is dat de aanpassing aan de connector zou gaan om het verkorten van de vier sense pins zodat die alleen nog werken als de connector daadwerkelijk helemaal aangesloten is.
Het lijkt me nu in elk geval gewenst dat Nvidia bekend maakt welk percentage van de de kabels van welke fabrikant komt en wat de leverancier van kabels was bij de probleemgevallen. Op basis daarvan kun je dan wellicht bepalen of de Astron's het probleem zijn, al zijn er bij deze lage aantallen vermoedelijk niet zo'n sterke conclusies te trekken op basis van de statistiek.
Als de Astron's inderdaad het probleem zijn, zouden ze een recall moeten doen, waarbij mensen een vervangen NTK-kabel krijgen. Bovendien zouden de connector-specificaties dan aangepast moeten worden.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik blijf erbij dat ik het onverantwoord vind om evt. 600W continue door zo'n kleine stekker te jagen. De meeste gevallen die we nu gezien hebben, zullen bij zo'n 300-450W zijn geweest.
En dan die temperatuurmetingen met een warmtecamera dat soms als bewijs aangevoerd wordt..
Het is geen heilige graal methode om temperatuur te meten, want isolatie, absorptie en reflectie van warmte kunnen flinke valse waarden geven met zo'n ding. IgorLabs had daar laatst nog een artikel over geschreven.
Ga in ieder geval niet met smeervet lopen prutsen om de connector er makkelijker in te krijgen, dielectric (waarschijnlijk op siliconen basis) of niet. Je wilt absoluut geen vet per ongeluk op de contacten hebben.
Het verbaast mij eigenlijk dat Jon Gerow dat als suggestie heeft gegeven.
Mijn inzien een noodmiddel en alleen voor degene die goed weten waar ze mee bezig zijn.
Edit:
De pagina waarop deze tip stond lijkt te zijn verwijderd. Misschien vanwege bovengenoemde reden en mogelijke aanspraak.
[ Voor 6% gewijzigd door CMT op 14-11-2022 18:12 ]
NVIDIA GeForce RTX 4080 is 19% faster than RTX 3090 Ti in the first gaming review
Conveniently, the creator provides the average performance results from games such as Forza Horizon 5, Cyberpunk 2077, Borderland 3, Total War Troy or Shadow of the Tomb Raider, all in one chart. Those games were tested at 4K resolution.
According to the results, RTX 4080 appears to be 19% faster than RTX 3090 Ti PGF (the flagship ZOTAC model) and round 23% slower than RTX 4090. What should be noted here is that both RTX 3090 Ti and RTX 4090 were tested on a different system (with DDR5-6800 memory), whereas RTX 4080 on DDR5-6200 powered PC. However, they were all equipped with Core i9-13900K CPU.






https://videocardz.com/ne...n-the-first-gaming-review
Over 1.5 uur meer
[ Voor 6% gewijzigd door Paprika op 15-11-2022 13:26 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En het lijkt rond de 20% sneller dan de RTX3090Ti te zijn, maar bij een aantal publicaties halen ze dat niet eens gemiddeld. RT lijkt nauwelijks meer winst te zijn dan raster over de RTX3090Ti.
https://www.techpowerup.c...-founders-edition/32.html
https://www.computerbase....und_ohne_rt_in_3840__2160
review: Nvidia GeForce RTX 4080 - De enige echte 4080
[ Voor 41% gewijzigd door DaniëlWW2 op 15-11-2022 15:06 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
YouTube: NVIDIA’s Lost It: RTX 4080 16GB GPU Review & Benchmarks
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
https://www.techpowerup.c...-founders-edition/33.html
/f/image/HQNlf0oIu1uUeB7lP02OIisQ.png?f=fotoalbum_large)
Afhankelijk van een eventuele CPU bottleneck welke beter is dus, maar ik gok dat de 4090 qua pricing meer future-proof gaat zijn en dus beter z'n waarde gaat houden.
[ Voor 62% gewijzigd door Paprika op 15-11-2022 15:16 ]
Ik vergelijk hem liever met zijn voorganger, de 3080. Dan zien we op 1440P gemiddeld 40% performance increase, voor 2 keer de prijs.DaniëlWW2 schreef op dinsdag 15 november 2022 @ 15:04:
En daar is de RTX4080.
En het lijkt rond de 20% sneller dan de RTX3090Ti te zijn, maar bij een aantal publicaties halen ze dat niet eens gemiddeld.
€1469,-, ik weet niet zo goed wat ik er van moet vinden. Lachen of huilen?
100% huilen natuurlijk. Een prijsverdubbeling ten opzichte van de 3080 is simpelweg onaanvaardbaar.JeroenNietDoen schreef op dinsdag 15 november 2022 @ 15:16:
[...]
€1469,-, ik weet niet zo goed wat ik er van moet vinden. Lachen of huilen?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Huilen van het lachen en vervolgens koop je van AMDJeroenNietDoen schreef op dinsdag 15 november 2022 @ 15:16:
[...]
€1469,-, ik weet niet zo goed wat ik er van moet vinden. Lachen of huilen?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Mijn laatste Radeon dateert uit 2005 en sindsdien altijd Nvidia zo om de generatie. Ik heb elke 3 jaar €2300,- budget via PC prive regeling, hoef dus niet op tientje meer of minder te kijken, maar dit gaat wat mij betreft te ver.Ludewig schreef op dinsdag 15 november 2022 @ 15:29:
[...]
Huilen van het lachen en vervolgens koop je van AMD
Het is alsof ze zelf niet goed doorhadden hoe efficiënt TSMC 5 is.
Hier is de > 33% gewoon zichtbaar door geen CPU bottleneck.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
