Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

OMD schreef op dinsdag 1 november 2022 @ 15:05:
De HOF heeft dual 16 pin power connectors. Heeft dit uberhaupt zin omdat de kaarten voltage limited zijn? Ze halen nu al de 600 watt nauwelijks (bij de kaarten die uberhaupt 600 watt vrij hebben). Wellicht shunt mod oid? Ik dacht dat Der8auer dit ook al had gedaan met de bestaande 4090's maar er niet echt wijzer van werd buiten meer verbruik maar verder niet echt opschoot.

https://videocardz.com/ne...l-16-pin-power-connectors
Sommige 4090 modellen zijn volledig gericht op LN2 overklokking en dan zal 800+ watts mogelijk.
De reden van 12 pin is zeer korte PCB design van founder editions en sommige AIB die dat concept volgen. Zo een stekker wil je direct op de PCB hebben en 2 12pins heb je nodig als je verwachte power draw rond de 600watt komt ook ivm trancient helaas is ipv 8 pins naast die 12pins neemt 2de 12pins bijna evenveel in beslag dus die 2 12pin is nodig als PCB beperkt is en je 550 tot 1000 watt mer 200wat marge gaat trekken de reden kan zijn of 575 tdp of 610 tdp 777 tdp houd niet in 1100tdp
Als de load goed verdeeld wordt is er dus heel veel marge over.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

SG schreef op woensdag 2 november 2022 @ 07:30:
[...]

Sommige 4090 modellen zijn volledig gericht op LN2 overklokking en dan zal 800+ watts mogelijk.
De reden van 12 pin is zeer korte PCB design van founder editions en sommige AIB die dat concept volgen. Zo een stekker wil je direct op de PCB hebben en 2 12pins heb je nodig als je verwachte power draw rond de 600watt komt ook ivm trancient helaas is ipv 8 pins naast die 12pins neemt 2de 12pins bijna evenveel in beslag dus die 2 12pin is nodig als PCB beperkt is en je 550 tot 1000 watt mer 200wat marge gaat trekken de reden kan zijn of 575 tdp of 610 tdp 777 tdp houd niet in 1100tdp
Als de load goed verdeeld wordt is er dus heel veel marge over.
Ben je dan nog niet steeds voltage limited? NVidia heeft een behoorlijke sterke cap opvallend kaarten gezet, dat is ook de reden dat eigenlijk elke aib met een oc niet echt verder komt dan 5% extra snelheid.

De8bauer had wel meer voltage voor elkaar gekregen alleen klokte de kaart niet echt eerder dan met een reguliere overclock.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op woensdag 2 november 2022 @ 02:12:
Schaamteloze crosspost, AdoredTV denkt dat Nvidia deze generatie nog kan meekomen;
Wat is 'meekomen?'

Ik denk dat Nvidia deze generatie al dramatisch hoge productiekosten heeft, voor dezelfde performance. Ze kunnen wel een goed prestatieniveau halen met een grote en hele dure chip, die heel inefficient is qua aantallen transistoren vs de performance.

Dit is eigenlijk ook vergelijkbaar met Intel vs AMD bij de CPU's. Intel levert een aantrekkelijk product, maar hun marges zijn veel slechter dan die AMD heeft. Ze kunnen dus niet concurreren als ze dezelfde marges rekenen.

Nvidia heeft dan wel de mazzel ten opzichte van Intel dat GPU's veel minder uitwisselbaar zijn dan CPU's, in elk geval in de ogen van de klanten. Dus Nvidia kan het zich veroorloven om tot bepaalde hoogte minder ruwe prestaties te leveren per euro. Maar daar zit natuurlijk altijd een grens aan.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
De high end kan Nvidia nog wel meekomen deze generatie, de mainstream totaal niet.

Wacht maar op Navi31 7700XT 225W voor ~$499. Daar kan Nvidia met AD104 RTX 4070 alleen maar van dromen, lager dan $699 *kunnen* ze gewoon niet (zonder zwaar te snijden in marges en zelfs dan, het ding is 285W!). Het RDNA3 bloedbad zal als eerste daar plaats vinden.

Blackwell vs RDNA4 zullen we zien, of AMD de high end kan verzilveren.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

sunsmountain schreef op woensdag 2 november 2022 @ 12:17:
De high end kan Nvidia nog wel meekomen deze generatie, de mainstream totaal niet.

Wacht maar op Navi31 7700XT 225W voor ~$499.
Waarom zou AMD? Dat is toch ontzettend domme actie. Nvidia zijn flagship zit op $1599,-. Denk je dat investeerders het leuk vinden als morgenavond wordt gezegd dat de flagship 999 kost?

Een concurrerende kaart die 499 kost tegen een 4070 die (waarschijnlijk) 799 of 899 gaat kosten is gewoon geld weggooien, hup, zo het water in. een concurrerende kaart die jij veel goedkoper kan aanbieden plaats je dan gewoon een dollar of 100 lager of 150. Meer marge, meer geld voor R&D, meer geld voor investeerders. Ik wil ook zeggen marketing maar volgens mij zit er bij AMD maar eentje op die afdeling :+

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
OMD schreef op woensdag 2 november 2022 @ 12:29:
[...]


Waarom zou AMD? Dat is toch ontzettend domme actie. Nvidia zijn flagship zit op $1599,-. Denk je dat investeerders het leuk vinden als morgenavond wordt gezegd dat de flagship 999 kost?

Een concurrerende kaart die 499 kost tegen een 4070 die (waarschijnlijk) 799 of 899 gaat kosten is gewoon geld weggooien, hup, zo het water in. een concurrerende kaart die jij veel goedkoper kan aanbieden plaats je dan gewoon een dollar of 100 lager of 150. Meer marge, meer geld voor R&D, meer geld voor investeerders. Ik wil ook zeggen marketing maar volgens mij zit er bij AMD maar eentje op die afdeling :+
AMD kan met deze prijzen goede marges maken voor de investeerders. Nvidia niet. Of AMD superhebberig gaat worden net als Nvidia, omdat Nvidia het doet, weet ik niet. Volgens mij doet Nvidia dat omdat ze teveel RTX 3000 kaarten hebben, maar ik denk niet dat AMD rekening gaat houden met de RX 6000 kaarten in Q1 2023.

Verder wordt de 7700XT een paradepaard in laptops en de PS5 Pro refresh refresh. Het ding gaat massaal geproduceerd worden en is goedkoop. $499 is een psychologisch prijspunt.

Dus nee dat is geen geld weggooien, dat is massa is kassa mainstream, met
~200 mm² op N6 met ~225W TDP versus
~300 mm² op N4 met ~300W TDP.

edit: Vergelijk het met Nvidia die een RTX 3070 uitbrengt die net zo goed is als een RTX2080 Ti, die was toch ook $499 qua MSRP? Waarom zou AMD niet precies hetzelfde doen met hun 7700XT en 6900XT? Dat Nvidia het dit keer niet doet is omdat ze het niet kunnen, that's why.

[ Voor 9% gewijzigd door sunsmountain op 02-11-2022 13:09 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
OMD schreef op woensdag 2 november 2022 @ 12:29:
[...]


Waarom zou AMD? Dat is toch ontzettend domme actie. Nvidia zijn flagship zit op $1599,-. Denk je dat investeerders het leuk vinden als morgenavond wordt gezegd dat de flagship 999 kost?

Een concurrerende kaart die 499 kost tegen een 4070 die (waarschijnlijk) 799 of 899 gaat kosten is gewoon geld weggooien, hup, zo het water in. een concurrerende kaart die jij veel goedkoper kan aanbieden plaats je dan gewoon een dollar of 100 lager of 150. Meer marge, meer geld voor R&D, meer geld voor investeerders. Ik wil ook zeggen marketing maar volgens mij zit er bij AMD maar eentje op die afdeling :+
AMD zou er ook voor kunnen kiezen om voor marktaandeel te gaan. Als ze zo dicht bij Nvidia blijven zitten met de prijzen zullen ze nooit, zoals op de CPU markt, het aandeel vergroten. Eigenlijk doen ze dit nu al een beetje met de 6000 serie die relatief lager geprijsd is dan de 30 serie terwijl juist het aanbod "oude" kaarten aan de kant van Nvidia groter is.

Ik heb het idee dat er een enorme onverzadigde markt is die echt wacht op die 500 euro kaart die kan wedijveren met de 3090/6900XT. Weet alleen niet of dat mogelijk is met de marges die ze willen maken.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

sunsmountain schreef op woensdag 2 november 2022 @ 13:04:
[...]

AMD kan met deze prijzen goede marges maken voor de investeerders. Nvidia niet. Of AMD superhebberig gaat worden net als Nvidia, omdat Nvidia het doet, weet ik niet. Volgens mij doet Nvidia dat omdat ze teveel RTX 3000 kaarten hebben, maar ik denk niet dat AMD rekening gaat houden met de RX 6000 kaarten in Q1 2023.

Verder wordt de 7700XT een paradepaard in laptops en de PS5 Pro refresh refresh. Het ding gaat massaal geproduceerd worden en is goedkoop. $499 is een psychologisch prijspunt.

Dus nee dat is geen geld weggooien, dat is massa is kassa mainstream, met
~200 mm² op N6 met ~225W TDP versus
~300 mm² op N4 met ~300W TDP.
Ik kan je vertellen als ondernemer zijnde, dat is geld weggooien.
Product X kunnen verkopen voor 599 of 699 is vele malen verstandiger dan 499. Er is geen concurrentie op dat niveau, waarom zou je dan van je eigen portemonnee stelen? Does not make sense. AMD is geen liefdadigheid instelling.

Je hebt nooit genoeg marge, nooit. Dat bestaat niet. Dat is echt niet commercieel denken. Wanneer je 20% afzet verliest op 699 door die prijs op 100.000 stuks ten opzichte van 499.
499 x 100.000 = 49.900.000
699 x 80.000 = 55.920.000

Je hebt dus zo verschrikkelijk veel minder units nodig om dezelfde bruto omzet te realiseren (maar met een veel hogere winst). Dat gaat gepaard met een logistieke kostenbesparing van echt enorme bedragen.

We gaan het zien. Bovenstaand verhaal is ook een punt. Marktaandeel. Ze kunnen nu een enorme slag slaan en een groot deel van de taart "stelen". Dat is je zelf sterker de markt in kopen en dat kost geld. Dat doe je dan inderdaad weer door lagere prijzen te hanteren en je concurrentie compleet te vloeren.

[ Voor 9% gewijzigd door OMD op 02-11-2022 13:18 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op woensdag 2 november 2022 @ 02:12:
Schaamteloze crosspost, AdoredTV denkt dat Nvidia deze generatie nog kan meekomen; maar dat ze tegen de limiet zitten van wat ze kunnen zonder ook chiplets te gebruiken; ze zijn volledig afhankelijk van de volgende node van TSMC:
[YouTube: RDNA3 - AMD's Zen Graphics Moment]
Dat moet ik nog zien. AD102 misschien, de rest is veel twijfelachtiger als je alleen al kijkt naar Nvidia hun eigen cijfers.
Geen idee of Nvidia al bezig is met chiplets; maar ze moeten heel erg hard bezig chiplets.
Dit is denk ik de verkeerde vraag.
Natuurlijk is Nvidia al bezig met chiplets als ze over tien jaar nog willen bestaan. Het einde van silicon nodeshrinks zit er namelijk aan te komen en vanaf dit punt is het alleen maar complexer, duurder en minder grote prestatie winsten per node. Immers gaat je logic nog fors kleiner worden maar je SRAM en analog niet.

Ik denk dat het alleen de verkeerde vraag is omdat chiplets, Nvidia hun problemen helemaal niet oplossen. Nvidia is nu al jaren bezig om hun gaming GPU's dual use te maken. Ze willen met een architectuur, gaming, rendering en ML/AI doen. En daarvoor hebben ze drie aparte hardwareblokken in een SM gestopt vanaf Turing. Die twee laatste gaan alleen ten koste van de eerste terwijl die eerste uiteindelijk een van de belangrijkste markten is en blijft.

Als Nvidia nu een chiplet architectuur maakt met wat ze hebben, dan zit je alsnog met een gigantische GPU waarbij ze maar weinig af kunnen splitsen in aparte chiplets. Nvidia kan hun L2 cache niet zomaar losmaken van hun GPC, TPC en SM structuur. Dit omdat L2 een zeer hoge bandbreedte cache is en dat reproduceren met chiplets is een uitdaging. Niet alleen in de bandbreedte zelf, maar ook in energieconsumptie van een dergelijke verbinding beperken is behoorlijk uitdagend. Immers is dat de verbinding tussen elke GPC nu.

Hoe het nu namelijk staat met Nvidia zou het splitsen van een of een paar GPC's per chiplet, waarschijnlijk de meest logische keuze zijn als ze kosten willen drukken alsmede snellere GPU's willen maken. Dan krijg je alleen een complex monster waarbij je bijna gegarandeerd een actieve interposer nodig hebt (duurder) en alsnog met grote SM's zit die niet erg efficiënt zijn.

Ik zie de hele Maxwell-Lovelace ontwikkeling eigenlijk niet werken voor een chiplet based architectuur. Die hele ontwikkeling die eigenlijk al verder gaat dan Maxwell, opereert op het principe van vele relatief kleine en autonome rekenclusters die relatief los met elkaar verbonden zijn. Dat geeft nu al problemen en als je naar chiplets gaat, dan maak je die groter. Voor specifiek gaming krijg je te maken krijgt met enorme problemen qua scheduling tussen verschillende chiplets alsmede het verplaatsen en verkrijgen van data tussen die chiplets. En het idee van chiplets is uiteindelijk ook meer rekeneenheden die in dit geval het probleem groter maken. Alsof Nvidia hun problemen nog niet groot genoeg waren hierin.

De overstap voor Nvidia betekent waarschijnlijk ook nog eens een nieuwe architectuur vanaf de grond af moet gaan ontwerpen en meteen ook overstappen naar MCM, zonder ervaring hierin. Dan moeten ze maar hopen dat het werkt terwijl ze juist door hun eis van zoveel verschillende fixed function hardware, waarschijnlijk ook niet de grootste voordelen uit MCM zullen halen. Dat kunnen ze alleen verhelpen als ze hun SM drastisch op de schop nemen, dus veel efficiënter maken in zowel oppervlakte, occupency als verbruik. Verder zit die constante groei in tensor cores ook enorm in de weg. Ik zie niet hoe ze dat in een generatie allemaal gaan doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op woensdag 2 november 2022 @ 13:52:
[...]

Dat moet ik nog zien. AD102 misschien, de rest is veel twijfelachtiger als je alleen al kijkt naar Nvidia hun eigen cijfers.

[...]

Dit is denk ik de verkeerde vraag.
Natuurlijk is Nvidia al bezig met chiplets als ze over tien jaar nog willen bestaan. Het einde van silicon nodeshrinks zit er namelijk aan te komen en vanaf dit punt is het alleen maar complexer, duurder en minder grote prestatie winsten per node. Immers gaat je logic nog fors kleiner worden maar je SRAM en analog niet.
Dat een architectuur zonder chiplets uiteindelijk gaat falen is duidelijk. Met chiplets kan je het probleem tenminste nog ligt verminderen omdat je dan op de gaming lijn gewoon minder Tensor cores plakt.

Op zich mooi dat AMD CDNA en RDNA heeft.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
OMD schreef op woensdag 2 november 2022 @ 08:19:
[...]


Ben je dan nog niet steeds voltage limited? NVidia heeft een behoorlijke sterke cap opvallend kaarten gezet, dat is ook de reden dat eigenlijk elke aib met een oc niet echt verder komt dan 5% extra snelheid.

De8bauer had wel meer voltage voor elkaar gekregen alleen klokte de kaart niet echt eerder dan met een reguliere overclock.
1.050mv is max stock en tot 1.100mv kan je forceren, tenminste met mijn RTX 4090.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op woensdag 2 november 2022 @ 13:58:
[...]


Dat een architectuur zonder chiplets uiteindelijk gaat falen is duidelijk. Met chiplets kan je het probleem tenminste nog ligt verminderen omdat je dan op de gaming lijn gewoon minder Tensor cores plakt.
Dat denk ik ook niet.
Ik denk dat die hele roep van "chiplets is de oplossing", verkeerd is. Nvidia moet eerst maar eens hun architectuur echt op de schop nemen in plaats van meer rekeneenheden toevoegen en verbruik vergelijkbaar proberen houden. Het probleem is dat dit fundamenteel is wat Nvidia de afgelopen twintig jaar vooral heeft gedaan. Die ene echt grote uitzondering is G80/Tesla/8800. ;)
Op zich mooi dat AMD CDNA en RDNA heeft.
En dat is dan ook geen toeval, inclusief dat CDNA en RDNA ook heel andere methode lijken te gebruiken voor hun MCM ontwerpen. CDNA2 is eigenlijk monolithisch waar je een extra GPU chip kan toevoegen op een interposer. Immers is scheduling een veel kleiner probleem in datacenter wereld waar gebruik van meerdere GPU's al normaal is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als hier de problemen in de nvidia architectuur beredeneerd kunnen worden dan weten ze dat bij nvidia natuurlijk ook allang. Die zijn daar niet gek. Natuurlijk kunnen zij ook een Intel moment krijgen maar dat is verre van een zekerheid.

Het zou me erg verbazen als ze niet reeds iets nieuws qua architectuur in de startblokken hebben staan. TSMC kan hen prima ondersteuning bieden met chiplets, interposers, packaging, 2,5D/3D etc.

Tegelijkertijd heeft nvidia nog geen praktijkervaring met chiplets en dat is denk ik de belangrijkste mogelijke zwakte. Naast dat een nieuwe architectuur in de eerste generatie denk ik niet vaak al helemaal top is.

De RDNA3 launch vind ik vooral erg interessant om te zien hoe goed de chiplet insteek bij GPU's werkt bij een eerste iteratie en wat de zwakheden in de praktijk zijn. Hoe deze je gebruikerservaring beinvloeden.

Als AMD, die natuurlijk al veel ervaring hebben met chiplets, geen goede eerste indruk levert dan zie ik het wel wat somberder in voor nvidia voor wat betreft een vlekkeloze start in de chiplet scene.

[ Voor 5% gewijzigd door Help!!!! op 02-11-2022 14:26 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

ItalianStyle schreef op woensdag 2 november 2022 @ 14:02:
[...]


1.050mv is max stock en tot 1.100mv kan je forceren, tenminste met mijn RTX 4090.
Voltage limited is wat anders dan maximale voltage wat je kan ingeven in bijvoorbeeld Afterburner of GPU Tweak.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 20:05
OMD schreef op woensdag 2 november 2022 @ 13:17:
[...]


Ik kan je vertellen als ondernemer zijnde, dat is geld weggooien.
Product X kunnen verkopen voor 599 of 699 is vele malen verstandiger dan 499. Er is geen concurrentie op dat niveau, waarom zou je dan van je eigen portemonnee stelen? Does not make sense. AMD is geen liefdadigheid instelling.

Je hebt nooit genoeg marge, nooit. Dat bestaat niet. Dat is echt niet commercieel denken. Wanneer je 20% afzet verliest op 699 door die prijs op 100.000 stuks ten opzichte van 499.
499 x 100.000 = 49.900.000
699 x 80.000 = 55.920.000

Je hebt dus zo verschrikkelijk veel minder units nodig om dezelfde bruto omzet te realiseren (maar met een veel hogere winst). Dat gaat gepaard met een logistieke kostenbesparing van echt enorme bedragen.

We gaan het zien. Bovenstaand verhaal is ook een punt. Marktaandeel. Ze kunnen nu een enorme slag slaan en een groot deel van de taart "stelen". Dat is je zelf sterker de markt in kopen en dat kost geld. Dat doe je dan inderdaad weer door lagere prijzen te hanteren en je concurrentie compleet te vloeren.
AMD gaat er uiteindelijk niet over, dat zijn de board partners. Als de vraag werkelijk hoog is zoals met crypto, dan worden de prijzen vanzelf meer dan de MSRP. Verder tendeert AMD al jaren naar een bepaalde gross profit margin van 50%:

https://www.macrotrends.n...ts/AMD/amd/profit-margins

Daar kunnen ze best tijdelijk of met halo producten van afwijken, maar +$200 zou wel heel a-historisch zijn en board partners zullen dat niet per se van AMD accepteren. Bovendien, de vraag zal afnemen doordat de pandemie voorbij is, crypto gestopt, en er steeds meer tweedehands videokaarten op de markt komen.

Van wat we horen van board partners, zien ze er naar uit om met AMD samen te werken, mogelijk omdat ze dan meer marge kunnen maken. Maar vanuit AMD kunnen ze prima uit de voeten met $499 voor Navi33, is wat ik zeg. Dat is mèt 60% voor AMD en 20% voor board partners. Voor Nvidia is dat eenvoudigweg te laag voor AD104, de gelijk presterende chip. Zelfs met 50% voor Nvidia en 10% voor board partners, kom je niet lager dan $699.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@sunsmountain

AMD bepaald de minimumprijs die de AIBs kunnen vragen, door hun eigen prijsstelling.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op woensdag 2 november 2022 @ 14:24:
Als hier de problemen in de nvidia architectuur beredeneerd kunnen worden dan weten ze dat bij nvidia natuurlijk ook allang. Die zijn daar niet gek. Natuurlijk kunnen zij ook een Intel moment krijgen maar dat is verre van een zekerheid.

Het zou me erg verbazen als ze niet reeds iets nieuws qua architectuur in de startblokken hebben staan. TSMC kan hen prima ondersteuning bieden met chiplets, interposers, packaging, 2,5D/3D etc.

Tegelijkertijd heeft nvidia nog geen praktijkervaring met chiplets en dat is denk ik de belangrijkste mogelijke zwakte. Naast dat een nieuwe architectuur in de eerste generatie denk ik niet vaak al helemaal top is.

De RDNA3 launch vind ik vooral erg interessant om te zien hoe goed de chiplet insteek bij GPU's werkt bij een eerste iteratie en wat de zwakheden in de praktijk zijn. Hoe deze je gebruikerservaring beinvloeden.

Als AMD, die natuurlijk al veel ervaring hebben met chiplets, geen goede eerste indruk levert dan zie ik het wel wat somberder in voor nvidia voor wat betreft een vlekkeloze start in de chiplet scene.
Iets constateren en er ook iets aan doen zijn twee heel andere dingen. AMD wist immers ook wel tien jaar geleden dat ze iets beters nodig hadden dan Bulldozer net zoals dat Intel vijf jaar geleden ook wel wist dat er iets heel erg mis was met hun 10nm node. ;)

Er iets aan doen is wat lastiger. Ik heb bijvoorbeeld geen flauw idee hoe groot Nvidia hun ontwerpafdeling is, wat hun capaciteiten precies zijn en welke ideeën ze daar hebben. Belangrijker nog weet ik niet wat hun ontwikkelfocus is. We hebben in ieder geval meermaals Jensen Huang horen zeggen dat ze beter zijn met monolithische chips. En gezien wat ze willen bereiken lijkt dat ook logisch. Zeker bij Nvidia speelt ook nog eens dat ze veel meer met software doen waardoor het zomaar kan dat Nvidia hun softwareontwikkelafdeling veel groter is dan de hardwareafdeling en ook de dominante factor is. En wie zegt dat die zitten te wachten op een compleet nieuwe architectuur waar ze tijdenlang de drivers voor moeten gaan schrijven om een probleem op te lossen dat een andere afdeling heeft?

Het is niet zo makkelijk om iets te constateren waarna het opgelost word. Voor AMD was het makkelijk omdat ze twee keuzes hadden: Radicaal andere aanpak of failliet. En AMD hun chiplets aanpak was ook een enorme gok die je alleen maar neemt als je geen keuze meer hebt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het zou vrij dom zijn van nVidia als ze er niet allang mee bezig zijn. De industrie weet zeer geruime tijd dat chiplets de toekomst zijn en nVidia heeft goed kunnen zien bij Intel wat er gebeurt als je te lang in je succesnummer blijft hangen qua ontwerp (en teveel leunt op je voorsprong in fabtechnologie).

Ten tijde van Bulldog had AMD onvoldoende geld om iets anders te doen, ze hadden geen keus. nVidia heeft dat probleem helemaal niet. Die bulken al jaren van het geld.

Intel's 10nm vind ik niet echt te vergelijken. Als ineens je fabtechnologie niet meer functioneert dan kun je dat niet perse zomaar oplossen door er geld tegenaan te gooien. Ze zijn weliswaar iets te ambitieus geweest maar het is niet iets wat je echt ziet aankomen zoals chiplets. Als TSMC ineens vastloopt en Intel niet dan kan de volgende generatie intel GPU's zomaar gehakt maken van AMD en nvidia. :P

Maar goed het kan natuurlijk dat nvidia het onderschat of te lang scherp aan de wind blijft zeilen om maar zo veel mogelijk van hun huidige investeringen en kennis te profiteren.
Echter aangezien Ryzen alweer bijna 6 jaar geleden gelaunched is denk ik echt niet dat nvidia stil is blijven zitten. Ze hebben volgensmij ruim voldoende geld en kennis om dit te kunnen.

Het klopt dat ze het nog moeten laten zien maar dat geldt voor AMD GPU chiplets ook. Ik denk wel dat AMD de goede keuze maakt door hier nu mee te komen. Al ervaring hebben met (GPU) chiplets lijkt me zeker een groot voordeel. Ik hoop in ieder geval op een Ryzen watershed moment voor RDNA3 / GPU chiplets. :)

[ Voor 4% gewijzigd door Help!!!! op 03-11-2022 11:08 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Techindustrie en ethics....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

Waar kijken we naar? Misschien mis ik de punchline namelijk.

Filmpje start bij mij over een shift en dan naar de backpack van LTT

Edit:

Gaat denk ik om time stamp 17:30? Mijn YouTube doet vaag, die start elke video blijkbaar op 75%.

Edit 2:

Corporate greed. Bleegh

[ Voor 23% gewijzigd door OMD op 05-11-2022 18:04 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Bij mij start de link op 17:33. Het is een bloemlezing van corporate abuse m.n. bij de wat kleinere channels.

LTT mag dan niet de meest technische reviewer zijn maar als grootste techkanaal neemt hij wel vaak zijn verantwoordelijkheid om de grote techbedrijven de maat te nemen als het gaat om questionable practices.

[ Voor 51% gewijzigd door Help!!!! op 05-11-2022 18:34 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op zaterdag 5 november 2022 @ 18:32:
Bij mij start de link op 17:33. Het is een bloemlezing van corporate abuse m.n. bij de wat kleinere channels.

LTT mag dan niet de meest technische reviewer zijn maar als grootste techkanaal neemt hij wel vaak zijn verantwoordelijkheid om de grote techbedrijven de maat te nemen als het gaat om questionable practices.
Het is weer jammer dat de typische naam naar voren komt; namelijk Nvidia (en een boardpartner Zotac).
Mijn goal voor 2023, nog minder Nvidia aanraden aan vrienden; tenzij ze echt Cuda nodig hebben.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit zou het RTX4080 FE PCB zijn PCB. :|
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/NVIDIA-RTX4080-FOUNDERS-EDITION-PCB-AD103-GPU-1.jpg
https://videocardz.com/ne...103-gpu-pictured-up-close
Nee ik wil verder niks zeggen over hoe het erop lijkt dat de helft van de VRM's van de GPU gehaald lijken te zijn...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 7 november 2022 @ 23:36:
Nee ik wil verder niks zeggen over hoe het erop lijkt dat de helft van de VRM's van de GPU gehaald lijken te zijn...
Lijkt op een 4090 die een ongeluk heeft gehad.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
DaniëlWW2 schreef op maandag 7 november 2022 @ 23:36:
Dit zou het RTX4080 FE PCB zijn PCB. :|
[Afbeelding]
https://videocardz.com/ne...103-gpu-pictured-up-close
Nee ik wil verder niks zeggen over hoe het erop lijkt dat de helft van de VRM's van de GPU gehaald lijken te zijn...
Dus toch ook de 12Vhpwr connector op de 4080 lijkt het?

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

Jaja, het wordt waarschijnlijk de 4070Ti
https://videocardz.com/ne...2gb-sku-launch-in-janaury

Dat wordt dus de enige Ti voorlopig. Geen enkele andere ti. Dat wordt weer wat als de Ti versies worden aangekondigd van de overige kaarten. Misschien krijg je dan wel de Ti Super oid.

[ Voor 38% gewijzigd door OMD op 08-11-2022 08:42 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op dinsdag 8 november 2022 @ 08:39:
Jaja, het wordt waarschijnlijk de 4070Ti
https://videocardz.com/ne...2gb-sku-launch-in-janaury

Dat wordt dus de enige Ti voorlopig. Geen enkele andere ti. Dat wordt weer wat als de Ti versies worden aangekondigd van de overige kaarten. Misschien krijg je dan wel de Ti Super oid.
Dan heeft Nvidia heeft nog steeds geen ruimte voor een tweede SKU op AD103. Immers is de RTX4080 een 5% SM cut down.
Zuvio schreef op dinsdag 8 november 2022 @ 07:22:
[...]
Dus toch ook de 12Vhpwr connector op de 4080 lijkt het?
Dat was al bekend. Ook een leuke omdat de ellende alsmaar doorgaat. :/


Verder kijk eens wat wel bestaat.

[ Voor 14% gewijzigd door DaniëlWW2 op 08-11-2022 09:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
Sp3ci3s8472 schreef op zaterdag 5 november 2022 @ 21:30:
[...]


Het is weer jammer dat de typische naam naar voren komt; namelijk Nvidia (en een boardpartner Zotac).
Mijn goal voor 2023, nog minder Nvidia aanraden aan vrienden; tenzij ze echt Cuda nodig hebben.
Ik neem even aan dat het over dit gaat? YouTube: A Whole New Tech Scandal
Nvidia en Zotac zijn daar niet de enige genoemde partijen. Gigabyte, Asus en AMD worden ook door LTT benoemd.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
RTX 4080 12gb word een RTX 4070 Ti?
https://videocardz.com/ne...2gb-sku-launch-in-janaury

Edit

Ik ben benieuwd of Nvidia zich aan de RTX 4080 12gb prijs vast blijft houden.

[ Voor 23% gewijzigd door ItalianStyle op 08-11-2022 10:00 ]


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Moet eigenlijk nog een paar euro bij voor de nieuwe doos en stickers....

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

DaniëlWW2 schreef op dinsdag 8 november 2022 @ 09:10:
[...]


Dan heeft Nvidia heeft nog steeds geen ruimte voor een tweede SKU op AD103. Immers is de RTX4080 een 5% SM cut down.


[...]

Dat was al bekend. Ook een leuke omdat de ellende alsmaar doorgaat. :/


Verder kijk eens wat wel bestaat.
[YouTube: EVGA RTX 4090 FTW3 Tear-Down & Disassembly: A Major Loss]
Jay heeft er ook 1, was in het ervaringen & Discussie topic gedeeld. Beetje lastig wat nu nieuws is en discussie :+
Die van Steven ziet er wel iets beter uit maar leuk dat ze de engineering samples weggeven, zover ik heb begrepen mogen ze het houden.

Nog steeds jammer dat dit merk van de kaart weg is maar het is niet anders. Als het zo doorgaat met nVidia richting hun partners zal het niet niet lang meer duren voordat meer partners de stekker er uit trekken. Alleen de HOF is nog een bijzondere kaart, de rest is eigenlijk allemaal hetzelfde en heeft geen meerwaarde meer tov de FE versie.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 8 november 2022 @ 09:10:
[...]
Dan heeft Nvidia heeft nog steeds geen ruimte voor een tweede SKU op AD103. Immers is de RTX4080 een 5% SM cut down.
Misschien gaat die dan naar de mobile lineup? Ze kunnen ook een geknipte AD103 verkopen als een 4070 Ti of een 4070, naast een AD104 versie.

De GA103 zat ook heel vreemd in de line-up, want de volle GA103 zat slechts in de mobiele 3080 Ti en een sterk geknipte versie in de 3060 Ti. Dus het is niet automatisch zo dat ze netjes een volle en geknipte variant uitbrengen in desktop-kaarten die net boven en onder elkaar gepositioneerd zijn.

[ Voor 212% gewijzigd door Ludewig op 08-11-2022 11:26 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +5 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Afbeeldingslocatie: https://uploads.disquscdn.com/images/c06fb98c711d54ad91908d115249dbe1a5bcf7596cb1e10725c52a754754cf7f.png?w=800&h=1186

:O

Vervang 4080 12GB dan maar met 4070 Ti...

[ Voor 17% gewijzigd door Paprika op 08-11-2022 12:14 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Dennism schreef op dinsdag 8 november 2022 @ 09:34:
[...]


Ik neem even aan dat het over dit gaat? YouTube: A Whole New Tech Scandal
Nvidia en Zotac zijn daar niet de enige genoemde partijen. Gigabyte, Asus en AMD worden ook door LTT benoemd.
Ja, maar ik heb het van hun podcast. Daar werden alleen Nvidia en Zotac genoemd.


Echt het is soms bedroevend hoe slecht de informatie van hun analyses is. Aan het einde van de video, je kan frame gen aanzetten op 30FPS en je hebt geen input lag!! Soms kan ik mij ergeren aan de onzin die LTT post.
Je hebt minimaal 1 frame latency dus frame generation aanzetten op 30FPS zou ik nooi overwegen, want dit zou een extra +/-30ms extra latency geven tenopzichte van 30FPS met Reflex (in situaties met een cpu bottleneck zal de latency een beetje lager zijn).
Daarnaast denken ze dat de latency komt door de overhead van de interpolatie 8)7 8)7 8)7 . Serieus doen ze daar aan onderzoek of proofreaden?
Ze maken daar een gigantisch lab, maar als de kwaliteit dat naar buiten komt dit is dan skip ik het.

Acties:
  • +1 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
Paprika schreef op dinsdag 8 november 2022 @ 12:13:
[Afbeelding]

:O

Vervang 4080 12GB dan maar met 4070 Ti...
Mooi overzicht en toont wel aan dat alles onder de 4090 niet serieus te nemen is voor de huidige prijzen. Verwacht namelijk niet dat die 4070 Ti voor 600 of minder gaat verschijnen.

[ Voor 8% gewijzigd door Cloggs op 08-11-2022 14:41 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Sp3ci3s8472

Ik zie LTT vooral als (vaak gesponsord) entertainment. Het is typisch zo'n channel dat alles maar oppakt waar mensen interesse in hebben, of ze er nu verstand van hebben of niet.

Niet voor niets hebben ze 15 miljoen subs. Dan weet je wel dat het nooit serieus kan zijn, want er zijn geen 15 miljoen mensen die ook serieus zijn, maar wel 15 miljoen mensen die gaan voor vrij oppervlakkige entertainment.

@Cloggs

Ja, de prijzen van Nvidia gaan over de hele linie te hoog zijn. De enige kans die je hebt is dat de verkopen totaal inkakken wanneer de ergste fanboys hun kaarten hebben, terwijl AMD massaal marktaandeel pakt. Dan zou heet kunnen dat Nvidia 'tijdelijk' hun prijzen verlaagd of komt met 'Super' kaarten voor normalere prijzen.

Maar ik verwacht dat ook bij AMD de prijzen eerst aan de hoge kant zullen zijn en pas na een tijdje zullen zakken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 10-09 20:28
@Sp3ci3s8472

+/- 17ms extra latency t.o.v. oorspronkelijk 30FPS met reflex, je geïnterpoleerde frame zit immers ongeveer op de plaats van de oorspronkelijke 2de frame, de oorspronkelijke 2de, 33ms/2 later (als je naar ongeveer 60FPS gaat) + een beetje overhead postprocessing. Of je die extra latency wil is natuurlijk persoonlijk en game afhankelijk.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

redzebrax schreef op dinsdag 8 november 2022 @ 16:25:
@Sp3ci3s8472

+/- 17ms extra latency t.o.v. oorspronkelijk 30FPS met reflex, je geïnterpoleerde frame zit immers ongeveer op de plaats van de oorspronkelijke 2de frame, de oorspronkelijke 2de, 33ms/2 later (als je naar ongeveer 60FPS gaat) + een beetje overhead postprocessing. Of je die extra latency wil is natuurlijk persoonlijk en game afhankelijk.
Nee, zo werkt het helaas dus niet.

Het tweede frame moet eerst gerendered zijn voordat je de data krijgt die je nodig hebt voor de interpolatie. Als je uitgebreide uitleg wilt dan kan je terug in het topic gaan waar ik (en anderen) dit uitleggen.

Wat jij beschrijft is extrapolatie (ten opzichte van het eerste frame).

Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 10-09 20:28
Op het moment dat je tweede frame gerendered is, heb je dus data om te interpoleren. De interpolatie is postprocessing. Je kent dus de interpolatieframe op tijdstip: originele 2de frame + delay postprocessing.

De interpolatieframe kan "delay postprocessing" later getoond worden als waar de oorspronkelijke 2de frame zat, de oorspronkelijke 33ms /2 later aangezien je je frequentie ongeveer verdubbeld.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

redzebrax schreef op dinsdag 8 november 2022 @ 16:39:
Op het moment dat je tweede frame gerendered is, heb je dus data om te interpoleren. De interpolatie is postprocessing. Je kent dus de interpolatieframe op tijdstip: originele 2de frame + delay postprocessing.

De interpolatieframe kan "delay postprocessing" later getoond worden als waar de oorspronkelijke 2de frame zat, de oorspronkelijke 33ms /2 later aangezien je je frequentie ongeveer verdubbeld.
Nee.

In tijd volgorde dat de frames worden gemaakt.
Frame 1 -> Frame 2 = 33ms
Frame 1 -> Frame 2 -> Frame 1.5 = waarschijnlijk iets meer dan 33ms.

Afbeeldingslocatie: https://tweakers.net/i/qhpcny_3R1vVvSVsNbx2ExMSbmE=/800x/filters:strip_exif()/f/image/GhR4KLg0Ud1MPVJWVTS2kPYd.png?f=fotoalbum_large

Zoals je ziet in de meting van HardwareUnboxed. Op 72fps kost het 13.9ms om een frame te renderen.
Doen we 47ms + 13.9ms dan komen we uit op 60.9ms. Dus los van meetafwijkingen omdat de situatie nooit 100% hetzelfde is komen we heel dicht in de buurt van de gemeten 62.6 waar frame gen aanstaat. Waarschijnlijk heb je dan nog 1-2ms nodig om een frame te genereren.

Situatie twee waar we 90fps halen; daar kost het 11.1ms om een frame te renderen.
Doen we 42.7 + 11.1 dan komen we uit op 53.8 wat net iets hoger is dan we zouden verwachten; maar niet heel raar als we een cpu bottleneck hebben of meet variatie.

Je zal dus altijd +/- 1 frame extra latency hebben.

Kijkvoer ;) :

Of tijdstamp waar de input latency wordt uitgelegd:
YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed

Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 10-09 20:28
Het is niet inherent bij interpolatie dat je een hele oude frametijd moet wachten, in principe heb je alleen de postprocessingstijd + 1/nieuwe FPS nodig, hoe NVIDIA dit geïmplementeerd heeft, eventueel nog een extra buffer is een andere vraag.
In je voorbeeld doe je wel wat veronderstellingen bv het zal wel een meetafwijking zijn.
Maar je tweede bij performance: (jammer dat we geen meting hebben bij alleen frame gen en over vele FPS)
1) FPS 90 -> gemiddelde frametime 11.1 ms
delay 42.7

2) FPS 142 -> gemiddelde frametime 7ms
delay 52.1

is het verschil 9.4 ms
of 7ms + 2.4 ms delay wat mijn punt bevestigt. Maar inderdaad moeten we die metingen misschien met een korreltje zout nemen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

redzebrax schreef op dinsdag 8 november 2022 @ 18:47:
Het is niet inherent bij interpolatie dat je een hele oude frametijd moet wachten, in principe heb je alleen de postprocessingstijd + 1/nieuwe FPS nodig, hoe NVIDIA dit geïmplementeerd heeft, eventueel nog een extra buffer is een andere vraag.
In je voorbeeld doe je wel wat veronderstellingen bv het zal wel een meetafwijking zijn.
Maar je tweede bij performance: (jammer dat we geen meting hebben bij alleen frame gen en over vele FPS)
1) FPS 90 -> gemiddelde frametime 11.1 ms
delay 42.7

2) FPS 142 -> gemiddelde frametime 7ms
delay 52.1

is het verschil 9.4 ms
of 7ms + 2.4 ms delay wat mijn punt bevestigt. Maar inderdaad moeten we die metingen misschien met een korreltje zout nemen.
Nee, je snapt het concept niet. Het is wel inherent aan interpolatie dat je moet wachten op het 2e frame; anders zouden ze het wel extrapolatie hebben genoemd; bij extrapolatie krijg je weer andere artifacts. Nergens heeft Nvidia het ooit gehad over extrapolation dus dat kun je gewoon afschrijven. Interpolation zal altijd op het tweede frame moeten wachten; anders is het extrapolation. Zoek anders op in het woordenboek wat interpolatie en extrapolatie betekent.
Zou het een andere vorm zijn zoals met VR dan is het eerder vergelijkbaar met warping; maar ook daar heeft Nvidia het niet over.
Jij hebt het over extra buffer; dat zou bekenen dat je met Reflex nog een frame eerder het beeld kan krijgen maar dat je dat dus niet krijgt omdat Nvidia dat niet wil om frame gen beter te laten lijken? Lijkt mij zeer onwaarschijnlijk.

HardwareUnboxed en andere reviewers doen over het algemeen 3 runs en pakken het gemiddelde. Dus ja, het zijn wel meetwaarden die kunnen uitwijken. Daarnaast heb je ook nog de latency van het scherm zelf; wat misschien een betere verklaring geeft dat hij in situatie net iets onder de 1 frame zit.
Daarnaast zit je te cherrypicken want in het eerste voorbeeld dat ik noem bevestigd het mijn casus.

Ik laat het hierbij; gezien ik het blijkbaar niet goed kan uitleggen. Wellicht dat @Werelds dat wil doen :P.

Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 10-09 20:28
Waar snap ik concept niet ? Je moet inderdaad wachten op je 2de frame anders kan je geen interpolatie doen.
Maar je interpolatie frame is klaar postprocessingstijd nadat je 2de frame er is.

Als je vergelijkt met je originele 30FPS:
1__________2___________3 __________ 4
Nieuwe is 60 FPS waarbij * delay postprocessing is
1__________*1,5 ___*2___ *2,5 ___*3___ *3,5
zoals jij het voorstelt:
1 _______________ *1.5 __*2 ____*2.5 __*3


edit
aangepast, en misschien had ik me in het vorig bericht wat verkeerd uitgedrukt : "een hele oude frametijd moet wachten" : moest zijn "een hele extra oude frametijd".
Ik heb nergens over extrapolatie gesproken, de discussie ging over wat de minimale extra delay is bij interpolatie.

[ Voor 48% gewijzigd door redzebrax op 08-11-2022 22:28 ]


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 23:00
Ik weet niet goed hoe ik dit plaatje moet interpreteren. Is het puur een percentage van het aantal cuda cores t.o.v. de 4090 of zegt het ook daadwerkelijk iets over performance t.o.v. de kolom links :?

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

JeroenNietDoen schreef op dinsdag 8 november 2022 @ 19:44:
[...]

Ik weet niet goed hoe ik dit plaatje moet interpreteren. Is het puur een percentage van het aantal cuda cores t.o.v. de 4090 of zegt het ook daadwerkelijk iets over performance t.o.v. de kolom links :?
Het is het formaat van de grootste chip van een generatie afgezet tegen de rest van de SKU's.
Het doel is om te laten zien hoe enorm het verschil tussen de RTX4090 en de rest is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 23:00
DaniëlWW2 schreef op dinsdag 8 november 2022 @ 19:49:
[...]


Het is het formaat van de grootste chip van een generatie afgezet tegen de rest van de SKU's.
Het doel is om te laten zien hoe enorm het verschil tussen de RTX4090 en de rest is.
Ik snap je. Maar daar kunnen we niet echt een conclusie uittrekken wat dat voor performance betekent denk ik zo.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
JeroenNietDoen schreef op dinsdag 8 november 2022 @ 19:52:
[...]

Ik snap je. Maar daar kunnen we niet echt een conclusie uittrekken wat dat voor performance betekent denk ik zo.
De performance weten we toch al? RTX 4070 Ti zit qua raster performance beneden RTX 3090 Ti niveau, dus reken op de prestaties tussen een RTX 3090 Ti en een RTX 3090 en de RTX 4080 zit op RTX 3090 Ti niveau +10 a 20% afhankelijk van de game, waar een RTX 4090 op +65% zit gemiddeld.

[ Voor 5% gewijzigd door Paprika op 08-11-2022 20:05 ]


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En onderstaande scores geven een eerste beeld van de RTX 4080 performance:

NVIDIA RTX 4080 tested in Geekbench

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
XWB schreef op dinsdag 8 november 2022 @ 20:20:
En onderstaande scores geven een eerste beeld van de RTX 4080 performance:

NVIDIA RTX 4080 tested in Geekbench
Op 1440P is dat iets meer dan 40% beter dan mijn 6900XT.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

De RTX4080 afgezet tegen de RTX3090Ti:
90,5% SM's (9728)
145% clock speed (2900MHz)
141% meer TFLOPS (56,4)
Misschien halen ze er dan toch 30-35% eruit. Iets beter dan 20% en dat maakt Nvidia hun zelf gepubliceerde benchmarks weer vreemd omdat ze daar zelf respectievelijk 24%, 9% en 16% verbetering vermelden.
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/rCGgBPASVdC2Djd2Y2iBT8-970-80.png
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/SkHMZZCGpcHJVwWta7QAL8-970-80.png
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/dvYzs3iwCzPMnPf9oFzxE8-970-80.png

Oh en userbenchmark dook op in zoekresultaten en dit prachtige stukje literaire verfijning wou ik toch even delen. Ik bedoel, de RTX4080 is nog niet eens uit en de copium dosis lijkt me al wat hoog. :+
The 4080 has an MSRP of $1,200 USD. Since PC gamers rarely buy AMD GPUs, Nvidia only have themselves to compete with. AMD continue to burn their credibility with PC gamers. Following a series of over-hyped releases which were heavily promoted on youtube, forums, reddit and twitter, consumers have little interest in the Radeon brand. As time goes on, AMD’s “Advanced Marketing” has a decreasing impact on consumers. Nvidia on the other hand remains focussed on novel goals such as frame consistency, game compatibility and driver stability. Consumers looking for better value should wait a few more months for the 4060 / 4070 models by which time AMD's 7900 series will also be heavily discounted.
https://gpu.userbenchmark.com/Nvidia-RTX-4080/Rating/4138

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 01:13
Okay :/

Duidelijk welke kant van de lijn die site staat...einde geloofwaardigheid :F

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
dierkx36 schreef op dinsdag 8 november 2022 @ 22:02:
[...]


Okay :/

Duidelijk welke kant van de lijn die site staat...einde geloofwaardigheid :F
Die waren ze, voor zover ze het ooit gehad hebben, jaren geleden al kwijt. Dit is niet iets nieuws ofzo. Die lui zijn al jaren aan het trollen.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Echt te bizar voor woorden wat die allemaal uitkramen. Ook als je op de links in de tekst klikt zie je nog veel meer van dit soort onzin.

Amd zou ze moeten aanklagen, gaat best ver dit... Had er geen idee van.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Sommige stukken over fora en youtube en tech sites klopt wel maar dat geld ook gewoon als het over Nvidia gaat maar dat is wel wat minder.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

dierkx36 schreef op dinsdag 8 november 2022 @ 22:02:
[...]


Okay :/

Duidelijk welke kant van de lijn die site staat...einde geloofwaardigheid :F
Zo gaat het al jaren. Het is inmiddels meer ter vermaak dan echt serieus die site. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 01:13
Dennism schreef op dinsdag 8 november 2022 @ 22:11:
[...]


Die waren ze, voor zover ze het ooit gehad hebben, jaren geleden al kwijt. Dit is niet iets nieuws ofzo. Die lui zijn al jaren aan het trollen.
DaniëlWW2 schreef op dinsdag 8 november 2022 @ 22:23:
[...]


Zo gaat het al jaren. Het is inmiddels meer ter vermaak dan echt serieus die site. :z
Okay, lees eigenlijk geen stukken daar :N kijk puur naar benches
Vandaar dat het nooit is opgevallen.

[ Voor 26% gewijzigd door dierkx36 op 08-11-2022 22:25 ]

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

dierkx36 schreef op dinsdag 8 november 2022 @ 22:24:
[...]


[...]


Okay, lees eigenlijk geen stukken daar :N kijk puur naar benches
Vandaar dat het nooit is opgevallen.
Nou niet meer doen dus. Ze manipuleren scores ook als AMD eens een beter product heeft dan Intel of Nvidia. Ze zijn ook verboden op de meeste grote Reddit pagina's. Als je een userbenchmark link plaats op bijvoorbeeld r/Intel of r/Nvidia dan verwijderd een bot meteen je reactie. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

redzebrax schreef op dinsdag 8 november 2022 @ 19:42:
Waar snap ik concept niet ? Je moet inderdaad wachten op je 2de frame anders kan je geen interpolatie doen.
Maar je interpolatie frame is klaar postprocessingstijd nadat je 2de frame er is.

Als je vergelijkt met je originele 30FPS:
1__________2___________3 __________ 4
Nieuwe is 60 FPS waarbij * delay postprocessing is
1__________*1,5 ___*2___ *2,5 ___*3___ *3,5
zoals jij het voorstelt:
1 _______________ *1.5 __*2 ____*2.5 __*3

edit sry aangepast
Vond het al wat raar de eerste keer dat ik het las :P.

Nee, de kadens is dat het gegenereerde frame precies tussen de andere twee in komt. Dat kan je voor elkaar krijgen doordat frame 2 in een buffer blijft staan tot dat frame 1.5 de deur uit is. Vandaar dat je 1 frame aan lag hebt. De situatie die jij omschrijft als wat ik bedoel bedoel ik helemaal niet. Als je dat op die manier zou doen zou je gigantische microstuttering krijgen.
Als een 4090 al 2.4ms bezig is met het genereren van een frame (wat jij voorstelt) lijkt dat mij niet heel erg goed nieuws voor de tragere kaarten; of is het een fixed function unit die niet verschilt tussen de snelle en trage kaarten? Dan nog vind ik 2.4ms erg veel voor het genereren van een frame, dat zou voor mijn gevoel echt niet meer mogen zijn dan de overhead van DLSS 2.

Laten we overeenkomen dat we hier niet overeenkomen (klinkt voor geen meter in het Nederlands).

Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 01:13
DaniëlWW2 schreef op dinsdag 8 november 2022 @ 22:28:
[...]


Nou niet meer doen dus. Ze manipuleren scores ook als AMD eens een beter product heeft dan Intel of Nvidia. Ze zijn ook verboden op de meeste grote Reddit pagina's. Als je een userbenchmark link plaats op bijvoorbeeld r/Intel of r/Nvidia dan verwijderd een bot meteen je reactie. :z
Okay :F

edit:

Zit effe hun "review" te lezen over de 5800x3D....je2u$ _O- _O- waar haal je het lef vandaan om dit soort onzin te schrijven 8)7

[ Voor 16% gewijzigd door dierkx36 op 08-11-2022 22:43 ]

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 10-09 20:28
Inderdaad een buffer. Ik ga toch nog op wat meer meetgegevens wachten om conclusies te trekken, hoe ze het juist geïmplementeerd hebben. Bij lagere FPS lijken ze een buffer te gebruiken bij hogere niet, als die meetwaarden correct zijn. Dat lijkt tegenstrijdig te zijn maar optimalisatie kan verschillende richtingen uitgaan.

[ Voor 42% gewijzigd door redzebrax op 08-11-2022 23:35 ]


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18:59
Sp3ci3s8472 schreef op dinsdag 8 november 2022 @ 22:31:
[...]


Vond het al wat raar de eerste keer dat ik het las :P.

Nee, de kadens is dat het gegenereerde frame precies tussen de andere twee in komt. Dat kan je voor elkaar krijgen doordat frame 2 in een buffer blijft staan tot dat frame 1.5 de deur uit is. Vandaar dat je 1 frame aan lag hebt. De situatie die jij omschrijft als wat ik bedoel bedoel ik helemaal niet. Als je dat op die manier zou doen zou je gigantische microstuttering krijgen.
Als een 4090 al 2.4ms bezig is met het genereren van een frame (wat jij voorstelt) lijkt dat mij niet heel erg goed nieuws voor de tragere kaarten; of is het een fixed function unit die niet verschilt tussen de snelle en trage kaarten? Dan nog vind ik 2.4ms erg veel voor het genereren van een frame, dat zou voor mijn gevoel echt niet meer mogen zijn dan de overhead van DLSS 2.

Laten we overeenkomen dat we hier niet overeenkomen (klinkt voor geen meter in het Nederlands).
Ik kan het niet meer terug vinden maar volgens mij zeiden ze in de LTT video dat ze van Nvidia gehoord hadden dat het tot 3 ms ging. Maar dit betekend niet dat het allemaal overhead is. Als de optical flow unit bijvoorbeeld fixed function is kan je die parallel laten draaien terwijl de kaart met andere dingen bezig is. Wel is het extra latency die je erbij krijgt.

Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 10-09 20:28
die 3ms komt dan dicht in de buurt van 2,4ms gemeten, als je daar al last van wil hebben zit rond de 200 FPS. Maar wat interessanter is, die optical flow units zitten ook in mindere mate in de oudere kaarten, gaat Nvidia daar ook gebruik van maken of krijgen we iets in het voorjaar van AMD, het gros van de kaarten wat gebruikt wordt is een pak ouder.

[ Voor 101% gewijzigd door redzebrax op 08-11-2022 23:51 ]


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18:59
redzebrax schreef op dinsdag 8 november 2022 @ 23:36:
die 3ms komt dan dicht in de buurt van 2,4ms gemeten, als je daar al last van wil hebben zit rond de 200 FPS. Maar wat interessanter is, die optical flow units zitten ook in mindere mate in de oudere kaarten, gaat Nvidia daar ook gebruik van maken of krijgen we iets in het voorjaar van AMD, het gros van de kaarten wat gebruikt wordt is een pak ouder.
Is het op de oudere kaarten ook een fixed function unit? Of wordt dat gewoon met compute gedaan? Kan even niets over vinden. Dit maakt namelijk wel uit voor de overhead die je krijgt. Wel kan ik vinden dat op de 4000 series optical flow berekeningen 2x zo snel gaan dus zit je bij de oude kaarten al op 5ms, misschien 6ms (afhankelijk hoeveel procent van de tijd aan de optical flow wordt besteed)

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18:59
Sp3ci3s8472 schreef op dinsdag 8 november 2022 @ 13:00:
[...]


Ja, maar ik heb het van hun podcast. Daar werden alleen Nvidia en Zotac genoemd.

[YouTube: Double your FPS for FREE!*** - Nvidia DLSS 3.0]
Echt het is soms bedroevend hoe slecht de informatie van hun analyses is. Aan het einde van de video, je kan frame gen aanzetten op 30FPS en je hebt geen input lag!! Soms kan ik mij ergeren aan de onzin die LTT post.
Je hebt minimaal 1 frame latency dus frame generation aanzetten op 30FPS zou ik nooi overwegen, want dit zou een extra +/-30ms extra latency geven tenopzichte van 30FPS met Reflex (in situaties met een cpu bottleneck zal de latency een beetje lager zijn).
Daarnaast denken ze dat de latency komt door de overhead van de interpolatie 8)7 8)7 8)7 . Serieus doen ze daar aan onderzoek of proofreaden?
Ze maken daar een gigantisch lab, maar als de kwaliteit dat naar buiten komt dit is dan skip ik het.
Ze doen inderdaad veel dingen fout in die video maar ook wat dingen goed. Zo hebben we bij nvidia bevestigd dat de interpolatie bij camera cuts inderdaad een bug is waar een fix voor uit komt. En ook hebben ze daadwerkelijk soort van a/b testing gedaan (maar wel met een laag aantal kandidaten), iets wat andere sites/youtube channels niet hebben. Vooral die test met 30fps native vs 60fps met fg laat ook zien dat er veel waarde is voor fg bij de toekomstige goedkopere kaarten in de 4000 serie.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Er loopt dus al een review om iets aan die 12VHPWR connector aan te gaan passen. Wat is niet duidelijk.
Afbeeldingslocatie: https://i.redd.it/fj49axb16xy91.png
https://www.reddit.com/r/...gineering_change_request/
https://pcisig.com/specifications/review-zone



Tweede is een round up van al bekende RTX4080 modellen waarbij herhaaldelijk RTX4090 koeloplossingen worden hergebruikt. Dan vermoed ik meteen al dat die 320W misschien wat optimistisch is...
https://www.tomshardware....ust-as-large-as-rtx-4090s

[ Voor 3% gewijzigd door DaniëlWW2 op 09-11-2022 10:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dat is positief toch? Dan komt er misschien een gereviseerde versie van die kabel.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 23:27
DaniëlWW2 schreef op woensdag 9 november 2022 @ 09:41:
Ja hoor, daar gaan we met de 12VHPWR. Er loopt dus al een review om iets aan die connector aan te gaan passen. Wat is niet duidelijk.
[Afbeelding]
https://www.reddit.com/r/...gineering_change_request/
https://pcisig.com/specifications/review-zone



Tweede is een round up van al bekende RTX4080 modellen waarbij herhaaldelijk RTX4090 koeloplossingen worden hergebruikt. Dan vermoed ik meteen al dat die 320W misschien wat optimistisch is...
https://www.tomshardware....ust-as-large-as-rtx-4090s
Dan ligt het volgens deze paper aan de kabel en niet de connector op de borden, of is het probleem op te lossen door een aanpassing aan connector de kabel te doen. Dat is nog niet met zekerheid te zeggen n.a.v. wat hier staat.

Goed dat de PCI-SIG, de verantwoordelijke voor de standaard, hier wat aan doet. Jammer dat Nvidia er nog steeds niets over heeft gemeld.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Een voedingsexpert kwam tot de conculussie dat het wel aan de stekker ligt maar niet aan het buigen.
ItalianStyle in "[NVIDIA GeForce RTX 40XX] Ervaringen & Discussie"

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
DaniëlWW2 schreef op woensdag 9 november 2022 @ 09:41:

Tweede is een round up van al bekende RTX4080 modellen waarbij herhaaldelijk RTX4090 koeloplossingen worden hergebruikt. Dan vermoed ik meteen al dat die 320W misschien wat optimistisch is...
https://www.tomshardware....ust-as-large-as-rtx-4090s
Dat zou op weinig slagen want zelfs de 4090 is vooral gelimiteerd door voltage en raakt in veel spellen niet aan de 450W. Als je dan kijkt naar de 4080 heeft die een pak meer stroom per SM dan de 4090. Het is niet heel typisch voor Nvidia om de lagere modellen veel hogere kloksnelheden te geven.

Heb je dan hetzelfde vermoeden bij de 7900 XTX? De 7900XTX TUF is immers groter dan de 4090 TUF en die laatste zou in principe 600W aan moeten kunnen.

Het hergebruik van koelers is iets dat je vaak terug ziet om, althans dit vermoed ik, kosten te besparen en snel een ontwerp op de markt te hebben. Later zie je dan een hoop revisies.

Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Afbeeldingslocatie: https://tweakers.net/i/ivfaQoeM5IkUPewiFKkEFbNXLWs=/800x/filters:strip_icc():strip_exif()/f/image/tqSjbELa47Jl5hTlRkTFmWHd.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/RTX4080-SPEEDWAY-PORTROYAL.jpg

Time Spy Extreme:
GeForce RTX 4090 19398 (100%)
GeForce RTX 4080 OC + Power Limit 15062 (78%)
GeForce RTX 4080 Power Limit 14200 (73%)
GeForce RTX 4080 13778 (71%)

GeForce RTX 3090 Ti 10709 (55%)
Radeon RX 6950 XT 10644 (55%)
GeForce RTX 3090 10293 (53%)
Radeon RX 6900 XT 9952 (51%)
GeForce RTX 3080 Ti 10042 (52%)
GeForce RTX 3080 12GB 9358 (48%)
Radeon RX 6800 XT 9203 (47%)
GeForce RTX 3080 10GB 8898 (46%)
Radeon RX 6800 7648 (39%)

Port Royal (100% ontbreekt?):
NVIDIA GeForce RTX 4090 24883 (98%)
NVIDIA GeForce RTX 4080 OC 18941 (75%)
NVIDIA GeForce RTX 4080 17650 (69%)

NVIDIA GeForce RTX 3090 Ti 14851 (58%)
NVIDIA GeForce RTX 3090 13642 (54%)
NVIDIA GeForce RTX 3080 Ti 13226 (52%)
NVIDIA GeForce RTX 3080 12GB 12151 (48%)
AMD Radeon RX 6950 XT 10788 (42%)
AMD Radeon RX 6900 XT 10398 (41%)
AMD Radeon RX 6800 XT 9536 (38%)
AMD Radeon RX 6800 7812 (31%)

Bij zowel Time Spy als Port Royal valt dus mooi te zien dat de 4080 inderdaad (weinig verrassend) < 75% zit van een 4090 als je beide zou OCen of beide stock laat.

RTX 4090 vs RTX 4080
Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
COD MW2: 137 FPS vs 127 FPS (+7.9%)

En ook in de games waar de CPU niet de limiterende factor is zie je dit weer terug.

https://videocardz.com/ne...-gaming-benchmarks-leaked

[ Voor 18% gewijzigd door Paprika op 09-11-2022 13:55 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Paprika Met deze cijfers valt de RTX4080 eigenlijk iets beter uit dan Nvidia suggereerde. Dat vind ik nogal opvallend omdat Nvidia marketing vaker "wat naar boven afronden". :P
Als het inderdaad ook 30-35% gaat worden over de RTX3090Ti dan zit de RTX4080 op de helft tussen de RTX3090Ti en RTX4090. Dat roept bij mij de vraag op: Hoe slecht is AD102 dat ze daar niet meer uithalen?

Tweede is dat ik de RT echt zwaar teleurstellend zou vinden gebaseerd op Port Royal. De RTX4080 zou daarin 64% sneller zijn dan de RX6950XT. Met AMD hun 50% per RA claim + 20% extra RA units kunnen ze dat zomaar helemaal goedmaken met de RX7900XTX.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Paprika schreef op woensdag 9 november 2022 @ 13:52:

RTX 4090 vs RTX 4080
Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
COD MW2: 137 FPS vs 127 FPS (+7.9%)

En ook in de games waar de CPU niet de limiterende factor is zie je dit weer terug.

https://videocardz.com/ne...-gaming-benchmarks-leaked
Misschien wel handig om hierbij te vermelden dat de 4090 getest is icm een i9-12900KF en de 4080 icm een Ryzen 7 7600X :)

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dit, dit is dus waarom ik al jaren probeer om (voornamelijk) Nvidia hun onzin te benoemen...
Niet eens alle AIB's hebben zo te zien een model op MSRP en kijk eens wat er extra gevraagd word voor een iets beter model. Uiteraard is ASUS ook helemaal bezopen bezig. Daar lijken ze alleen door Nvidia gedwongen te zijn om toch een MSRP model te hebben, maar de TUF OC is $300 meer. Dan weet je al hoe goed het niet OC model te krijgen is.

Dit zijn toch geen prijzen meer. Zeker omdat ik allang heb doorgerekend hoeveel duurder Lovelace chips ongeveer zullen zijn tegenover Ampere. Het is absoluut geen verantwoording voor honderden dollars duurder. :N
ASUS ROG STRIX OC: $1,549.99
ASUS TUF OC: $1,499.99
ZOTAC AMP AIRO: $1,399.99
MSI SUPRIM X: $1,399.99
GIGABYTE AORUS MASTER: $1,349.99
MSI GAMING X TRIO: $1,324.99
MSI VENTUS 3X OC: $1,279.99
GIGABYTE GAMING OC: $1,269.99
GIGABYTE EAGLE OC: $1,239.99
PNY XLR8 VERTO: $1,199.99
ASUS TUF: $1,199.99
ZOTAC TRINITY: $1,199.99
GIGABYTE EAGLE: $1,199.99
https://videocardz.com/ne...pricing-from-1199-to-1549

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
Asus is ook wel echt van het padje af de laatste jaren. Doe die prijzen maar keer 1.25 en je hebt de euro prijzen.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Dus eigenlijk heb je voor net onder de 2000 euro al een 4080 strix.....koopjuh

Voor 1450 al een 4080, vroeger kon je er een 3080 naast zetten in sli, nu neem je de restwaarde van de oude 3080, leg je het geld bij van een nieuwe (nog steeds te dure) 3080, en dan heb je de 4080.. mits je nog een beetje bij betaald.

Zijn gek geworden daar.

[ Voor 5% gewijzigd door meljor op 10-11-2022 17:43 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Ik kan daadwerkelijk niet bevatten waarom mensen nog altijd maar blind ASUS producten blijven kopen. Ze koppelen ergens een nieuwe naam aan, marketen dit een jaartje of drie als een enthousiast productlijn en verlagen het daarna naar de standaarden van mainstream producten zonder de prijs hierop aan te passen en mensen trappen er nog in ook. Overal waar je komt wordt nog altijd beweerd dat alles wat ROG en/of STRIX in de naam heeft de concurrent van een EVGA KINGPIN, GALAX Hall of Fame of MSI Lightning (RIP?) product is, terwijl het in werkelijkheid hun mainstream line is geworden. Zo zijn de STRIX kaarten meestal (enkele uitzondering zijn er ook geweest) goede producten, maar het is helemaal geen binned product, maar dat kan ook niet bij de series waar je de meeste van verkoopt, waar juist KINGPIN en Hall of Fame producten wel echt limited editions zijn (< 500 aantallen). Hun Chief Marketing Officer verdient hopelijk gigantische bonussen, want het succes van alles wat de marketing afdeling uit weet te spugen is waar ASUS hun miljarden door verdient.

Wie gaat er nou 30% meer betalen voor dezelfde kaart als een 4080 FE die op z'n best 2-3% meer performance haalt als je de FE versie stock laat en qua performance zal de FE hetzelfde zijn als je deze ook overclockt, en dan heb je voor 100 euro meer gewoon een 4090 FE die dan ook echt 33% sneller is en waarschijnlijk richting de 35-40% gaat zitten bij een overclock.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Oh en:
ASUS TUF OC: $1,499.99
ASUS TUF: $1,199.99
De niet-OC versie bestaat ook alleen maar voor de "brochure" zo te zien. Waarom zou ASUS deze verkopen voor $1200 als ze door een andere BIOS mee te geven en de letters OC op een doosje printen een marge van $300 in de zak kunnen steken. }:|

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Paprika schreef op donderdag 10 november 2022 @ 19:08:
Oh en:

[...]

De niet-OC versie bestaat ook alleen maar voor de "brochure" zo te zien. Waarom zou ASUS deze verkopen voor $1200 als ze door een andere BIOS mee te geven en de letters OC op een doosje printen een marge van $300 in de zak kunnen steken. }:|
Omdat Nvidia eist dat er een versie wordt aangeboden op msrp. Dat die vervolgens zelden tot nooit leverbaar is....tja

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 23:07
meljor schreef op donderdag 10 november 2022 @ 19:16:
[...]


Omdat Nvidia eist dat er een versie wordt aangeboden op msrp. Dat die vervolgens zelden tot nooit leverbaar is....tja
Je kunt het ook positief zien. Er is in ieder geval enige moeite die erin gestoken word om de boel onder controle te houden qua prijzen. En dat is bijzonder lastig in het mijnenveld met allerlei instanties die miljoenenboetes kunnen uitdelen m.b.t. prijsafspraken.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het is gewoon toegestaan dat de fabrikant maximumprijzen afdwingt. Alleen geen minimumprijzen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • M-spec
  • Registratie: September 2004
  • Niet online
Ik kijk er niet echt meer van op, die prijzen, maar vraag me wel af hoeveel ze volgend jaar nog denken te verkopen. De high-end modellen blijven sowieso een luxeproduct. Dan heb je een van de snelste videokaarten en zijn andere componenten misschien aan een upgrade toe; met de hogere prijs van een OC-model is elke FPS boven die van een FE je kostbaar. Maargoed, het komt uiteindelijk toch op vraag en aanbod neer en als het een keer niet goed verkoopt is het jammer maar helaas.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 23:07
Nevermind

[ Voor 95% gewijzigd door stylezzz op 10-11-2022 21:35 . Reden: Offtopic ]


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 12-09 11:14

CMT

Paprika schreef op woensdag 9 november 2022 @ 13:52:
[Afbeelding]

[Afbeelding]

Time Spy Extreme:
GeForce RTX 4090 19398 (100%)
GeForce RTX 4080 OC + Power Limit 15062 (78%)
GeForce RTX 4080 Power Limit 14200 (73%)
GeForce RTX 4080 13778 (71%)

GeForce RTX 3090 Ti 10709 (55%)
Radeon RX 6950 XT 10644 (55%)
GeForce RTX 3090 10293 (53%)
Radeon RX 6900 XT 9952 (51%)
GeForce RTX 3080 Ti 10042 (52%)
GeForce RTX 3080 12GB 9358 (48%)
Radeon RX 6800 XT 9203 (47%)
GeForce RTX 3080 10GB 8898 (46%)
Radeon RX 6800 7648 (39%)

Port Royal (100% ontbreekt?):
NVIDIA GeForce RTX 4090 24883 (98%)
NVIDIA GeForce RTX 4080 OC 18941 (75%)
NVIDIA GeForce RTX 4080 17650 (69%)

NVIDIA GeForce RTX 3090 Ti 14851 (58%)
NVIDIA GeForce RTX 3090 13642 (54%)
NVIDIA GeForce RTX 3080 Ti 13226 (52%)
NVIDIA GeForce RTX 3080 12GB 12151 (48%)
AMD Radeon RX 6950 XT 10788 (42%)
AMD Radeon RX 6900 XT 10398 (41%)
AMD Radeon RX 6800 XT 9536 (38%)
AMD Radeon RX 6800 7812 (31%)

Bij zowel Time Spy als Port Royal valt dus mooi te zien dat de 4080 inderdaad (weinig verrassend) < 75% zit van een 4090 als je beide zou OCen of beide stock laat.

RTX 4090 vs RTX 4080
Forza Horizon 5: 147 FPS vs 127 FPS (+15.7%)
Shadow of the Tomb Raider: 179 FPS vs 129 FPS (+ 38.8%)
Red Dead Redemption 2: 129 FPS vs 99 FPS (+30.3)
Cyberpunk 2077: 111 FPS vs 83 FPS (33.7%)
COD MW2: 137 FPS vs 127 FPS (+7.9%)

En ook in de games waar de CPU niet de limiterende factor is zie je dit weer terug.

https://videocardz.com/ne...-gaming-benchmarks-leaked
Ik moest even de geheugenklok controleren, want ik ben waarden gewend van 2000MHz (bij RNDA2).
Maar het is dus echt 1400-1500MHz bij de RTX4080 !?
Sommige spellen blijken wel gedeeltelijk CPU bound te zijn op 4k voor de RTX4090, waaronder Forza 5. De knuppel heeft het namelijk met low settings getest ><. Maar voor de rest geeft het wel een goede indicatie waar de RTX4080 gepositioneerd kan worden.

De vraagprijs is alleen totaal niet te verantwoorden. Het is dat dit al voorspelt was, anders had ik er hard om gelachen. $/FPS dat stijgt i.p.v. daalt ten opzichte van een vorige generatie (RTX3080) 8)7
Nog een beetje meer en de huidige high end tier heeft het halo prijskaartje van de 3090.
Het zal mij benieuwen of ze de 'gamer' / consument hiervoor weten te strikken.

Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 23:00
DaniëlWW2 schreef op donderdag 10 november 2022 @ 17:18:
En dit, dit is dus waarom ik al jaren probeer om (voornamelijk) Nvidia hun onzin te benoemen...

Dit zijn toch geen prijzen meer. Zeker omdat ik allang heb doorgerekend hoeveel duurder Lovelace chips ongeveer zullen zijn tegenover Ampere. Het is absoluut geen verantwoording voor honderden dollars duurder. :N

[...]


https://videocardz.com/ne...pricing-from-1199-to-1549
En dan enkele mensen in het levertijden & prijzen topic die vonden dat het maar jaloers gebash was naar 4090 kopers dat er zo over de prijzen gezeurd werd niet begrijpend dat het om de gehele productstack gaat :F

Enfin, in een highend build is dus voortaan geen budget meer voor een highend Nvidia GPU. Moet er nu voor de best buy guide een nieuwe categorie verzonnen worden? :+

[ Voor 3% gewijzigd door JeroenNietDoen op 11-11-2022 06:19 ]


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
CMT schreef op donderdag 10 november 2022 @ 23:28:
[...]

Ik moest even de geheugenklok controleren, want ik ben waarden gewend van 2000MHz (bij RNDA2).
Maar het is dus echt 1400-1500MHz bij de RTX4080 !?
GDDR6x stuurt 8 bits per klokcyclus dus voor de 4080: 1400* 2* 8 = 22400 = 22,4 Gbps. GDDR6 stuurt er 4 per klokcyclus dus op 2000mhz: 2000*2*4 = 16000 = 16 Gbps.

Acties:
  • +5 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ah kijk eens aan. Er zijn volgens Nvidia twee fabrikanten die 12VHPWR adapters voor ze maken. Vanuit Nvidia is ook gesproken met Igor over het probleem.

De fabrikanten zijn NTK en Astron en met die laatste lijkt het dus niet goed te zitten. Astron zou de hoofdaannemer zijn en daar zijn twee problemen. Eerste is de manier hoe ze de draden hebben gesoldeerd. Tweede en veel belangrijker is hoe ze de pinnen hebben gemaakt alsmede hoe ze het plastic hebben afgewerkt. Want het lijkt dus een combinatie van hun pin ontwerp en het gebruikte materiaal van de connector te zijn. NTK connectoren hun pinnen zitten beter vast, gaan makkelijker in je socket en klikken beter en luider.

Tweede is dat de aanpassing aan de connector zou gaan om het verkorten van de vier sense pins zodat die alleen nog werken als de connector daadwerkelijk helemaal aangesloten is.

Zie ook: https://www.igorslab.de/e...ackgrounds-investigative/

Laatste is dat voor de RTX4070Ti een nieuwe 2x 8 pin naar 12VHPWR gepland staat. Die zal alleen door NTK gemaakt worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 14 november 2022 @ 14:54:
Tweede is dat de aanpassing aan de connector zou gaan om het verkorten van de vier sense pins zodat die alleen nog werken als de connector daadwerkelijk helemaal aangesloten is.
Dat had ik een tijdje terug ook geopperd als mogelijke oplossing.

Het lijkt me nu in elk geval gewenst dat Nvidia bekend maakt welk percentage van de de kabels van welke fabrikant komt en wat de leverancier van kabels was bij de probleemgevallen. Op basis daarvan kun je dan wellicht bepalen of de Astron's het probleem zijn, al zijn er bij deze lage aantallen vermoedelijk niet zo'n sterke conclusies te trekken op basis van de statistiek.

Als de Astron's inderdaad het probleem zijn, zouden ze een recall moeten doen, waarbij mensen een vervangen NTK-kabel krijgen. Bovendien zouden de connector-specificaties dan aangepast moeten worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 12-09 11:14

CMT

Maar zelfs als daar een verband in ontdekt wordt, dan is nog niet uit te sluiten dat het toch niet een samenloop van omstandigheden is.
Ik blijf erbij dat ik het onverantwoord vind om evt. 600W continue door zo'n kleine stekker te jagen. De meeste gevallen die we nu gezien hebben, zullen bij zo'n 300-450W zijn geweest.

En dan die temperatuurmetingen met een warmtecamera dat soms als bewijs aangevoerd wordt..
Het is geen heilige graal methode om temperatuur te meten, want isolatie, absorptie en reflectie van warmte kunnen flinke valse waarden geven met zo'n ding. IgorLabs had daar laatst nog een artikel over geschreven.

Ga in ieder geval niet met smeervet lopen prutsen om de connector er makkelijker in te krijgen, dielectric (waarschijnlijk op siliconen basis) of niet. Je wilt absoluut geen vet per ongeluk op de contacten hebben.
Het verbaast mij eigenlijk dat Jon Gerow dat als suggestie heeft gegeven.
Mijn inzien een noodmiddel en alleen voor degene die goed weten waar ze mee bezig zijn.

Edit:
De pagina waarop deze tip stond lijkt te zijn verwijderd. Misschien vanwege bovengenoemde reden en mogelijke aanspraak.

[ Voor 6% gewijzigd door CMT op 14-11-2022 18:12 ]


Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Deze was nog niet gepost, toch?

NVIDIA GeForce RTX 4080 is 19% faster than RTX 3090 Ti in the first gaming review

Conveniently, the creator provides the average performance results from games such as Forza Horizon 5, Cyberpunk 2077, Borderland 3, Total War Troy or Shadow of the Tomb Raider, all in one chart. Those games were tested at 4K resolution.

According to the results, RTX 4080 appears to be 19% faster than RTX 3090 Ti PGF (the flagship ZOTAC model) and round 23% slower than RTX 4090. What should be noted here is that both RTX 3090 Ti and RTX 4090 were tested on a different system (with DDR5-6800 memory), whereas RTX 4080 on DDR5-6200 powered PC. However, they were all equipped with Core i9-13900K CPU.

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/4080-CYBER.jpg

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/4080-FORZA5.jpg

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/4080-SHADOW.jpg

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/RTX4080-3DMARK-1.jpg

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/RTX4080-POWER-3.jpg

Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/11/RTX4080-POWER-4.jpg

https://videocardz.com/ne...n-the-first-gaming-review

Over 1.5 uur meer :+.

[ Voor 6% gewijzigd door Paprika op 15-11-2022 13:26 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Paprika Nee maar ik had die wel gezien. Ik weet alleen niet in hoeverre het te vertrouwen is dus ik heb het erbij gelaten. Was verder ook druk bezig met werk, de 12VHPWR en RDNA3. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar is de RTX4080.
En het lijkt rond de 20% sneller dan de RTX3090Ti te zijn, maar bij een aantal publicaties halen ze dat niet eens gemiddeld. RT lijkt nauwelijks meer winst te zijn dan raster over de RTX3090Ti.
https://www.techpowerup.c...-founders-edition/32.html
https://www.computerbase....und_ohne_rt_in_3840__2160
review: Nvidia GeForce RTX 4080 - De enige echte 4080

[ Voor 41% gewijzigd door DaniëlWW2 op 15-11-2022 15:06 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Ik dacht even wtf is er met de prijs/performance gebeurt bij TPU, maar ze hebben de 4090 als $2400 geplaatst, tja. De 4090 is de betere koop, maar niet als je deze prijs neerzet nee :+.

https://www.techpowerup.c...-founders-edition/33.html

Afbeeldingslocatie: https://tweakers.net/i/Aa5Co_16LVP13vOIupjliJTSAcs=/800x/filters:strip_exif()/f/image/HQNlf0oIu1uUeB7lP02OIisQ.png?f=fotoalbum_large

Afhankelijk van een eventuele CPU bottleneck welke beter is dus, maar ik gok dat de 4090 qua pricing meer future-proof gaat zijn en dus beter z'n waarde gaat houden.

[ Voor 62% gewijzigd door Paprika op 15-11-2022 15:16 ]


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 23:00
DaniëlWW2 schreef op dinsdag 15 november 2022 @ 15:04:
En daar is de RTX4080.
En het lijkt rond de 20% sneller dan de RTX3090Ti te zijn, maar bij een aantal publicaties halen ze dat niet eens gemiddeld.
Ik vergelijk hem liever met zijn voorganger, de 3080. Dan zien we op 1440P gemiddeld 40% performance increase, voor 2 keer de prijs.

€1469,-, ik weet niet zo goed wat ik er van moet vinden. Lachen of huilen?

Acties:
  • +5 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
JeroenNietDoen schreef op dinsdag 15 november 2022 @ 15:16:
[...]
€1469,-, ik weet niet zo goed wat ik er van moet vinden. Lachen of huilen?
100% huilen natuurlijk. Een prijsverdubbeling ten opzichte van de 3080 is simpelweg onaanvaardbaar.

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
JeroenNietDoen schreef op dinsdag 15 november 2022 @ 15:16:
[...]
€1469,-, ik weet niet zo goed wat ik er van moet vinden. Lachen of huilen?
Huilen van het lachen en vervolgens koop je van AMD :P

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 23:00
Ludewig schreef op dinsdag 15 november 2022 @ 15:29:
[...]


Huilen van het lachen en vervolgens koop je van AMD :P
Mijn laatste Radeon dateert uit 2005 en sindsdien altijd Nvidia zo om de generatie. Ik heb elke 3 jaar €2300,- budget via PC prive regeling, hoef dus niet op tientje meer of minder te kijken, maar dit gaat wat mij betreft te ver.

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
Een beetje zoals ik verwacht had dat de 4080 niet vaak z'n TGP haalt in tegenstelling tot Ampere die altijd aan de TGP limiet zat. Ik snap echt niet waarom Nvidia niet gewoon de TGP 20% naar beneden haalt voor de 4080 & 4090 want dit oogt gewoon veel beter ten opzichte van AMD en je verliest er bijna niets door.

Het is alsof ze zelf niet goed doorhadden hoe efficiënt TSMC 5 is.

Afbeeldingslocatie: https://tweakers.net/i/QIveAGF9ZR7wpxaZkQYcQf2co_g=/800x/filters:strip_exif()/f/image/o99bV7KBKzEqwnTvx11p6Zc0.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:38
Afbeeldingslocatie: https://www.techpowerup.com/forums/attachments/1668523612891-png.270059/

Hier is de > 33% gewoon zichtbaar door geen CPU bottleneck.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

GN is lekker kritisch:

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 ... 124 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.