Acties:
  • +2 Henk 'm!

  • Overspark
  • Registratie: Maart 2010
  • Laatst online: 11:51
Prijs/prestatie is leuk, maar er zijn natuurlijk veel meer redenen om voor een bepaald merk te kiezen. Als je belang hecht aan RT performance, DLSS, frame generation, VR performance, driver ervaring (subjectief) en een G-Sync monitor hebt dan maakt het niet zo veel uit als AMD betere prijs/prestatie kaarten heeft, je zult toch vrijwel automatisch voor een Nvidia kaart kiezen in het huidige klimaat. Tenzij de verschillen wel heel extreem worden natuurlijk, maar dat zijn ze al een tijdje niet meer geweest.

Overigens vind ik dat je AMD vs Intel wel heel erg los moet zien van AMD vs Nvidia (vs Intel). Dat zijn totaal verschillende markten met andere overwegingen en andere ervaringen. Als je bijvoorbeeld stroomgebruik tijdens gaming als argument kiest kan je het beste een AMD CPU met een Nvidia GPU combineren. En voor stroomgebruik bij idle gelden weer andere overwegingen, daar is Intel met z'n CPU's juist heel goed in, zeker als je de idiotere CPU's aan de bovenkant van de line-up negeert. Maar voor Intel Arc GPU's is dat weer een stuk ingewikkelder, dan kan je beter een iGPU gebruiken. Etc etc etc. Het is zelden zo dat 1 merk in verschillende markten dezelfde ervaring biedt.

Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Overspark schreef op vrijdag 2 juni 2023 @ 16:31:
Prijs/prestatie is leuk, maar er zijn natuurlijk veel meer redenen om voor een bepaald merk te kiezen. Als je belang hecht aan RT performance, DLSS, frame generation, VR performance, driver ervaring (subjectief) en een G-Sync monitor hebt dan maakt het niet zo veel uit als AMD betere prijs/prestatie kaarten heeft, je zult toch vrijwel automatisch voor een Nvidia kaart kiezen in het huidige klimaat. Tenzij de verschillen wel heel extreem worden natuurlijk, maar dat zijn ze al een tijdje niet meer geweest.
Ik had misschien beter "bang for buck" kunnen zeggen of "waar voor je geld". Want dit is natuurlijk zeker waar, maar hoeveel belang je hecht aan feature X of Y varieert ook weer sterk per persoon. Er zit bijvoorbeeld ook weer een wereld van verschil tussen "RT is een leuke pre waar ik wel mee wil spelen als het niet teveel kost, maar verder een gimmick" vs. "als een kaart geen goede framerates haalt in Cyberpunk met alle toeters en bellen aan hoef ik hem niet". Ook dit is op zich niks nieuws -- vroeger was het bij ieder nieuw snufje in DirectX dat de makers over elkaar heen moesten buitelen om aan te geven hoe goed zij het wel niet ondersteunden ten opzichte van de concurrent. Hoeveel het dan toevoegt moet je als consument zelf bepalen.

Wel is het nu zo dat Nvidia op dit vlak duidelijk meer een voortrekkersrol aan het spelen is bij het introduceren van nieuwe dingen en AMD een reactieve houding heeft (en als AMD dan iets heeft dat Nvidia niet heeft adverteren ze het niet of nauwelijks, terwijl Nvidia het van de daken schreeuwt).

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:07
Ik vond de amd microstuttering echt een kwalijke zaak , vooral omdat er niets of erg weinig over gemeld werd in reviews. Kocht destijds 2x hd5770 die beter zouden presteren dan een hd5870.

Helaas voelde het alleen soepel bij zeer hoge fps waardoor je net zo goed met 1 kaart kon draaien want dan voelde het nog steeds beter dan met 2.

Uiteindelijk vrij vlot weer verkocht en een 5870 alsnog gehaald, dat was een super fijne kaart.

Verder heb ik met beide merken prima ervaringen maar kom ik iets vaker bij amd uit tegenwoordig.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op vrijdag 2 juni 2023 @ 17:19:
Ik vond de amd microstuttering echt een kwalijke zaak , vooral omdat er niets of erg weinig over gemeld werd in reviews. Kocht destijds 2x hd5770 die beter zouden presteren dan een hd5870.

Helaas voelde het alleen soepel bij zeer hoge fps waardoor je net zo goed met 1 kaart kon draaien want dan voelde het nog steeds beter dan met 2.

Uiteindelijk vrij vlot weer verkocht en een 5870 alsnog gehaald, dat was een super fijne kaart.

Verder heb ik met beide merken prima ervaringen maar kom ik iets vaker bij amd uit tegenwoordig.
Dat komt waarschijnlijk ook omdat microstuttering niet getest werd. Destijds werd 1% lows ook niet getest. Als ik het me goed herinner, had je destijds nog veel gemiddelde en maximale framerate. Verder waren zowel CF als SLI altijd wel gevoelig. Van wat ik me kan herinneren, gingen er heel wat verhalen en ervaringen rond, waardoor je er niet echt een touw aan kon knopen. En tegen de tijd dat er beter getest werd, begonnen CF en SLI al uit te sterven. :)'

Ik weet nog dat ik er wel eens over dacht, maar dat alle tegenstrijdige verhalen me juist overtuigde gewoon een high end videokaart te kopen. Die waren destijds gewoon betaalbaar. :P ;(

[ Voor 7% gewijzigd door DaniëlWW2 op 02-06-2023 17:40 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Paprika schreef op vrijdag 2 juni 2023 @ 16:22:
[...]
Wat een beter en slechter product zal zijn in het oog van de ene persoon kan prima een beter product zijn voor de ander.
Inderdaad, maar anderzijds is niet elk product voor evenveel mensen een goede aankoop. Het is wel degelijk een kwaliteit om voor veel consumenten het betere product te zijn en voor een massaproduct als een GPU is het een noodzakelijkheid.

En met name bij upgrade-markten, wat de GPU-markt grotendeels is, zijn er minimaal drie opties:
- Upgraden naar een bepaalde kaart van Nvidia
- Upgraden naar een bepaalde kaart van AMD
- Niet upgraden

Die laatste optie moeten de fabrikanten verslaan om hun product een beetje goed te verkopen. Het is niet slechts een strijd om de koper te laten kiezen voor jou ipv de concurrent, maar überhaupt een strijd om de consument te verleiden tot een aankoop.

Om te bepalen of iets een goed product is, kijk ik naar realistische scenario's waar fabrikanten het normaal van moeten hebben. Dan concludeer ik dat de meeste kaarten uit de 4000-serie voor veel minder mensen een logische aankoop zijn dan vergelijkbare kaarten van vorige generaties. Dan noem ik het dus een slecht product.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
napata schreef op vrijdag 2 juni 2023 @ 09:18:
[...]

De cijfers laten wel degelijk een zekere loyaliteit zien in mijn ogen. Als je terug moet gaan naar de X800 van 20 jaar geleden voor een voorbeeld waar een betere series van AMD ook meer marktaandeel had dan zegt dit al genoeg. Sinds 2007 zie ik toch een redelijk consistent patroon met Nvidia die veel meer marktaandeel heeft ondanks soms gewoon veel slechtere producten. Volgens jouw zienswijze heeft AMD al gewoon 15 jaar slechtere producten...
Ik noemde X800 als een van de 20% voorbeelden. Voor 10% voorbeelden hoef je minder ver terug te gaan voor AMD: HD5000, RX400. En voor Nvidia zijn dat Geforce 9 / 200, GTX 900 en ook RTX 3000.

En ik zeg niet dat AMD 15 jaar slechte producten heeft. Ik zeg dat consumenten onbetrouwbaar zijn en makkelijk tussen de 2 overstappen.
napata schreef op vrijdag 2 juni 2023 @ 09:18:
Zoals al eerder aangehaald maar de 200/300 series was gewoon veel beter dan de 700/900 series van Nvidia en toch zie je gewoon het marktaandeel van AMD kelderen na de release van de 900 series. Zo zijn er nog voorbeelden: de ATI 4000 vs 200 series, AMD 7000 series vs 600. Tot Vega had AMD in mijn ogen vaak betere producten en ze misten ook geen features zoals nu. Je had toen nog gratis VRR ook tegenover de kostelijke G-sync.
Ik weet niet of de 200/300 zo goed waren als je zegt. Zo te zien versloeg een GTX 980, een kaart uit Sep 2014 (28 nm) de RX 390X, een kaart uit Jun 2015 (28 nm). Dus laat staan de RX 200 series.

https://www.techspot.com/...force-gtx-1070/page5.html

Ik zie in de grafiek dat HD 4000 het niet slechter deed vs 200 series, 7000 ook niet vs 600, . Ik respecteer je mening als je vind dat bepaalde Radeon series beter waren dan Geforce, ik heb ze niet allemaal in detail gevolgd. Maar ik ben het niet met je eens dat gamers Radeon onterecht links laten liggen. De prijs/performance bij Radeon is soms beter, maar vaak heeft Geforce dan weer features die Radeon niet heeft.

Ik merk ook dat Nvidia vaak beter en sneller in de uitvoering is, en dat AMD steken heeft laten vallen. Dat doet echter niets af aan mijn argument: consumenten zijn onbetrouwbaar, en daarom richt AMD zich liever op APU's en iGPU's voor consoles en laptops. Ze zouden meer RDNA2 geproduceerd kunnen hebben en meer in marketing gestopt kunnen hebben, maar ik begrijp het wel dat ze dat niet doen: Nvidia vecht er te hard voor. En met consumenten verdien je lange termijn minder dan bijvoorbeeld data center.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
Ludewig schreef op vrijdag 2 juni 2023 @ 11:09:
[...]


Dat hoeft niet te komen door overstappers, maar kan ook komen door klanten die al loyaal zijn aan een merk, maar hun aankoop uitstellen/versnellen.

Om een voorbeeld te geven uit een ander domein: bij de Amerikaanse presidentsverkiezingen zijn de campagnes er meestal niet zozeer erop gericht om te zorgen dat stemmers overstappen van de Republikeinen naar de Democraten of omgekeerd, maar vooral om te zorgen dat de mensen die zichzelf al zien als supporter van je eigen partij naar de stembus gaan en/of dat de supporters van de andere partij thuis blijven. Het blijkt namelijk heel lastig om mensen over te halen om over te stappen en relatief veel makkelijker om ze bijvoorbeeld boos te maken zodat ze gaan stemmen om de andere partij een hak te zetten.

Bij Nvidia zie je ook dat Jensen wanneer de verkopen tegenvallen in de marketing niet zozeer de focus legt op hoe zijn producten beter zijn dan de concurrent, maar dat het slim is voor loyale klanten om nu te upgraden. Zie de befaamde uitspraak van Jensen bij de release van de 3000-serie dat het volgens hem nu wel logisch was om te upgraden vanaf een 1000-kaart.

Vergeet ook niet dat de procentuele grafieken die je laat zien impliceren dat een verlies voor de 1 altijd winst voor de ander is, maar dat is een visuele illusie. Als bijvoorbeeld Nvidia in een kwartaal van 6 miljoen verkochte kaarten naar 4 miljoen zou gaan, en AMD stabiel blijft op 2 miljoen, dan stijgt het marktaandeel van AMD van 25% naar 33%. Maar in werkelijkheid heeft AMD dan niks meer verkocht.


[...]


10% is natuurlijk niet zoveel en dat betekent alsnog dat wanneer AMD een generatie uitbrengt die even goed of beter is dan Nvidia, ze daar veel minder van profiteren dan wanneer Nvidia iets uitbrengt met dezelfde kwaliteit.

En het is natuurlijk altijd zo dat er een groep is die niet loyaal is en makkelijk overstapt, maar dat is een relatief kleine minderheid van de kopers. Overigens kan die groep soms juist profiteren van de irrationaliteit van de meeste kopers, doordat de underdog zijn product lager moet beprijzen om te verkopen dan wat redelijk zou zijn gezien de kwaliteiten van het product. Dus kun je als niet-loyale koper een relatief goedkoop product kopen.
toon volledige bericht
10% is wel veel, en een paar kwartalen is een korte periode van variatie. Eventuele merk trouwheid van consumenten maakt de inkomsten alleen nog maar verder onbetrouwbaar. Ik denk de meerderheid gewoon de betere videokaart wil kopen, niet de minderheid.

En als het product van AMD de underdog is, dan presteren ze dus minder en moeten ze de prijs verlagen, zodat ze op prestatie/prijs kunnen concurreren. Wederom om te verkopen aan gamers, die dus gevoelig zijn voor features, maar ook voor prestatie/prijs. Beide aspecten maken gamers onvoorspelbaar en onbetrouwbaar qua verkoop.

Er zullen vast trouwe gamers tussen zitten. Maar feit blijft dat discrete GPU marktaandeel meer fluctueert dan andere chips.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
In hoeverre die bedrijven "loyaal" zijn aan hun toeleveranciers is weer een andere vraag. Feit is natuurlijk dat er niemand anders momenteel zulke APUs levert. Maar als Intel dat wel gaat doen, is er toch een kans dat je in één keer een gigantisch gedeelte van je omzet kwijt bent, en dat is het risico van focussen op 1/2 afnemers.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op vrijdag 2 juni 2023 @ 18:42:
[...]
10% is wel veel, en een paar kwartalen is een korte periode van variatie.
Zo'n verschil kan makkelijk ontstaan door een release van een populair nieuw product (zeker als mensen hun aankopen in aanloop van die release gaan uitstellen), voorraadcorrecties, een flinke marketingpush, etc. Vergeet ook niet dat deze grafieken meestal niet de daadwerkelijk verkopen tellen, maar de leveringen aan de verkoopkanalen.
Eventuele merk trouwheid van consumenten maakt de inkomsten alleen nog maar verder onbetrouwbaar.
Juist niet, want dan stort de verkoop niet totaal in wanneer een matig of zelfs slecht product wordt gelanceerd. Merktrouwheid dempt de variatie in verkopen.
Ik denk de meerderheid gewoon de betere videokaart wil kopen, niet de minderheid.
Dat is natuurlijk een dooddoener. De vraag is hoe ze 'beter' definiëren. Als dat 'Nvidia = beter' is, waarbij dat niet voorkomt uit een daadwerkelijke analyse van de kwaliteiten van het product, dan is dat dus merktrouwheid.
Beide aspecten maken gamers onvoorspelbaar en onbetrouwbaar qua verkoop.
Het is maar waar je het mee vergelijkt. AMD heeft nu vrij betrouwbare en relatief voorspelbare leveringen aan Sony en MS, maar als die fabrikanten besluiten om over te stappen naar een andere leverancier zijn ze die gigantische aantallen is 1 keer kwijt.

De consumentenverkopen variëren misschien wat meer op korte termijn, maar op lange termijn is het juist stabieler.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op vrijdag 2 juni 2023 @ 18:36:
[...]


Ik noemde X800 als een van de 20% voorbeelden. Voor 10% voorbeelden hoef je minder ver terug te gaan voor AMD: HD5000, RX400. En voor Nvidia zijn dat Geforce 9 / 200, GTX 900 en ook RTX 3000.

En ik zeg niet dat AMD 15 jaar slechte producten heeft. Ik zeg dat consumenten onbetrouwbaar zijn en makkelijk tussen de 2 overstappen.
RX400 haar meerwaarde over de GTX1060 was grotendeels Freesync.
De HD5870 vs. GTX480 was wel een dingetje. Niet alleen wat de HD5870 veel eerder gelanceerd (duurde wel maanden voordat ze verkrijgbaar werden), maar het verschil in vermogen was gigantisch voor die 15% sneller van de GTX480. Maar toch verkocht Nvidia nog steeds meer met Fermi. En dat was eigenlijk niet anders dan de generatie ervoor met HD4000 vs. GTX200 series.
Ik weet niet of de 200/300 zo goed waren als je zegt. Zo te zien versloeg een GTX 980, een kaart uit Sep 2014 (28 nm) de RX 390X, een kaart uit Jun 2015 (28 nm). Dus laat staan de RX 200 series.
R9 390X was dan ook een rebrand van de R9 290X. Het enige noemenswaardige verschil was 4GB vs. 8GB VRAM. Verder ging het ook niet om de GTX980, maar om de GTX970. Die was niet zoveel langzamer, maar wel een stuk goedkoper. Ja, destijds kreeg je nog bijna 80 klasse prestaties voor veel minder met een 70 klasse GPU. Oh en de GTX960 was eigenlijk ook hopeloos. :z

De GTX970 vs. R9 390X neigt ook wel een beetje naar HD5870 vs. GTX480 in prestaties alsmede het enorme verschil in verbruik, alleen nu verkocht de Nvidia extreem goed zodat AMD zowat werd weggevaagd, iets wat de HD5870 niet deed. Moet gezegd worden dat de R9 390X een rebrand was en de verschillen in verbruik en prestatieverschillen, nog iets erger dan HD5870 vs. GTX480 waren, maar toch.
https://www.techspot.com/...force-gtx-1070/page5.html

Ik zie in de grafiek dat HD 4000 het niet slechter deed vs 200 series, 7000 ook niet vs 600, . Ik respecteer je mening als je vind dat bepaalde Radeon series beter waren dan Geforce, ik heb ze niet allemaal in detail gevolgd. Maar ik ben het niet met je eens dat gamers Radeon onterecht links laten liggen. De prijs/performance bij Radeon is soms beter, maar vaak heeft Geforce dan weer features die Radeon niet heeft.
Nu ja, dat was wel eens anders geweest. Maar lange tijd verkochten features niet zoveel videokaarten. Niet totdat Nvidia mensen actief gingen conditioneren dat je echt RT en DLSS moet hebben. Features waren leuk en aardig en toen kwam Turing waar de features alles waren, omdat Turing het zelf echt niet was.
Ik merk ook dat Nvidia vaak beter en sneller in de uitvoering is, en dat AMD steken heeft laten vallen. Dat doet echter niets af aan mijn argument: consumenten zijn onbetrouwbaar, en daarom richt AMD zich liever op APU's en iGPU's voor consoles en laptops. Ze zouden meer RDNA2 geproduceerd kunnen hebben en meer in marketing gestopt kunnen hebben, maar ik begrijp het wel dat ze dat niet doen: Nvidia vecht er te hard voor. En met consumenten verdien je lange termijn minder dan bijvoorbeeld data center.
Nee Nvidia bedenkt features en maakt er zowat verplichte basiseisen van. Daar valt niet tegenop te boxen tenzij je iets hebt dat Nvidia echt niet heeft. Verder is de RTG botweg incompetent. Ze verprutsten de laatste jaren zowat elke launch, ook al hebben ze wel een goed product. Ze proberen het premium merk te spelen zonder te leveren tegenover dat andere premium merk. Qua prijs gaan ze net onder Nvidia zitten met het resultaat dat veel, zeker in de hogere segmenten, dan maar Nvidia kopen.

Dit terwijl het middensegment totaal op haar gat licht. De enige keren dat AMD goed verkocht over het afgelopen decennium waren in tijden van enorme tekorten door cryptomining of als ze iets redelijks in het middensegment hadden voor een niet al te hoge prijs. Zowat alleen Polaris 10 of Navi 10 lijken goed verkocht te hebben buiten crypto in de afgelopen tien jaar. Voor de rest is het zowat alleen maar neergang geweest.

Want ook de R9 200 series vielen aardig samen met mining. Dat was het begin van grootschalige bitcoin mining. En toen dat voorbij was, nou dat punt zie je wel terug. :z
Afbeeldingslocatie: https://tweakers.net/camo/977a7e8550628e49c537059b55f4c7922afbed50/?url=https%3A%2F%2Fcdn.wccftech.com%2Fwp-content%2Fuploads%2F2022%2F09%2FAMD-NVIDIA-Discrete-GPU-Market-Share-Q2-2022-3DCenter.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Een grote kracht van AMD is dat ze features vooral Open willen pushen. Althans voor mij in kamp consument.

nVidia pushed (al dan niet zelf bedachte) goede features vaak als eerste maar vooral in een closed environment. Ondanks het closed environment weet nVidia hier toch heel veel succes mee te boeken.

Ik denk dat AMD hier een grote stap te maken heeft om mindshare te kunnen winnen. Kom zelf eens als eerste met een groundbreaking feature zoals SLI, Gsync, DLSS.

Neem DLSS3, de initiële mindshare was negatief. Ik zou het denk ik minder snel gebruiken voor competitieve online shooters echter voor iets minder fast paced games die ik zelf gespeeld heb zoals The Last of Us, Hogwarts e.d. vind ik het een absoluut een aanwinst.

AMD heeft in haar comeback denk ik begrijpelijk vooral de focus op CPU's gelegd. Ik hoop dat ze de focus ook op GPU's kunnen leggen echter het zal niet makkelijk worden. Goede hardware is niks zonder goede software en daar zit nvidia met CUDA op een riante voorsprong lijkt me.

[ Voor 5% gewijzigd door Help!!!! op 02-06-2023 20:15 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Help!!!! schreef op vrijdag 2 juni 2023 @ 20:05:
AMD heeft in haar comeback denk ik begrijpelijk vooral de focus op CPU's gelegd. Ik hoop dat ze de focus ook op GPU's kunnen leggen echter het zal niet makkelijk worden. Goede hardware is niks zonder goede software en daar zit nvidia met CUDA op een riante voorsprong lijkt me.
Ze zullen wel moeten, want alles wijst erop dat er op dat CPU's minder belangrijk gaan worden en GPU's en GPU-achtige oplossingen meer. Zo krijgen we vermoedelijk straks massaal vrij sterke APU's voor laptops, dankzij chiplets. Nu heb je nog low end gaming laptops met een Intel of AMD CPU en een losse Nvidia GPU. Straks heb je vermoedelijk op dat niveau alleen maar APUs.

Daarnaast krijgen we straks vermoedelijk AI-engine chiplets in alle CPU's.

En Nvidia denkt dat er massaal GPU-achtige systemen worden ingezet in data centra en dat de investeringen in data centra dus massaal verschuiven van een focus op primair CPU's, naar een focus op GPU's. Ook als Nvidia maar voor een kwart gelijk krijgt, worden GPU's alsnog veel belangrijker dan nu.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op vrijdag 2 juni 2023 @ 20:05:
Een grote kracht van AMD is dat ze features vooral Open willen pushen. Althans voor mij in kamp consument.

nVidia pushed (al dan niet zelf bedachte) goede features vaak als eerste maar vooral in een closed environment. Ondanks het closed environment weet nVidia hier toch heel veel succes mee te boeken.

Ik denk dat AMD hier een grote stap te maken heeft om mindshare te kunnen winnen. Kom zelf eens als eerste met een groundbreaking feature zoals SLI, Gsync, DLSS.

Neem DLSS3, de initiële mindshare was negatief. Ik zou het denk ik minder snel gebruiken voor competitieve online shooters echter voor iets minder fast paced games die ik zelf gespeeld heb zoals The Last of Us, Hogwarts e.d. vind ik het een absoluut een aanwinst.

AMD heeft in haar comeback denk ik begrijpelijk vooral de focus op CPU's gelegd. Ik hoop dat ze de focus ook op GPU's kunnen leggen echter het zal niet makkelijk worden. Goede hardware is niks zonder goede software en daar zit nvidia met CUDA op een riante voorsprong lijkt me.
Hoe denk je alleen een open source feature te gaan pushen die je als AMD, videokaarten moet verkopen? Want die feature komt niet in games of is ook beschikbaar voor Nvidia en werkt dus niet. Het beste scenario is neutralisatie bereiken van een Nvidia exclusieve feature.

Er is denk ik maar een "ground breaking" feature waarmee AMD het tij kan keren. Gewoon minstens 30% meer raster performance voor dezelfde tier bieden als Nvidia. Dan kan je nog zoveel software features hebben. Maar opeens zien die er dan eerder wanhopig uit tegenover een product dat gewoon sneller is. Kan je het zoveel hebben over DLSS3, AI etc ter compensatie in die paar games die dit krijgen, maar je product presteert niet.

offtopic:
De eerste manier om dit te doen, was gewoon een nog grotere "N30" geweest. Zeg 10752 ALU's (dus ruim 40% meer dan N31), 500W+ TDP, 3D stacked L3 cache bovenop de MCD's. Zeker met hoe slecht AD103 naar AD102 schaalt met de 68% grotere RTX4090 die iets 25% sneller is dan de RTX4080, was een dergelijke chip waarschijnlijk wel de kroon geweest.

Tweede manier is dusdanig laag gaan zitten qua prijs dat Nvidia niet meer wil volgen omdat het hun te veel marge kost. Zeker nu Nvidia nog steeds met zoveel invetaris zit en nu eerder H100 GPU's wil produceren en verkopen dan gaming. Dan bedoel ik dus niet bijvoorbeeld de volle N31 verkopen voor $800 i.p.v. $1000. Nee maak er eerder $600 van als beginpunt. En dan de hele stack down dit doen. Dus ook N32, wanneer die moge komen, onder de $400 verkopen en dan sneller dan een RX6800XT/RTX3080/RTX4070. En als Nvidia hun prijzen verlaagt, gewoon verder zakken.


Gaan ze verder denk ik niet doen, dus zitten we met deze status quo. Nvidia bepaald de prijzen, AMD matched op performance en geeft een korting en dan mag je zelf bepalen wat je wil. En zo kregen we een $1200 "80" etc. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
Sissors schreef op vrijdag 2 juni 2023 @ 18:43:
In hoeverre die bedrijven "loyaal" zijn aan hun toeleveranciers is weer een andere vraag. Feit is natuurlijk dat er niemand anders momenteel zulke APUs levert. Maar als Intel dat wel gaat doen, is er toch een kans dat je in één keer een gigantisch gedeelte van je omzet kwijt bent, en dat is het risico van focussen op 1/2 afnemers.
Klopt, maar dergelijke omzet hangt af van betrouwbare levering contracten, met een stevige opzegtermijn. AMD kan daar dus rekening mee houden.

Laptop leveranciers kopen ook graag voor een langere termijn in, afhankelijk van hoe lang de modellen mee gaan.

Consumenten daarentegen kopen op korte termijn. Merk trouwheid en marketing kan dempen en helpen een bepaald marktaandeel vast te houden, maar zeker is het niet. Fluctuaties van 10% of zelfs 20% zijn niet ongewoon, als er iets beters uit komt.

Gamers gaan toch googlen, beetje review (conclusies) kijken, en vooral word of mouth volgen, ook van de verkoper in de winkel... Technische specs en features hebben dan meestal niet een doorslaggevende reden, behalve VRAM. VRAM snapt iedereen, meer is beter. Maar of nu echt 12 of 16 of 24 GB nodig is, is ook voor enthusiasts lastig te zeggen.




Kijk je puur naar de hardware, dan is de voorsprong door Nvidia niet zo groot: ray tracing level 3,5 (vs AMD level 3 en Intel 3,5) en dat was het wel. Qua geheugen structuur ligt AMD zelfs iets voor.

Maar kijk je naar software dan heeft Nvidia veel geïnvesteerd en dat betaalt zich terug. (CUDA, DLSS) Tot voor kort AV1. En nog steeds een voorsprong met professionele applicaties zoals Adobe.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Overspark
  • Registratie: Maart 2010
  • Laatst online: 11:51
sunsmountain schreef op vrijdag 2 juni 2023 @ 23:51:
[...]
VRAM snapt iedereen, meer is beter.
Zelfs dat betwijfel ik eigenlijk. AMD heeft jarenlang teveel VRAM op hun GPU's gedouwd om ergens een groter nummer te hebben dan NVidia, en dat lijkt nu voor het eerst voor een bepaald soort spellen (slechte console ports ;)) zin te hebben. Maar ik heb bijvoorbeeld ooit een 8GB RX480 gekocht die pas dit jaar is uitgezet en ik vraag me oprecht af of er ooit meer dan 4GB VRAM in gebruik is geweest op die kaart (komt ook door de keuze in spellen). Dus ik heb daar ooit wel teveel voor betaald en het heeft al die jaren iets meer stroom verbruikt dan een 4GB model. Meer is dus zeker niet altijd beter, er is een optimum.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op vrijdag 2 juni 2023 @ 21:06:
[...]


Hoe denk je alleen een open source feature te gaan pushen die je als AMD, videokaarten moet verkopen? Want die feature komt niet in games of is ook beschikbaar voor Nvidia en werkt dus niet. Het beste scenario is neutralisatie bereiken van een Nvidia exclusieve feature.
Gelijktijdig een nieuwe groundbreaking feauture hebben is altijd nog vele malen beter dan een generatie achterlopen. Het zorgt ook voor positieve(re) mindshare.

'Freesync' had AMD volgensmij al eerder in laptops. Toch doodzonde dat ze dat niet eerder naar dGPU wisten te brengen. :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:07
Overspark schreef op zaterdag 3 juni 2023 @ 10:09:
[...]


Zelfs dat betwijfel ik eigenlijk. AMD heeft jarenlang teveel VRAM op hun GPU's gedouwd om ergens een groter nummer te hebben dan NVidia, en dat lijkt nu voor het eerst voor een bepaald soort spellen (slechte console ports ;)) zin te hebben. Maar ik heb bijvoorbeeld ooit een 8GB RX480 gekocht die pas dit jaar is uitgezet en ik vraag me oprecht af of er ooit meer dan 4GB VRAM in gebruik is geweest op die kaart (komt ook door de keuze in spellen). Dus ik heb daar ooit wel teveel voor betaald en het heeft al die jaren iets meer stroom verbruikt dan een 4GB model. Meer is dus zeker niet altijd beter, er is een optimum.
Met alle huidige abbo's overal op (extra motorvermogen Mercedes, stoelverwarming Audi etc.), het betalen voor dlc's en karakters/wapens kopen in spellen en auto's /banen in race sims voorzie ik de mogelijkheid om tegen betaling voor een bepaalde tijd extra Vram en features/cores te unlocken...... Bewaar deze post, ik zie het gebeuren.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op vrijdag 2 juni 2023 @ 20:05:
Een grote kracht van AMD is dat ze features vooral Open willen pushen. Althans voor mij in kamp consument.
Maar doet AMD dat omdat ze zo'n voorstander van open standaarden zijn, of omdat ze op veel feature vlakken toch consequent een stap achterlopen op Nvidia, en ze dus een selling point van hun implementatie moeten hebben.

Wanneer AMD nu ineens een killer feature zou hebben voor hun GPUs, ga ik ervan uit dat het geen open standaard zal worden.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zaterdag 3 juni 2023 @ 10:13:
[...]

Gelijktijdig een nieuwe groundbreaking feauture hebben is altijd nog vele malen beter dan een generatie achterlopen. Het zorgt ook voor positieve(re) mindshare.

'Freesync' had AMD volgensmij al eerder in laptops. Toch doodzonde dat ze dat niet eerder naar dGPU wisten te brengen. :?
Natuurlijk is matchen beter dan veel later zijn. Maar die constante focus op features is inmiddels wel echt aan het afleiden op rasterisation verbeteringen. Het middensegment is immers aardig gesloopt. Dan bedoel ik niet alleen de 50-60 klasse, maar ook de 70. 50-60 klasse hoef je nauwelijks nog merkbare verbeteringen meer te verwachten, buiten wat features en de 70 klasse is veel te duur geworden. Het wordt allemaal verantwoord met features die vaak maar in een paar games komen. Dit of te gebrekkige prestatieverbeteringen in de hardware moeten gecompenseerd worden met upscaling. Dat is geen oplossing, dat is een lapmiddel.

En als ik nu kijk naar het middensegment, tja ik zie gewoon niks dat me echt kan interesseren. Het hele fundament van PC gaming wordt hierdoor ondermijnd, want de meeste games kopen echt geen $500+ videokaart. Of kijk wat er de afgelopen maanden is gebeurd met requirements. Game developers lijken hun game optimaliseren zodat het net binnen 8GB aan VRAM past, opgegeven te hebben omdat het ze te veel tijd kost en ze geen grafische verbeteringen meer kunnen introduceren. En daar gaat de afgelopen twee generaties aan nog ietwat betaalbare videokaarten. Ze lopen nu vrijwel allemaal tegen die VRAM muur aan. En ondertussen krijgen we wat moois te zien met UE5 demo's. Demo's waarbij geld dat zodra het uitgebrachte games zijn, de meeste PC gamers die niet kunnen spelen zonder flink wat settings te moeten verlagen. En wat is dan nog het punt van PC gaming of dergelijke games ontwikkelen?

En natuurlijk wint Nvidia de features race. Ze zijn hier eerder mee begonnen omdat ze veel meer software development doen.
offtopic:
AMD zat verder zeker vijf jaar (2012-2017) in overlevensmodus en heeft de RTG noodgedwongen, aardig verwaarloost om alles te gokken op Zen. Dat is overigens een excuus dat ik nu niet meer accepteer omdat ze sinds 2019 wel een goede gaming architectuur hebben en ook geld. Verder kwamen de Zen innovaties alsmede Zen personeel vanaf 2017 al naar de RTG om de boel hier ook aan te pakken. Iets dat je al zag bij RDNA2/CDNA en zeker bij RDNA3/CDNA2 (chiplets).


Ook zit Nvidia steeds te zoeken naar manieren om hun steeds grotere tensor cores in te zetten voor gaming. Want die drijven de kosten van de chips op zonder echt iets op te leveren voor gamers. DLSS2 heeft bijvoorbeeld echt geen Ampere of Ada tensor core nodig. Idem voor denoising voor RT. En wanneer DirectStorage nu eindelijk doorbreekt, zal dat voor Nvidia (zie RTX I/O) ook niet dusdanig intensief zijn voor hun tensor cores dat die van Turing het niet aankunnen. Die tensor cores zijn er voor AI werk, niet gaming. Zoiets als DLSS3 heeft waarschijnlijk wel flink wat meer rekenkracht nodig, maar het is een feature die ik graag zou uitruilen voor meer rasterisation hardware. Want dat werkt voor alle games en heeft niet de nadelen.

offtopic:
AMD heeft een tegenovergestelde strategie met aparte RDNA, CDNA en XDNA GPU's. Ze lijken niet de software developers te hebben voor veel features of tot recent de hardware voor de hogere kwaliteit upscaling van DLSS2. Daarbij hoop nog steeds dat AMD een RDNA3 enhanced "FSR2 AI" maakt die desnoods ook werkt met Arc, Turing/Ampere/Ada en niet mer RDNA1/2. Want dat zou nu ook kunnen met RDNA3 haar eigen matrix units. Ik heb ook niet de indruk dat FSR2 een onwerkbaar algoritme is. Ik heb juist de indruk dat ze simpelweg niet afdoende samples kunnen gebruiken voor reconstructie op lagere resoluties omdat er wat rekenkracht hiervoor mist. Want met lagere resoluties en/of quality settings, zie je FSR2 wegzakken. Mijn vermoeden wordt gesterkt als ik bijvoorbeeld XeSS (zonder de Intel specifieke acceleration) of Epic hun TSR zie.



Maar rasterisaton performance, dat is nog steeds koning en dat is juist iets dat RDNA heel goed kan. En het is zo wanhopig nodig over de gehele linie. Leuk dat high end nog steeds 50% gen over gen krijgt, maar voor die prijzen is dat totaal irrelevant voor de meeste gamers. Ik kan het vrij makkelijk betalen, maar ik wil dit gewoon niet doen omdat ik te maar al te goed besef dat het de volgende ronde dan nog erger zal zijn geworden.

We hebben die grote prestatieverbeteringen nodig in het middensegment, zeg $250-$400. Daar krijgen we nu vrijwel niks. En als we al wat krijgen, dan loop je meteen tegen een VRAM muur in de ene na de andere nieuwe game. Het ziet er gewoon zo treurig uit. Ik zie gewoon een hobby van mij en velen hier, stap voor stap kapot gemaakt worden door hebzucht. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
meljor schreef op zaterdag 3 juni 2023 @ 10:36:
[...]


Met alle huidige abbo's overal op (extra motorvermogen Mercedes, stoelverwarming Audi etc.), het betalen voor dlc's en karakters/wapens kopen in spellen en auto's /banen in race sims voorzie ik de mogelijkheid om tegen betaling voor een bepaalde tijd extra Vram en features/cores te unlocken...... Bewaar deze post, ik zie het gebeuren.
Je bedoelt misschien met een switch dat je van 8GB naar 16GB kan?

https://videocardz.com/ne...al-8gb-16gb-memory-switch

The future is here.

Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/05/RTX3070-MEM-SWITCH.jpg

[ Voor 6% gewijzigd door sunsmountain op 03-06-2023 13:56 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
DaniëlWW2 schreef op zaterdag 3 juni 2023 @ 11:13:
[...]


Natuurlijk is matchen beter dan veel later zijn. Maar die constante focus op features is inmiddels wel echt aan het afleiden op rasterisation verbeteringen. Het middensegment is immers aardig gesloopt. Dan bedoel ik niet alleen de 50-60 klasse, maar ook de 70. 50-60 klasse hoef je nauwelijks nog merkbare verbeteringen meer te verwachten, buiten wat features en de 70 klasse is veel te duur geworden. Het wordt allemaal verantwoord met features die vaak maar in een paar games komen. Dit of te gebrekkige prestatieverbeteringen in de hardware moeten gecompenseerd worden met upscaling. Dat is geen oplossing, dat is een lapmiddel.

En als ik nu kijk naar het middensegment, tja ik zie gewoon niks dat me echt kan interesseren. Het hele fundament van PC gaming wordt hierdoor ondermijnd, want de meeste games kopen echt geen $500+ videokaart. Of kijk wat er de afgelopen maanden is gebeurd met requirements. Game developers lijken hun game optimaliseren zodat het net binnen 8GB aan VRAM past, opgegeven te hebben omdat het ze te veel tijd kost en ze geen grafische verbeteringen meer kunnen introduceren. En daar gaat de afgelopen twee generaties aan nog ietwat betaalbare videokaarten. Ze lopen nu vrijwel allemaal tegen die VRAM muur aan. En ondertussen krijgen we wat moois te zien met UE5 demo's. Demo's waarbij geld dat zodra het uitgebrachte games zijn, de meeste PC gamers dus niet kunnen spelen zonder flink wat settings te moeten verlagen. En wat is dan nog het punt van PC gaming of dergelijke games ontwikkelen?

En natuurlijk wint Nvidia de features race. Ze zijn hier eerder mee begonnen omdat ze veel meer software development doen. AMD zat verder zeker vijf jaar (2012-2017) in overlevensmodus en heeft de RTG noodgedwongen, aardig verwaarloost om alles te gokken op Zen. Dat is overigens een excuus dat ik nu niet meer accepteer omdat ze sinds 2019 wel een goede gaming architectuur hebben en ook geld. Verder kwamen de Zen innovaties alsmede Zen personeel vanaf 2017 al naar de RTG om de boel hier ook aan te pakken. Iets dat je al zag bij RDNA2/CDNA en zeker bij RDNA3/CDNA2 (chiplets).

Ook zit Nvidia steeds te zoeken naar manieren om hun steeds grotere tensor cores in te zetten voor gaming. Want die drijven de kosten van de chips op zonder echt iets op te leveren voor gamers. DLSS2 heeft bijvoorbeeld echt geen Ampere of Ada tensor core nodig. Idem voor denoising voor RT. En wanneer DirectStorage nu eindelijk doorbreekt, zal dat voor Nvidia (zie RTX I/O) ook niet dusdanig intensief zijn voor hun tensor cores dat die van Turing het niet aankunnen. Die tensor cores zijn er voor AI werk, niet gaming. Zoiets als DLSS3 heeft waarschijnlijk wel flink wat meer rekenkracht nodig, maar het is een feature die ik graag zou uitruilen voor meer rasterisation hardware. Want dat werkt voor alle games en heeft niet de nadelen.

AMD heeft een tegenovergestelde strategie met aparte RDNA, CDNA en XDNA GPU's. Ze lijken niet de software developers te hebben voor veel features of tot recent de hardware voor de hogere kwaliteit upscaling van DLSS2. Daarbij hoop nog steeds dat AMD een RDNA3 enhanced "FSR2 AI" maakt die desnoods ook werkt met Arc, Turing/Ampere/Ada en niet mer RDNA1/2. Want dat zou nu ook kunnen met RDNA3 haar eigen matrix units. Ik heb ook niet de indruk dat FSR2 een onwerkbaar algoritme is. Ik heb juist de indruk dat ze simpelweg niet afdoende samples kunnen gebruiken voor reconstructie op lagere resoluties omdat er wat rekenkracht hiervoor mist. Want met lagere resoluties en/of quality settings, zie je FSR2 wegzakken. Mijn vermoeden wordt gesterkt als ik bijvoorbeeld XeSS (zonder de Intel specifieke acceleration) of Epic hun TSR zie.


Maar rasterisaton performance, dat is nog steeds koning en dat is juist iets dat RDNA heel goed kan. En het is zo wanhopig nodig over de gehele linie. Leuk dat high end nog steeds 50% gen over gen krijgt, maar voor die prijzen is dat totaal irrelevant voor de meeste gamers. Ik kan het vrij makkelijk betalen, maar ik wil dit gewoon niet doen omdat ik te maar al te goed besef dat het de volgende ronde dan nog erger zal zijn geworden.

We hebben die grote prestatieverbeteringen nodig in het middensegment, zeg $250-$400. Daar krijgen we nu vrijwel niks. En als we al wat krijgen, dan loop je meteen tegen een VRAM muur in de ene na de andere nieuwe game. Het ziet er gewoon zo treurig uit. Ik zie gewoon een hobby van mij en velen hier, stap voor stap kapot gemaakt worden door hebzucht. :/
toon volledige bericht
Of Nvidia deze prijzen vol gaat houden weet ik niet. Ik moest kopen, maar ik had liever gewacht en het zien instorten. De hoeveelheid onverkochte RTX 3000 kaarten is groot, en die inventaris moet toch een keer verkocht of vernietigd worden.

De tensor cores in de shaders SMs van RTX20xx 30xx 40xx zijn als ik het goed begrijp nuttig voor denoising bij Ray Tracing. Ik weet niet of ze gewijzigd zijn, de extra ray tracing transistors zijn eerder in de ray tracing cores gegaan.

Dus ik zie het zo somber nog niet. Level4/5 ray tracing hatdware is best een aankoop waard.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 3 juni 2023 @ 14:09:
[...]


Of Nvidia deze prijzen vol gaat houden weet ik niet. Ik moest kopen, maar ik had liever gewacht en het zien instorten. De hoeveelheid onverkochte RTX 3000 kaarten is groot, en die inventaris moet toch een keer verkocht of vernietigd worden.
Tja als Nvidia nu hun productieallocatie echt heeft omgezet van Ada naar H100 voor de AI boom, dan zijn we denk ik, vrij kansloos. Dan kan Nvidia de markt blijven controleren met deze lachwekkende Ada prijzen. Ondertussen verkopen ze rustig hun Ampere voorraden voor iets lagere prijzen, wetende dat in veel van die videokaarten geen lange toekomst zit vanwege de 8GB aan VRAM. Na de AI boom krijg je dan gamers die weer een nieuwe videokaart nodig hebben.

Dan gaat AD104 misschien eens wat dalen in prijs en kunnen mensen een RTX4070 of RTX4070Ti kopen voor iets minder lachwekkende prijzen. Iets, want ik zie de problemen met 8GB aan VRAM alleen maar groter worden, en daarmee de mogelijkheden dat veel consumenten het opgeven en toch iets beters kopen. Dat lijkt nu het spel te zijn. Gamers kopen niet voor deze prijzen en wachten. Nvidia verkoopt niet voor minder omdat ze hun wafers vermoedelijk elders kwijt kunnen en met enorme Ampere inventaris zitten. De vraag is wie het als eerste opgeeft. En met de AI boom ben ik bang dat de consument het nakijken heeft en de status quo voorlopig gehandhaafd blijft. :-(

Natuurlijk zou Nvidia kunnen besluiten om GA104 alsnog 16GB te geven. Maar wat gebeurd er dan met al die al geproduceerde en verscheepte videokaarten? Die verliezen hun waarde vrij snel omdat het denk ik vrij snel verspreid zal worden in zo ongeveer elk DIY PC gaming platform, dat je absoluut de 16GB versie moet hebben. Verder zit Nvidia in een dominante positie. Zo lang als niemand ze uitdaagt, hoeven ze gewoon niet. :/


offtopic:
Bij AMD lijkt er ook niet bereidheid om er iets aan te doen. Dat lijkt niet alleen beperkt volume aan chips te zijn, maar ook de mogelijkheden om deze chips te verwerken tot videokaarten. Iets dat ze een paar jaar geleden nog wel deden met Polaris. Nvidia verzaakte lange tijd de lagere segmenten met Turing, waardoor een goedkope RX580 8GB zo ongeveer de enige optie voor veel gamers was.

Dat zou in principe wel mogelijk moeten zijn door N22 voorlopig beschikbaar te houden. Persoonlijk neig ik ernaar dat de RX6700 10GB (175W TDP) een beter product is dan de RX7600 8GB (165W TDP). N33 is qua formaat helaas maar 60,9% van een N22 chip, dus een stuk goedkoper voor AMD en slechter voor de consument. De RX6700XT zou denk ik een interessante videokaart voor veel gamers zijn, als ze rond de €300 zouden kosten in plaats van rond de €400 nu.

Maar ik heb het vertrouwen in het huidige leiderschap van de RTG inmiddels wel verloren. Als ze dit hadden willen doen, dan denk ik dat ze dit al hadden gedaan. Ze lijken tevreden te zijn om Nvidia te volgen, niets meer. :/

Laatste is dat Intel meer tijd nodig heeft op een reputatie op te bouwen. Verder is is hun A770 voornamelijk relevanter geworden vanwege de 256 bit bus en 16GB. Maar niet elke A770 heeft dat. Prijzen zijn ook niet goed genoeg om de voorkeur te mogen genieten.
De tensor cores in de shaders SMs van RTX20xx 30xx 40xx zijn als ik het goed begrijp nuttig voor denoising bij Ray Tracing. Ik weet niet of ze gewijzigd zijn, de extra ray tracing transistors zijn eerder in de ray tracing cores gegaan.

Dus ik zie het zo somber nog niet. Level4/5 ray tracing hatdware is best een aankoop waard.
De tensor cores hebben niks met shaders te maken in Turing/Ampere/Ada. Dat zijn geheel andere rekeneenheden die onderdeel zijn van dezelfde SM partitie. Die tensor cores kunnen ook geen rasterisation berekeningen uitvoeren. Wat ze wel doen zijn upscaling en ook denoising. Maar met Ampere en helemaal met Ada, zijn die tensor cores veel groter en capabeler geworden dan met Turing. Daar is de meeste ontwikkeling en vooruitgang geweest. :)

RT cores zijn weer een apart onderdeel van een SM. Elke SM heeft maar een RT core en hier is de voornaamste verbetering, het verdubbelen van ray/triangle intersection per clock. Turing deed een, Ampere twee en Ada vier. Dat komt alleen niet meer terug omdat er elders in de RT cyclus, overduidelijke bottlenecks zitten. Mijn vermoeden is gebrekkige BvH creatie, mede vanwege gebrekkige toegang tot data om deze te maken. Het verklaard voor mij ook waarom Nvidia path tracing pushed. Daarmee verschuift het ratio BvH vs. intersections, nog een stuk verder naar intersections.

De gebrekkige BvH creatie is denk ik ook waarom Ada haar RT cores ook de OMM-enginge (Opacity Micromap) en 3DMM-engine (Displaced Micro-Mesh) hebben. Die doen alleen niks in games omdat dit afhankelijk is van software implementatie. Maar als er een game komt die dit implementeert voor RT, tja dan krijg je misschien eens een RTX game die daadwerkelijk iets kan.

Dit heeft overigens ook niks met die RT hardware levels te maken. Eigenlijk is dit veel veel slimmere aanpak voor het probleem. Want Nvidia heeft eigenlijk gezegd:
Waarom gaan we voor elk complex object apart een complexe BvH renderen als de developer toch weet hoe het object eruit ziet? Waarom sturen we niet wat meer data mee met het shaderprogamma dat de GPU kan decoderen en op basis hiervan, weet de GPU welke triangles, ray intersection tests nodig hebben.
Nota bene heeft Nvidia, recentelijk zo te zien eindelijk hun SDK uitgebracht. Dit is zelfs open source en vendor agnositic. Uiteraard is er een acceleration voor Ada, maar dat Nvidia iets open source maakt zegt wel iets. En wat hoop ik dat dit ook echt geadopteerd zal worden en de niet Nvidia accelerated versie ook een beetje draait en te optimaliseren is. :Y
https://developer.nvidia.com/rtx/ray-tracing/micro-mesh

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zaterdag 3 juni 2023 @ 15:33:
[...]
De RX6700XT zou denk ik een interessante videokaart voor veel gamers zijn, als ze rond de €300 zouden kosten in plaats van rond de €400 nu.
Met de cashback van Asus kost de Dual 6700 XT nu €350. Helaas toont de pricewatch dat niet in het overzicht, waardoor deze kaart duurder lijkt dan hij is.
Laatste is dat Intel meer tijd nodig heeft op een reputatie op te bouwen.
Op een ander forum test iemand een Arc uit en het is toch wel een avontuur om spellen goed werkend te krijgen, met name wat oudere spellen. Dus wat mij betreft is het niet alleen een kwestie van reputatie, maar moeten ze nog steeds stevig aan de bak om de drivers verder te verbeteren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op zaterdag 3 juni 2023 @ 11:13:
[...]


Natuurlijk is matchen beter dan veel later zijn. Maar die constante focus op features is inmiddels wel echt aan het afleiden op rasterisation verbeteringen. Het middensegment is immers aardig gesloopt. Dan bedoel ik niet alleen de 50-60 klasse, maar ook de 70. 50-60 klasse hoef je nauwelijks nog merkbare verbeteringen meer te verwachten, buiten wat features en de 70 klasse is veel te duur geworden. Het wordt allemaal verantwoord met features die vaak maar in een paar games komen. Dit of te gebrekkige prestatieverbeteringen in de hardware moeten gecompenseerd worden met upscaling. Dat is geen oplossing, dat is een lapmiddel.

En als ik nu kijk naar het middensegment, tja ik zie gewoon niks dat me echt kan interesseren. Het hele fundament van PC gaming wordt hierdoor ondermijnd, want de meeste games kopen echt geen $500+ videokaart. Of kijk wat er de afgelopen maanden is gebeurd met requirements. Game developers lijken hun game optimaliseren zodat het net binnen 8GB aan VRAM past, opgegeven te hebben omdat het ze te veel tijd kost en ze geen grafische verbeteringen meer kunnen introduceren. En daar gaat de afgelopen twee generaties aan nog ietwat betaalbare videokaarten. Ze lopen nu vrijwel allemaal tegen die VRAM muur aan. En ondertussen krijgen we wat moois te zien met UE5 demo's. Demo's waarbij geld dat zodra het uitgebrachte games zijn, de meeste PC gamers dus niet kunnen spelen zonder flink wat settings te moeten verlagen. En wat is dan nog het punt van PC gaming of dergelijke games ontwikkelen?

En natuurlijk wint Nvidia de features race. Ze zijn hier eerder mee begonnen omdat ze veel meer software development doen. AMD zat verder zeker vijf jaar (2012-2017) in overlevensmodus en heeft de RTG noodgedwongen, aardig verwaarloost om alles te gokken op Zen. Dat is overigens een excuus dat ik nu niet meer accepteer omdat ze sinds 2019 wel een goede gaming architectuur hebben en ook geld. Verder kwamen de Zen innovaties alsmede Zen personeel vanaf 2017 al naar de RTG om de boel hier ook aan te pakken. Iets dat je al zag bij RDNA2/CDNA en zeker bij RDNA3/CDNA2 (chiplets).

Ook zit Nvidia steeds te zoeken naar manieren om hun steeds grotere tensor cores in te zetten voor gaming. Want die drijven de kosten van de chips op zonder echt iets op te leveren voor gamers. DLSS2 heeft bijvoorbeeld echt geen Ampere of Ada tensor core nodig. Idem voor denoising voor RT. En wanneer DirectStorage nu eindelijk doorbreekt, zal dat voor Nvidia (zie RTX I/O) ook niet dusdanig intensief zijn voor hun tensor cores dat die van Turing het niet aankunnen. Die tensor cores zijn er voor AI werk, niet gaming. Zoiets als DLSS3 heeft waarschijnlijk wel flink wat meer rekenkracht nodig, maar het is een feature die ik graag zou uitruilen voor meer rasterisation hardware. Want dat werkt voor alle games en heeft niet de nadelen.

AMD heeft een tegenovergestelde strategie met aparte RDNA, CDNA en XDNA GPU's. Ze lijken niet de software developers te hebben voor veel features of tot recent de hardware voor de hogere kwaliteit upscaling van DLSS2. Daarbij hoop nog steeds dat AMD een RDNA3 enhanced "FSR2 AI" maakt die desnoods ook werkt met Arc, Turing/Ampere/Ada en niet mer RDNA1/2. Want dat zou nu ook kunnen met RDNA3 haar eigen matrix units. Ik heb ook niet de indruk dat FSR2 een onwerkbaar algoritme is. Ik heb juist de indruk dat ze simpelweg niet afdoende samples kunnen gebruiken voor reconstructie op lagere resoluties omdat er wat rekenkracht hiervoor mist. Want met lagere resoluties en/of quality settings, zie je FSR2 wegzakken. Mijn vermoeden wordt gesterkt als ik bijvoorbeeld XeSS (zonder de Intel specifieke acceleration) of Epic hun TSR zie.


Maar rasterisaton performance, dat is nog steeds koning en dat is juist iets dat RDNA heel goed kan. En het is zo wanhopig nodig over de gehele linie. Leuk dat high end nog steeds 50% gen over gen krijgt, maar voor die prijzen is dat totaal irrelevant voor de meeste gamers. Ik kan het vrij makkelijk betalen, maar ik wil dit gewoon niet doen omdat ik te maar al te goed besef dat het de volgende ronde dan nog erger zal zijn geworden.

We hebben die grote prestatieverbeteringen nodig in het middensegment, zeg $250-$400. Daar krijgen we nu vrijwel niks. En als we al wat krijgen, dan loop je meteen tegen een VRAM muur in de ene na de andere nieuwe game. Het ziet er gewoon zo treurig uit. Ik zie gewoon een hobby van mij en velen hier, stap voor stap kapot gemaakt worden door hebzucht. :/
toon volledige bericht
Ik had daar al eerder over geschreven maar voor mijn gevoel wordt PC gaming inderdad behoorlijk kapot gemaakt door die absurd hoge prijzen. Zowel CPU als GPU. Kan me goed voorstellen dat er een generatie gamers niet meer instapt op de pc.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De CPU's gaan nog wel, maar de moederbord-prijzen zijn behoorlijk absurd. Ik had een verdubbeling in prijs voor hetzelfde model dat ik 5 jaar geleden had gekocht en eind vorig jaar ook.

Ik denk inderdaad dat een console voor gamers met een beperkt budget nu vaak een betere keus is en als dit zo blijft de PC markt steeds meer mensen gaat verliezen aan de consoles.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zaterdag 3 juni 2023 @ 18:29:
[...]


Met de cashback van Asus kost de Dual 6700 XT nu €350. Helaas toont de pricewatch dat niet in het overzicht, waardoor deze kaart duurder lijkt dan hij is.
Ik zag het. Maar dat is een model, tijdelijk, voor bepaalde winkels en omslachtig. Het is geen oplossing.
Op een ander forum test iemand een Arc uit en het is toch wel een avontuur om spellen goed werkend te krijgen, met name wat oudere spellen. Dus wat mij betreft is het niet alleen een kwestie van reputatie, maar moeten ze nog steeds stevig aan de bak om de drivers verder te verbeteren.
En dat noem ik dus een reputatie opbouwen. ;)
Ik denk dat er best mensen met een Arc zijn waarbij ze geen problemen ervaren. Maar het is erg makkelijk om mensen met problemen te vinden. En hier is het ook op meer gebaseerd dan van horen zeggen en/of tien jaar geleden.

Want uiteindelijk heb je altijd het risico dat er iets niet gaat werken met je configuratie. Dat is eigen aan PC gaming. Het punt is dat het relatief vaak wel moet werken en als het niet werkt, dan moet het relatief snel worden opgelost. En daarin ligt Intel een stuk achter.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 10-08 21:35

SG

SG surft naar info hardewaren

Ludewig schreef op zaterdag 3 juni 2023 @ 18:29:
Op een ander forum test iemand een Arc uit en het is toch wel een avontuur om spellen goed werkend te krijgen, met name wat oudere spellen. Dus wat mij betreft is het niet alleen een kwestie van reputatie, maar moeten ze nog steeds stevig aan de bak om de drivers verder te verbeteren.
Misschien is dat zeer onrealistisch kijk op driver probleem.
De games van toen waren door dev ontwikkeld met ATI NV guidline voor 3d api’s.
Arc bestond niet dus kan gewoon zijn dat nv ati code methode arc allergisch voor is.
Naast dat backlog van 1000games zeer grote task is die heel veel tijd en mankracht nodig heeft met grote kans dat het niet haalbaar is om dat op nv ati amd niveau te krijgen.

Ben je retrogamer dan ga je voor nv/radeon.
Speel je moderne latest game met moderne latest API dan is ARC optie.

Naast dat nvidia toen 10 popu games van moment met grote afdeling tot dx11 zwaar optimaliseren waren. En arc nu dat effekes met 1001++ games moet doen. Met crisis reorganisatie en ontslagen.

Naast ouwe meuk zal ondanks 40 a 70% performance voldoende fps halen zolang het niet buggy is. Omdat oude game relatief lagere sys eisen hebben dan moderne games.

Ik denk dat dat voor 90% geheid kan vergeten dat dx9 meuk als tierelier gaat lopen. Laat staan robust. Als vulkan dx12 robust en performant draaien. Dat is haalbaar zo ook de software stack.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • YangWenli
  • Registratie: December 2014
  • Laatst online: 07-07-2023
Als je oudere games speelt volstaat een 4060.

Maar is dit niet het grote voordeel van Nvidia? Hun drivers en DLSS.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

Sissors schreef op zaterdag 3 juni 2023 @ 10:42:
[...]

Maar doet AMD dat omdat ze zo'n voorstander van open standaarden zijn, of omdat ze op veel feature vlakken toch consequent een stap achterlopen op Nvidia, en ze dus een selling point van hun implementatie moeten hebben.

Wanneer AMD nu ineens een killer feature zou hebben voor hun GPUs, ga ik ervan uit dat het geen open standaard zal worden.
Dat is lastig om vast te stellen; maar gezien de droevige staat van de open source Nvidia Linux drivers leun ik licht in de richting van dat ze meer een open source cultuur hebben dan Nvidia.
AMD had dezelfde richting kunnen kiezen als Nvidia, er viel vrij weinig te winnen namelijk als je kijkt naar het Linux marktaandeel een aantal jaar geleden. Op Linux heb je nu gewoon goede AMD en open source drivers. Daar heeft toevallig AMD nu veel profijt van met bijv. initatieven als de Steam Deck.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
YangWenli schreef op maandag 5 juni 2023 @ 11:00:
Als je oudere games speelt volstaat een 4060.

Maar is dit niet het grote voordeel van Nvidia? Hun drivers en DLSS.
Drivers bij AMD zijn sinds de 5700XT goed. DLSS lopen ze idd voor op FSR, maar op een gegeven moment zal AMD die achterstand (ook) inhalen.

Marketing bij Nvidia is het grote voordeel. En ze lopen nu binnen met CUDA, voor workstation GPUs voor AI.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
sunsmountain schreef op dinsdag 6 juni 2023 @ 09:57:
[...]

Drivers bij AMD zijn sinds de 5700XT goed. DLSS lopen ze idd voor op FSR, maar op een gegeven moment zal AMD die achterstand (ook) inhalen.

Marketing bij Nvidia is het grote voordeel. En ze lopen nu binnen met CUDA, voor workstation GPUs voor AI.
Maar dat is natuurlijk niet bepaald lang. De eerste kaarten na de 5700XT waren eind 2020 ofzo. Dus dan hebben we het over dat ze nu 2.5 jaar geen gezeik met drivers hebben? Beter dan wel gezeik natuurlijk, maar niet bepaald indrukwekkende lengte.

Ik ben altijd fabrikant agnostic geweest en kocht beste bang voor de bucks, wat meestal AMD kaarten waren. Maar het trauma van de 5700XT heeft mij naar Nvidia gestuurd. En natuurlijk ik moet niet bij Nvidia blijven omdat 27 jaar geleden ik ooit een slechte AMD kaart heb gehad, maar 3-4 jaar geleden is nog zo recent dat het nog wel aan je imago blijft hangen.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
Sissors schreef op dinsdag 6 juni 2023 @ 10:57:
[...]

Maar dat is natuurlijk niet bepaald lang. De eerste kaarten na de 5700XT waren eind 2020 ofzo. Dus dan hebben we het over dat ze nu 2.5 jaar geen gezeik met drivers hebben? Beter dan wel gezeik natuurlijk, maar niet bepaald indrukwekkende lengte.

Ik ben altijd fabrikant agnostic geweest en kocht beste bang voor de bucks, wat meestal AMD kaarten waren. Maar het trauma van de 5700XT heeft mij naar Nvidia gestuurd. En natuurlijk ik moet niet bij Nvidia blijven omdat 27 jaar geleden ik ooit een slechte AMD kaart heb gehad, maar 3-4 jaar geleden is nog zo recent dat het nog wel aan je imago blijft hangen.
Ik moet zeggen dat ik drivers lastig te beoordelen vind. Zowel AMD als Nvidia hebben daarin wel eens steken laten vallen.

Belangrijker dan dat AMD nu een teststraat heeft, is de snelheid waarmee Nvidia day 1 patches heeft. Daar kunnen zowel Intel als AMD nog van leren. Ik was eigenlijk van plan een RTX 4070 te kopen, maar de 16 GB van de 6950XT overtuigde me toch last minute. Volgende upgrade een RTX 5080, als de prijs tenminste weer normaal is.

Echt *krachtterm* meesterlijk plan van Nvidia zou afgestraft moeten worden nu, omdat ze RTX 4000 kaarten hebben gehamsterd en nog met wafer capaciteit zouden zitten. Komt er een hype van AI machine learning en hop alle wafers naar Hopper / workstation. Dat betekent dat Nvidia gewoon de RTX 4000 prijzen hoog kan houden terwijl ze hun RTX 3000 inventaris verkopen. Bi-zar. De meta is last-gen kopen op dit moment nog steeds... ik had dit i.i.g. niet zien aankomen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • YangWenli
  • Registratie: December 2014
  • Laatst online: 07-07-2023
Nvidia gaat natuurlijk ook al héél lang mee, ze maakten in de jaren 90 al videokaarten.
Ze hebben wel een mindshare.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:07
YangWenli schreef op dinsdag 6 juni 2023 @ 12:35:
Nvidia gaat natuurlijk ook al héél lang mee, ze maakten in de jaren 90 al videokaarten.
Ze hebben wel een mindshare.
De (ATi) AMD kaarten waren er toen ook al.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
YangWenli schreef op dinsdag 6 juni 2023 @ 12:35:
Nvidia gaat natuurlijk ook al héél lang mee, ze maakten in de jaren 90 al videokaarten.
Ze hebben wel een mindshare.
inderdaad wel zo dat ATi een goede mindshare en focus had, en dat AMD in overlevingmodus heeft gezeten een aantal jaren.

Daar zouden ze nu wel uit moeten komen, maar ja als zo'n CPU succesvolle Sam Naffziger zegt we gaan het zo en zo doen met GPUs, en Lisa zal altijd op de kosten letten. Wie ben je dan als Radeon ingenieur of marketeer om daar tegenin te gaan?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw: TPU: NVIDIA Finds a Clever Way to Boost DLAA Adoption—To Turn it into a DLSS Preset

"DLAA, or deep-learning anti-aliasing, is essentially DLSS without the image upscaling. The technology holds the rendering resolution at par with your display's, but uses AI to attempt to add detail to your game, particularly smoothen out edges and other forms in the raster graphics that could require anti-aliasing. The result is image quality that's visibly superior to even native-resolution, and other methods of anti-aliasing, such as TAA and MSAA. Since all this is happening at native resolution, there is zero performance gain, some performance loss, however not one that is comparable to MSAA. It's a wonderful technology, and any game that supports DLSS should expose naturally expose DLAA in its quality settings to end-users, however this isn't the case. DLAA is seeing sluggish adoption among game developers, and NVIDIA has taken it upon itself to fix this.

NVIDIA is working on updates to DLSS that essentially makes DLAA a quality preset.
.....etc."

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

TSMC Planning Advanced Packaging Capacity Expansion due to Increased Demand for NVIDIA AI Tech

TSMC is quickly reacting to a surge in demand for NVIDIA following an AI industry boom - the Taiwanese semiconductor contract manufacturer is reportedly planning to further expand its advanced packaging capabilities, due to current production lines hitting maximum capacity. News outlets have also cited the growth of 5G technology and Internet of Things (IoT) device markets as contributing factors. DigiTimes Asia reports that clients are snapping up chip-on-wafer-on-substrate (CoWoS) at an increased and unprecedented rate. TSMC has decided to provide NVIDIA - an extremely high profile customer - with an extra 10,000 CoWoS wafers. The article sourced information from a recent company shareholder meeting, where chairman Mark Liu discussed these expansions plans. He outlined improved factory facilities that will result in an additional output of 1,000 to 2,000 wafers per month. TSMC is set to upgrade equipment at its existing facilities in order to meet increasing demand.

... etc.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En de gamers zijn dus weer eens het kind van de rekening want Nvidia kan hun waferallocatie dus makkelijk verkopen in de AI boom. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-08 17:04
DaniëlWW2 schreef op donderdag 8 juni 2023 @ 21:51:
En de gamers zijn dus weer eens het kind van de rekening want Nvidia kan hun waferallocatie dus makkelijk verkopen in de AI boom. :/
Lijkt me geen probleem als de extra allocatie daarvoor in gebruik genomen gaat worden. Ze hebben vraag dus het is voor Nvidia en TSMC makkelijk om daar extra marge op te behalen. Lijkt me redelijk voor de hand liggen dat ze daar op willen cashen dan en dat is echt geen schande. AMD zal ook liever alle allocatie voor hun server CPU's gebruiken en daarmee cashen als ze het kunnen verkopen. Ook dan zouden consument en hun grafische kaarten aankoop moeten boeten als het zover zou komen ;)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het zal eens niet dat in dit geval Gigabyte problemen heeft met hun videokaart ontwerpen. Echt elke keer is het wel weer een van de grote drie waarmee iets is...

Ditmaal speelt er bij Gigabyte blijkbaar al een tijdje het probleem dat er een barst in het PCB bij het PCIe slot ontstaat. En dan valt de verbinding met het PCIe slot weg. Dit geld voor zowel voor RTX30 als RTX40 modellen. Een RMA naar Gigabyte lijkt te eindigen in een stikker die naar de barst wijst en RMA geweigerd. :/
Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/06/GIGABYTE-RTX30-40-PCB-CRACKING-WARRANTY.jpg
https://videocardz.com/ne...ompany-rejects-rma-claims

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
Gigabyte's response to poorly made GPUs is informative and unfortunate

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
Wel een mooie video over hoe Nvidia de RTX 4000 prijzen gekozen heeft:

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
RTX 40 series Price Analysis - How Much Should You Pay?


zo rond 9:15 zie je de vergelijking met vorige generatie het best: je betaalt voor een videokaart van een tier / stap lager, de prijs van een tier / stap hoger.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

28 juni volgt dan de RTX4060 met 29ste verkrijgbaar. Ik vermoed dat het enthousiasme hiervoor werkelijk overweldigend zal zijn. :z
https://videocardz.com/ne...60-to-launch-on-june-29th
Zeker omdat ik niet verbaast zou zijn als de RTX3060 het betere product blijkt te zijn vanwege de 192 bit bus/12GB. Wel opletten dat je niet de 8GB versie koopt.


Schaamteloze crosspost van mij dan.
Nvidia pretendeert ook gewoon niet meer dat ze niet proberen om gamers veel meer te laten betalen voor een nieuwe videokaart.
I shared with you how the 4070 tie is doing relative to prior Gens. And, in fact, the early results from lower down Ada are also very -- are very strong. I mean, we're -- I'm really pleased with the Ada ramp.

Okay. Well, it's a good question. I -- the -- first of all, when we look at -- when I look at mix up or upsell, remember, even in the days of, I'll call it, product shortages throughout the pandemic and work from home and crypto as you mentioned, we didn't really change our GPU pricing. I mean, the way I measured upsell was from my core price now what it ultimately got inflated to in the end market.

And what we've seen today for Ada in this class 699 and up is a $300 to $400 upgrade in mix in the high end. So gamers who are buying our high-end of our Ada are buying from a much lower class of product, which is super exciting for us. Ampere, it wasn't -- it was -- I'll speculate, it was in the $200 to $300 upgrade range. And Turing was probably a bit below that, so we've seen an increasing mix of upgrades over time.

Vivek Arya:
So just to get it right. So what you're saying is that people who upgraded to Ampere on an average bought a card that was $200 more expensive. And now those who are upgrading to Ada are buying something that is $300 or $400 more expensive?

Jeff Fisher:
Right. Relative to what they had.

NVIDIA SVP, Jeff Fisher (Bank of America Global Technology Conference)
toon volledige bericht
Nota bene claimt Nvidia dat 18% maar iets snellers dan een RTX3060 heeft en dus een upgrade nodig heeft. En ze zijn er trots op dat veel meer gamers nu $700+ betalen voor een videokaart.
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2023/06/NVIDIA-GeForce-RTX-40-Gamers-GPUs-_2.png
https://wccftech.com/nvid...jority-still-without-rtx/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Hun eigen cijfers geven aan dat ze een groot deel van de gamers uit de markt hebben gejaagd, aangezien 82% nog niet eens minimaal een 3060 heeft en 56% slechts een GTX. Degenen die nog wel kopen, betalen flink meer, wat ook vrij logisch is gezien de totaal stagnerende prijs/prestatie. Meer betalen is de enige manier om echt winst te boeken bij Ada.

Ik kan me echter niet voorstellen dat het laatste van de drie plaatjes op die grafiek geen leugen is. De 3080 en 3090 verkochten extreem goed, terwijl de 4080 + 4070 overduidelijk slecht verkoopt, dus het kan eigenlijk niet dat dit plaatje klopt. Ik vermoed dat ze het op zo'n manier presenteren dat je wordt misleid. Sowieso denk ik dat ze niet compenseren voor het feit dat ze nu 3 modellen te koop hebben voor $699+, terwijl dat om dezelfde tijd bij Ampere maar 2 modellen waren.

[ Voor 11% gewijzigd door Ludewig op 12-06-2023 11:33 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 12 juni 2023 @ 11:31:
@DaniëlWW2

Hun eigen cijfers geven aan dat ze een groot deel van de gamers uit de markt hebben gejaagd, aangezien 82% nog niet eens minimaal een 3060 heeft en 56% slechts een GTX. Degenen die nog wel kopen, betalen flink meer, wat ook vrij logisch is gezien de totaal stagnerende prijs/prestatie. Meer betalen is de enige manier om echt winst te boeken bij Ada.
Yup en het is ergens bizar dat ze dit doen. Want het werkt gewoon niet omdat niet iedereen het kan of wil betalen. En AMD is ook bizar dat ze hier helemaal niks mee willen doen. Nota bene is N22 zowat de perfecte chip voor een flink deel van dit segment, als die maar goed geprijsd is. Want Nvidia gaat het niet oplossen met GA104 chips waar ze nu eindelijk 16GB beschikbaar maken. :/
Ik kan me echter niet voorstellen dat het laatste van de drie plaatjes op die grafiek geen leugen is. De 3080 en 3090 verkochten extreem goed, terwijl de 4080 + 4070 overduidelijk slecht verkoopt, dus het kan eigenlijk niet dat dit plaatje klopt. Ik vermoed dat ze het op zo'n manier presenteren dat je wordt misleid. Sowieso denk ik dat ze niet compenseren voor het feit dat ze nu 3 modellen te koop hebben voor $699+, terwijl dat om dezelfde tijd bij Ampere maar 2 modellen waren.
En ik kan me niet voorstellen dat het wel een leugen is. Dit was voor investeerders.
Nvidia heeft al eens eerder een boete gekregen voor misleiding, dus als ze het nu weer doen, dan kan de conclusie wel eens zijn dat ze de eerdere strafmaatregel hebben genegeerd en dan kunnen er zwaardere sancties volgen.


edit: De nieuwe vereiste specificaties van Cyberpunk zijn ook wel interessant. Want hogere VRAM en NVME vereisten zijn nu opgenomen. Het zit er nu gewoon echt aan te komen dat je dit nodig hebt voor bepaalde settings in games. :)
Afbeeldingslocatie: https://tweakers.net/i/Ld3tvJi_KpiDc7yaOgilykfXjhI=/fit-in/1280x/filters:strip_icc():strip_exif()/i/2005827538.jpeg?f=imagegallery
nieuws: CD Projekt RED past systeemeisen Cyberpunk 2077 aan, minimumeisen hoger

[ Voor 15% gewijzigd door DaniëlWW2 op 12-06-2023 12:18 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 12 juni 2023 @ 11:58:
[...]
En ik kan me niet voorstellen dat het wel een leugen is. Dit was voor investeerders.
Nvidia heeft al eens eerder een boete gekregen voor misleiding, dus als ze het nu weer doen, dan kan de conclusie wel eens zijn dat ze de eerdere strafmaatregel hebben genegeerd en dan kunnen er zwaardere sancties volgen.
Je kunt natuurlijk net zo goed beredeneren dat ze het al eerder gedaan hebben en dus weer kunnen doen.

Over het algemeen is recidive bij criminelen nogal hoog, ook als ze vrij zwaar gestraft zijn. Dus er zomaar van uitgaan dat mensen hun leven beteren na een straf komt niet overeen met de feiten.

De boete die ze moesten betalen was slechts $5,5 miljoen, want een minimaal bedrag is op een omzet van $6-8 miljard per kwartaal. Als de SEC bij een volgende overtreding de boete 10x zo hoog maakt is het alsnog alsof jij en ik een verkeersboete krijgen van een euro. Ga je je dan uit schrik aan de maximum snelheid houden?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op maandag 12 juni 2023 @ 11:58:
[...]


edit: De nieuwe vereiste specificaties van Cyberpunk zijn ook wel interessant. Want hogere VRAM en NVME vereisten zijn nu opgenomen. Het zit er nu gewoon echt aan te komen dat je dit nodig hebt voor bepaalde settings in games. :)
Met het risico een oude lul te zijn, maar toen SSDs in opkomst waren was wel één van de beste tijden in gaming / PC gebruik in zijn algemeenheid. Immers alles was gemaakt om op HDDs te werken, en ineens kwamen SSDs die rondjes eromheen rende. Startup tijden waren ineens verwaarloosbaar.

En nu wordt alles gemaakt met het idee dat er toch wel een SSD in zit, en zijn startup tijden weer terug naar wat ze geweest waren zo ongeveer.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:51
...

[ Voor 100% gewijzigd door Paprika op 12-06-2023 13:01 ]


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Ludewig schreef op maandag 12 juni 2023 @ 12:19:
De boete die ze moesten betalen was slechts $5,5 miljoen, want een minimaal bedrag is op een omzet van $6-8 miljard per kwartaal. Als de SEC bij een volgende overtreding de boete 10x zo hoog maakt is het alsnog alsof jij en ik een verkeersboete krijgen van een euro. Ga je je dan uit schrik aan de maximum snelheid houden?
Waar men bang voor moet zijn is niet zozeer represailles van de SEC als wel dat ze het vertrouwen van investeerders kwijtraken -- dat is de echte reden dat je niet liegt tegen aandeelhouders voor een grijpstuiver. Alles binnen financiën draait op vertrouwen, en dat komt te voet en gaat te paard. Daarnaast zit er natuurlijk nog een heel spectrum tussen keiharde leugens met cijfers en misleidende grafiekjes die je zorgvuldig moet interpreteren, dus de soep wordt niet zo heet gegeten.

Nu heeft Nvidia op dit moment genoeg virtueel kapitaal vanwege de AI boom, dus ze kunnen zich heel wat veroorloven op dat punt voordat investeerders weg zouden lopen. Waarschijnlijk kan Nvidia op dit moment alles roepen over de verkoopcijfers van dGPU's voor zelfbouw en maakt het alsnog geen klap uit voor het aandeel, want er is op papier al een miljoenmiljard verdiend in de professionele markt.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Sissors schreef op maandag 12 juni 2023 @ 12:53:
Met het risico een oude lul te zijn, maar toen SSDs in opkomst waren was wel één van de beste tijden in gaming / PC gebruik in zijn algemeenheid. Immers alles was gemaakt om op HDDs te werken, en ineens kwamen SSDs die rondjes eromheen rende. Startup tijden waren ineens verwaarloosbaar.

En nu wordt alles gemaakt met het idee dat er toch wel een SSD in zit, en zijn startup tijden weer terug naar wat ze geweest waren zo ongeveer.
Maar de engines verzetten ook echt wel meer werk in termen van textures en detail, plus dat er bottlenecks blijven bestaan die niet I/O related zijn. Voorbeeld daarvan: ik heb laatst Dragon Age: Origins uit de kast gehaald en afgestoft. Een spel uit 2009, dus je zou verwachten dat dat op een moderne machine laadtijden van dicht tegen de 0 heeft, right? En inderdaad gaat het bij het opstarten en eerste inladen lekker vlot, secondenwerk. Maar na een tijd spelen stroopt alles dicht en moet je gaan zitten wachten op saves en loads omdat de engine blijkbaar resources lekt -- de SSD levert het allemaal rap aan, maar de engine verwerkt het niet net zo rap. En dat is dan al met het online gedeelte afgesloten zodat je niet ook nog daarop zit te wachten, wat dat is bij moderne spellen natuurlijk ook eerder wel dan niet standaard.

Het is altijd al zo geweest dat software gewoon groeit in de ruimte die betere hardware beschikbaar maakt. Dat duurde met SSD's alleen wat langer dan gebruikelijk. Uiteindelijk stelt het developers ook weer in staat om minder moeite te hoeven steken in optimalisatie, waardoor het spel minder kost om te ontwikkelen, en dat is weer goed... voor de aandeelhouders. Modern gaming everyone. :P

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
MneoreJ schreef op maandag 12 juni 2023 @ 14:13:
[...]

Waar men bang voor moet zijn is niet zozeer represailles van de SEC als wel dat ze het vertrouwen van investeerders kwijtraken -- dat is de echte reden dat je niet liegt tegen aandeelhouders voor een grijpstuiver. Alles binnen financiën draait op vertrouwen
Beleggers hebben er ook belang bij dat een bedrijf de concurrentie niet wijzer maakt of zelfs misleid, dus uiteindelijk kan de leugen juist zorgen voor vertrouwen bij beleggers.

Overigens zie je exact hetzelfde in de politiek, waar dingen ook volstrekt niet werken volgens de theorie (regering bestuurt en de kamer controleert, waarbij fout informeren een doodzonde is). In plaats daarvan zie je dat de coalitiepartijen belang hebben bij het overeind blijven van de regering en dus allerlei slecht gedrag door de vingers zien, inclusief misinformatie, zolang de reputatieschade voor de partij die daarvan gevolg is, kleiner is dan de schade voor de partij door een val van het kabinet.

Als je de wereld echt wilt begrijpen moet je echt wat complexere analyses maken, waar je er ook rekening mee houd dat misleid worden vaak in het belang van mensen is. Mensen vinden het prima om misleid te worden op bepaalde manieren en misleiden zichzelf ook constant, wat ook een reden is dat het domste wat een bedrijf kan doen is maken wat klanten zeggen te willen, ipv waarvoor ze daadwerkelijk bereid zijn te betalen (en wat ze dus echt willen).
Uiteindelijk stelt het developers ook weer in staat om minder moeite te hoeven steken in optimalisatie, waardoor het spel minder kost om te ontwikkelen, en dat is weer goed... voor de aandeelhouders.
Deze framing is heel oneerlijk en niet erg zinnig, want met dezelfde logica kun je elke besparing wegzetten als puur in het voordeel van aandeelhouders, maar bedrijven moeten door concurrentie die voordelen doorgeven aan de consument, in dit geval door steeds mooiere spellen te maken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Ludewig schreef op maandag 12 juni 2023 @ 15:09:
Deze framing is heel oneerlijk en niet erg zinnig, want met dezelfde logica kun je elke besparing wegzetten als puur in het voordeel van aandeelhouders, maar bedrijven moeten door concurrentie die voordelen doorgeven aan de consument, in dit geval door steeds mooiere spellen te maken.
Het is wellicht een beetje oneerlijk. "Heel oneerlijk" vind ik de praktijken die men tegenwoordig uithaalt om zoveel mogelijk geld binnen te harken op manieren die niks te maken hebben met "mooiere" spellen maken, wat ook allemaal weer tijd en resources kost die niet in de kwaliteit zelf gestoken worden, maar dat gaat off-topic.

Nee, niet elke besparing is alleen beter voor de aandeelhouders natuurlijk. Maar wat er in de moderne spellenindustrie gebeurt heeft met "concurrentie" waar de consument beter van zou worden vaak nog maar heel weinig van doen. Ik neem mijn woorden in ieder geval niet terug.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@MneoreJ

Maar je kunt toch niet ontkennen dat spellen steeds mooier worden?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Ludewig schreef op maandag 12 juni 2023 @ 15:27:
Maar je kunt toch niet ontkennen dat spellen steeds mooier worden?
Laten we het houden op "gedetailleerder en uitgebreider", aangezien "mooi" subjectief is, en dat is inderdaad een van de redenen waarom snellere schijven minder rendement opleveren, ik zal het niet ontkennen. De andere reden is dus het verschuiven van de bottlenecks naar andere plekken (zoals dat alles langs de CPU moet stromen, iets wat DirectStorage zou moeten gaan oplossen). En een klein gedeelte, maar zeker niet de hoofdmoot, is dat snellere hardware het makkelijker maakt voor developers om sneller te developen omdat ze minder hard aan optimalisatie hoeven te trekken, waar ik een klein plaagstootje naar uit wilde delen, niet wetend dat jij klaar zou staan om me genadeloos neer te sabelen. :P

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DirectStorage gaat niet primair over het omzeilen van de CPU, maar vooral erover dat SSD's min of meer omgekeerde eigenschappen hebben als HDD's, namelijk een snelle burst en relatief trage snelheden bij het oversturen van grote hoeveelheden data. Dus optimaal gebruik is dat je dingen in stukjes ophaalt en niet in 1 keer een groot bestand, wat bij HDD's juist sneller is. De traditionele I/O API's zijn echter niet gebouwd voor het ophalen van heel veel kleine beetjes data.
is dat snellere hardware het makkelijker maakt voor developers om sneller te developen omdat ze minder hard aan optimalisatie hoeven te trekken
Meestal werkt het zo niet en is er gewoon een bepaald budget aan werkuren. Dus minder uren besteed aan optimalisatie kan ten bate komen aan van alles: meer content, meer bugfixing, meer DLCs, etc.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Ludewig schreef op maandag 12 juni 2023 @ 17:36:
DirectStorage gaat niet primair over het omzeilen van de CPU, maar vooral erover dat SSD's min of meer omgekeerde eigenschappen hebben als HDD's, namelijk een snelle burst en relatief trage snelheden bij het oversturen van grote hoeveelheden data. Dus optimaal gebruik is dat je dingen in stukjes ophaalt en niet in 1 keer een groot bestand, wat bij HDD's juist sneller is. De traditionele I/O API's zijn echter niet gebouwd voor het ophalen van heel veel kleine beetjes data.
Excuus, ik had specifieker moeten zijn: ik bedoel het (overigens nog te implementeren) stuk waarbij decompressie van textures overgelaten kan worden aan de GPU en niet eerst nog langs de CPU hoeft te fietsen, wat voor een dikke berg overhead zorgt op de PC die de consoles niet hebben. Dit is overigens ook de feature die ontwikkelaars het meest interessant vinden, maar het zit nog niet in de implementatie van DS op Windows (althans, de laatste keer dat ik erover hoorde). DS is zonder dat ook al wel efficiënter, maar de texture overhead wegpoetsen zet veel zoden aan de dijk.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 29-06 10:36
Ludewig schreef op maandag 12 juni 2023 @ 17:36:
DirectStorage gaat niet primair over het omzeilen van de CPU
DirectStorage gaat juist wel over het omzeilen van CPU en CPU limieten.
Ludewig schreef op maandag 12 juni 2023 @ 17:36:maar vooral erover dat SSD's min of meer omgekeerde eigenschappen hebben als HDD's, namelijk een snelle burst en relatief trage snelheden bij het oversturen van grote hoeveelheden data.
SSD zijn nog altijd veel sneller bij sequential reads dan random. Alleen stort de snelheid niet zo ver in als op een HDD bij random reads.
Ludewig schreef op maandag 12 juni 2023 @ 17:36:Dus optimaal gebruik is dat je dingen in stukjes ophaalt en niet in 1 keer een groot bestand, wat bij HDD's juist sneller is. De traditionele I/O API's zijn echter niet gebouwd voor het ophalen van heel veel kleine beetjes data.
DirectStorage is nodig omdat CPU's bij traditionele IO een bottleneck is door IO overhead bij random reads en decompressie. De reden dat je random reads will gebruiken is niet om SDD performance te maximaliseren, dat is omdat je assets alleen wil laden op het moment dat je ze daadwerkelijk nodig hebt.

Acties:
  • +5 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sissors schreef op maandag 12 juni 2023 @ 12:53:
[...]

Met het risico een oude lul te zijn, maar toen SSDs in opkomst waren was wel één van de beste tijden in gaming / PC gebruik in zijn algemeenheid. Immers alles was gemaakt om op HDDs te werken, en ineens kwamen SSDs die rondjes eromheen rende. Startup tijden waren ineens verwaarloosbaar.

En nu wordt alles gemaakt met het idee dat er toch wel een SSD in zit, en zijn startup tijden weer terug naar wat ze geweest waren zo ongeveer.
Het heeft niks te maken met hoe games nu omgaan met een SSD. :)
De situatie toen was dat een SATA SSD een verbetering in laadtijden oplevert over een HDD, omdat de beperking in leessnelheid van de HDD wegvielen. En toen SSDs breder beschikbaar kwamen, is de limiet van SATAIII opgezocht, maar meer ook niet. Dat was ook niet nodig of wenselijk.

Want dit is hoe het nu werkt:
Als je GPU nu een stuk data nodig heeft, dan wordt dat uit opslag gehaald, decompressed door de CPU, opgeslagen in RAM waarna er en gekopieerd naar VRAM gaat. Dat is geen probleem voor een HDD, ook niet echt voor een langzamere SATA SSD. Maar met een snelle NVME SSD heb je hiervoor al snel enkele CPU cores nodig die alleen maar bezig zijn met decompression. Daarom doen games nu vrijwel niks met de extra snelheid van NVME.
Afbeeldingslocatie: https://www.howtogeek.com/wp-content/uploads/2022/02/Direcstorage-Legacy-IO-e1644518278873.jpeg?trim=1,1&bg-color=000&pad=1,1

Maar daar komt dan DirectStorage.
DirectStorage haalt de CPU uit dit proces en stuurt de data compressed naar de GPU. Die doet de decompressie. Dat is ook veel makkelijker voor een GPU omdat het proces te parallelliseren is. Hiermee kan je eindelijk een NVME gebruiken.
Afbeeldingslocatie: https://www.howtogeek.com/wp-content/uploads/2022/02/DirectStorage-Modern-IO-e1644518533263.jpeg?trim=1,1&bg-color=000&pad=1,1

Maar waarvoor gebruik je het? Nou bijvoorbeeld voor daadwerkelijk hoge resolutie textures. Dit is iets dat ik ook al jaren hier zeg in deze topics. RT is leuk allemaal, maar kan ik nu gewoon eindelijk eens fatsoenlijke resolutie textures krijgen? Een straat of muur die niet plat is met een texture die het idee heeft dat het 3D is? Of flora en fauna die er niet lelijk uitziet? Of gewoon eens niet exact dezelfde texture die eindeloos herhaald word? Het wordt nu allemaal beperkt door een gebrek aan datatoegang voor de GPU.

Heb je ook nog de tweede categorie, grafische effecten die uitgevoerd worden na het renderen van de basale 3D wereld. Dus particle en physics, maar zeker ook lichteffecten en al helemaal hardware RT wat hardstikke inefficiënt is. Daar heb je zeker meer opslagruimte voor nodig, maar vooral ook toegang tot data, dus snellere VRAM alsmede brede bussen. Ergens is het gewoon hilarisch om videokaarten te adverteren en verkopen met RT en dan de geheugenbus en/of VRAM capaciteit te limiteren.

Komt ook nog eens bij dat er steeds meer games zijn die dynamisch VRAM managen door bepaalde texture resoluties te verlagen. Dit puur en alleen om een game nog net binnen die 8GB te laten passen. Krijg je dus zaken zoals:
Afbeeldingslocatie: https://pbs.twimg.com/media/FyKDJzfWcAIh14U?format=jpg&name=large


Of Hogwarts Legacy die inmiddels ook dynamische texture resolutie scaling en flinke pop in heeft. FPS getalletje is gefixed, maar het ziet er niet uit, zelfs met YT haar eigen compressie eroverheen.

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
16GB vs. 8GB VRAM: Radeon RX 6800 vs. GeForce RTX 3070, 2023 Revisit

Paar andere games in die vergelijking zijn ook behoorlijk bruut, misschien nog wel erger dan Hogwarts Legacy.


Onder de streep (pun intended) is het punt van een NVME niet snellere laadtijden. Het punt is grafische verbeteringen faciliteren. Dat gebeurd namelijk al op de PS5 en XSX die shared memory pools en dedicated decompression hardware hebben. Kijk verder wat ze nu zeggen bij die nieuwe Cyberpunk specificaties:
-7900X of 12900 voor bepaalde hoge instellingen = meer cores nodig voor decompressie.
-NVME = snellere toegang tot data.
-Meer VRAM = nodig voor toegang tot data voor de GPU.
Dat is geen toeval en dit is ook niet de eerste game waarbij ik dergelijke vereisten voorbij zie komen. En dat is mijn punt.

De eerste 8GB videokaarten waren sommige speciale modellen van de R9 290 series, uit 2013. We zijn bijna tien jaar verder. 8GB VRAM werd min of meer de standaard in 2016 met Pascal en Polaris, bijna zeven jaar geleden. Het is nu gewoon low range en dat lijkt me niet meer dan redelijk.

12GB zou nu mainstream moeten zijn. Want echt geweldig is het ook niet als ik zie wat de allocatie en daadwerkelijk gebruikte hoeveelheid VRAM al is in recente games.
16GB is nu echt wel het minimale voor upper midrange of high end.
20GB+ is wat je nu wel zou mogen verwachten voor enthousiast.

Het is uiteindelijk de combinatie van datatoegang met een NVME en meer opslagcapaciteit op je videokaart, dus in VRAM, die het verschil moet gaan maken. En als ik dan UE5 demo's de afgelopen maanden zag of de hele serie aan games die gisteren en vandaag worden getoond, dan zie ik de bui al hangen. Ik peins er persoonlijk niet eens meer over een 8GB videokaart te accepteren. En eigenlijk wil ik ook niet eens een 12GB videokaart overwegen. Voor mij is 16GB het minimale geworden omdat ik het liefst in de upper midrange/high end zit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2 @cnieuweboer

Een belangrijke manier waarop DirectStorage helpt, ook zonder GPU-decompressie en het direct sturen van data van RAM naar VRAM, is doordat de data-aanvoer veel meer verspreid wordt in de tijd.

Op de klassieke manier wordt er bak met textures geladen tijdens het opstarten van het spel en eventueel ook later wanneer meer textures nodig zijn, zoals bij het laden van een nieuw gebied. Dus dan is het systeem even heel hard bezig met het overpompen van data, wat niet erg efficiënt is, want er wordt een tijd lang heel erg veel gevraagd van de SSD, CPU, bus, etc, maar op andere momenten wordt er juist weinig tot niks opgehaald.

DirectStorage zorgt voor die spreiding en zorgt daarmee in principe voor veel lagere loadtijden. Uiteraard is het nog efficiënter als data niet meerdere keren heen en weer hoeft, en de compressed textures verstuurd kunnen worden.
Komt ook nog eens bij dat er steeds meer games zijn die dynamisch VRAM managen door bepaalde texture resoluties te verlagen. Dit puur en alleen om een game nog net binnen die 8GB te laten passen.
Dit is eigenlijk gewoon oplichting door de ontwikkelaars, want ze laten toe dat je ultra selecteert, maar ze geven je gewoon high of medium.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
DaniëlWW2 schreef op maandag 12 juni 2023 @ 11:58:
[...]

Yup en het is ergens bizar dat ze dit doen. Want het werkt gewoon niet omdat niet iedereen het kan of wil betalen. En AMD is ook bizar dat ze hier helemaal niks mee willen doen. Nota bene is N22 zowat de perfecte chip voor een flink deel van dit segment, als die maar goed geprijsd is. Want Nvidia gaat het niet oplossen met GA104 chips waar ze nu eindelijk 16GB beschikbaar maken. :/

[...]


En ik kan me niet voorstellen dat het wel een leugen is. Dit was voor investeerders.
Nvidia heeft al eens eerder een boete gekregen voor misleiding, dus als ze het nu weer doen, dan kan de conclusie wel eens zijn dat ze de eerdere strafmaatregel hebben genegeerd en dan kunnen er zwaardere sancties volgen.


edit: De nieuwe vereiste specificaties van Cyberpunk zijn ook wel interessant. Want hogere VRAM en NVME vereisten zijn nu opgenomen. Het zit er nu gewoon echt aan te komen dat je dit nodig hebt voor bepaalde settings in games. :)
[Afbeelding]
nieuws: CD Projekt RED past systeemeisen Cyberpunk 2077 aan, minimumeisen hoger
toon volledige bericht
Een stukje CD projekt red haat tegen AMD om daar een 7900 XTX gelijk te stellen aan een RTX 3080, zonder ray tracing (en met).

https://www.techpowerup.c...adeon-rx-7900-xtx/11.html

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ludewig schreef op maandag 12 juni 2023 @ 15:27:
@MneoreJ

Maar je kunt toch niet ontkennen dat spellen steeds mooier worden?
Mwah, met pareltjes zoals die nieuwe LotR vraag je je dat weleens af. En natuurlijk over algemeen worden ze mooier, maar optimalisatie heeft in zijn algemeenheid wel een hele lage prioriteit bij de meeste developers, goedkoper gewoon je klant een duurdere PC te laten kopen. Als je bijvoorbeeld in VR ziet hoe verschrikkelijk veel beter een HL Alyx is niet alleen in grafische kwaliteit, maar tegelijk ook in FPS tov bijna elk ander spel, laat zien dat je kwaliteit kan hebben zonder dat alles traag als stront is.

En natuurlijk, op een moment moet je gewoon hogere resolutie textures hebben, en mooiere lighting komt ook niet gratis. Maar ik durf wel te stellen dat optimalisaties voor de gemiddelde developer geen prioriteit zijn. En natuurlijk, het is niet zo zwart-wit, immers het moet wel een beetje fatsoenlijk lopen. Tegelijk als een engineer bij Google ervoor zorgt dat Youtube 5% minder load heeft op hun datacenters, dan is diegene engineer van de maand. Als een engineer bij Bethesda ervoor zorgt dat een spel van hun 5% lagere load heeft bij zelfde framerate op computer van hun klanten, zal dat ze weinig uitmaken.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ludewig schreef op dinsdag 13 juni 2023 @ 09:45:
[...]


Dit is eigenlijk gewoon oplichting door de ontwikkelaars, want ze laten toe dat je ultra selecteert, maar ze geven je gewoon high of medium.
Nou ja ik ga niet klagen over ontwikkelaars die wel wat optimaliseren. Dat oplichting noemen is ook idioot imo. Ja voor de reviewer vervelend, voor 99% van de gebruikers zijn zulk soort dingen dynamisch optimaliseren gewoon ideaal.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 07-08 14:35
Ludewig schreef op maandag 12 juni 2023 @ 11:31:
@DaniëlWW2

Ik kan me echter niet voorstellen dat het laatste van de drie plaatjes op die grafiek geen leugen is. De 3080 en 3090 verkochten extreem goed, terwijl de 4080 + 4070 overduidelijk slecht verkoopt, dus het kan eigenlijk niet dat dit plaatje klopt. Ik vermoed dat ze het op zo'n manier presenteren dat je wordt misleid. Sowieso denk ik dat ze niet compenseren voor het feit dat ze nu 3 modellen te koop hebben voor $699+, terwijl dat om dezelfde tijd bij Ampere maar 2 modellen waren.
Het gaat om de eerste 20 weken van de launch en heeft grotendeels te maken met aanbod. Er werden Q3-Q4 2020 veel te weinig 3080s verscheept vanuit Nvidia. De 3080 was gewoon van september bijna onverkrijgbaar als je niet een paar honderd € bovenop wou bieden en dit was nog voor de mining hype die midden december begon. De vraag voor een 3080 was vele malen groter dan wat er verkocht werd.

Die grafiek is dus hoogstwaarschijnlijk de waarheid is maar ze geeft geen beeld van de effectieve vraag dus het zegt eigenlijk weinig.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sissors schreef op dinsdag 13 juni 2023 @ 11:17:
[...]

Mwah, met pareltjes zoals die nieuwe LotR vraag je je dat weleens af. En natuurlijk over algemeen worden ze mooier, maar optimalisatie heeft in zijn algemeenheid wel een hele lage prioriteit bij de meeste developers, goedkoper gewoon je klant een duurdere PC te laten kopen. Als je bijvoorbeeld in VR ziet hoe verschrikkelijk veel beter een HL Alyx is niet alleen in grafische kwaliteit, maar tegelijk ook in FPS tov bijna elk ander spel, laat zien dat je kwaliteit kan hebben zonder dat alles traag als stront is.

En natuurlijk, op een moment moet je gewoon hogere resolutie textures hebben, en mooiere lighting komt ook niet gratis. Maar ik durf wel te stellen dat optimalisaties voor de gemiddelde developer geen prioriteit zijn. En natuurlijk, het is niet zo zwart-wit, immers het moet wel een beetje fatsoenlijk lopen. Tegelijk als een engineer bij Google ervoor zorgt dat Youtube 5% minder load heeft op hun datacenters, dan is diegene engineer van de maand. Als een engineer bij Bethesda ervoor zorgt dat een spel van hun 5% lagere load heeft bij zelfde framerate op computer van hun klanten, zal dat ze weinig uitmaken.
Dit vind ik oneerlijk naar developers.
Ik denk dat ze echt ontiegelijk veel moeite moeten doen om nog iets draaiende te krijgen met de eigenlijk gebrekkige hardware die ze moeten ondersteunen. En dat lijken ze gewoon niet meer te lukken, waardoor je nu een serie aan games kreeg die problemen heeft. Dat gaat ook niet meer stoppen. Maar veel van die games laten ook zien dat met bepaalde hardware combinaties, ze echt wel goed draaien en grafische verbeteringen brengen. Daarbij zit de pijn er vooral in dat met name RDNA2 vaak relatief veel beter presteert dan Ampere, waardoor zoveel mensen moord en brand schreeuwden dat het optimalisatie was, want ze hebben Turing/Ampere. En zo krijgen die developers er ook nog eens de schuld en verwijten erbij. :/
Ludewig schreef op dinsdag 13 juni 2023 @ 09:45:
Dit is eigenlijk gewoon oplichting door de ontwikkelaars, want ze laten toe dat je ultra selecteert, maar ze geven je gewoon high of medium.
En dit vind ik echt heel erg oneerlijk.
Ze proberen je alsnog die game te laten spelen met de hoogst mogelijke instellingen door dynamisch wat zaken te reduceren. Dat is nog steeds beter dan bepaalde settings uitsluiten. Dat doen ze omdat je hardware niet afdoende is en de meeste gamers ook totaal niet in de gelegenheid zijn geweest de afgelopen zeven jaar om een videokaart te kopen met meer VRAM.

Ik ga "de schuld" hiervoor echt niet leggen bij developers. Ik leg hem waar die hoort, bij Nvidia die als marktleider, de markt in de steek heeft gelaten.
En AMD komt er bij mij ook echt niet goed vanaf. Die ene video van HWU over VRAM gebruik in de nieuwste games, was betere marketing voor AMD dan wat ze zelf de afgelopen vier jaar hebben geleverd met hun eigen marketing afdeling. :F

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Sissors schreef op dinsdag 13 juni 2023 @ 11:20:
Nou ja ik ga niet klagen over ontwikkelaars die wel wat optimaliseren. Dat oplichting noemen is ook idioot imo. Ja voor de reviewer vervelend, voor 99% van de gebruikers zijn zulk soort dingen dynamisch optimaliseren gewoon ideaal.
Het is indirect natuurlijk niet alleen voor een reviewer lastig, maar ook voor de consument die op basis van de reviews weer aankopen moet doen.

In extremis: we willen niet toe naar een situatie waar elke kaart elk spel op "ultra" kan draaien, maar dan met een asteriskje ernaast dat dat eigenlijk betekent dat het spel er op lower end kaarten afgrijselijk uitziet omdat het "dynamisch optimaliseert" voor de framerate. Dat zou voor die 99% van de gebruikers waarschijnlijk ook te ver gaan. :P

FPS meten is natuurlijk ook niet zaligmakend, maar als reviewers moeten gaan beoordelen op beeldkwaliteit bij gelijke FPS wordt het erg lastig om daar nog een objectieve kosten/batenverhouding uit te destilleren voor je aankoop.

Op zich dus fijn als al dit soort opties altijd achter een "dynamisch optimaliseren" schuifje zitten, dat dan eventueel wel standaard aan mag staan maar wel altijd ook gewoon uit kan als ik wil weten of mijn kaart nu wel of niet met fatsoenlijke textures kan draaien.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 13 juni 2023 @ 12:10:
[...]
En dit vind ik echt heel erg oneerlijk.
Ze proberen je alsnog die game te laten spelen met de hoogst mogelijke instellingen door dynamisch wat zaken te reduceren. Dat is nog steeds beter dan bepaalde settings uitsluiten.
Nee, dit is gewoon oplichting, want het spel zegt dat je wat krijgt, maar je krijgt het niet. En het zijn niet alleen gamers die worden opgelicht, maar ook reviewers (en daarmee ook hun publiek), die nu misleid worden door resultaten die niet kloppen.

Op zijn minst zou het spel dan een waarschuwing moeten laten zien wanneer je het draait op hardware waar de kwaliteit verlaagd kan gaan worden, of nog veel beter, doen wat MneoreJ voorstelt met een optie om dit aan te zetten. Dan kunnen reviewers of anderen die de daadwerkelijke performance willen testen die optie ook uitzetten.

Overigens is 1 van de redenen waarom reviewers grotendeels zijn afgestapt van kunstmatige benchmarks dat daarmee teveel werd gesjoemeld.

[ Voor 11% gewijzigd door Ludewig op 13-06-2023 12:28 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
napata schreef op dinsdag 13 juni 2023 @ 12:07:
[...]
Het gaat om de eerste 20 weken van de launch en heeft grotendeels te maken met aanbod. Er werden Q3-Q4 2020 veel te weinig 3080s verscheept vanuit Nvidia. De 3080 was gewoon van september bijna onverkrijgbaar als je niet een paar honderd € bovenop wou bieden en dit was nog voor de mining hype die midden december begon. De vraag voor een 3080 was vele malen groter dan wat er verkocht werd.

Die grafiek is dus hoogstwaarschijnlijk de waarheid is maar ze geeft geen beeld van de effectieve vraag dus het zegt eigenlijk weinig.
Ja, het zal wel zoiets zijn. Alsnog is dat dan gewoon misleiding, waarbij ze doen alsof Ada heel succesvol is, terwijl alleen het aantal kaarten dat snel in de winkels lag een succes was.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sissors schreef op dinsdag 13 juni 2023 @ 11:17:
[...]
Als je bijvoorbeeld in VR ziet hoe verschrikkelijk veel beter een HL Alyx is niet alleen in grafische kwaliteit, maar tegelijk ook in FPS tov bijna elk ander spel, laat zien dat je kwaliteit kan hebben zonder dat alles traag als stront is.
Klopt, al hebben die wel een engine specifiek voor VR gemaakt en daarnaast allerlei trucjes gebruikt, zoals korte zichtlijnen.

En uiteindelijk zijn er maar een beperkte groep van programmeurs die zo goed zijn om dit te bereiken. Redelijkerwijs zul je altijd een flink verschil zien tussen programmeurs en studio's, zeker wanneer er een brede game-industrie is. Je kunt niet verwachten dat elke programmeur en studio het meeste talent heeft.

En je zal uiteindelijk altijd genre's hebben die veel lastiger te optimaliseren zijn (zoals flight sims, waar lange zichtlijnen bijvoorbeeld een must zijn, al zit de bottleneck daar vaak bij de CPU).
Ja voor de reviewer vervelend, voor 99% van de gebruikers zijn zulk soort dingen dynamisch optimaliseren gewoon ideaal.
Daar ben ik het erg mee oneens, want het maakt tuning heel erg lastig. Hoge kwaliteit textures maken vaak een veel groter verschil dan andere zaken, dus in principe kun je vaak het beste zo tunen dat andere VRAM-vretende opties uit staan, zodat de texture-kwaliteit hoger kan.

Maar wanneer het spel stiekem de texture-kwaliteit gaat verlagen weet je als gamer helemaal niet dat je ultra-instelling eigen helemaal niet werkt.

En als mensen klagen dat de graphics niet zo goed zijn terwijl dingen op ultra of high staan weet je niet eens of ze daadwerkelijk ultra of high textures zien. Dat maakt optimaliseren lastig, maar zorgt ook voor lastige discussies omdat mensen niet per se zien wat ze denken te zien.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ludewig schreef op dinsdag 13 juni 2023 @ 12:56:
[...]


Daar ben ik het erg mee oneens, want het maakt tuning heel erg lastig. Hoge kwaliteit textures maken vaak een veel groter verschil dan andere zaken, dus in principe kun je vaak het beste zo tunen dat andere VRAM-vretende opties uit staan, zodat de texture-kwaliteit hoger kan.
Maar dan ben je dus de 1% die dat wil doen. Vroeger deed ik dat ook wel, tegenwoordig wil ik gewoon dat het werkt.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:21
Ludewig schreef op dinsdag 13 juni 2023 @ 12:23:
[...]


Nee, dit is gewoon oplichting, want het spel zegt dat je wat krijgt, maar je krijgt het niet. En het zijn niet alleen gamers die worden opgelicht, maar ook reviewers (en daarmee ook hun publiek), die nu misleid worden door resultaten die niet kloppen.
Oplichting zou ik het niet noemen. Textures streamen bestaat al jaren en is gewoon standaard in alle game engines. Zelfs unreal engine 3 had dit al. Het is ouder dan TAA, FSR of DLSS.
Probleem is dat er nu heel slechte implementaties van opduiken die een probleem vormen. Of in geval van UE4-games het slecht getweakde settings zijn.
Een voorbeeld van een slechte implementatie is denk ik de release van The Last of Us voor pc. En na een paar patches waren de textures op lage settings ineens veel scherper zonder dat de VRAM-gebruik omhoog ging.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op maandag 12 juni 2023 @ 21:04:
Maar waarvoor gebruik je het? Nou bijvoorbeeld voor daadwerkelijk hoge resolutie textures. Dit is iets dat ik ook al jaren hier zeg in deze topics. RT is leuk allemaal, maar kan ik nu gewoon eindelijk eens fatsoenlijke resolutie textures krijgen? Een straat of muur die niet plat is met een texture die het idee heeft dat het 3D is? Of flora en fauna die er niet lelijk uitziet? Of gewoon eens niet exact dezelfde texture die eindeloos herhaald word? Het wordt nu allemaal beperkt door een gebrek aan datatoegang voor de GPU.
Je hebt heleaal niet meer dan 1080p nodig als texture resolutie op een 1080p scherm!!!! Tenminste dat zijn de wijze woorden van de volgende reactie :+ :+ :+ :
Scriptkid in 'Hoeveel vram heeft je videokaart nodig voor games?'

Denk dat educatie waarom we wel een hogere resolutie van textures nodig hebben een eerste stap is..... |:(
Op een manier dat het te begrijpen is voor mensen met het IQ van de poster van die reactie. Als je je verveeld en wilt zien hoe ik langzamerhand gek wordt :P.

Edit:
Het is met die dynamschie schaling van textures daarom extra belangrijk dat reviewers meer spelen dan de standaard 30 seconden en ook serieus rondlopen in een spel. Doe je dat niet dan zijn de resultaten (en je conclussie) bij een onderzoek naar geheugen gebruik van videokaarten gewoon nutteloos.
Hardware Unboxed doet dat wel goed en juist doordat ze die analyses zo grondig uitvoeren vind ik ze een van de betere reviewers op dit moment.

[ Voor 16% gewijzigd door Sp3ci3s8472 op 13-06-2023 15:38 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

Sissors schreef op dinsdag 13 juni 2023 @ 11:17:
[...]

Mwah, met pareltjes zoals die nieuwe LotR vraag je je dat weleens af. En natuurlijk over algemeen worden ze mooier, maar optimalisatie heeft in zijn algemeenheid wel een hele lage prioriteit bij de meeste developers, goedkoper gewoon je klant een duurdere PC te laten kopen. Als je bijvoorbeeld in VR ziet hoe verschrikkelijk veel beter een HL Alyx is niet alleen in grafische kwaliteit, maar tegelijk ook in FPS tov bijna elk ander spel, laat zien dat je kwaliteit kan hebben zonder dat alles traag als stront is.

En natuurlijk, op een moment moet je gewoon hogere resolutie textures hebben, en mooiere lighting komt ook niet gratis. Maar ik durf wel te stellen dat optimalisaties voor de gemiddelde developer geen prioriteit zijn. En natuurlijk, het is niet zo zwart-wit, immers het moet wel een beetje fatsoenlijk lopen. Tegelijk als een engineer bij Google ervoor zorgt dat Youtube 5% minder load heeft op hun datacenters, dan is diegene engineer van de maand. Als een engineer bij Bethesda ervoor zorgt dat een spel van hun 5% lagere load heeft bij zelfde framerate op computer van hun klanten, zal dat ze weinig uitmaken.
De reden waarom dat er goed uitziet en goed draait is omdat de GI gewoon nog statisch is. Volgens mij had Kliksphilip een kleine analyse hierover gedaan.
Optimalisaties (refactoren en uitbreiden van de code) is iets wat wij als developers best leuk vinden.... het is dat je dan het spel nooit af krijgt en als je voor een bedrijf werkt je je team/managers op je dak krijgt.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

PjotrX schreef op dinsdag 13 juni 2023 @ 14:43:
[...]

Oplichting zou ik het niet noemen. Textures streamen bestaat al jaren en is gewoon standaard in alle game engines. Zelfs unreal engine 3 had dit al. Het is ouder dan TAA, FSR of DLSS.
Probleem is dat er nu heel slechte implementaties van opduiken die een probleem vormen. Of in geval van UE4-games het slecht getweakde settings zijn.
Een voorbeeld van een slechte implementatie is denk ik de release van The Last of Us voor pc. En na een paar patches waren de textures op lage settings ineens veel scherper zonder dat de VRAM-gebruik omhoog ging.
Volgens mij was COD2 (of MOHAA iets?) een van de eerste spellen waar de grafische instellingen van het spel dynamisch schaalden. Dus beetje een voorloper van alles.
Dat maakt het gelijk voor reviewers lastig om te testen.

Dat TLoU voor de pc er beter uitzag is waarschijnlijk het tunen van die settings. Zulke dingen kunnen best veel tijd kosten want het moet in alle scenario's goed werken.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Nvidia schijnt bezig te zijn met een nieuwe 12 pin connector:

https://www.igorslab.de/e...elcome-12v-2x6-connector/

In elk geval worden de sense-pins ingekort, waardoor de stroom zou moeten uitvallen voordat de verbinding zo slecht is dat de connector gaat smelten. Wel lullig als je al een PCI 5 voeding hebt gekocht, want het lijkt erop dat de voedingen ook worden aangepast.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:07
Ze kunnen van die powerconnector beter iets maken met schroefverbinding, zoals bij een vga of dvi verbinding.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
Ludewig schreef op maandag 3 juli 2023 @ 09:48:
Nvidia schijnt bezig te zijn met een nieuwe 12 pin connector:

https://www.igorslab.de/e...elcome-12v-2x6-connector/

In elk geval worden de sense-pins ingekort, waardoor de stroom zou moeten uitvallen voordat de verbinding zo slecht is dat de connector gaat smelten. Wel lullig als je al een PCI 5 voeding hebt gekocht, want het lijkt erop dat de voedingen ook worden aangepast.
Lullig inderdaad, net deze gekocht (overigens zeer blij mee):
uitvoering: Corsair RM1000x SHIFT ATX3.0

Maar op zich, 12V = 12V. En anders koop ik gewoon een nieuw kabeltje van Corsair :P. Alleen de GPU kant van de 12VHPWR kabel wijzigt, niet de PSU kant.

Griekse PSU expert Aris zegt dat de nieuwe GPU's backwards compatible zullen zijn, maar is nog niet bevestigd door AMD/Nvidia/Intel. Ik mag toch hopen van wel.

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
No More 12VHPWR Connector! Say hi to 12V-2×6

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
meljor schreef op maandag 3 juli 2023 @ 13:21:
Ze kunnen van die powerconnector beter iets maken met schroefverbinding, zoals bij een vga of dvi verbinding.
Op zich nergens voor nodig. De 8-pin werkt prima en die heeft ook geen schroeven.

In principe is de 12-pin met voldoende korte sense-pins juist minder risicovol dan de 8-pin, want die laatste heeft geen korte sense-pins.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

meljor schreef op maandag 3 juli 2023 @ 13:21:
Ze kunnen van die powerconnector beter iets maken met schroefverbinding, zoals bij een vga of dvi verbinding.
Als ik soms kijk hoeveel kracht ik moet zetten om zo'n ellendige kabel erin (of eruit) te krijgen dan ben ik bang dat ik of het moederbord of het pcb van de videokaart beschadig. Iets wat soepeler gaat en op een andere manier vastgaat lijkt mij geen overbodige luxe.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het blijkt dat Nvidia en in elk geval 1 AIB stiekem al de nieuwe connectoren op de 4070 gebruikt, wat mensen nu pas opvalt:

https://www.igorslab.de/e...d-niemand-hat-es-bemerkt/

[ Voor 6% gewijzigd door Ludewig op 05-07-2023 14:11 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Loft
  • Registratie: Augustus 2000
  • Laatst online: 12-08 18:03
Aangekondig: nieuws: Nvidia brengt GeForce RTX 4060 Ti-variant met 16GB geheugen uit

En door, met de discussie ;)

Modbreak:Maar dan wel in het juiste topic. Levertijden en prijzen hebben hier niets mee te maken. Move naar [Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56

[ Voor 28% gewijzigd door br00ky op 18-07-2023 17:53 ]

If I agreed with you, we'd both be wrong.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Eens kijken wat voor chaos het wordt met de reviews, want normaliter worden kaarten gesampled naar reviewers zodat ze netjes kunnen testen zonder views te verliezen aan reviewers die het afraffelen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Op youtube zag ik dat de RTX 4060 Ti 16gb alleen sneller is op 4k door meer vram. Voor 1440p is de 8gb versie even snel en ook qua frametimes was er geen verschil. Ik hoop dat reviewers ook andere games gaan testen zoals TLOU en RE4 die op 1440p meer dan 8gb vram gebruiken met hoge texture instellingen.

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 08-08 10:25
3DEXP schreef op woensdag 19 juli 2023 @ 09:05:
Op youtube zag ik dat de RTX 4060 Ti 16gb alleen sneller is op 4k door meer vram. Voor 1440p is de 8gb versie even snel en ook qua frametimes was er geen verschil. Ik hoop dat reviewers ook andere games gaan testen zoals TLOU en RE4 die op 1440p meer dan 8gb vram gebruiken met hoge texture instellingen.
Loopt de RTX 4060 Ti 16GB alleen niet gewoon tegen hetzelfde bandbreedte probleem aan als de 8GB versie vanwege de 128-bit bus? Dan kan je wel dubbel zoveel vram hebben, dezelfde 128-bit bus blijft dan echt de bottleneck. Ik denk dan ook niet dat deze 16GB versie echt nuttig zal zijn voor de meeste mensen.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Redblader schreef op woensdag 19 juli 2023 @ 09:42:
[...]


Loopt de RTX 4060 Ti 16GB alleen niet gewoon tegen hetzelfde bandbreedte probleem aan als de 8GB versie vanwege de 128-bit bus? Dan kan je wel dubbel zoveel vram hebben, dezelfde 128-bit bus blijft dan echt de bottleneck. Ik denk dan ook niet dat deze 16GB versie echt nuttig zal zijn voor de meeste mensen.
Tegenwoordig met snelle gddr6 en hoge memory clocks is er voldoende bandbreedte om 16gb aan memory aan te sturen. De bandbreedte ligt geloof ik op 288.0gb/s. De RTX 4060 ti heeft ook meer cache waardoor de geheugenbus minder belangrijk word. Deze video test laat dat ook zien.

https://youtu.be/tPiaWWd0xGc

Welke tags word op tweakers gebruikt voor youtube filmpjes, het is namelijk niet zo simpel als [video]link[/video] ??

[ Voor 8% gewijzigd door 3DEXP op 19-07-2023 11:18 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
3DEXP schreef op woensdag 19 juli 2023 @ 11:06:
[...]
Tegenwoordig met snelle gddr6 en hoge memory clocks is er voldoende bandbreedte om 16gb aan memory aan te sturen. De bandbreedte ligt geloof ik op 288.0gb/s. De RTX 4060 ti heeft ook meer cache waardoor de geheugenbus minder belangrijk word. Deze video test laat dat ook zien.
Dat is toch niet echt ruim, want de 6700 XT heeft 384 GB/s voor 12 GB en de 6800 heeft 512 GB/s voor 16 GB.

Die hebben daar dan trouwens alsnog een stevige cache bij.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Maar het is wel ruim voldoende blijkbaar.

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
3DEXP schreef op woensdag 19 juli 2023 @ 11:06:
Tegenwoordig met snelle gddr6 en hoge memory clocks is er voldoende bandbreedte om 16gb aan memory aan te sturen. De bandbreedte ligt geloof ik op 288.0gb/s. De RTX 4060 ti heeft ook meer cache waardoor de geheugenbus minder belangrijk word. Deze video test laat dat ook zien.
Weinig indrukwekkend als je bedenkt dat mijn GTX 1070 die inmiddels al flink wat jaartjes oud is 256.3 GB/s aan bandbreedte heeft. Praktisch alle verbetering op dit punt moet van de cache komen, en hoewel de cache zeker helpt blijven er altijd scenario's waarbij bandbreedte de bottleneck is. Nvidia probeert dat dan ook nog eens leep te verbloemen door een "effective bandwidth" op te geven waarbij ze de cache alvast meerekenen onder gunstige omstandigheden.

Gelukkig (?) is de performance klap veel erger als je uit je geheugen loopt dan wanneer bandbreedte minder is, dus voor slechts 110 euro extra kun je je daartegen verzekeren met de 4060 Ti. 8)7

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Het is goed te testen door memory clocks te verlagen. Een hoger getalletje bandbreedte hoeft niet beter te zijn als het om meer prestaties gaat. Daarnaast werkt nvidia met een andere architectuur wat je niet 1 op 1 kunt vergelijken. Ook werkt Nvidia met andere compressie technieken. Met een low-mid range videokaart boeit het mij ook weinig of de geheugenbus 128-bit is of 192-bit want het zal niet veel maken in performance of speelbaarheid

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Het is zeker waar dat Nvidia de segmentatie inmiddels perfect in de vingers heeft -- wat je kunt kopen aan de onderkant is precies genoeg om 1080p mee te draaien, en als het toch iets te langzaam wordt (binnen afzienbare tijd, waarschijnlijk) mag je flink de portemonnee trekken voor een hogere tier.

Neenee, ik ben niet bitter verder, alle respect voor de aanpak. Is commercieel volkomen uitlegbaar. :P

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Enige probleem is dat de kaart te duur is maar AMD bied ook niet veel beters voor het zelfde geld met hun nieuwe generatie. En 16gb is genoeg voor 1080p en 1440p. De 8gb variant loopt nu al tegen problemen aan.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op woensdag 19 juli 2023 @ 09:05:
Op youtube zag ik dat de RTX 4060 Ti 16gb alleen sneller is op 4k door meer vram. Voor 1440p is de 8gb versie even snel en ook qua frametimes was er geen verschil. Ik hoop dat reviewers ook andere games gaan testen zoals TLOU en RE4 die op 1440p meer dan 8gb vram gebruiken met hoge texture instellingen.
Is dit alleen met een redelijk statische standaard benchmark of ook met een aantal minuten spelen? Het vervelende is dat vaak een benchmark precies binnen die 8GB blijft waardoor het probleem niet zichtbaar is. Pas als je goed gaat testen en een tijdje speelt zoals Hardware Unboxed doet wordt het probleem echt zichtbaar.

Bij deze dus ook graag de bron plaatsen ;).

Acties:
  • +1 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Sp3ci3s8472 schreef op woensdag 19 juli 2023 @ 14:36:
[...]


Is dit alleen met een redelijk statische standaard benchmark of ook met een aantal minuten spelen? Het vervelende is dat vaak een benchmark precies binnen die 8GB blijft waardoor het probleem niet zichtbaar is. Pas als je goed gaat testen en een tijdje speelt zoals Hardware Unboxed doet wordt het probleem echt zichtbaar.

Bij deze dus ook graag de bron plaatsen ;).
De bron staat er bij ;)

Edit

Ik hoop ook dat Hardware Unboxed het verschil tussen de 2 Ti kaarten gaat testen. Hij zegt op Twitter een RTX 4060 Ti 16gb te hebben gekocht voor bijna 1000 Dollar :+

https://twitter.com/Hardw.../1681447119935406087?s=20

[ Voor 18% gewijzigd door 3DEXP op 19-07-2023 15:07 ]


Acties:
  • +1 Henk 'm!

  • Neelon
  • Registratie: Mei 2000
  • Laatst online: 12-08 14:50

Neelon

FOR PONY!!!

3DEXP schreef op woensdag 19 juli 2023 @ 14:49:
[...]


De bron staat er bij ;)

Edit

Ik hoop ook dat Hardware Unboxed het verschil tussen de 2 Ti kaarten gaat testen. Hij zegt op Twitter een RTX 4060 Ti 16gb te hebben gekocht voor bijna 1000 Dollar :+

https://twitter.com/Hardw.../1681447119935406087?s=20
Ze zitten in Australie dacht ik, en ik dacht dat advies voor die grap van een kaart 560 euro was, en dat is ongeveer 950 Australische dollars.

"We here at the Torgue Corporation sincerely think that this is F*CKING AWESOME!!"


Acties:
  • 0 Henk 'm!

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 08:39
Volgens dit artikel presteert de RTX 4060 TI 16Gb slechter dan de RTX 4060 TI 8GB?

https://videocardz.com/ne...b-in-official-msi-testing

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
ruftman schreef op donderdag 20 juli 2023 @ 15:55:
Volgens dit artikel presteert de RTX 4060 TI 16Gb slechter dan de RTX 4060 TI 8GB?

https://videocardz.com/ne...b-in-official-msi-testing
Waarom stel je het als vraag? Ja, dat zegt het artikel ja. :P Het is niet heel erg onaannemelijk dat in situaties waarbij je niet over de klip van 8 GB gaat de 16 GB variant mogelijk iets langzamer is, omdat er meer met het geheugen te stellen is. De 16 GB eet wellicht in op het vermogensbudget, of zorgt voor extra warmte waardoor er minder boost headroom is, of het gebruikte geheugen heeft een hogere latency. Het scheelt dusdanig weinig dat het makkelijk in de marge van een meetfout verdwijnt (aangenomen dat het dat niet gewoon is ook).

Het is een grappig feitje om Nvidia mee te kunnen bespotten, maar dan vergeten mensen dat die extra 8 GB juist veel ergere prestatiedips tegenhoudt als die 8 GB niet voldoende is dan wel grotere AI trainingsmodellen mogelijk maakt, en daar doe je het voor. Die ieniemienie performance terugval in andere situaties is niet relevant.

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Ik snap niet dat reviewers de kaarten niet kopen om ze te testen. De 16gb varianten zijn hier gewoon te koop en op vooraad. Ik hoop een goede vergelijking te zien met games die op 1440p meer dan 8gb gebruiken. Met de huidige prijs blijft het een slechte deal, na mijn idee is dat dan ook het enige nadeel.

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
3DEXP schreef op vrijdag 21 juli 2023 @ 09:52:
Ik snap niet dat reviewers de kaarten niet kopen om ze te testen.
Dat heeft in elk geval Hardware Unboxed ook gedaan, maar het goed testen van een kaart en produceren van een video kost op zijn minst een paar dagen. Normaliter krijgen ze kaarten ook minimaal een week voor de release-datum, wanneer die wel gesampled worden. Dus nog even geduld.

Maar heel veel reviewers hebben een business-model dat volledig is afgestemd op gratis hardware.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op woensdag 19 juli 2023 @ 14:49:
[...]


De bron staat er bij ;)

Edit

Ik hoop ook dat Hardware Unboxed het verschil tussen de 2 Ti kaarten gaat testen. Hij zegt op Twitter een RTX 4060 Ti 16gb te hebben gekocht voor bijna 1000 Dollar :+

https://twitter.com/Hardw.../1681447119935406087?s=20
Hah fijn, ik heb het gedeeltelijk bekeken. Wat mij opvalt met Cyberpunk is dat ze op 1440p aan het lopen zijn en met 4k aan het rijden zijn. Dat is dus al een gigantisch verschil; zou je met 1440p rijden, zou dan de situatie anders zijn?

Daarom wacht ik af wat de analyse van Hardware Unboxed is; dat is sowieso beter dan de gemiddelde frontpage poster als het gaat over dit onderwerp....
Ben nog steeds van mening dat beide kaarten eigenlijk minimaal 100 euro te duur zijn voor wat ze bieden ten opzichte van de vorige generatie.

Acties:
  • +4 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Daar istie:

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
GeForce RTX 4060 Ti 16GB Benchmark, Can Nvidia Fix The 4060 Ti?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 11-08 21:39

Sp3ci3s8472

@ 12 graden...

Dus zoals verwacht voor oude spellen 1080p ultra quality op de 8GB versie en max high quality voor nieuwere spellen (lees dit jaar en eind vorig jaar). Best heel triest voor een kaart van 400 euro, helemaal jammer dat de 16GB versie 100 euro meer kost.

De manier van testen van HU laat duidelijk zien wat de gebreken zijn van de 8GB versie (zelfs als dit niet meetbaar is met avg fps, maar juist alleen visueel). Helaas lopen de "Trainee's", "Feuten", "Dwarfgeiten" en "Agricola Simplex" op de FP Nvidia (en of AMD) te verdedigen als ze dure kaarten met weinig vram uitbrengen.

Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12:27
Sp3ci3s8472 schreef op zaterdag 22 juli 2023 @ 00:53:
De manier van testen van HU laat duidelijk zien wat de gebreken zijn van de 8GB versie (zelfs als dit niet meetbaar is met avg fps, maar juist alleen visueel).
Dit is misschien nog wel de meest zorgelijke ontwikkeling. Het is volkomen begrijpelijk en zelfs verdedigbaar dat de spellenbakkers compenseren voor het gebrek aan RAM door dynamisch aan de textures te gaan sleutelen, want immers heb je liever een spel dat er minder uitziet dan een spel dat compleet onspeelbaar is door stuttering, maar het haalt het hele idee van naar de FPS kunnen kijken als meetlat onderuit natuurlijk. Daarmee wordt het heel simpel voor naïeve reviewers om consumenten onbedoeld op het verkeerde been te zetten, en Nvidia is er al helemáál niet vies van om het FPS-tellertje als 100% indicatief voor de ervaring op te voeren. Daar zit je dan met je spel dat 60 FPS haalt maar alleen door de textures in en uit te laten flikkeren, de hele boel te upscalen en dan nog de helft van de frames te genereren zodat het speelt alsof het 30 FPS is -- maar de schaduwen zien er wel iets beter uit, dankzij het wonder van raytracing. Geen wonder dat je flink in de buidel moet tasten voor die superieure ervaring. 8)7

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.

Pagina: 1 ... 130 ... 135 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.