• Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
icall5s schreef op vrijdag 10 februari 2023 @ 17:57:
[...]


Dit lijkt me veel te off-topic voor deze draad, het ging er meer om welke bronnen je beter niet/wel kunt aanhalen.
Nee, dat vind ik een zwak antwoord.

Het is toch redelijk rustig hier en als je zulke stellingen maakt wil ik er op zijn minst ook een bron bij zien. Als je de inhoudelijke discussies hier volgt dan wordt er eigenlijk altijd een bron bij geplaatst.

Nu ik toch offtopic ga:
Heel simpel, het is nu jouw woord tegen die van HardwareUnboxed die hier wordt beschouwd als een goede bron en zich wel heeft bewezen na tig jaar aan reviews. Ondanks dat ik het soms niet eens ben met bepaalde dingen van Steve ben ik nog steeds eerder geneigd hem te geloven; om twee redenen ik heb je hier verder niet of nauwelijks zien posten en ook al had @Dennism of @DaniëlWW2 zo'n bewering gemaakt dan had ik nog steeds om een bron gevraagd.

Daarbij komt dan eigenlijk nog de verwachting dat wij zelf op zoek gaan naar die video van HU en anderen; wat er op neer komt dat meerdere mensen moeten zoeken in plaats van dat jij het plaatst gezien jij weet welke specifieke video's het zijn.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
icall5s schreef op vrijdag 10 februari 2023 @ 17:45:
[...]


Onbetrouwbaar op basis van zijn beweringen over DDR5 en test setup. Zo stond 4000CL19 geheugen in gear 2 waardoor 3200CL14 geheugen sneller was in zijn test, hij wist dat blijkbaar niet bij het maken van de video. En hij gaf aan dat je beter een DDR5 mobo kunt kopen omdat je dan in de toekomst een snellere kit kan kopen. Maar in plaats daarvan een 12600K kopen is goedkoper en levert meer prestaties op. Techtubers hadden videoreacties gemaakt op deze videos, een aantal daarvan zijn door Steve geblokt, wat natuurlijk niet netjes is om het zacht uit te drukken. Om DDR4 b-die te verslaan moet je naar de 7200-7600 DDR5 range en dan heb je momenteel een UNIFY-X of APEX nodig om dat werkend te krijgen Niks mis mee en zelfs wel leuk, maar dan zit je in een andere prijsklasse dan 99% van het publiek van Steve. :)
Ik ben heel benieuwd naar de bronnen, want een Steve die andere video's zou blokkeren klinkt nu niet echt echt als Steve van HUB, ook heb ik dit nergens gezien op geen enkele van bijvoorbeeld de hardware gerelateerde reddits die ik intensief volg, bij zoiets zou Steve namelijk waarschijnlijk allang gebanned zijn van bijv. /r/hardware (er worden daar outlets voor minder gebanned) en dat had normaliter ook wel een voor een flinke rel gezorgd op de diverse sites. Een controverse die mij in ieder geval niet is opgevallen.
icall5s schreef op vrijdag 10 februari 2023 @ 17:57:
[...]


Dit lijkt me veel te off-topic voor deze draad, het ging er meer om welke bronnen je beter niet/wel kunt aanhalen.
Dit is natuurlijk vrij zwak, zonder duiding en onderbouwing is je post hierboven eigenlijk waardeloos. Je beroept je namelijk op zaken die Steve gezegd zou hebben (wat natuurlijk kan), maar je geeft geen enkele duiding waaruit zou blijken dat dit ook zo is, waardoor uiteindelijk je post niets zegt over de betrouwbaarheid van HUB of het feit of ze beter wel of niet aangehaald kunnen worden.

Chronia Lvl 60 Warlock Diablo 3


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cid Highwind schreef op vrijdag 10 februari 2023 @ 12:23:
@DaniëlWW2 Het feit dat mét RT de Intel A770 ineens op RTX3080 niveau presteert en AMD nog flink verder onderaan bungelt dan normaalgesproken het geval is, duidt toch wel enigszins op dat er nog wel wat winst te behalen valt middels optimalisaties. Ondanks de betere efficiëntie waarmee een RTX 3060 z'n raytracing doet zou deze toch niet beter mogen presteren dan een RX 7900 XT.

Wat de RTX 3080 / 4070Ti en VRAM betreft: Ik zie in de grafieken van TPU deze kaarten nergens door het ijs zakken. Wat zie ik hier over het hoofd? Die 4070Ti trekt 4K nog niet met een acceptabele framerate zonder dat RT is ingeschakeld. Hetzelfde voor de 3080. Tenzij je wellicht 4k/40 op het oog hebt op een 120hz OLED.

Wat dat betreft zijn de statements van HUB en TPU behoorlijk tegenstrijdig. De eerste slaat alarm, de tweede stelt wat ik hierboven schrijf.
Voor RT geld dat ze bij TPU zelf denken dat er iets mis is gegaan met hun testen voor AMD. :)
https://www.techpowerup.c...04579/page-7#post-4949215

Verder wordt Intel verklaard omdat de RTX3080 simpelweg door de VRAM is met RT. Dat is ook precies wat HWU inmiddels heeft laten zien.




In het algemeen zie ik heel wat bewijs voor mijn eerdere stellingnamen in HWU hun gigantische test. VRAM is cruciaal. Het verschil tussen een RTX3080 10GB en een RTX3080Ti 12GB is enorm. En als je naar de RTX3090 gaat is het weer een enorme sprong. Nota bene doet de RTX3060 het eigenlijk beter als je ook naar lows kijkt.


Nu moet ik wel toegeven dat de pijn toch voornamelijk in RT zit, Zonder RT lijk je op 1440p nog net afdoende te hebben aan 8GB VRAM en 10GB lijkt ook nog afdoende voor 4K. Daar zag ik alleen wel de RTX3070 wegzakken tegenover de RX6750XT. Niet alleen bij het zwaardere Hogsmeade, maar ook de reguliere test. Het is opvallend omdat van 1440p naar 4K, de RTX3070 in veel games juist iets uitloopt.


Een ander element is CPU. Tja kijk eens hoe de RX7900XTX wegloopt op 1440p in het zwaardere stuk van Hogsmeade. Daar loopt Nvidia tegen een keiharde bottleneck aan en die ligt bij hun, niet de game. Dit is namelijk het grote nadeel van Nvidia hun scheduling die ze voornamelijk op de CPU doen. Die trekt het gewoon niet waardoor een deel van de GPU stil komt te liggen. Het is een probleem dat meteen al duidelijk opdook bij de RTX4090 reviews en een probleem dat ik jaren geleden al voorzag dat eens zou komen. Maar deze game legt het keihard bloot. Het is niet meer zoals met de RTX3080 en RX6800XT waar de verschillen een paar procent zijn of je misschien eens een uitschieter van 10% voor de RX6800XT had op 1440p. Nee dit is 28% sneller dat bij 4K omdraait in 9% voor de RTX4090 op 4K. Zelfs daar lijkt de RTX4090 dus niet de verwachte 35% sneller te halen. Dat ga je pas zien met een veel snellere CPU dan een 7700X. Je wacht hier eigenlijk op de 7800X3D om te kijken hoeveel die erbij kan halen op 4K en hoeveel die het gat kan reduceren op 1440p. Maar het zegt wel iets over Nvidia hun scheduling model dat nu echt verouderd begint te raken.

Ultieme voorbeeld hiervoor is natuurlijk dit:

Niet alleen verslaat de RX7900XTX, de RTX4090 ruim in RT op 1080p, maar het verschil tussen een RTX3080Ti en RTX4090 verdwijnt bijna.

Hogwarts grounds




Hogsmeade




[Voor 4% gewijzigd door DaniëlWW2 op 10-02-2023 19:26]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nVidia heeft imo gewoon veel te veel het geheugen uitgemelkt. Dat wisten we een paar jaar geleden ook wel. 10 gb voor de 3080 was super karig.

Tuurlijk mem compressieverbeteringen blabla maar toch. Zo'n 3080 10gb is nu al te krap. :O

Maar ja, veel te weinig concurrentie, crypto, corona en dan kun je daarmee wegkomen helaas.

ps: Je kunt wel zeggen dat zonder RT het nog gaat, maar imo niet bij nVidia. Het was nVidia zelf die miv de 20XX serie vol heeft ingezet op RT.....

[Voor 18% gewijzigd door Help!!!! op 10-02-2023 20:11]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 27-05 17:06
Poehoe, en dat allemaal op basis van een spel dat zeer duidelijk nog een patch (of twee) nodig heeft voor de perf een beetje representatief is. Nog even en we kunnen de overige benchmarks wel opdoeken. Hardware Unboxed ook: test met 53 GPUs! Mozes kriebel, respect voor die gasten, maar ben zeer benieuwd of die resultaten over een maand nog een beetje erop lijken. Ik had bij de eerste resultaten met "grappige" bottlenecks al gezegd "OK, hier zijn de voorlopige conclusies, de volle test met 53 kaarten hou je van ons tegoed als de eerste game- en driverpatches langs zijn gekomen want hier zit duidelijk iets nog niet helemaal goed".

Begrijp me niet verkeerd, het is inderdaad allemaal machtig interessant wat voor verschillen je in hardware en drivers kan zien als de boel tegen de uitersten aanloopt, en wellicht is het zelfs wel een voorproefje op de toekomst als spellen legitiem zoveel resources nodig hebben om er nog een beetje uit te zien, maar ik vind het wel een beetje onthutsend hoeveel aandacht hieraan geschonken wordt (overigens niet specifiek deze draad, ik zie het op heel het internet wel terugkomen). Toch denk ik niet dat "but can it play Hogwarts Legacy" dezelfde meme-status gaat bereiken als Crysis. :P Het spel ziet er zeker goed uit, maar om nou te zeggen dat dit de next-gen van graphics moet wezen die de hardware rechtvaardigt, dat gaat ook weer wat ver.

  • Sissors
  • Registratie: Mei 2005
  • Laatst online: 09:09
Ik ben ook wel benieuwd hoe mensen hier weten dat er niks te winnen is qua GPU RAM gebruik door optimalisaties, en dat het gewoon inherent is aan een spel zoals dit dat Nvidia GPUs te weinig RAM hebben.

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 27-05 17:06
Daar ben ik dan weer wat minder hoopvol over -- ik denk vooral dat de CPU bottlenecks en frame limits die er zijn komen omdat het spel daar gewoon een paar steekjes los heeft qua gebruik en niet optimaal gebruik maakt van de aanwezige paardenkrachten. Als je de details ziet van textures en het toegenomen gebruik als je RT aanzet denk ik dat de VRAM wel een punt zal blijven, en dat ze daar niet plotseling iets gaan vinden waardoor het plotseling ook wel met de helft kan zonder op kwaliteit in te leveren. Zo wel dan is dat extra beschamend.

Het blijft daarbij altijd wel een kip of ei verhaal: spellenbakkers kunnen wel dingen maken waardoor veel kaarten uit hun VRAM lopen, maar dan is het ook op veel kaarten niet speelbaar, dus zullen ze doorgaans juist proberen te targeten wat beschikbaar is (met texture packs voor de paar mensen die meer willen en kunnen). Maar omgekeerd zouden de kaarten nooit meer RAM krijgen als iedereen dat maar bleef doen, dus het is altijd even kijken wie er als eerste over de streep komt. Nu wordt er op de high end 20/24 GB gekwakt terwijl je aan de low end nog steeds kaarten met 6 GB nieuw kan kopen (en dan bedoel ik niet iGPU vervangers maar dingen die verkocht worden als "geschikt om mee te gamen", hoe twijfelachtig die claim ook is); zo'n groot gat hebben we in absolute termen nog niet eerder gezien (al wordt dat ongetwijfeld meer veroorzaakt door de toegenomen vraag/mogelijkheden van AI dan gaming, dat dan weer wel).

Om nou te zeggen dat Nvidia dan op de een of andere manier niet ver genoeg in de toekomst heeft gekeken dan wel te krenterig was door "slechts" 10 GB op sommige kaarten te plakken terwijl AMD dan wel een hele 12 GB erop heeft gedaan, tja. Als we kijken naar wat Nvidia neerzet in termen van "bang for your buck" heb ik met de hoeveelheid VRAM niet het grootste probleem. :P

[Voor 4% gewijzigd door MneoreJ op 10-02-2023 22:25]


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
Sp3ci3s8472 schreef op vrijdag 10 februari 2023 @ 18:08:
[...]


Nee, dat vind ik een zwak antwoord.

Het is toch redelijk rustig hier en als je zulke stellingen maakt wil ik er op zijn minst ook een bron bij zien. Als je de inhoudelijke discussies hier volgt dan wordt er eigenlijk altijd een bron bij geplaatst.

Nu ik toch offtopic ga:
Heel simpel, het is nu jouw woord tegen die van HardwareUnboxed die hier wordt beschouwd als een goede bron en zich wel heeft bewezen na tig jaar aan reviews. Ondanks dat ik het soms niet eens ben met bepaalde dingen van Steve ben ik nog steeds eerder geneigd hem te geloven; om twee redenen ik heb je hier verder niet of nauwelijks zien posten en ook al had @Dennism of @DaniëlWW2 zo'n bewering gemaakt dan had ik nog steeds om een bron gevraagd.

Daarbij komt dan eigenlijk nog de verwachting dat wij zelf op zoek gaan naar die video van HU en anderen; wat er op neer komt dat meerdere mensen moeten zoeken in plaats van dat jij het plaatst gezien jij weet welke specifieke video's het zijn.
offtopic:
Ik snap wel waar @icall5s vandaan komt, en als je gaat overclocken op het Intel platform, geeft HUB niet per se het beste advies. Want een 13600K (zelfs een 12600K) met goedkoop 2x8GB CL14 3200 DDR4 geheugen presteert gewoon beter dan Ryzen 7000, of je die Ryzen 7000 nou overclockt of niet. Dat zijn echter geen mainstream scenario's waar Steve van HUB op test.

Tom's Hardware heeft wel wat overclocking tests, https://www.tomshardware....rboards-cost-so-damn-much
maar trappen de DDR4 niet zoveel op de staart als Framechasers dat doet: YouTube: 40 Year Old Boomer Goes Postal Over i3 12100. en wat meer inhoudelijk YouTube: 7950X VS 5800X3D VS 12900K MAX OVERCLOCK BENCHMARKS 😱✔️😱✔️
nou zal ik niet meegaan in de verdere anti-HUB meningen die Framechasers heeft, maar goed feit blijft dat als je met de huidige platforms de meeste FPS uit je games (met een focus op e-sports games) wilt halen, je bij Intel (en Nvidia) moet zijn.

Vind je overclocken - zoals ikzelf - te eng? Dan zijn de Ryzen 7000 X3D CPU's waarschijnlijk ideaal.


Wel grappig om te zien hoe Nvidia kaarten nu al tegen bottlenecks aanlopen, zowel qua VRAM te weinig hebben als qua CPU teveel belasten. Dat zou het scenario van Hogsmeade vs Hogwarts Grounds kunnen verklaren, een muur waar alle Nvidia kaarten tegen aan lopen ongeacht VRAM:

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
sunsmountain schreef op zondag 12 februari 2023 @ 02:51:
offtopic:
Ik snap wel waar @icall5s vandaan komt, en als je gaat overclocken op het Intel platform, geeft HUB niet per se het beste advies. Want een 13600K (zelfs een 12600K) met goedkoop 2x8GB CL14 3200 DDR4 geheugen presteert gewoon beter dan Ryzen 7000, of je die Ryzen 7000 nou overclockt of niet. Dat zijn echter geen mainstream scenario's waar Steve van HUB op test.
Dat is niet mijn punt; het gaat erom dat als iemand een bewering doet dat die persoon dat moet onderbouwen met feiten en indien beschikbaar een bron plaatst. Het zal mij anders weinig uitmaken of hij wel of niet gelijk heeft gezien hij er geen tijd en moeite in wil steken om zijn standpunt te verdedigen en onderbouwen.

Want het gaat mij er niet om of HardwareUnboxed wel of geen gelijk heeft; want zoals ik al aangaf ben ik het ook niet altijd eens met hun methodes. Alleen als ik kritiek heb dan onderbouw ik het met een bron erbij. Die minimale inzet mis ik hier.

Ik ga hier niet meer verder op in want dit is nu echt te veel offtopic.

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 07:48

Rivanov

Apple freak

DLSS 3.1.1 is te downloaden.

Xbox Live: Rivanov | LG OLED65CX :: Xbox Series X | TREQ One Simrig :: Fanatec GT DD Pro 8nm :: BJ Steel F1 Pro :: BMW GT2 v2 - Formula V2.5X | 5800x3D - PNY RTX 4080 - 32GB Fury Renegade - Samsung 980 Pro 2TB NVMe (Main) + Kingston 2TB NVMe (Storage)


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Heb deze bij Hogwarts in gebruik. De meegeleverde versie was al aardig ouder: 2.3.11 uit maart 2022.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou ik kan inmiddels ook bevestigen dat 8GB aan VRAM niet altijd afdoende is op 1440p. Alles ultra met FSR2 quality dus de render resolutie is 1704x960p. Het interessante is alleen dat allocatie voor mijn RX5700XT meestal al tegen de 8GB aanloopt en ik vermoed dat ik tegen een licht geheugenlek ben aangelopen. Opeens ontstonden er namelijk flinke haperingen en framedrops. Opgeslagen en de game opnieuw opgestart en toen was het weer normaal. Maakte meteen wel duidelijk dat je echt tegen die grens aanzit. Beetje erover en meteen krijg je problemen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Op 3840*1600 ultra zonder RT geeft Afterburner in het menu voordat ik de game heb geladen bijna 7GB vram en 15GB ram in gebruik op.

Na laden game is dat 13+GB vram en bijna 16GB ram.

Best wel insane. Het ziet er prima uit maar om nou te zeggen dat het zo next level is dat je dergelijk geheugenbeslag zou verwachten......

Hopelijk gaan ze die game snel een beetje patchen want die savegame bug(s) zijn nogal vervelend. Verder vermaak ik me er prima mee.

[Voor 15% gewijzigd door Help!!!! op 12-02-2023 16:01]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Poeh als die 4060 van de FP waar is dan wordt het wel erg triest. Dacht Nvidia dat ze een AMD'tje konden doen met hun laptop kaart als desktop kaart. Ik refereer hier naar de 6400 en 6500 natuurlijk.

[Voor 50% gewijzigd door Sp3ci3s8472 op 14-02-2023 13:18]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
Sp3ci3s8472 schreef op dinsdag 14 februari 2023 @ 13:17:
Poeh als die 4060 van de FP waar is dan wordt het wel erg triest. Dacht Nvidia dat ze een AMD'tje konden doen met hun laptop kaart als desktop kaart. Ik refereer hier naar de 6400 en 6500 natuurlijk.
Correctie, deze hele generatie is al triest en deze stap is gewoon de volgende die volledig in lijn is met de andere bagger tot nu toe. Zowel Nvidia als AMD leveren op zowel prijs als kosten letterlijk zooi af. Het enige wat dit iets goedmaakt is de sprong in prestaties, maar daar vragen ze zoveel voor dat het niet eens meer in verhouding staat.

Ik hoop echt van harte dat de sales voor beide bedrijven ver onder verwachting zijn en blijven. Waarschijnlijk is dit volledig bewust en krijgen we over 2 jaar weer producten die een kleinere sprong maken, maar wel te betalen zijn (in ieder geval iets beter dan nu). Echter zullen alle producten dan ca 100mm2 kleiner zijn dan nu en hebben we weer te maken met onbenut potentieel. Uiteindelijk gaan we gewoon meer betalen voor minder :|

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Aanvullend, misschien heb ik het intellect niet om dit te begrijpen...

Edit: ik plaatst het filmpje hier, maar dit is dus niet Nvidia specifiek het betreft ook AMD en Intel.

Als ze minder produceren omdat er stock over is dan kiezen ze er dus voor om de prijzen gelijk te houden ipv dat ze die verlagen waarmee ze misschien meer kunnen verkopen. Het zal dan geen price fixing zijn, maar het is in ieder geval niet in ons voordeel.

Er zijn zat mensen die wel iets willen kopen, maar door de hoge prijzen dat niet kunnen.

[Voor 8% gewijzigd door Sp3ci3s8472 op 14-02-2023 17:16]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 14 februari 2023 @ 13:17:
Poeh als die 4060 van de FP waar is dan wordt het wel erg triest. Dacht Nvidia dat ze een AMD'tje konden doen met hun laptop kaart als desktop kaart. Ik refereer hier naar de 6400 en 6500 natuurlijk.
Nah, Nvidia doet hier hetzelfde als wat AMD met N33 doet. N24 is nog kleiner met een 64bit bus en PCIe 4.0 4x. AMD is daarmee gestopt omdat die chips gewoon geen plaats meer hebben in de markt met de snellere APU's die ze nu ook aanbieden.

Maar voor Nvidia:
3072 x 2 x 2900MHz = 17,7TFLOPS RTX4060
3584 x 2 x 1900MHz = 13,6TFLOPS RTX3060

Je kijkt dus naar ongeveer 30% sneller. Nu is de RX6650XT iets van 15% sneller dan een RTX3060 en ik verwacht weinig van N33. Denk iets hogere clock speeds dan de 2600MHz die N23 haalt, maar voor de rest is N33 zeer vergelijkbaar met N23. Immers werkt de tweede SIMD32 die de grote versnelling in RDNA3 had moeten opleveren, nauwelijks tot niet in veel games. En ik zie N33 eigenlijk ook niet zomaar 3GHz+ doen. Nvidia heeft dat allang door. Let maar op, Die RTX4060 gaat ongeveer net zo snel als de RX7600XT zijn, misschien nog iets sneller als N33 echt tegenvalt en ook geen verbetering in clock speed heeft. Nvidia hoeft het niet eens te proberen omdat N33 altijd de zwakste chip zou zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
DaniëlWW2 schreef op dinsdag 14 februari 2023 @ 17:51:
[...]


Nah, Nvidia doet hier hetzelfde als wat AMD met N33 doet. N24 is nog kleiner met een 64bit bus en PCIe 4.0 4x. AMD is daarmee gestopt omdat die chips gewoon geen plaats meer hebben in de markt met de snellere APU's die ze nu ook aanbieden.
Dat zeg ik toch :P.
Maar voor Nvidia:
3072 x 2 x 2900MHz = 17,7TFLOPS RTX4060
3584 x 2 x 1900MHz = 13,6TFLOPS RTX3060

Je kijkt dus naar ongeveer 30% sneller. Nu is de RX6650XT iets van 15% sneller dan een RTX3060 en ik verwacht weinig van N33. Denk iets hogere clock speeds dan de 2600MHz die N23 haalt, maar voor de rest is N33 zeer vergelijkbaar met N23. Immers werkt de tweede SIMD32 die de grote versnelling in RDNA3 had moeten opleveren, nauwelijks tot niet in veel games. En ik zie N33 eigenlijk ook niet zomaar 3GHz+ doen. Nvidia heeft dat allang door. Let maar op, Die RTX4060 gaat ongeveer net zo snel als de RX7600XT zijn, misschien nog iets sneller als N33 echt tegenvalt en ook geen verbetering in clock speed heeft. Nvidia hoeft het niet eens te proberen omdat N33 altijd de zwakste chip zou zijn.
Die clocksnelheden, staan die al vast? De 3090 Ti scoort ook 10% hoger dan de 4070 Ti bij gelijke TFlops. Ik denk eerder dat je met 15-20% blij mag zijn.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nee want jij had het over N24. Dat is een nog meer uitgeklede chip. ;)
Die clocksnelheden, staan die al vast? De 3090 Ti scoort ook 10% hoger dan de 4070 Ti bij gelijke TFlops. Ik denk eerder dat je met 15-20% blij mag zijn.
Ik ga er vanuit als AD102, AD103 en AD104 ongeveer 2900MHz doen, AD106 en AD107 dat ook doen. :)
Verder zit de RTX4070Ti wel met een minder geheugensysteem. De RTX4070Ti is meestal iets beter op 1080p en ook nog wel op 1440p, maar de RTX3090Ti is iets beter op 4K. Dat zal alleen minder uitmaken met een fors kleinere chip omdat die meestal minder gevoelig zijn. Hier zou hetzelfde wel eens kunnen gebeuren. De RTX4060 sneller op 1080p en de RTX3060 loopt in op 4K want meer shaders en meer VRAM. Maar veel verwacht ik niet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
Sp3ci3s8472 schreef op dinsdag 14 februari 2023 @ 14:39:
Aanvullend, misschien heb ik het intellect niet om dit te begrijpen...
[YouTube: Price Fixing by Undershipping? No, and here's why]
Edit: ik plaatst het filmpje hier, maar dit is dus niet Nvidia specifiek het betreft ook AMD en Intel.

Als ze minder produceren omdat er stock over is dan kiezen ze er dus voor om de prijzen gelijk te houden ipv dat ze die verlagen waarmee ze misschien meer kunnen verkopen. Het zal dan geen price fixing zijn, maar het is in ieder geval niet in ons voordeel.

Er zijn zat mensen die wel iets willen kopen, maar door de hoge prijzen dat niet kunnen.
2 verschillende dingen. AMD en Nvidia bepalen per kwartaal niet de vraag door AIB partners of resellers, alleen het aanbod aan chips.

Ian Cutress zegt dat de reden van minder eenheden shipped, is: minder vraag door resellers (en als gevolg daarvan ook door AIB partners). Hij neemt dus aan dat er genoeg chips aanbod is, maar onderbouwt die aanname niet.

Hoe dan ook, het gevolg is geen grote prijsdalingen, althans niet in de EU. Hadden we maar een BestBuy...

https://wccftech.com/nvid...-3080-420-us-3070-300-us/

[Voor 5% gewijzigd door sunsmountain op 15-02-2023 20:20]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • NLxAROSA
  • Registratie: December 2005
  • Niet online
DaniëlWW2 schreef op zondag 12 februari 2023 @ 11:48:
Nou ik kan inmiddels ook bevestigen dat 8GB aan VRAM niet altijd afdoende is op 1440p. Alles ultra met FSR2 quality dus de render resolutie is 1704x960p. Het interessante is alleen dat allocatie voor mijn RX5700XT meestal al tegen de 8GB aanloopt en ik vermoed dat ik tegen een licht geheugenlek ben aangelopen. Opeens ontstonden er namelijk flinke haperingen en framedrops. Opgeslagen en de game opnieuw opgestart en toen was het weer normaal. Maakte meteen wel duidelijk dat je echt tegen die grens aanzit. Beetje erover en meteen krijg je problemen. :)
Dit zelfde gedrag zie ik bij Forspoken. Met een 3060ti 8GB op 1440p (ook met DLSS op balanced) zit je precies op de rand. Loopt meestal prima, maar ook daar is het leaky, dus op een gegeven moment ga je over de grens. De engine gaat dan uiteraard dingen uit/in laden, maar je FPS knalt dan vrij hard naar beneden. Restart/reload je de game dan is het probleem weg. Lijkt wel of de grens om te gaan schonen op 10GB ligt en niet op 8GB.

Dit is in ieder geval de eerste keer dat het uitschakelen van overlays etc. (die ook enkele honderden MBs aan VRAM gebruiken) ook echt nodig was bij mij.

[speculatie]
Wat ik een klein beetje vermoed is dat de aankomende generatie games zwaar is geoptimaliseerd om optimaal gebruik te maken van de PS5/XBSX en bijbehorende geheugen architectuur. Die zullen vol CPU/GPU/RAM proberen te pakken. Op de consoles is geheugen geshared, bv XBSX kan van de 16GB max 13,5GB toewijzen aan de GPU. Dus als die verhouding niet precies 50/50 uitvalt ga je bij een port op de PC je textures terug moeten schroeven. En het maak niet uit hoever je over de 8GB gaat, 8,1GB is al genoeg om je FPS om zeep te helpen. Op basis hiervan denk ik dat ~12GB het nieuwe 8GB is. Alles met minder is 'low/budget settings', 12GB is 'medium/console niveau' en alles daarboven is 'glorious PC'.
[/speculatie]

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
crosspost, analyse van Locuza voor geïnteresseerden: YouTube: Radeon N31 vs. GeForce AD102/103, chip area analysis and rough cost ...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia hun cijfers zijn er ook. Heb maar snel gekeken dus erg gedetailleerd is het niet wat ik heb gezien. :)

Nou $1,83 miljard/46% minder omzet in Q4 2022 dan Q4 2021.
Uitstekend, een goede stap voor de nodige realiteitscheck. Hiermee zit Nvidia weer op omzetcijfers van 2017.
https://www.anandtech.com...es-record-q4-2018-results

Vervolgens meteen naar inventaris gegaan omdat ik al de claims zag dat het correctie is voor een verzadigde markt die bijna voorbij is. Tja, $5,159 miljard is wel heel veel inventaris voor bijna gecorrigeerd. Bijna het dubbele van een jaar geleden en veel meer dan ze zelfs in een halfjaar kunnen verschepen in meer normale marktomstandigheden. Zelfs met hun uitstekende $3.42 miljard die ze in Q4 2021 verscheepte, is niet afdoende om dat in een kwartaal weg te werken. Dus ik geloof er niks van.


https://nvidianews.nvidia...h-quarter-and-fiscal-2023

edit: Q2 en Q3 2022 erbij gepakt.

Q2


Q3


Afnemend noemen ze dat. O-)

[Voor 24% gewijzigd door DaniëlWW2 op 23-02-2023 12:20]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ben benieuwd naar de vragen en antwoorden op de analystcall die binnenkort wel ergens zal zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
@DaniëlWW2

De grotere inventory kan ook komen omdat ze de release van Ada uitgesteld hadden, terwijl de productie al begon, waardoor ze nu eigenlijk achterlopen met de verkoop relatief tot de productie. Op zich hoeft dat geen probleem te zijn, als ze dat later corrigeren door minder te produceren, dan wel meer te verkopen.
Afnemend noemen ze dat.
Het kan natuurlijk wel zijn dat de 3000-voorraad significant is afgenomen en de Ada-voorraad sterk is toegenomen. Ik vraag me af of een analyst dat gevraagd heeft en of Nvidia dat dan ook wil beantwoorden.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Dit is de transcript van de analist call: https://www.fool.com/earn...earnings-call-transcript/

En als je wilt luisteren: https://events.q4inc.com/attendee/355422502

Maar de analisten hebben 0 interesse in gaming. Allemaal AI/cloud.

In de call zit naast de Q&A echter ook nog een stuk uitleg. Daar zegt Nvidia deze twee dingen:
- The year-on-year decline reflects the impact of channel inventory correction, which is largely behind us.
- Year-on-year decline reflects the impact of the channel inventory correction, which we expect to end in the first half of the year.

Dus ze beweren dat de grootste correctie al is gedaan, maar ook dat ze nog een half jaar nodig hebben om het helemaal te corrigeren. Dat lijkt erop te duiden dat ze de correctie vertraagt hebben.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dan moet Nvidia blijkbaar nog meer inventaris opbouwen die ze niet kunnen verkopen. :z

Want ik weet echt niet in welke realiteit ze daar bij Nvidia leven met dergelijke uitspraken.
“Gaming is recovering from the post-pandemic downturn, with gamers enthusiastically embracing the new Ada architecture GPUs with AI neural rendering,” he added.
It sure looks bad, but you’d never know it by the way CFO Colette Kress painted things on the earnings call with analysts, as she focused on the 16% sequential growth over Q3. “Sequential growth was driven by the strong reception of our 40 series GeForce RTX GPUs based on the Ada Lovelace architecture. The year-on-year decline reflects the impact of channel inventory correction, which is largely behind us. And demand in the seasonally strong fourth quarter was solid in most regions. While China was somewhat impacted by disruption related to Covid,” she told analysts.
https://www.jonpeddie.com...fiscal-year-2023-numbers/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
DaniëlWW2 schreef op donderdag 23 februari 2023 @ 11:31:
Nvidia hun cijfers zijn er ook. Heb maar snel gekeken dus erg gedetailleerd is het niet wat ik heb gezien. :)

Nou $1,83 miljard/46% minder omzet in Q4 2022 dan Q4 2021.
Uitstekend, een goede stap voor de nodige realiteitscheck. Hiermee zit Nvidia weer op omzetcijfers van 2017.
https://www.anandtech.com...es-record-q4-2018-results

Vervolgens meteen naar inventaris gegaan omdat ik al de claims zag dat het correctie is voor een verzadigde markt die bijna voorbij is. Tja, $5,159 miljard is wel heel veel inventaris voor bijna gecorrigeerd. Bijna het dubbele van een jaar geleden en veel meer dan ze zelfs in een halfjaar kunnen verschepen in meer normale marktomstandigheden. Zelfs met hun uitstekende $3.42 miljard die ze in Q4 2021 verscheepte, is niet afdoende om dat in een kwartaal weg te werken. Dus ik geloof er niks van.
[Afbeelding]

https://nvidianews.nvidia...h-quarter-and-fiscal-2023

edit: Q2 en Q3 2022 erbij gepakt.

Q2
[Afbeelding]

Q3
[Afbeelding]

Afnemend noemen ze dat. O-)
Klopt, maar als je de prijzen kunstmatig verhoogt met $200 extra voor een 4070 Ti, of $500 extra voor een 4080 en 4090, dan wordt je inventaris ook prijziger.

Ik ben bang dat de realiteitscheck pas komt als er competitie is van AMD, te weten Navi32/Navi33, 618 shopping festival in China dus uiterlijk 18 Juni dat we moeten wachten. Ik hoop al eerder met Computex.

En op zich zou de 4080 ook omlaag kunnen gaan, als de 7900XTX beter verkoopt. Een en ander zal afhangen van FSR3 en mindshare, maar het ray tracing voordeel van +20% en Nvidia marketing voor de 4080 zal een punt blijven.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sunsmountain schreef op zondag 26 februari 2023 @ 12:58:
[...]

Klopt, maar als je de prijzen kunstmatig verhoogt met $200 extra voor een 4070 Ti, of $500 extra voor een 4080 en 4090, dan wordt je inventaris ook prijziger.

Ik ben bang dat de realiteitscheck pas komt als er competitie is van AMD, te weten Navi32/Navi33, 618 shopping festival in China dus uiterlijk 18 Juni dat we moeten wachten. Ik hoop al eerder met Computex.

En op zich zou de 4080 ook omlaag kunnen gaan, als de 7900XTX beter verkoopt. Een en ander zal afhangen van FSR3 en mindshare, maar het ray tracing voordeel van +20% en Nvidia marketing voor de 4080 zal een punt blijven.
Ik kan me vergissen maar volgensmij hangt de waardering van de inventaris niet af van de verkoopprijs maar van de gekozen waarderingsgrondslag. Waarbij ik overigens niet heb nagezocht welke waarderingsgrondslag nvidia hanteert.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
Help!!!! schreef op zondag 26 februari 2023 @ 13:21:
[...]

Ik kan me vergissen maar volgensmij hangt de waardering van de inventaris niet af van de verkoopprijs maar van de gekozen waarderingsgrondslag. Waarbij ik overigens niet heb nagezocht welke waarderingsgrondslag nvidia hanteert.
oh, winst en verkoop zit niet in inventory.

https://www.accountingtoo...-inventory-valuation.html

Wat wel kan gebeuren is dat de marktprijs beneden de kostprijs kan zakken en dat je moet agschrijven.

Wat er ook in zit, zijn de toegenomen kosten van N7 naar N5.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:17

XanderDrake

Build the future!

sunsmountain schreef op zondag 26 februari 2023 @ 12:58:
Ik ben bang dat de realiteitscheck pas komt als er competitie is van AMD, te weten Navi32/Navi33, 618 shopping festival in China dus uiterlijk 18 Juni dat we moeten wachten. Ik hoop al eerder met Computex.
Is de reality check niet nu al gaande? Ik heb niet het gevoel dat ook maar iemand een 4000 serie GPU koopt. Prijsdalingen zijn ook nergens te vinden, om verkopen te verhogen. Ik wilde een hele tijd geleden een 4000 serie GPU kopen maar als Nvidia denkt dat ze 800€ van mij krijgen voor een 4070 hebben ze het mooi mis.

Sterker nog, als je kijkt naar de RTX 3070, zijn 29 van de 45 SKU's nog gewoon goed leverbaar. Er is nog extreem veel voorraad.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +2Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
XanderDrake schreef op woensdag 1 maart 2023 @ 17:39:
[...]

Is de reality check niet nu al gaande? Ik heb niet het gevoel dat ook maar iemand een 4000 serie GPU koopt. Prijsdalingen zijn ook nergens te vinden, om verkopen te verhogen. Ik wilde een hele tijd geleden een 4000 serie GPU kopen maar als Nvidia denkt dat ze 800€ van mij krijgen voor een 4070 hebben ze het mooi mis.

Sterker nog, als je kijkt naar de RTX 3070, zijn 29 van de 45 SKU's nog gewoon goed leverbaar. Er is nog extreem veel voorraad.
Ik zal niet ontkennenen dat de RTX 3000 serie goed leverbaar is, de inventaris cijfers van het laatste kwartaal rapport laat dat wel zien. Overigens geldt dat ook voor AMD's RX 6000 serie.

Maar de nieuwe RTX 4000 serie verkoopt op zich wel:



4070 Ti: 340 kaarten op nummer 4, de RTX 3060 met 470 kaarten op nummer 1
4080: 215 kaarten op nummer 8
4090: 70 kaarten op nummer 15


Even kijken ah hier is een meer recente:



4070 Ti: 390 kaarten op nummer 1
4080: 195 kaarten op nummer 7
4090: 145 op nummer 10

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 27-05 16:56
@Help!!!!
Ik heb tot nog toe niets over brand gevallen gelezen, wel gesmolten kabels.
Het stukje "Fire hazard" is niet wat in de bron staat en dus interpretatie van TPU.
Beetje shockeren is tegenwoordig wat alle sites doen, alles voor de klikken.

Ik hoop dat het de problemen oplost voor de mensen die de connector er niet goed insteken. Erg vervelend als je een gesmolten kabel/GPU hebt natuurlijk, ook al komt het door het niet goed aansluiten.

Ik vraag mij wel af hoeveel beter die aansluiting wordt hierdoor, maar dat zal de toekomst leren.

i7 12700K, Corsair H100i RGB Pro XT, Gigabyte Z690 UD DDR4, Gigabyte RTX 4090 Windforce 24G, Kingston FR 2x16GB 3600 C16 KF436C16RB1K2, 2TB WD SN850 NVMe SSD, 500GB WD SN750 NVMe SSD, 6TB WD Purple, Phanteks Eclipse P360A, Corsair RM1000x


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

De standaars is amper uit en Intel is nu al de connector recommendation aan het veranderen. De oude voldoet dus blijkbaar niet.

Smeltende kabels zijn een feit en dat wordt in het algemeen gezien als een fire hazzard. Ik vind niet dat TPU daar sensatie mee zoekt, teveel interpreteert of alles voor de kliks doet iets wat jou blijkbaar enorm dwars zit. Pakkende krantenkoppen bestaan overigens al sinds de krant zelf.

Daarnaast is/was 'sensatie' in dit geval goed want het zorgt/zorgde voor aandacht op een potentieel groot gevaar. Hierdoor zijn onderzoeken opgestart en users zijn meer aandacht aan de aansluiting gaan besteden.

Maar goed jij bent waarschijnlijk pas overtuigd als Intel in een persbericht letterlijk fire hazzard zegt. Dat zal waarschijnlijk niet gebeuren tenzij ze gedwongen worden want aansprakelijkheidsissues.

Een connector die een hoop users er blijkbaar uitzichzelf niet goed genoeg instoppen zie jij als user error. Ik en velen anderen zien het bij een product dat mede bedoeld is voor de DIY markt, daar ook als eerste terechtkomt en straks in vele honderden miljoenen computers zit, als design error.

Intel et al heeft blijkbaar de uitkomst van (mogelijke) rechtszaken niet af willen wachten, iets wat mogelijk pas afgerond is als de standaard zeer breed uitgerold is in de huiskamers. En al helemaal niet als de uitkomst een recall zou zijn met alle financiële gevolgen van dien.

Voor de geïnteresseerden de geupdate specificatie zelf: https://edc.intel.com/con...ecommended/#_Ref117617895

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Koldur schreef op maandag 13 maart 2023 @ 09:13:
Ik hoop dat het de problemen oplost voor de mensen die de connector er niet goed insteken. Erg vervelend als je een gesmolten kabel/GPU hebt natuurlijk, ook al komt het door het niet goed aansluiten.
Dit werd ook veroorzaakt doordat het vaak absurd veel kracht kostte om de connector volledig in te pluggen, wat erop duidt dat de male connector te groot is voor de female kant. Dat lijkt mij een ontwerp- dan wel productiefout (afhankelijk van wat de maten en toleranties zijn in de specs).

Ik vind het niet echt een gebruikersfout als normaal gedrag bij andere connectors, namelijk hard duwen totdat je heel veel weerstand voelt, hier niet werkt.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 27-05 16:56
@Help!!!!
Denk dat je mijn reactie wat uit verband rukt. Ik vind het goed dat er wat aan gedaan wordt en denk dat het echt wel beter ontworpen moet worden als dat kan.

Fire hazard blijft ik persoonlijk een bijzondere keuze, want er is nergens brand ontstaan, niet dat ik het daarmee normaal vind als iets smelt natuurlijk. Ik vind het voor het grootste gedeelte inderdaad user error.

Er gaan zoveel dingen stuk door user error, LGA sockets, USB connectoren en weet ik het. Maar omdat iedereen hier brandgevaar in ziet, wordt het mijns inziens echt overdreven.
Uit meerdere testen met zelfs tot 1200W over de connector en schuin aansluiten (bronnen heb ik eerder al vermeld) is gebleken dat brand niet voorkomt.

Sensatie koppen heb ik ook in kranten niet veel mee op, blijft weinig toevoegen en is er om aandacht te trekken.
Dat er hier aandacht voor is gekomen, is heel goed, nu weten de mensen dat zij de kabel echt goed moeten aansluiten en blijkbaar is er een betere connector voor te maken. Op het eerste gezicht lijkt deze beter te zijn, ik hoop dat de praktijk dat ook zo bewijst.

@Ludewig Mijn ervaring met de aansluiting is dat er iets meer kracht nodig is dan de PCIe 6+2 aansluiting. Ook die moet je met best wat kracht aansluiten.

Ik zal er verder niet teveel op reageren om een eerdere ellelange discussie niet teveel te herhalen, maar in het nieuws hoor je er voor de rest niets meer over. Dus ik blijf het wat opgeklopt vinden. Wel goed dat er voor de echte beginner (waarvan ik persoonlijk vind dat je dan hulp moet inschakelen) er hierdoor ogenschijnlijk minder risico op smeltende kabels is.

EDIT:
Ook Tweakers denkt er zo over m.b.t. Fire Hazard, wel na reacties:
AverageNL in 'Intel komt met ATX-revisie 12Vhpwr-aansluiting om hitteproblemen te voorkomen'

[Voor 5% gewijzigd door Koldur op 13-03-2023 11:26]

i7 12700K, Corsair H100i RGB Pro XT, Gigabyte Z690 UD DDR4, Gigabyte RTX 4090 Windforce 24G, Kingston FR 2x16GB 3600 C16 KF436C16RB1K2, 2TB WD SN850 NVMe SSD, 500GB WD SN750 NVMe SSD, 6TB WD Purple, Phanteks Eclipse P360A, Corsair RM1000x


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Koldur schreef op maandag 13 maart 2023 @ 11:15:
Mijn ervaring met de aansluiting is dat er iets meer kracht nodig is dan de PCIe 6+2 aansluiting.
De vraag is natuurlijk wel of dat representatief is voor elke connector. Als een fabrikant een mold heeft waarmee 10 mannelijke connectors tegelijk worden gegoten, dan kan het best zo zijn dat connector nr 6 groter is omdat de mold bij die connector wat anders is.
Wel goed dat er voor de echte beginner (waarvan ik persoonlijk vind dat je dan hulp moet inschakelen) er hierdoor ogenschijnlijk minder risico op smeltende kabels is.
Het ging ook fout bij mensen die toch echt geen totale beginners zijn, dus vind ik dit wat makkelijk.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:17

XanderDrake

Build the future!

Zoals jullie in mijn eerdere posts al konden proeven; ik ben een beetje klaar met Nvidia. Te duur en teveel anti-consumer nonsense. Daarnaast, AMD kaarten worden altijd beter over tijd. Ik heb tot nu toe alleen maar Nvidia kaarten gekocht, mijn huidige kaart is de geweldige GTX 1080 Ti, dus het zou een grote stap zijn voor mij.

En nu word ik weer in twijfel gebracht... Er is een nieuwe video uit gebracht door Digital Foundry over de Path Ray Traced mod van Half-Life 1, en mijn god wat ziet dat er goed uit.

Deze versie van Half Life, net als de Quake RT mod van dezelfde modder, is zo vet dat ik het spel weer opnieuw wil gaan spelen. Maar wat blijkt? Een AMD GPU draait aanzienlijk slechter dan een nVidia GPU, vaak iets meer dan de helft van de FPS, appels vs appels. Daarnaast kan nVidia altijd leunen op DLSS of FSR 2.1. AMD's compatibility van FSR is zo goed dat nVidia er vrolijk van mee profiteert.
Maar dat is niet alles, ook een RTX 2060 kan deze mod prima draaien op 1080p+DLSS Qual. Als je deze QI wil hebben op een AMD variant wil doen moet je waarschijnlijk richting een 6700 XT gaan, terwijl dat een significante hogere klasse van GPU is.

Een RTX 4070 of 4060 maakt waarschijnlijk korte metten met al deze geweldige mods, niet te vergeten dat je daarboven op ook nog eens DLSS 3.0 kan inzetten.

Is er een kans dat AMD óf betere ray tracing kan krijgen door "aged like fine wine" drivers, of misschien meer FPS kan krijgen door een zeer goede versie van FSR 3.0?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 27-05 16:56
@XanderDrake
AMD en Nvidia zijn beide relatief duur, hoewel Nvidia veel proprietary technieken gebruikt en toepast om klanten te binden en bij fabrikanten exclusiviteit probeert af te dwingen, zou ik niet teveel merk bashen/fanboy zijn.
Als AMD de marktleider zou zijn, zullen zij ook echt wel bepaalde technieken proprietary maken. Zo werkt het gewoon in de vrije markt.

Dan nog, gewoon kopen wat je wilt/nodig hebt. Ik heb Nvidia gekocht omdat ik veel in VR speel en nog draadloos (streaming/encoding) ook. Beide een punt waar AMD problemen mee heeft.
Anders was ik waarschijnlijk wel voor AMD gegaan, als ik geld niet hoef uit te geven, doe ik het liever niet ;)
Ray tracing vind ik op het moment nog niet heel interessant.

Ray tracing is bij de 6 series van AMD niet significant verbeterd en lijkt nu bij de 7 series ook niet te gebeuren. Zeker weten doe je het nooit, maar het lijkt niet reëel dat via drivers de prestaties zoveel beter worden op dat gebied.
Al helemaal niet voor een mod die een kleine groep wil/zal gaan gebruiken. Wil je die mod spelen, is het beste een Nvidia gebaseerde kaart te kopen.

i7 12700K, Corsair H100i RGB Pro XT, Gigabyte Z690 UD DDR4, Gigabyte RTX 4090 Windforce 24G, Kingston FR 2x16GB 3600 C16 KF436C16RB1K2, 2TB WD SN850 NVMe SSD, 500GB WD SN750 NVMe SSD, 6TB WD Purple, Phanteks Eclipse P360A, Corsair RM1000x


Acties:
  • +1Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
XanderDrake schreef op dinsdag 14 maart 2023 @ 10:13:

Is er een kans dat AMD óf betere ray tracing kan krijgen door "aged like fine wine" drivers, of misschien meer FPS kan krijgen door een zeer goede versie van FSR 3.0?
In beide gevallen zal dat nooit het verschil wegnemen met Nvidia. Je kunt niet magisch de hardware anders inzetten om winst te halen en net zo goed te presteren in RT als de concurrent. Dit is gewoon een onderdeel waar AMD nog een generatie op achter loopt.

Nvidia heeft dit beter voor elkaar door een deel van de chip zelf letterlijk te maken voor deze taak. Dedicated hardware is altijd beter, maar kost dus wel chipruimte. Daarom zijn Nvidia's chips ook vrij groot geworden sinds ze RT hebben meegenomen in haar hardware. Die ruimte kost ons ook geld, maar driver optimalisaties gaan dit niet oplossen.

FSR/DLSS is een beetje zelfde laken en pak. Uberhaupt lever je met FSR of DLSS al kwaliteit in om meer frames uit te persen. Je maskeert hiermee eigenlijk alleen maar dat de hardware eigenlijk niet snel genoeg is om dit pixel voor pixel te renderen.

Als je echt hardcore RT wilt gaan doen, dan blijft Nvidia voor nu de logische keuze. En zelfs dan is het vaak loodzwaar.

Acties:
  • +2Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
XanderDrake schreef op dinsdag 14 maart 2023 @ 10:13:
En nu word ik weer in twijfel gebracht... Er is een nieuwe video uit gebracht door Digital Foundry over de Path Ray Traced mod van Half-Life 1, en mijn god wat ziet dat er goed uit.
Smaak is natuurlijk subjectief. Ik zie vooral een heel erg gedateerd spel wat in 1 opzicht opgepoetst is, waardoor juist meer opvalt wat er nog heel ouderwets is. Ik zou liever Black Mesa spelen zonder RT, dan deze mod. Black Mesa is een semi-officiele remake van Half-Life.

Het is trouwens ook mogelijk om Black Mesa met RT te spelen. Dat ziet er een stuk beter uit: YouTube: How to get Ray Tracing on Black Mesa ~ RTX3090 ReShade RTGI 4K

Dan nog is het totaal niet te vergelijken met Half-Life Alyx zonder RT, nog los van de fantastische immersie door VR.

Speelt ook niet mee dat er al sinds 2007 geen 'platte' Half-Life meer is uitgebracht? Zorgt de combinatie van nostalgie en een gebrek aan moderne Half-Life spellen er niet voor dat je erg snel onder de indruk bent?
Maar dat is niet alles, ook een RTX 2060 kan deze mod prima draaien op 1080p+DLSS Qual. Als je deze QI wil hebben op een AMD variant wil doen moet je waarschijnlijk richting een 6700 XT gaan, terwijl dat een significante hogere klasse van GPU is.
De 6000-serie loopt ook twee generaties achter bij RT, maar bij de 7000-serie lijkt dat naar 1 generatie achterstand te zijn gegaan.

Ik denk zelf dat met name Lumen in de nabije toekomst ervoor gaan zorgen dat RT echt omarmt gaat worden en niet zozeer de veel te zware implementaties die Nvidia graag ziet. Die kosten meestal veel te veel FPS.

Op dit moment is RT wat mij betreft nog nauwelijks de moeite waard en je moet dan ook echt veel geld gaan uitgeven. Nvidia heeft ook vrij weinig geheugen bij veel prijsniveau's, dus dan heb je een kaart die beter is in RT, maar waar je straks RT alsnog uit moet zetten omdat dit meer VRAM gebruikt en je ook sneller textures op een lagere kwaliteit moet zetten, wat vaak een veel groter verschil maakt dan RT.

Ik heb trouwens sterk het gevoel dat we beide fabrikanten nu een lesje moeten leren. Hoe minder er nu verkocht wordt, hoe meer ze de volgende generatie dat gaan compenseren (of als we mazzel hebben, al eerder).

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • napata
  • Registratie: Oktober 2020
  • Laatst online: 27-05 20:16
Ludewig schreef op dinsdag 14 maart 2023 @ 12:39:
[...]

Ik denk zelf dat met name Lumen in de nabije toekomst ervoor gaan zorgen dat RT echt omarmt gaat worden en niet zozeer de veel te zware implementaties die Nvidia graag ziet. Die kosten meestal veel te veel FPS.
Hardware (en software eigenlijk ook) Lumen is enorm zwaar. Probeer Fortnite maar eens uit en dat is een relatief simpel spel in graphics. Met een 4090 haal je in beide gevallen geen 60fps op 4K.

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
napata schreef op dinsdag 14 maart 2023 @ 13:36:
[...]

Hardware (en software eigenlijk ook) Lumen is enorm zwaar. Probeer Fortnite maar eens uit en dat is een relatief simpel spel in graphics. Met een 4090 haal je in beide gevallen geen 60fps op 4K.
Ja, realistisch gezien denk ik dat RT voor de meeste gamers toekomstmuziek is.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 09:17

XanderDrake

Build the future!

Ludewig schreef op dinsdag 14 maart 2023 @ 16:05:
Ja, realistisch gezien denk ik dat RT voor de meeste gamers toekomstmuziek is.
Ik vind dit een beetje een lastig statement. Die Quake 1 en HL mods draaien goed op een RTX 2060, welke je tweedehands kan krijgen voor minder dan 200€.
Een RTX 2060 kan ook RT Minecraft, RTX Quake 2 en Doom Eternal, Fortnite spelen op 50+ FPS. Natuurlijk zijn die spellen niet allemaal 100% path traced, maar het ziet er wel mooi uit.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Deze is ook wel interessant. Wat gebeurd er als je de RTX4070Ti en RTX3080 10GB tegenover elkaar zet op 1440p en 4K? Nou in een aantal games valt de RTX4070Ti al een aardig stukje terug naar de RTX3080 op 4K. De reden is waarschijnlijk geheugenbrandbreedte. Verder natuurlijk de miserabele prestatieverbetering voor een hogere prijs, maar die wisten we al. :z

[Voor 11% gewijzigd door DaniëlWW2 op 14-03-2023 20:20]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
XanderDrake schreef op dinsdag 14 maart 2023 @ 10:13:
Is er een kans dat AMD óf betere ray tracing kan krijgen door "aged like fine wine" drivers, of misschien meer FPS kan krijgen door een zeer goede versie van FSR 3.0?
In spellen die geschreven zijn om ook consoles te draaien komt AMD in de buurt met RT. In het geval van de mods die jij noemt kan je het waarschijnlijk vergeten.
Het helpt ook als developers een fatsoenlijke config maken, iets wat ze bij de Witcher 3 dus niet hebben gedaan (maar modders gelukkig wel).

Frame gen hoef ik niet :P, maar dat is iets persoonlijks.

Persoonlijk overweeg ik pas RT op kaarten die rond 3090 Ti niveau zitten. Alles daaronder heeft het weinig zin. De RT op mijn 6900 XT is leuk, maar naast dat ik een keertje Quake 2 heb gedraaid met RT is het mij de moeite echt niet waard omdat het in veel gevallen te traag is tenzij de resolutie naar beneden gaat (mij niet gezien).

  • Squishie
  • Registratie: Augustus 2008
  • Laatst online: 27-05 15:17

Squishie

Not So....

Oef, gister rumors geleaked dat 4070 750$ MRSP gaat krijgen.... Dat is nagenoeg hetzelfde als de 4070 TI. Waar gaan we heen.... 4050 voor 600+$? YouTube: RTX 4070 $749 | 7800X3D Benchmarks | GPU Prices | Steam Deck | Phoen...


Moet er niet aan denken :(.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Squishie schreef op donderdag 16 maart 2023 @ 09:13:
Oef, gister rumors geleaked dat 4070 750$ MRSP gaat krijgen.... Dat is nagenoeg hetzelfde als de 4070 TI. Waar gaan we heen.... 4050 voor 600+$? YouTube: RTX 4070 $749 | 7800X3D Benchmarks | GPU Prices | Steam Deck | Phoen...


Moet er niet aan denken :(.
Het antwoord is dan ook heel simpel. Je koopt niks, niemand koopt iets, totdat Nvidia en AMD met zulke enorme voorraden zitten dat ze wel moeten gaan dalen. En dat Nvidia met alsmaar oplopende voorraden zit, is allang duidelijk. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
De 3070 Ti was zo'n 8% sneller voor een 20% hogere prijs. Met deze prijs is de 4070 Ti zo'n 7% duurder dan de 4070, dus als als het verschil in prestaties dan als verwacht ook zo'n 8%-10% is, dan lijkt Nvidia de strategie door te zetten waarbij de prijs/prestatieverhouding vrijwel constant wordt gehouden over de hele reeks.

Hoe lager het model, hoe schunniger de prijs dan wordt. Daarnaast ontstaat er een gigantisch gat onderaan waar mensen met een lager budget überhaupt niks hebben. Tenzij het plan is om de 3000-reeks de komende 1,5 jaar gewoon te blijven verkopen. Het zou mij ondertussen niet meer verbazen als dat inderdaad is wat Jensen bedacht heeft.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • Squishie
  • Registratie: Augustus 2008
  • Laatst online: 27-05 15:17

Squishie

Not So....

DaniëlWW2 schreef op donderdag 16 maart 2023 @ 09:54:
[...]


Het antwoord is dan ook heel simpel. Je koopt niks, niemand koopt iets, totdat Nvidia en AMD met zulke enorme voorraden zitten dat ze wel moeten gaan dalen. En dat Nvidia met alsmaar oplopende voorraden zit, is allang duidelijk. ;)
De vraag is wie de langste adem heeft - ik denk dat de consument aan de kortste eind trekt. Op een gegeven moment kan je gewoon niet anders (doordat apparatuur uitvalt, te oud etc.)
Afgelopen 2 jaar is er nagenoeg geen beweging gezien. Ook in de kwartaalmeldingen wordt doodleuk niet gemeld dat er geen issues zijn.

[Voor 11% gewijzigd door Squishie op 16-03-2023 12:00]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Squishie schreef op donderdag 16 maart 2023 @ 11:59:
[...]


De vraag is wie de langste adem heeft - ik denk dat de consument aan de kortste eind trekt. Op een gegeven moment kan je gewoon niet anders (doordat apparatuur uitvalt, te oud etc.)
Afgelopen 2 jaar is er nagenoeg geen beweging gezien. Ook in de kwartaalmeldingen wordt doodleuk niet gemeld dat er geen issues zijn.
Er zijn genoeg videokaarten van de vorige generatie, zowel nieuw als tweedehands in omloop. Als je videokaart nu kapot gaat, tja de RX6600 series zijn best aardig. De rest is te duur. ;)
Verder is het bekend dat met name Nvidia hun AIB "partners" qua marges uitknijpt. Die gaan dit niet heel lang trekken als die elk kwartaal een bepaalde hoeveelheid GPU's moeten afnemen, maar ook met videokaarten opgescheept worden die maar niet verkopen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Squishie schreef op donderdag 16 maart 2023 @ 11:59:
[...]
De vraag is wie de langste adem heeft - ik denk dat de consument aan de kortste eind trekt. Op een gegeven moment kan je gewoon niet anders (doordat apparatuur uitvalt, te oud etc.)
De verkopen in een vervangingsmarkt zijn wel flink lager dan in een upgrademarkt, dus dat heeft dan wel consequenties voor de bedrijven. Ik heb nooit in mijn leven een kaart vervangen omdat hij kapot was. Sowieso zijn HDDs en fans het enige dat bij mij ooit gefaald heeft.

En wanneer de prijs/prestatie stagneert wordt het ook veel interessanter om te repareren/refurbishen, met name het vervangen van de fans, koelpasta en thermal pads.

Het is aannemelijk dat ook de verkopers van andere componenten hier last van krijgen, want vaak upgraden gamers hun CPU wanneer die een bottleneck wordt voor hun GPU.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
DaniëlWW2 schreef op donderdag 16 maart 2023 @ 12:13:
[...]


Er zijn genoeg videokaarten van de vorige generatie, zowel nieuw als tweedehands in omloop. Als je videokaart nu kapot gaat, tja de RX6600 series zijn best aardig. De rest is te duur. ;)
Verder is het bekend dat met name AMD & Nvidia hun AIB "partners" qua marges uitknijpt. Die gaan dit niet heel lang trekken als die elk kwartaal een bepaalde hoeveelheid GPU's moeten afnemen, maar ook met videokaarten opgescheept worden die maar niet verkopen.
Even een hoognodige correctie in je tekst gemaakt. Laten we vooral AMD niet beschermen en ook bij naam noemen in deze strategie. Ze doen namelijk exact hetzelfde als Nvidia. Nu leg je de schuld neer bij Nvidia door een nuance te plaatsen in je tekst. Ook AMD verdiend net zo goed hetzelfde pak slaag.

Verder volledig eens dat iedereen met meer dan 2 hersencellen en een werken GPU er eigenlijk gewoon goed aan doet om alles van de RTX 4000 en Radeon 7000 serie lekker in de winkel te laten liggen op dit prijsniveau. Zo lang de prijzen meer dan 10% hoger liggen ten opzichte van afgelopen generatie (waar beide bedrijven onverwachts enorm aan verdiend hebben) is het veel te veel. Ik ken geen genade voor Nvidia en AMD die proberen hun winsten uit 2020 en 2021 door te trekken naar deze generatie. Voor mij bestaan de nieuwe series niet als te overwegen keuze zo lang dit blijft. Ik hoop dan ook dat de bedrijfsresultaten dramatisch uitpakken voor beide bedrijven bij deze cashgrab.

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Ik zou vooral ook adviseren aan mensen om niet alleen naar de laatste AAA releases te kijken, maar ook naar mods, indie games en spellen die je eerder links hebt laten liggen. Er is zoveel moois waar je ook met mindere hardware erg veel plezier aan kunt beleven, al hangt het natuurlijk ook af van wat je leuk vindt (welke genres vindt je leuk en hoe breed is je interesse).

Het is vaak ook nog eens erg goedkoop om zo te gamen qua spelprijzen (Steam sale begint trouwens om 18:00 vandaag).

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Squishie
  • Registratie: Augustus 2008
  • Laatst online: 27-05 15:17

Squishie

Not So....

DaniëlWW2 schreef op donderdag 16 maart 2023 @ 12:13:
[...]


Er zijn genoeg videokaarten van de vorige generatie, zowel nieuw als tweedehands in omloop. Als je videokaart nu kapot gaat, tja de RX6600 series zijn best aardig. De rest is te duur. ;)
Verder is het bekend dat met name Nvidia hun AIB "partners" qua marges uitknijpt. Die gaan dit niet heel lang trekken als die elk kwartaal een bepaalde hoeveelheid GPU's moeten afnemen, maar ook met videokaarten opgescheept worden die maar niet verkopen.
Ik denk dat je mssn verbaasd over hoeveel in deze markt de mensen kijken naar iets waarvan duidelijk is dat het substantieel minder is, tenzij er limiterende factoren zijn (budget).

Ik kan ook naar een 2060 of 3060 kijken, maar is dat het waard? Zeker gezien het al relatief gedateerd is en mogelijk verhoud tot de upgrades van bijv. Cpu ram etc.

  • Eglaerinion
  • Registratie: April 2004
  • Laatst online: 22:08
Squishie schreef op donderdag 16 maart 2023 @ 09:13:
Oef, gister rumors geleaked dat 4070 750$ MRSP gaat krijgen.... Dat is nagenoeg hetzelfde als de 4070 TI. Waar gaan we heen.... 4050 voor 600+$? YouTube: RTX 4070 $749 | 7800X3D Benchmarks | GPU Prices | Steam Deck | Phoen...


Moet er niet aan denken :(.
Sterker nog. Dat is exact dezelfde prijs als de 4070 Ti. 749 + 21% BTW is bijna 909 euro.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 27-05 05:26
Squishie schreef op donderdag 16 maart 2023 @ 09:13:
Oef, gister rumors geleaked dat 4070 750$ MRSP gaat krijgen.... Dat is nagenoeg hetzelfde als de 4070 TI. Waar gaan we heen.... 4050 voor 600+$? YouTube: RTX 4070 $749 | 7800X3D Benchmarks | GPU Prices | Steam Deck | Phoen...


Moet er niet aan denken :(.
Lijkt me een onzinnig gerucht.

Mechwarrior Online: Flapdrol


  • Overspark
  • Registratie: Maart 2010
  • Laatst online: 08:49
sjekneck schreef op donderdag 16 maart 2023 @ 14:38:
[...]

Ik hoop dan ook dat de bedrijfsresultaten dramatisch uitpakken voor beide bedrijven bij deze cashgrab.
Zelfs als Nvidia geen enkele consumentenkaart meer verkoopt zullen de bedrijfsresultaten fantastisch zijn, ze verdienen het overgrote deel van hun geld in andere segmenten. Zoals datacenter GPU kaarten, waar ze nog veel harder domineren dan in de consumentenmarkt. En daar vragen ze rustig zo'n 30k - 40k per kaart, gewoon omdat ze het kunnen en nog steeds genoeg verkopen.

Iedereen moet doen wat ze zelf willen, maar maak je geen illusies over de vuist die consumenten op dit moment naar Nvidia kunnen maken, die heeft ons niet meer nodig. En AMD volgt gewoon, die zijn ook bewust gegaan voor een strategie van nauwelijks goedkopere kaarten in een markt waar er toch geen grote aantallen GPU's meer verkocht gaan worden de komende jaren, totdat het economisch weer heel anders gaat.

Acties:
  • +2Henk 'm!

  • Amos_x
  • Registratie: Januari 2021
  • Nu online
XanderDrake schreef op dinsdag 14 maart 2023 @ 10:13:
Zoals jullie in mijn eerdere posts al konden proeven; ik ben een beetje klaar met Nvidia. Te duur en teveel anti-consumer nonsense. Daarnaast, AMD kaarten worden altijd beter over tijd. Ik heb tot nu toe alleen maar Nvidia kaarten gekocht, mijn huidige kaart is de geweldige GTX 1080 Ti, dus het zou een grote stap zijn voor mij.

En nu word ik weer in twijfel gebracht... Er is een nieuwe video uit gebracht door Digital Foundry over de Path Ray Traced mod van Half-Life 1, en mijn god wat ziet dat er goed uit.

Deze versie van Half Life, net als de Quake RT mod van dezelfde modder, is zo vet dat ik het spel weer opnieuw wil gaan spelen. Maar wat blijkt? Een AMD GPU draait aanzienlijk slechter dan een nVidia GPU, vaak iets meer dan de helft van de FPS, appels vs appels. Daarnaast kan nVidia altijd leunen op DLSS of FSR 2.1. AMD's compatibility van FSR is zo goed dat nVidia er vrolijk van mee profiteert.
Maar dat is niet alles, ook een RTX 2060 kan deze mod prima draaien op 1080p+DLSS Qual. Als je deze QI wil hebben op een AMD variant wil doen moet je waarschijnlijk richting een 6700 XT gaan, terwijl dat een significante hogere klasse van GPU is.
Toevallig zit ik net in hetzelfde scenario. Ik heb vorige week met een impulsbeslissing een CPU upgrade gekocht (AMD 5800x). Gewoon omdat het leuk is en weer tijd om een te knutselen aan m'n pc. Op zich is dat allemaal erg betaalbaar, kostte me 220 euro. Hobby geld dus (en kreeg er een game bij ;) )

Eerst was het plan om m'n GTX1060 te laten zitten. Want die voldoet eigenlijk prima voor het soort games dat ik op de pc speel, en de settings/verwachtte prestaties.

Maar goed, je bent 'nerd' of je bent het niet, en nu wil m'n OCD dat het systeem eigenlijk wat meer in balans is. Dus geen gpu uit 2016 met een cpu uit 2020, ook al kan dat prima. (leve de pc _/-\o_ ). Puur voor het 'gevoel' dus, erg onderbouwd! :P

Dus op zoek naar een gpu uit de nvidia 3xxx of amd 6xxx serie. De laatste series zijn me veel te duur om de hobby nog leuk te houden, en gpu's uit de genoemde series zijn meeeeer dan genoeg voor wat ik er mee doe.

En dan merk ik ook dat het enige 'nieuwe'/unieke in gaming de laatste 5 jaar RTX/raytracing is (en VR, dat zijn de 'frisse' ervaringen als ik er mee in aanraking kom).

Rasterized performance hebben we nu wel al gezien. De evolutie daar is incrementeel en loopt tegen de limieten van de remmende voorsprong aan. Games zagen er 5 jaar al meer dan prima uit met die tech. En de laatste jaren zijn het dan vooral verbeteringen in de marge, beetje betere motion capture, facial animations net iets beter, noem maar op...

Die ervaringen die ik had met far cry 1, crysis, half life 2, etc... die zijn er gewoon niet meer. Ik beleef nog plezier aan gaming hoor, maar het trekt me allemaal minder en minder lang.

Wat is echt nieuw en interessant op dit moment? Net dit, RTX. En daar heeft nvidia hard op ingezet en veel R&D in gepompt. Ze hebben het hardst aan die kar getrokken en geduwd, en de markt volledig ingepalmd met vaak proprietary tech. En eerlijk is eerlijk, veel risico, en daar mogen ze dik voor beloond worden. Daar heb ik geen enkel probleem mee. Dat is nu eenmaal kapitalisme, en zo hoort het te werken. Kaarten zijn duur, maar gamers kopen (kochten) ze toch wel, dus die features blijken gewoon belangrijk te zijn!

In die niche van RTX, is het voor mij zelfs enkel het soort werk waar je een filmpje van post die me boeit. HL herwerkt, of "portal" en "doom" met volledige raytracing. Daar zit de 'new frontier'!

Gewone rasterized games met RTX enhancement boeien me erg weinig. De 'added value' is nog steeds nihil. Developers hebben 30 jaar ervaring met allerhande truckjes en kunstgrepen om rasterized erg overtuigend te laten overkomen, dus dat duurt nog wel even voor daar iets aan verandert.

Zelfs de xx70-tier kaarten (3070, 4070) hebben volgens mij niet genoeg rauwe performance om echt het verschil te maken in rasterized games met RTX enhancements (schaduwen bvb) net zoals dat het geval was in de 2xxx series. Dus dat is nog steeds met kinder stapjes vooruit.

Maar een 20 jaar oude game volledig raytraced te laten lopen, nou dat is cool 8)


Echter, wil ik enkel voor 1 of 2 games (op dit moment) dubbel zoveel betalen dan bvb een RX6700? een kaart die op elk ander gebied veel meer is dan ik ooit nodig heb? Massa's rasterized performance, 12 GB geheugen standaard, voor 420 euro? Wat een koopje! Indien ik kan beslissen, haal ik die morgen in huis.

En waarom betaal je voor nvidia dubbel zoveel? Omdat hun chips zo gigantisch zijn, net omwille van dat RTX gegeven die me laat twijfelen >:) :X 8)7 :z En zo is de cirkel rond

Ach ja. Mijn verstand zegt me dat het onzin is om voor die 2 experiences nvidia te halen, als ik de kaart voor andere games helemaal niet nodig heb. DLSS heb ik ook niets mee trouwens, dus daarvoor hoef ik het niet te doen. DLSS1 en 2 kan ik nog accepteren. Maar DLSS3 creëert gewoon frames er bij, en doet in dat opzicht erg denken aan 'computational photography' waar ik ook mijn bedenkingen bij heb. In dat kader is FSR voor mij meer dan prima.

Een andere optie is intel, die goede rasterization koppelt aan een erg stevige RTX performance voor het budget dan toch (400 euro voor een A770!!). Een maand geleden was er geen twijfel geweest, dan was ik vol voor intel gegaan. En had ik er de driver perikelen en 'beta-testing' bij genomen. Mijn game pc is gewoon voor de hobby, dus dat kan ik wel hebben. Nu je echter een RX6700 kan oppikken voor dezelfde prijs, met gelijkaardige performance of beter, en betere drivers... Hoezeer ik het intel ook gun, en hoezeer ik het ook had aangedurfd, vind ik het in het huidige scenario moeilijk om vol voor intel te kiezen.

Maw, ik ga binnenkort waarschijnlijk toch een AMD kaart halen, voor een 100% AMD build-je. :9 En dan kijk ik wel een digital foundry video af en toe voor de ontwikkelingen zoals half life RTX. Of 3kliksphilip, die is daar ook heel enthousiast over.

Bovenstaande is maar de gedachtegang van een individuele user hier, maar misschien helpt het je.

  • SG
  • Registratie: Januari 2001
  • Laatst online: 27-05 14:43

SG

SG surft naar info hardewaren

Nvidia is duur omdat de kosten gebaseerd zijn op 4N keuze en apart diespace voor RT rekenkracht en tensor voor DLSS dus je betaal gewoon voor die DLSS en RTX performance zo ook nvidia die met de kosten zit.
AMD is ideaal als je al die features niet belangrijk voor je zijn dus chip real estate general purpouse die RT en upscale moet doen dat is chip die efficiënter resources omgaat. Naast dat productie kosten ook binnen de perken blijven.
AMD is sinds hun mindere tijden altijd en nog steeds gefocused op productie efficient te produceren. Big chips duur procede en vol proppen met hardware versnellers die optioneel zijn maakt het duurder. Dat is niet AMD beleid.
Om van game te genieten is 1080P zat heb je die upscale niet nodig wil toch RT ga voor tier hogere AMD.
Gezien probleem van vaak upgraden eigen zonde is van de tijd zou ik eerder voor tier hoger gaan zodat je lang klaar bent met upgraden dus 4070 of 7900XTX al zal ik eerder voor AMD gaan. Aangezien Ik dat nv gedrag iig niet ga belonen. Ik zou eerder focusen op gameplay.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
SG schreef op zaterdag 18 maart 2023 @ 16:07:
zou ik eerder voor tier hoger gaan zodat je lang klaar bent met upgraden dus 4070 of 7900XTX al zal ik eerder voor AMD gaan.
Nvidia is juist helemaal niet geschikt om er lang mee te doen vanwege de lage geheugenhoeveelheden en het steeds introduceren van features die niet of niet goed werken op oude hardware.

Trouwens ook nogal apart om de 4070 en 7900 XTX gelijk te stellen.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


Acties:
  • +1Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 27-05 14:43

SG

SG surft naar info hardewaren

Ik reageerde op iemand die om drang van upgraden naar gtx10 naar rtx30 serie omdat voor gevoel niet tegen cpu gpu onbalans. RT oh zo belangrijk vind maar nv zat is maar toch nv moet hebben omdat die uitblinken in RT.
Ik vind RT niet zo belangrijk gameplay 1st maar ipv nv wan gedrag belonen als je rt toch belang rijk vind dat van midrange vorige gen naar tier hogere gen AMD van huidige gen.
Is duurder maar ja gaat langer mee.
En krijgt ook veel meer Vram .
Daarnaast heb ik ook langere upgrade path en bij cpu/mem/mobo upgrade neem vaker de oude g-kaart over. Dan tijdelijk een onbalans daar heb ik zelf geen problemen mee. Ik zit nog op Zen1 TR met Vega56. En Macmini x86.
De nood voor te upgraden is bij mij niet hoog. In mijn geval ga ik voor g-kaart voor future proof dus zelden midrange eerder sub high-end of zoals AMD subhigh-end de performance klasse 7900xt 7900xtx en veel vram en daarmee futureproof. Denk uitstel miscchien zen5 en rdna4 . En als ik upgrade dan meestal wacht ik op ideaal moment als nextgen komt die flinke stap vooruit is. Dit jaar is er recent PS5 2TB met PSVR bijgekomen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
Amos_x schreef op vrijdag 17 maart 2023 @ 22:35:
[...]


Toevallig zit ik net in hetzelfde scenario. Ik heb vorige week met een impulsbeslissing een CPU upgrade gekocht (AMD 5800x). Gewoon omdat het leuk is en weer tijd om een te knutselen aan m'n pc. Op zich is dat allemaal erg betaalbaar, kostte me 220 euro. Hobby geld dus (en kreeg er een game bij ;) )

Eerst was het plan om m'n GTX1060 te laten zitten. Want die voldoet eigenlijk prima voor het soort games dat ik op de pc speel, en de settings/verwachtte prestaties.

Maar goed, je bent 'nerd' of je bent het niet, en nu wil m'n OCD dat het systeem eigenlijk wat meer in balans is. Dus geen gpu uit 2016 met een cpu uit 2020, ook al kan dat prima. (leve de pc _/-\o_ ). Puur voor het 'gevoel' dus, erg onderbouwd! :P

Dus op zoek naar een gpu uit de nvidia 3xxx of amd 6xxx serie. De laatste series zijn me veel te duur om de hobby nog leuk te houden, en gpu's uit de genoemde series zijn meeeeer dan genoeg voor wat ik er mee doe.

En dan merk ik ook dat het enige 'nieuwe'/unieke in gaming de laatste 5 jaar RTX/raytracing is (en VR, dat zijn de 'frisse' ervaringen als ik er mee in aanraking kom).

Rasterized performance hebben we nu wel al gezien. De evolutie daar is incrementeel en loopt tegen de limieten van de remmende voorsprong aan. Games zagen er 5 jaar al meer dan prima uit met die tech. En de laatste jaren zijn het dan vooral verbeteringen in de marge, beetje betere motion capture, facial animations net iets beter, noem maar op...

Die ervaringen die ik had met far cry 1, crysis, half life 2, etc... die zijn er gewoon niet meer. Ik beleef nog plezier aan gaming hoor, maar het trekt me allemaal minder en minder lang.

Wat is echt nieuw en interessant op dit moment? Net dit, RTX. En daar heeft nvidia hard op ingezet en veel R&D in gepompt. Ze hebben het hardst aan die kar getrokken en geduwd, en de markt volledig ingepalmd met vaak proprietary tech. En eerlijk is eerlijk, veel risico, en daar mogen ze dik voor beloond worden. Daar heb ik geen enkel probleem mee. Dat is nu eenmaal kapitalisme, en zo hoort het te werken. Kaarten zijn duur, maar gamers kopen (kochten) ze toch wel, dus die features blijken gewoon belangrijk te zijn!

In die niche van RTX, is het voor mij zelfs enkel het soort werk waar je een filmpje van post die me boeit. HL herwerkt, of "portal" en "doom" met volledige raytracing. Daar zit de 'new frontier'!

Gewone rasterized games met RTX enhancement boeien me erg weinig. De 'added value' is nog steeds nihil. Developers hebben 30 jaar ervaring met allerhande truckjes en kunstgrepen om rasterized erg overtuigend te laten overkomen, dus dat duurt nog wel even voor daar iets aan verandert.

Zelfs de xx70-tier kaarten (3070, 4070) hebben volgens mij niet genoeg rauwe performance om echt het verschil te maken in rasterized games met RTX enhancements (schaduwen bvb) net zoals dat het geval was in de 2xxx series. Dus dat is nog steeds met kinder stapjes vooruit.

Maar een 20 jaar oude game volledig raytraced te laten lopen, nou dat is cool 8)


Echter, wil ik enkel voor 1 of 2 games (op dit moment) dubbel zoveel betalen dan bvb een RX6700? een kaart die op elk ander gebied veel meer is dan ik ooit nodig heb? Massa's rasterized performance, 12 GB geheugen standaard, voor 420 euro? Wat een koopje! Indien ik kan beslissen, haal ik die morgen in huis.

En waarom betaal je voor nvidia dubbel zoveel? Omdat hun chips zo gigantisch zijn, net omwille van dat RTX gegeven die me laat twijfelen >:) :X 8)7 :z En zo is de cirkel rond

Ach ja. Mijn verstand zegt me dat het onzin is om voor die 2 experiences nvidia te halen, als ik de kaart voor andere games helemaal niet nodig heb. DLSS heb ik ook niets mee trouwens, dus daarvoor hoef ik het niet te doen. DLSS1 en 2 kan ik nog accepteren. Maar DLSS3 creëert gewoon frames er bij, en doet in dat opzicht erg denken aan 'computational photography' waar ik ook mijn bedenkingen bij heb. In dat kader is FSR voor mij meer dan prima.

Een andere optie is intel, die goede rasterization koppelt aan een erg stevige RTX performance voor het budget dan toch (400 euro voor een A770!!). Een maand geleden was er geen twijfel geweest, dan was ik vol voor intel gegaan. En had ik er de driver perikelen en 'beta-testing' bij genomen. Mijn game pc is gewoon voor de hobby, dus dat kan ik wel hebben. Nu je echter een RX6700 kan oppikken voor dezelfde prijs, met gelijkaardige performance of beter, en betere drivers... Hoezeer ik het intel ook gun, en hoezeer ik het ook had aangedurfd, vind ik het in het huidige scenario moeilijk om vol voor intel te kiezen.

Maw, ik ga binnenkort waarschijnlijk toch een AMD kaart halen, voor een 100% AMD build-je. :9 En dan kijk ik wel een digital foundry video af en toe voor de ontwikkelingen zoals half life RTX. Of 3kliksphilip, die is daar ook heel enthousiast over.

Bovenstaande is maar de gedachtegang van een individuele user hier, maar misschien helpt het je.
Mooie post van een daadwerkelijke gamer / use case, die zichzelf ook beantwoordt: Nvidia is heel slim in het plaatsen van de suggestie dat je Ray Tracing nodig hebt en dat het vernieuwend is. Maar wat je in Minecraft ziet, is eigenlijk Path Tracing.
https://history-computer....ing-whats-the-difference/

Ray Tracing zorgt eigenlijk voor dynamische shadow maps (beter dan gebakken fixed in rasterization), is goed reflecties, maar minder nauwkeurig als er teveel lichtbronnen in een scene zitten. Path Tracing is minder efficient op reflecties, maar veel beter in verstrooiing van licht, waardoor het echter "voelt".

Bedenk ook dat de nieuwe Intel A770 met misschien minder goede drivers, in potentie nu al superieur is wat betreft Path en Ray Tracing hardware t.o.v. Nvidia. Ik ben erg benieuwd of Battlemage volgend jaar beter gaat zijn dan een RTX 4070 of zelfs RX 4080, inclusief Ray & Path Tracing.

AMD hobbelt er achter aan, en gaat ook goede Ray Tracing / Path Tracing hardware bieden, maar waarschijnlijk altijd net achter Nvidia, elke generatie. Vergelijkbaar met DLSS / FSR, alhoewel daar de ontwikkeling wel uit lijkt. Misschien dat AMD een slag kan slaan in beide met meer AI dedicated hardware op de videokaart van Xilinx, dat zou helpen. In ieder geval voor hun mindshare.

Voor Minecraft is een 6700XT ook geschikt hoor, en ikzelf zou op dit moment niet de Nvidia belasting betalen. Maar er zijn genoeg gamers die geen andere keus denken te hebben dan Nvidia.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 01:42
sunsmountain schreef op dinsdag 21 maart 2023 @ 11:31:
[...]

Mooie post van een daadwerkelijke gamer / use case, die zichzelf ook beantwoordt: Nvidia is heel slim in het plaatsen van de suggestie dat je Ray Tracing nodig hebt en dat het vernieuwend is. Maar wat je in Minecraft ziet, is eigenlijk Path Tracing.
https://history-computer....ing-whats-the-difference/
Daarmee doe je het lijken alsof pathtracing iets fundamenteels anders is dan raytracing. Maar pathtracing gebruikt raytracing en kan dus ook versneld worden door raytracing hardware in GPU's. https://blogs.nvidia.com/.../23/what-is-path-tracing/

Acties:
  • +1Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
cnieuweboer schreef op dinsdag 21 maart 2023 @ 12:05:
[...]


Daarmee doe je het lijken alsof pathtracing iets fundamenteels anders is dan raytracing. Maar pathtracing gebruikt raytracing en kan dus ook versneld worden door raytracing hardware in GPU's. https://blogs.nvidia.com/.../23/what-is-path-tracing/
De 2 technieken zijn wel verschillend, maar kunnen allebei deels versneld worden door "ray tracing hardware", de link naar history-computer.com is duidelijk.

Wat ik zelf merk is dat ray tracing op dit moment nog steeds een gimmick is en de meeste gamers het in de praktijk uit zetten. Nvidia heeft zeker dedicated Tensor cores / Ray Tracing cores op de chip, AMD wat minder, Intel wat meer. Het wachten is echter nog op wat meer spellen die Path Tracing implementeren, mogelijk dat het dan een belangrijke / kritieke feature wordt.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Waarom lijkt het altijd Nvidia te zijn als het gaat om dit type problemen, kaarten die dood gaan door een bepaalde gpu load. Je zou toch verwachten dat er limiters inzitten....
https://www.pcgamer.com/diablo-4-rtx-3080-ti-issue/

Hopen dat het gewoon een foute batch Gigabyte kaarten is.

Acties:
  • 0Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RTX4070 lijkt nu echt gelekt te zijn.
-$600
-5888cc (net zoals RTX3070)
-12GB VRAM/504GB/s
-200W TDP
-Lijkt een paar honderd megahertz lager geclockt te zijn dan de RTX4070Ti.
https://videocardz.com/ne...186w-average-gaming-power

[Voor 3% gewijzigd door DaniëlWW2 op 02-04-2023 20:06]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • spone
  • Registratie: Mei 2002
  • Niet online
Sp3ci3s8472 schreef op vrijdag 24 maart 2023 @ 22:01:
Waarom lijkt het altijd Nvidia te zijn als het gaat om dit type problemen, kaarten die dood gaan door een bepaalde gpu load. Je zou toch verwachten dat er limiters inzitten....
https://www.pcgamer.com/diablo-4-rtx-3080-ti-issue/

Hopen dat het gewoon een foute batch Gigabyte kaarten is.
Naar wat ik zo links en rechts lijkt dat idd wel het geval te zijn. Dus dat er in de hoogtijdagen batches met kaarten volgens een lagere standaard/mindere kwaliteit componenten zijn gebouwd om aan de vraag proberen te voldoen (en maximale winst te pakken uiteraard). En nu die specificieke serie kaarten ineens tot op het randje belast wordt (wat normaal gesproken goed gaat, als iedereen binnen de lijntjes kleurt zeg maar), zeggen ze *poef*.

  • meljor
  • Registratie: November 2004
  • Laatst online: 22:55
spone schreef op maandag 3 april 2023 @ 08:23:
[...]

Naar wat ik zo links en rechts lijkt dat idd wel het geval te zijn. Dus dat er in de hoogtijdagen batches met kaarten volgens een lagere standaard/mindere kwaliteit componenten zijn gebouwd om aan de vraag proberen te voldoen (en maximale winst te pakken uiteraard). En nu die specificieke serie kaarten ineens tot op het randje belast wordt (wat normaal gesproken goed gaat, als iedereen binnen de lijntjes kleurt zeg maar), zeggen ze *poef*.
Misschien het gevolg van de vooral door Gigabyte gebruikte pads die al vrij snel "olie" lekten etc.?

Is hier al best vaak voorbij gekomen als klacht in den beginne.

Acties:
  • +1Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Een groot probleem was de beschikbaarheid van componenten en we zagen dat er daardoor vaak andere componenten werden gebruikt dan in het oorspronkelijke ontwerp en zonder vervolgens alles weer totaal door te testen. Dat was bijvoorbeeld vermoedelijk ook de oorzaak voor de ontploffende voedingen van Gigabyte.

Daarnaast hebben de corona-maatregelen in China vermoedelijk ook gezorgd voor slordiger werken. Bijvoorbeeld de werknemers die opgesloten werden in de fabriek en dus vermoedelijk niet lekker geslapen hebben en niet konden ontspannen,

Maar er worden ook allerlei ontwerpkeuzes gemaakt die niet bepaald bijdragen aan de levensduur, zoals geheugen aan beide zijden van de kaart plaatsen, het weglaten van zekeringen, onvoldoende koeling die sterk verbeterd kan worden als mensen zelf de kaart openmaken en betere thermal pads gebruiken, etc.

En dat zien we ook bij de meest dure kaarten, wat mijn animo om een dure kaart te kopen wel verlaagd. Ze vragen premium prijzen, maar bezuinigen dan een paart cent ten koste van de levensduur en temperaturen.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • field33P
  • Registratie: Mei 2009
  • Laatst online: 27-05 09:27
spone schreef op maandag 3 april 2023 @ 08:23:
[...]

En nu die specificieke serie kaarten ineens tot op het randje belast wordt (wat normaal gesproken goed gaat, als iedereen binnen de lijntjes kleurt zeg maar), zeggen ze *poef*.
Toch niet bepaald netjes dat zo'n kaart nog net niet ontworpen is om *poef* te doen wanneer er een nieuwere game tegenaan gegooid wordt. Maarja, het gros van de kaarten die er nu uit klapt valt waarschijnlijk nog onder de garantie (games werden eerder dan verwacht zwaarder), dus uiteindelijk heeft Gigabyte zichzelf met een kostenpost opgezadeld.

  • meljor
  • Registratie: November 2004
  • Laatst online: 22:55
Hoe kan een bepaalde game dan een andere 100% gpu load geven tov andere games?

Wat wordt er dan anders belast.. er zijn toch veel meer zware games?

[Voor 13% gewijzigd door meljor op 03-04-2023 11:55]


  • napata
  • Registratie: Oktober 2020
  • Laatst online: 27-05 20:16
meljor schreef op maandag 3 april 2023 @ 11:54:
Hoe kan een bepaalde game dan een andere 100% gpu load geven tov andere games?

Wat wordt er dan anders belast.. er zijn toch veel meer zware games?
Net zoals bij CPUs zegt 100% niets. Het betekent gewoon dat er ergens in de GPU iets op 100% werkt dat de prestaties limiteert maar wil niet zeggen dat de hele GPU op 100% werkt en het kan dan nog steeds het geval zijn dat een groot deel van de SMs stilliggen.

Dit zie je ook goed bij het verbruik in games waarbij in sommige games een 4090 350W verbruikt terwijl anderen 450W verbruiken.

Ik meen me te herinneren dat Nvidia en/of AMD in hun drivers detectie hebben zitten voor Furmark om de kloksnelheden hard te limiteren zodra het programma gedetecteerd wordt zodat de kaarten zich niet kapot draaien omdat het ze enorm hard belast.

[Voor 5% gewijzigd door napata op 03-04-2023 14:37]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
napata schreef op maandag 3 april 2023 @ 14:35:
[...]
Ik meen me te herinneren dat Nvidia en/of AMD in hun drivers detectie hebben zitten voor Furmark om de kloksnelheden hard te limiteren zodra het programma gedetecteerd wordt zodat de kaarten zich niet kapot draaien omdat het ze enorm hard belast.
Vroeger zat er in de driver een check naar de naam van de exe. Tegenwoordig gaat het volgens mij slimmer en wordt er meer op verbruik en hitte gelet.

Acties:
  • +2Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
meljor schreef op maandag 3 april 2023 @ 11:54:
Hoe kan een bepaalde game dan een andere 100% gpu load geven tov andere games?

Wat wordt er dan anders belast.. er zijn toch veel meer zware games?
"100%" wil gewoon zeggen dat alle partities bezig zijn. Niet dat élke ALU in elke partitie bezet is.

En net zoals bij CPU's vreten bepaalde workloads meer dan andere. Gooi voor de gein eens een AVX workload op een CPU en je zult zien dat de kloksnelheden hele gekke dingen doen (mijn 4770K zakte doodleuk onder de 3 GHz ;)). Tegenwoordig is het minder dan vroeger, maar het is er nog steeds.

In GPU's is dat precies zo. "100%" GPU usage betekent enkel dat, op bijvoorbeeld een 4090, alle 128 SM's "iets" aan het doen zijn. Dat kan dan best slechts 4xFP32 instructies zijn. Of aan het wachten op L2$/VRAM. Het betekent echter niet dat er 128xFP32, 4x tensor, 4x texture ops, RT ops (enzovoort, want er zit nog meer in een SM) bezig zijn. Integendeel, daar is Ada helemaal niet toe in staat. De RT cores vreten in verhouding ook veel meer; ze zijn in verhouding tot de rest in een SM niet alleen erg groot, ze leunen ook veel meer op de caches. Meestal past het niet eens in de L1$, dus RT zet ook flink druk op de L2$.

Acties:
  • +1Henk 'm!

  • NLxAROSA
  • Registratie: December 2005
  • Niet online
SG schreef op zondag 19 maart 2023 @ 08:15:
En krijgt ook veel meer Vram .
VRAM is wel een ding in nieuwe(re) titels. 16GB+ voor max settings wordt binnenkort normaal. 8GB is instap.

Ik heb nu een 3060ti met 8GB en die hoeveelheid VRAM is de bottleneck. Uiteraard kun je in veel games over de limiet heen, maar dan moet er worden geland van/naar RAM (of nog erger:schijf) en dat kost FPS.

Daar helpen die Tensor cores niets mee. ;)

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
NLxAROSA schreef op maandag 3 april 2023 @ 16:29:
[...]

VRAM is wel een ding in nieuwe(re) titels. 16GB+ voor max settings wordt binnenkort normaal. 8GB is instap.

Ik heb nu een 3060ti met 8GB en die hoeveelheid VRAM is de bottleneck. Uiteraard kun je in veel games over de limiet heen, maar dan moet er worden geland van/naar RAM (of nog erger:schijf) en dat kost FPS.

Daar helpen die Tensor cores niets mee. ;)
Dat is niet helemaal het complete plaatje. Tuurlijk kunnen er vram limiterende situaties ontstaan als je een kaart via settings gaat pogen bottlenecken, maar imho is een 3060ti nooit geschikt geweest voor ultra + RT settings op resoluties van 1440 of hoger in nieuwe(re) titels. Daar zitten dan wel meer bottlenecks dan enkel de hoeveelheid geheugen die de kaart kan aanspreken.
Je ziet nu vooral dat kaarten van 8GB het niet meer redden op met name 4K met alle registers open en dat is echt niet alleen een vram issue meer. De chip zelf en de bus zelf redden dat namelijk ook niet om dit soort settings bij te kunnen benen. Als je een 3060ti gaat voorzien van 16GB dan haal je wel een mogelijke bottleneck weg, maar als je meer vraagt dan een GA104 kan leveren heeft meer geheugen niet veel zin. De 3060ti is ook nooit zo gepositioneerd om dat wel te kunnen.

Acties:
  • +4Henk 'm!

  • NLxAROSA
  • Registratie: December 2005
  • Niet online
3060ti was op launch wel degelijk een 1440p kaart (minus RT, hoewel met DLSS vaak ook wel), zie ook de review hier op Tweakers. 4K is een maatje te groot inderdaad, maar dat was vanaf het begin dus al zo, dat is niet nieuw.

Uiteraard eisen games steeds meer naarmate de tijd vordert, dus wat toen de norm was is het nu niet meer, dus voor mijn 3060ti moeten settings vaak een tandje terug, of DLSS wat hoger, en dat is allemaal prima. Vooruitgang enzo.

Maar waar het vooral om gaat is de recente trend waarin nieuwe games een sprong maken in VRAM gebruik (RAM ook, maar das een ander subforum). Waarmee in één klap alles met minder dan 8GB sowieso nutteloos is geworden (want niemand draait op 720p/30FPS, want dat is wat 'minimum' betekent tegenwoordig) en 8GB kaarten zijn gedegradeerd tot instap (want minimaal nodig voor 1080p op enigszins te pruimen settings). De overige settings gaan ook omhoog, maar niet met zo'n enorme sprong dus met veel minder impact, en ook aan te passen zonder gelijk enorm in te leveren qua resolutie of textures. Ray tracing is ook iets dat nogal varieert per spel en voegt niet altijd wat toe.

Voor mijn 3060ti (en iedereen die niet van plan is de komende 2 jaar een GPU te kopen) is dat een voldongen feit. Settings terugzetten of toch een nieuwe GPU overwegen.

Maar mensen die nu een GPU in het middensegment willen kopen, zeg maar 500-700 euro, moeten opletten want zowel bij AMD als nVidia zie ik in die prijsklasse nog heel veel met 8GB. Mijns inziens eigenlijk weggegooid geld want je betaalt dan midrange prijs voor instap kaart (terwijl dat volgens mij niet altijd langzame GPUs zijn).

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
Is het niet gewoon puur de textures op Ultra, waarbij de devs dan qua compression of optimalisatie te lui zijn om ze in 8GB te proppen? 8GB zou echt altijd genoeg moeten zijn op 1080p en 1440p. Niet 4k, maar dat was ook nooit het idee van die kaarten.

En dan zet je Hogwarts legacy, Last of us etc. op textures: Very High, merk je het verschil ueberhaupt? Waar dan? Klinkt voor nu nog een beetje als een storm in een glas water.

True, consoles hebben 16GB shared memory en als DirectStorage populair wordt, is het natuurlijk wel fijn als je genoeg VRAM geheugen hebt om alles smooth in te laden. Maar voor nu lijkt texture settings een klein beetje naar beneden stellen mij een prima oplossing.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06



Ik weet niet of deze tweet al gedeeld was, maar het laat mooi de trend zien: Nvidia stelt de nieuwe generatie uit, koopt minder wafers (voor 2023 koop je ze FY2022 in) in en hoopt op die manier de achterstand weg te werken en de prijzen hoog te houden. AMD volgt qa prijs, maar koopt ook gewoon in voor hun Ryzen CPUs.

Briljant! Maar op een gegeven moment moeten ze toch beginnen met de RTX 4070 verkoop bij $599? Nog steeds duurder dan voorheen, maar minder belachelijk geprijst dan de 4080. En het is niet alsof AMD Navi32 en Navi33 eindeloos kan achterhouden.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2Henk 'm!

  • icall5s
  • Registratie: December 2022
  • Laatst online: 27-05 20:54
sunsmountain schreef op vrijdag 7 april 2023 @ 14:55:
[Twitter]
[Afbeelding]

Ik weet niet of deze tweet al gedeeld was, maar het laat mooi de trend zien: Nvidia stelt de nieuwe generatie uit, koopt minder wafers (voor 2023 koop je ze FY2022 in) in en hoopt op die manier de achterstand weg te werken en de prijzen hoog te houden. AMD volgt qa prijs, maar koopt ook gewoon in voor hun Ryzen CPUs.

Briljant! Maar op een gegeven moment moeten ze toch beginnen met de RTX 4070 verkoop bij $599? Nog steeds duurder dan voorheen, maar minder belachelijk geprijst dan de 4080. En het is niet alsof AMD Navi32 en Navi33 eindeloos kan achterhouden.
AMD maakt vooral GPU's voor de console markt, en verdient qua PC-onderdelen het meeste geld aan CPU's, ze kunnen dus zeker wel de 7800XT "uitstellen". Verder is de strategie van AMD om NVIDIA te volgen qua prijzen. Ik weet niet precies meer wanneer, maar AMD heeft een keertje naar haar aandeelhouders aangekondigd dat ze betere margins op hun GPU's wilden halen, en sindsdien is de release van AMD kaarten altijd ná de release van het broertje/zusje van NVIDIA. AMD kijkt naar hoe duur een 4090 is en gaat daar dan iets onder zitten met haar flagship afhankelijk van de resultaten. Zo ging het ook met de 3090 en 6900XT. Zo laat AMD NVIDIA de prijzen en margins dicteren en volgt dan gewoon. Het is dus geen price fixing of kartel door geheime kasboeken of overeenkomsten op papier, maar het geeft hetzelfde resultaat, omdat NVIDIA in haar eentje de prijzen bepaalt.

NVIDIA verdient steeds meer geld aan de enterprise/pro klanten, dus hoeft niet eens videokaarten voor gamers te produceren als ze dat niet willen. In het laatste financial report van NVIDIA haalde het bedrijf twee keer zo veel inkomsten uit de enterprisemarkt. Ze kunnen dus gewoon de capaciteit van TSMC naar enterprise schuiven.

Vele van de NVIDIA gaming GPU's gaan naar prebuilts, en prebuilts met RTX 3070/3080 worden gewoon nog volop verkocht. Ook kopen veel mensen nog steeds 3000 series kaarten. Ik zie nog steeds meisjes zelf PC's bouwen met een Lian Li O11 Mini en dan vaak een RTX 3070 of 3070Ti.

Verder moet je ook niet vergeten dat Jensen en Lisa Su achterneef en -nicht zijn en dat Jensen ook bij AMD gewerkt heeft.

Acties:
  • +1Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

icall5s schreef op vrijdag 7 april 2023 @ 16:42:
[...]

AMD maakt vooral GPU's voor de console markt, en verdient qua PC-onderdelen het meeste geld aan CPU's, ze kunnen dus zeker wel de 7800XT "uitstellen". Verder is de strategie van AMD om NVIDIA te volgen qua prijzen. Ik weet niet precies meer wanneer, maar AMD heeft een keertje naar haar aandeelhouders aangekondigd dat ze betere margins op hun GPU's wilden halen, en sindsdien is de release van AMD kaarten altijd ná de release van het broertje/zusje van NVIDIA. AMD kijkt naar hoe duur een 4090 is en gaat daar dan iets onder zitten met haar flagship afhankelijk van de resultaten. Zo ging het ook met de 3090 en 6900XT. Zo laat AMD NVIDIA de prijzen en margins dicteren en volgt dan gewoon. Het is dus geen price fixing of kartel door geheime kasboeken of overeenkomsten op papier, maar het geeft hetzelfde resultaat, omdat NVIDIA in haar eentje de prijzen bepaalt.
Dat was na Vega. Met RDNA1 begon het prijsmatchen.
Verder denk ik dat AMD haar positie ook iets complexer is. AMD is eigenlijk de kleinste, meest diverse en in sommige aspecten ook makkelijk de meest geavanceerde van de grote chipontwerpers. In dat spectrum hebben ze het ook nog eens voor elkaar gekregen om een dedicated gaming GPU (RDNA), dedicated HPC GPU (CDNA) en binnenkort ook nog eens XDNA waarmee ze Xilinx tech gaan integreren in Epyc producten met de focus op specifiek AI.

In dat spectrum is RDNA waarschijnlijk het minst belangrijk. Het helpt niet dat RDNA3 ook haar doelen gemist lijkt te hebben. Immers presteert N31 qua shaders based gaming workloads ongeveer zoals een RDNA2 GPU als je hogere clock speed en extra ALU's erbij neemt. Die verdubbeling van ALU's per CU doet in veel games gemiddeld niks.

Komt ook nog eens bij dat ik al lange tijd vermoed dat AMD hun dGPU business in stand houd om de ontwikkelde technologie te gebruiken voor al hun andere producten. APU's in laptops, CPU + GPU koppelverloop in laptops pushen, consoles, embedded oplossingen alsmede wat technologie delen met CDNA en dan komt ook nog XDNA. Binnen dit spectrum is zeker zoiets als N31 eigenlijk een niche. Zeker omdat menig gamer toch eerder een RTX4080 of RTX4090 koopt. Dit komt overigens ook zeker voor een deel door de incompetentie van AMD hun RTG divisie omtrent gaming producten, maar het is wel realiteit.

AdoredTV had er ook wat leuks over in zijn laatste video (zie andere topic). Aan het begin maakte hij de waarschijnlijk terechte inschatting dat AMD haar omzet en winst uit dGPU, waarschijnlijk maar een fractie van de divisie gaming moet zijn. Dit omdat met name Sony waarschijnlijk voor de grote omzet zorgt. Het verklaard ook waarom AMD nauwelijks getroffen lijkt te zijn door de instorting van crypto.
NVIDIA verdient steeds meer geld aan de enterprise/pro klanten, dus hoeft niet eens videokaarten voor gamers te produceren als ze dat niet willen. In het laatste financial report van NVIDIA haalde het bedrijf twee keer zo veel inkomsten uit de enterprisemarkt. Ze kunnen dus gewoon de capaciteit van TSMC naar enterprise schuiven.
Zeker voor nu, maar ik denk dat hier ook wat nuance bij moet.
Nvidia positioneert zich al jaren steeds meer als een softwarebedrijf dat ook de hardware ontwikkeld waarop hun software draait. Ze zijn allang niet meer een (GP)GPU ontwerper. De strategie is duidelijk dat ze een software stack hebben die alleen op hun hardware draait. Dus koop onze hardware en gebruik onze software stack.

En daar zit wel een dingetje. Sinds ChatGPT werd aangekondigd, is het natuurlijk een grote AI hype. Maar hoe heeft OpenAI dat voor elkaar gekregen? Tja, dat is de vraag, zeker met OpenAI die vooral erg goed lijken te zijn om gesloten te zijn over informatie rond hun AI trainingsmethodieken. :z

Ik vroeg het me af en ben eens gaan kijken wat ik wel kon vinden. Nou op een dedicated supercomputer van Microsoft en OpenAI.
https://news.microsoft.co...enai-azure-supercomputer/
Deze heeft 285.000+ CPU cores en 10.000 GPU's. Welke? Wat ik kon vinden over de CPU's is dit:

Eigenlijk dus alleen maar hinten dat het Epyc Rome zal zijn, meer niet. Qua GPU's waren het A100 GPU's. En ze gaan bij Microsoft nu ook verder met H100.
https://www.bloomberg.com...to-power-openai-s-chatgpt

Wat dat artikel alleen ook duidelijk maakt is dat Microsoft eigenlijk een oplossing heeft ingekocht en zelf geoptimaliseerd heeft om een dergelijk AI model mee te kunnen trainen. En wat OpenAI op de achtergrond heeft gedaan met die hardware is helemaal onduidelijk.


Wat me alleen wel duidelijk lijkt, is dat dit niet bereikt is volgens Nvidia hun bedrijfsmodel. Nee, Nvidia is hierin een leverancier van hardware met ondersteuning en dat is het. En daarmee loop je al tegen het probleem aan in deze industrie. Hardware is een gebruiksmiddel om software mee te maken, dan wel op te draaien. Met de resultaten van die software verdien je het geld. Precies wat Nvidia dus niet wil. Die willen dat je hun software stack gebruikt en daarmee ook vastzit aan hun hardware. Software zoals:
https://developer.nvidia.com/nemo
https://www.nvidia.com/en-us/gpu-cloud/bionemo/
En ja, die willen ze zelf gaan aanbieden met een eigen cloud dienst.
https://www.nvidia.com/en-us/ai-data-science/generative-ai/

Maar wat ook kan, is naar een concurrerende cloud provider gaan en bijvoorbeeld PyTorch gebruiken. Dan zit je niet vast aan een vendor en dan werk je met wat waarschijnlijk nu het meest gebruikte framework is. Is ook nog eens open source.
https://pytorch.org/

Onderschat ook niet wat die modellen trainen nu echt kost aan hardware. GPT vroeg om een supercomputer van honderden miljoenen. Dat kan bijna niemand betalen. Daarom heb je diensten zoals Microsoft Azure of Google Cloud. Bij hun kan je de benodigde capaciteit huren wanneer je die nodig hebt. Die gebruiken zeker Nvidia hardware, kan je gewoon zien op hun websites, maar die kopen dat alleen als ze het zelf nodig hebben om te verhuren. Dat maakt het voor Nvidia een cyclische industrie waarbij ze afhankelijk zijn van wat hun klanten doen en we zitten nu zeker in een boom.

Problematischer is dat dit echt heel erg grote spelers zijn die precies weten wat ze willen hebben, niet hoeven te vertrouwen op extra diensten en dwars door marketingpraat kijken. Ze willen een product, bewijs dat het product werkt (dus een reputatie van de vendor) drivers en hyperscaler level, premium tech support indien nodig. Die zullen echt niet terug zullen schrikken van zelf eigen hardware ontwerpen als ze dit beter uitkomt. Google doet dit bijvoorbeeld al een tijd voor bijvoorbeeld YT servers of hun TPU ASIC chips. Verder is bijvoorbeeld Microsoft ook zeker niet gebonden aan een hardwareleverancier. Die kopen wat ze het beste uitkomt.


In dat spectrum floreert Nvidia nu. Maar het is niet omdat hun software stack onvervangbaar is en daarmee Nvidia zelf. Het is omdat ze op het moment de leverancier zijn van GPU's die over het bredere spectrum van verschillende AI toepassingen, het beste presteren. En ze opereren in een markt waar zo ontiegelijk veel geld in zit, tientallen hardware startups in actief zijn en waar ook een paar andere grote spelers rondlopen die maar wat graag tenminste een deel van die enorme zak met geld naar zich toetrekken.

Ik zeg niet dat Nvidia dit wel of niet gaat "winnen". Ik zeg alleen wel dat een conclusie trekken voorbarig is. Want niemand die weet wat er precies gaat gebeuren de komende jaren en die de beste oplossingen gaat ontwikkelen.
Vele van de NVIDIA gaming GPU's gaan naar prebuilts, en prebuilts met RTX 3070/3080 worden gewoon nog volop verkocht. Ook kopen veel mensen nog steeds 3000 series kaarten. Ik zie nog steeds meisjes zelf PC's bouwen met een Lian Li O11 Mini en dan vaak een RTX 3070 of 3070Ti.

Verder moet je ook niet vergeten dat Jensen en Lisa Su achterneef en -nicht zijn en dat Jensen ook bij AMD gewerkt heeft.
Dat laatste lijkt wat complexer te liggen. Jensen Huang heeft namelijk ooit eens voorgesteld om Nvidia te verkopen aan AMD, waarbij hij zelf dan CEO wou worden. AMD kocht de grote concurrent ATi voor achteraf, veel te veel geld. Daar lijkt wat pijn te zitten. Het zal ook niet helpen dat juist AMD zo enorm achter Nvidia hun segmenten aanzit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • NLxAROSA
  • Registratie: December 2005
  • Niet online
sunsmountain schreef op vrijdag 7 april 2023 @ 12:11:
Is het niet gewoon puur de textures op Ultra, waarbij de devs dan qua compression of optimalisatie te lui zijn om ze in 8GB te proppen? 8GB zou echt altijd genoeg moeten zijn op 1080p en 1440p. Niet 4k, maar dat was ook nooit het idee van die kaarten.
Wat de achterliggende oorzaak is blijft speculatie. Ikzelf vermoed dat veel games worden geoptimaliseerd voor de shared memory setup van de consoles en dat die 16GB niet 50:50 wordt verdeeld maar dat het meerendeel naar textures/assets gaat voor de GPU, waardoor je op de PC met 8GB kaarten in de problem komt.
sunsmountain schreef op vrijdag 7 april 2023 @ 12:11:
En dan zet je Hogwarts legacy, Last of us etc. op textures: Very High, merk je het verschil ueberhaupt? Waar dan? Klinkt voor nu nog een beetje als een storm in een glas water.
Was wel iets meer dan dat. Check maar wat reviews, bv van Digital Foundry. Zoals je zelf zegt: 8GB zou echt altijd genoeg moeten zijn op 1080p, maar dat is het dus bij een steeds groter wordend aantal games niet meer. Niet op Ultra, maar ook niet op High. 1440p al helemaal niet. En grafisch een enorme achteruitgang.

Wat ook niet helpt is dat je op Steam alleen 'minimum' en 'recommended' system requirements hebt (zonder te specificeren wat je daar dan voor mag verwachten), maar dat developers er tegenwoordig nog 2 categorieën achteraan zetten. En die specificeren soms wel wat je mag verwachten, bv bij TLOUP1.

Minimum: 720p/30FPS, low
Recommended: 1080p/60FPS/high
High: 1440p/60FPS
Ultra: 4k/60FPS/Ultra

Dus mensen kijken op Steam: zien 'recommended' staan en denken: oh, mijn systeem is beter dan dat, ik knal ff alles op max en zijn vervolgens boos. :+

En als ik dan naar de eisen van TLOUP1 kijk dan denk ik: als je de hoeveelheid VRAM in de eerste twee kolommen vermeldt, waarom dan niet ook in de derde en vierde? Want in kolom 3 staan al geen 8GB kaarten meer.
sunsmountain schreef op vrijdag 7 april 2023 @ 12:11:
Maar voor nu lijkt texture settings een klein beetje naar beneden stellen mij een prima oplossing.
Is ook prima voor mensen zoals ik die al een par jaar een kaart hebben. Vooruitgang enzo. Gaat vooral om mensen die vandaag of morgen 500-700 euro aan een midrange kaart uit willen geven. Dan zou ik echt geen 8GB kaart kiezen als er in die categorie ook 10/12GB kaarten beschikbaar zijn.

Acties:
  • +2Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
MLID had ook een programmeur ter interview die ook vertelde dat ze meer geheugen nodig hebben vanwege:
- Veel meer polygonen (zie ook Nanite)
- Meer losse textures. Dus geen 1 skin die gebruikt wordt voor een karakter, maar aparte skins voor het lijf, de kleren, de ogen, de oren, etc. Daardoor wordt de karakter veel mooier als deze beweegt (niet slechts meer het uitrekken van een skin-texture) en kun je ook de kleding laten bewegen over het lijf en de ogen echt laten bewegen.
- Dynamisch een extra texture laag genereren bijvoorbeeld voor een muur. Daardoor heb je niet meer een tile die zich steeds herhaalt, waardoor een kras op de muur zich bijvoorbeeld elke paar meter herhaalt, maar de muur vol variatie zit. Daardoor kun je ook meer extreme details laten zien, waarbij het bij een herhalende tile erg zou opvallen dat zo'n detail zich herhaalt.
NLxAROSA schreef op vrijdag 7 april 2023 @ 22:31:
[...]
Gaat vooral om mensen die vandaag of morgen 500-700 euro aan een midrange kaart uit willen geven. Dan zou ik echt geen 8GB kaart kiezen als er in die categorie ook 10/12GB kaarten beschikbaar zijn.
Voor dat geld vind ik 10 GB zeker te weinig en 12 GB ook al erg problematisch. Aangezien er 8GB RAM in de PS4 zit en 16 GB in de PS5 is er goede kans dat het in 1 keer heel hard omslaat.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


Acties:
  • +2Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
sunsmountain schreef op vrijdag 7 april 2023 @ 12:11:
Is het niet gewoon puur de textures op Ultra, waarbij de devs dan qua compression of optimalisatie te lui zijn om ze in 8GB te proppen?
Ik meen ergens te hebben gelezen dat juist met ultra textures er geen gebruik wordt gemaakt van compressie (of van een vorm die niet/minder destructief is). Juist omdat compressie ook artifacts kan geven; dit zal vast niet bij elk spel zo zijn.
8GB zou echt altijd genoeg moeten zijn op 1080p en 1440p. Niet 4k, maar dat was ook nooit het idee van die kaarten.
Daar ben ik het niet mee eens, je gebruikt het woord altijd namelijk :P. Daarnaaast hebben we al meer dan 6 jaar 8GB geheugen op midrange kaarten (RX 480), lijkt mij dat dit nu de norm zou moeten worden voor de lowend en dat de midend naar 10-12GB gaat.
En dan zet je Hogwarts legacy, Last of us etc. op textures: Very High, merk je het verschil ueberhaupt? Waar dan? Klinkt voor nu nog een beetje als een storm in een glas water.
Precies, vast niet op 1080p, tenzij je er met je neus op zit :+ . Dus je zou op een lagere resolutie de textures (LOD of shadow buffers) prima wat lager kunnen zetten.
True, consoles hebben 16GB shared memory en als DirectStorage populair wordt, is het natuurlijk wel fijn als je genoeg VRAM geheugen hebt om alles smooth in te laden. Maar voor nu lijkt texture settings een klein beetje naar beneden stellen mij een prima oplossing.
Inderdaad, devs van nieuwe spellen zullen dus vooral voor die 16GB gaan. Daar loopt Nvidia helaas door tegen de muur. Iets wat ze in alle eerlijkheid zelf hadden kunnen zien aankomen, zeker gezien ze altijd heel zuinig zijn met geheugen op kaarten.

Acties:
  • +1Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Sp3ci3s8472 schreef op zondag 9 april 2023 @ 01:51:
[...]
Ik meen ergens te hebben gelezen dat juist met ultra textures er geen gebruik wordt gemaakt van compressie (of van een vorm die niet/minder destructief is). Juist omdat compressie ook artifacts kan geven; dit zal vast niet bij elk spel zo zijn.
Helemaal geen compressie lijkt me onwaarschijnlijk omdat textures meestal erg goed compressen. Juist bij textures van hoge kwaliteit zul je in principe minder verlies hebben van kwaliteit door lossy compressie. Als je geen gebruik maakt van compressie moet er veel meer data van de VRAM naar de GPU-chip, wat vermoedelijk juist voor meer vertraging zorgt dan de decompressie.

Ik heb even gezocht en er lijkt eigenlijk altijd gebruik gemaakt te worden van lossy compressie.

Overigens wordt die compressie zo gedaan dat er voor elk deel van de texture een vaste grootte is in de compressed texture en kan de decompressie puur op basis van dat deel van de texture. Daardoor hoeft men dus alleen het deel van de texture te laden dat nodig is. Doordat elk deel van de texture naar een blok van een vaste grootte wordt compressed, kan men ook precies bepalen welk deel men moet laden.
Daar ben ik het niet mee eens, je gebruikt het woord altijd namelijk :P. Daarnaaast hebben we al meer dan 6 jaar 8GB geheugen op midrange kaarten (RX 480), lijkt mij dat dit nu de norm zou moeten worden voor de lowend en dat de midend naar 10-12GB gaat.
Daar ben ik het mee eens als de x050 telt als de low-end en de x060 telt als de mid-end.
Inderdaad, devs van nieuwe spellen zullen dus vooral voor die 16GB gaan. Daar loopt Nvidia helaas door tegen de muur. Iets wat ze in alle eerlijkheid zelf hadden kunnen zien aankomen, zeker gezien ze altijd heel zuinig zijn met geheugen op kaarten.
Doordat AMD nu vrij slecht presteert en hun kaarten relatief goedkoop moet verkopen, hebben ze in dezelfde prijs-tier nu veel geheugen. Al moeten we nog kijken wat de prijzen van de 7800 XT en lager gaat worden.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


Acties:
  • +1Henk 'm!

  • NLxAROSA
  • Registratie: December 2005
  • Niet online
Ludewig schreef op zondag 9 april 2023 @ 19:30:

Daar ben ik het mee eens als de x050 telt als de low-end en de x060 telt als de mid-end.
Volgens de geruchtenmachines krijgt de 4060/4060ti 8GB. Of de geruchten kloppen gaan we binnenkort zien.

Als het klopt dan ben ik ook wel benieuwd naar benchmarks in eerder genoemde games. Stel je koopt deze kaart en zet de settings hoger dan je van de hoeveelheid VRAM mag verwachten: helpt de snellere GPU dan bij het in/uit laden van textures/etc. als VRAM vol zit? Of leun je dan meer op RAM/CPU? En hoeveel FPS kost het dan? En zijn frametimes dan nog stabiel genoeg of is het een stutterfeest?

Is een 4060/4060ti een fatsoenlijke mid-range kaart of zijn ze veroordeeld tot instap? Ik denk het laatste, maar ik zal met alle plezier ongelijk krijgen.

Wordt interessant leesvoer de aankomende periode gok ik.

[Voor 0% gewijzigd door NLxAROSA op 09-04-2023 21:15. Reden: Grammatica]


Acties:
  • +3Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Volgende analyse van HU is interessant:


Ik krijg hier direct ook de vraag, kan je nu nog wel appels met appels vergelijken als kaarten die tegen de limiet lopen in sommige games geen textures meer laden van hoge kwaliteit maar van de laagste kwaliteit. De FPS is nog wel ok in sommige gevallen alleen heb je blurry textures.

Deze analyse bevestigd iig voor mij dat met de nieuwe consoles 8GB gewoon te weinig is voor midend kaarten. De 3070 is gewoon droevig hoe slecht hij presteerd in nieuwere titels.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
NVIDIA Finally Working On A Linux Driver For Their 2017 SHIELD Controller

Wel 6 jaar na datum, wat hopen ze hier mee te bereiken....

  • Ludewig
  • Registratie: Januari 2001
  • Laatst online: 27-05 21:25
Mijn fantasie zegt dan dat ze dit doen omdat deze controller eigenlijk een studiemodel was voor een eigen console en dat ze nu van plan zijn om een concurrent voor de Steam Deck uit te brengen.

Dat zou ik doen als ik Jensen was.

“A time is coming when men will go mad, and when they see someone who is not mad, they will attack him, saying, ‘You are mad; you are not like us.’”


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Ludewig schreef op dinsdag 11 april 2023 @ 00:03:
[...]


Mijn fantasie zegt dan dat ze dit doen omdat deze controller eigenlijk een studiemodel was voor een eigen console en dat ze nu van plan zijn om een concurrent voor de Steam Deck uit te brengen.

Dat zou ik doen als ik Jensen was.
Inderdaad een grote fantasie. Want dit zou betekenen dat ze hun Steam Deck concurrent Linux geven, en als er iets is wat ik nooit zal doen dan is dat een Nvidia Linux machine kopen; tenzij ze heel erg veel aan hun Linux driver werken.

Mijn fantasie zou een goed werkende open source Linux driver zijn van Nvidia :+.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 27-05 17:57
Sp3ci3s8472 schreef op dinsdag 11 april 2023 @ 00:21:
[...]


Inderdaad een grote fantasie. Want dit zou betekenen dat ze hun Steam Deck concurrent Linux geven, en als er iets is wat ik nooit zal doen dan is dat een Nvidia Linux machine kopen; tenzij ze heel erg veel aan hun Linux driver werken.

Mijn fantasie zou een goed werkende open source Linux driver zijn van Nvidia :+.
Even los van het feit dat ze geen x86 licentie hebben en dus bij Intel of AMD aan zouden moeten kloppen, want ARM gaat gewoon niet werken :)

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
Werelds schreef op dinsdag 11 april 2023 @ 09:19:
[...]

Even los van het feit dat ze geen x86 licentie hebben en dus bij Intel of AMD aan zouden moeten kloppen, want ARM gaat gewoon niet werken :)
Inderdaad, dat gaat nog wel een tijd duren voordat dat op het niveau zit dat het bruikbaar is.
Ludewig schreef op zondag 9 april 2023 @ 19:30:
[...]
Helemaal geen compressie lijkt me onwaarschijnlijk omdat textures meestal erg goed compressen. Juist bij textures van hoge kwaliteit zul je in principe minder verlies hebben van kwaliteit door lossy compressie. Als je geen gebruik maakt van compressie moet er veel meer data van de VRAM naar de GPU-chip, wat vermoedelijk juist voor meer vertraging zorgt dan de decompressie.
Heb het gevonden :p. Doom 3 had op Ultra geen texture compressie.
https://tweakguides.pcgamingwiki.com/Doom3_8.html

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 27-05 00:25
Sp3ci3s8472 schreef op dinsdag 11 april 2023 @ 13:20:
[...]


Inderdaad, dat gaat nog wel een tijd duren voordat dat op het niveau zit dat het bruikbaar is.


[...]


Heb het gevonden :p. Doom 3 had op Ultra geen texture compressie.
https://tweakguides.pcgamingwiki.com/Doom3_8.html
Omdat GPU's alleen compressie ondersteunen waar random access voor nodig is, snel moet zijn en een kleine footprint moet hebben in hardware, maakt compressie niet zo groot verschil als bijvoorbeeld bij png of jpeg die we gewend zijn op het web. Afhankelijk van welke standard je kiest heb je over compressie ratio van 1:4 of 1:6. Dus een 4k texture met alle mip-maps is dan nog steeds 10mb groot. Als je bedenkt dat tegenwoordig je naast kleur ook normal maps, roughness en ao-maps hebt dan loopt het heel snel op.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 01:21
PjotrX schreef op dinsdag 11 april 2023 @ 14:13:
[...]

Omdat GPU's alleen compressie ondersteunen waar random access voor nodig is, snel moet zijn en een kleine footprint moet hebben in hardware, maakt compressie niet zo groot verschil als bijvoorbeeld bij png of jpeg die we gewend zijn op het web. Afhankelijk van welke standard je kiest heb je over compressie ratio van 1:4 of 1:6. Dus een 4k texture met alle mip-maps is dan nog steeds 10mb groot. Als je bedenkt dat tegenwoordig je naast kleur ook normal maps, roughness en ao-maps hebt dan loopt het heel snel op.
De term geen compressie is misschien ook fout. Want als ik het goed heb heeft bijv. PNG wel compressie maar niet destructief, namelijk Huffman coding en LZ77.
Spellen gebruik(t)en voornamelijk andere standaarden (DXT5 etc) voor textures en in het verleden hadden ze ook grote focus op het feit dat textures in machten van twee moesten zijn omdat de hardware minder flexibel was.

Normal, roughness en AO textures zijn vaak van veel lagere kwaliteit (vaak 1/4 van de grote van de diffuse/albedo texture). Dat is ook een grote reden dat normale AA dieartifacts niet oplost want het zijn shading artifacts. Deze artifacts begonnen duidelijk te worden rond de tijd dat Doom 3 dus uitkwam.

Ik dacht dat GPU's tegenwoordig hardwarematige compressie uitvoeren en ze niet eens meer "uncompressed" textures hebben; met hardwarematige compressie doel ik op bijv. de delta color compressie.

Wellicht dat ik dingen door elkaar haal want textures zijn nooit mijn focus geweest met game development :P. Als iemand een goed artikel heeft wat de industrie standaard tegenwoordig is dan heb ik daar grote interesse in!

Acties:
  • +1Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 27-05 00:25
Sp3ci3s8472 schreef op dinsdag 11 april 2023 @ 14:36:
[...]


De term geen compressie is misschien ook fout. Want als ik het goed heb heeft bijv. PNG wel compressie maar niet destructief, namelijk Huffman coding en LZ77.
Spellen gebruik(t)en voornamelijk andere standaarden (DXT5 etc) voor textures en in het verleden hadden ze ook grote focus op het feit dat textures in machten van twee moesten zijn omdat de hardware minder flexibel was.

Normal, roughness en AO textures zijn vaak van veel lagere kwaliteit (vaak 1/4 van de grote van de diffuse/albedo texture). Dat is ook een grote reden dat normale AA dieartifacts niet oplost want het zijn shading artifacts. Deze artifacts begonnen duidelijk te worden rond de tijd dat Doom 3 dus uitkwam.

Ik dacht dat GPU's tegenwoordig hardwarematige compressie uitvoeren en ze niet eens meer "uncompressed" textures hebben; met hardwarematige compressie doel ik op bijv. de delta color compressie.

Wellicht dat ik dingen door elkaar haal want textures zijn nooit mijn focus geweest met game development :P. Als iemand een goed artikel heeft wat de industrie standaard tegenwoordig is dan heb ik daar grote interesse in!
Voor pc wordt nog steeds dxt gebruikt (compressie ratio 1:6 ). Dxt1 maar voor normal en andere maps meestal dxt5 of bc4 omdat dxt1 daar te veel artifacts bij geeft (dxt1 optimaliseert op kleur en heeft niet door als verschillende channels data bevatten die geen verband met elkaar heeft).
Textures worden meestal op disk meteen als dxt opgeslagen met nog een andere compressie overheen, zoals RDO. Maar als het eenmaal op de GPU komt in een staat dat er uit gelezen moet worden dan is het dxt, de gpu ondersteund gewoon geen andere compressie standaarden. (althans niet op de pc, op mobiel heb je andere opties die beter zijn dan dxt) Dit is ook wat Unreal Engine doet. Als je nu assets van de Unreal marktplaats bekijkt zie je dat veel gewoon 4k textures voor alles gebruiken. Als je als developer dan niet een optimalisatiepass over je assets haalt heb je straks een spel dat te veel vram gebruikt. Ik denk dat de Unreal Engine juist voor heeft gezorgd dat game developers lui zijn geworden of niet meer de kennis in huis hebben om te weten waarop geoptimaliseerd moet worden.
Voor de complete artikel met de compresssiestandaarden zie https://www.reedbeta.com/...ture-compression-formats/ Deze artikel is nog voordat men textures verder ging verkleinen op disk met RDO maar is nog steeds up-to-date en legt goed uit waarom je verschillende standaarden voor verschillende textures hebt.

Acties:
  • +1Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 27-05 12:06
DaniëlWW2 schreef op vrijdag 7 april 2023 @ 21:02:
[...]

Dat was na Vega. Met RDNA1 begon het prijsmatchen.
Verder denk ik dat AMD haar positie ook iets complexer is. AMD is eigenlijk de kleinste, meest diverse en in sommige aspecten ook makkelijk de meest geavanceerde van de grote chipontwerpers. In dat spectrum hebben ze het ook nog eens voor elkaar gekregen om een dedicated gaming GPU (RDNA), dedicated HPC GPU (CDNA) en binnenkort ook nog eens XDNA waarmee ze Xilinx tech gaan integreren in Epyc producten met de focus op specifiek AI.

In dat spectrum is RDNA waarschijnlijk het minst belangrijk. Het helpt niet dat RDNA3 ook haar doelen gemist lijkt te hebben. Immers presteert N31 qua shaders based gaming workloads ongeveer zoals een RDNA2 GPU als je hogere clock speed en extra ALU's erbij neemt. Die verdubbeling van ALU's per CU doet in veel games gemiddeld niks.

Komt ook nog eens bij dat ik al lange tijd vermoed dat AMD hun dGPU business in stand houd om de ontwikkelde technologie te gebruiken voor al hun andere producten. APU's in laptops, CPU + GPU koppelverloop in laptops pushen, consoles, embedded oplossingen alsmede wat technologie delen met CDNA en dan komt ook nog XDNA. Binnen dit spectrum is zeker zoiets als N31 eigenlijk een niche. Zeker omdat menig gamer toch eerder een RTX4080 of RTX4090 koopt. Dit komt overigens ook zeker voor een deel door de incompetentie van AMD hun RTG divisie omtrent gaming producten, maar het is wel realiteit.

AdoredTV had er ook wat leuks over in zijn laatste video (zie andere topic). Aan het begin maakte hij de waarschijnlijk terechte inschatting dat AMD haar omzet en winst uit dGPU, waarschijnlijk maar een fractie van de divisie gaming moet zijn. Dit omdat met name Sony waarschijnlijk voor de grote omzet zorgt. Het verklaard ook waarom AMD nauwelijks getroffen lijkt te zijn door de instorting van crypto.

[...]


Zeker voor nu, maar ik denk dat hier ook wat nuance bij moet.
Nvidia positioneert zich al jaren steeds meer als een softwarebedrijf dat ook de hardware ontwikkeld waarop hun software draait. Ze zijn allang niet meer een (GP)GPU ontwerper. De strategie is duidelijk dat ze een software stack hebben die alleen op hun hardware draait. Dus koop onze hardware en gebruik onze software stack.

En daar zit wel een dingetje. Sinds ChatGPT werd aangekondigd, is het natuurlijk een grote AI hype. Maar hoe heeft OpenAI dat voor elkaar gekregen? Tja, dat is de vraag, zeker met OpenAI die vooral erg goed lijken te zijn om gesloten te zijn over informatie rond hun AI trainingsmethodieken. :z

Ik vroeg het me af en ben eens gaan kijken wat ik wel kon vinden. Nou op een dedicated supercomputer van Microsoft en OpenAI.
https://news.microsoft.co...enai-azure-supercomputer/
Deze heeft 285.000+ CPU cores en 10.000 GPU's. Welke? Wat ik kon vinden over de CPU's is dit:
[Twitter]
Eigenlijk dus alleen maar hinten dat het Epyc Rome zal zijn, meer niet. Qua GPU's waren het A100 GPU's. En ze gaan bij Microsoft nu ook verder met H100.
https://www.bloomberg.com...to-power-openai-s-chatgpt

Wat dat artikel alleen ook duidelijk maakt is dat Microsoft eigenlijk een oplossing heeft ingekocht en zelf geoptimaliseerd heeft om een dergelijk AI model mee te kunnen trainen. En wat OpenAI op de achtergrond heeft gedaan met die hardware is helemaal onduidelijk.


Wat me alleen wel duidelijk lijkt, is dat dit niet bereikt is volgens Nvidia hun bedrijfsmodel. Nee, Nvidia is hierin een leverancier van hardware met ondersteuning en dat is het. En daarmee loop je al tegen het probleem aan in deze industrie. Hardware is een gebruiksmiddel om software mee te maken, dan wel op te draaien. Met de resultaten van die software verdien je het geld. Precies wat Nvidia dus niet wil. Die willen dat je hun software stack gebruikt en daarmee ook vastzit aan hun hardware. Software zoals:
https://developer.nvidia.com/nemo
https://www.nvidia.com/en-us/gpu-cloud/bionemo/
En ja, die willen ze zelf gaan aanbieden met een eigen cloud dienst.
https://www.nvidia.com/en-us/ai-data-science/generative-ai/

Maar wat ook kan, is naar een concurrerende cloud provider gaan en bijvoorbeeld PyTorch gebruiken. Dan zit je niet vast aan een vendor en dan werk je met wat waarschijnlijk nu het meest gebruikte framework is. Is ook nog eens open source.
https://pytorch.org/

Onderschat ook niet wat die modellen trainen nu echt kost aan hardware. GPT vroeg om een supercomputer van honderden miljoenen. Dat kan bijna niemand betalen. Daarom heb je diensten zoals Microsoft Azure of Google Cloud. Bij hun kan je de benodigde capaciteit huren wanneer je die nodig hebt. Die gebruiken zeker Nvidia hardware, kan je gewoon zien op hun websites, maar die kopen dat alleen als ze het zelf nodig hebben om te verhuren. Dat maakt het voor Nvidia een cyclische industrie waarbij ze afhankelijk zijn van wat hun klanten doen en we zitten nu zeker in een boom.

Problematischer is dat dit echt heel erg grote spelers zijn die precies weten wat ze willen hebben, niet hoeven te vertrouwen op extra diensten en dwars door marketingpraat kijken. Ze willen een product, bewijs dat het product werkt (dus een reputatie van de vendor) drivers en hyperscaler level, premium tech support indien nodig. Die zullen echt niet terug zullen schrikken van zelf eigen hardware ontwerpen als ze dit beter uitkomt. Google doet dit bijvoorbeeld al een tijd voor bijvoorbeeld YT servers of hun TPU ASIC chips. Verder is bijvoorbeeld Microsoft ook zeker niet gebonden aan een hardwareleverancier. Die kopen wat ze het beste uitkomt.


In dat spectrum floreert Nvidia nu. Maar het is niet omdat hun software stack onvervangbaar is en daarmee Nvidia zelf. Het is omdat ze op het moment de leverancier zijn van GPU's die over het bredere spectrum van verschillende AI toepassingen, het beste presteren. En ze opereren in een markt waar zo ontiegelijk veel geld in zit, tientallen hardware startups in actief zijn en waar ook een paar andere grote spelers rondlopen die maar wat graag tenminste een deel van die enorme zak met geld naar zich toetrekken.

Ik zeg niet dat Nvidia dit wel of niet gaat "winnen". Ik zeg alleen wel dat een conclusie trekken voorbarig is. Want niemand die weet wat er precies gaat gebeuren de komende jaren en die de beste oplossingen gaat ontwikkelen.


[...]

Dat laatste lijkt wat complexer te liggen. Jensen Huang heeft namelijk ooit eens voorgesteld om Nvidia te verkopen aan AMD, waarbij hij zelf dan CEO wou worden. AMD kocht de grote concurrent ATi voor achteraf, veel te veel geld. Daar lijkt wat pijn te zitten. Het zal ook niet helpen dat juist AMD zo enorm achter Nvidia hun segmenten aanzit.
Op dit moment "verdient" Nvidia nog meer met CUDA vanuit de wetenschappelijke hoek en betere software driver support voor productiviteit applicaties (Adobe, etc.). Ze willen deze positie, die leidt tot meer Nvidia GPU aankopen, behouden voor de toekomst.

Daarom proberen ze AI op dezelfde manier naar zich toe te trekken, maar het lijkt er gelukkig op dat Open Source dit keer sterk(er) staat. Gelukkig maar, want consumenten schieten weinig op met Closed Source.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes

Pagina: 1 ... 127 128 129 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee