Het logo van de bron staat op de fotochoogen schreef op zaterdag 6 juni 2020 @ 18:17:
[...]
Ben ook wel benieuwd naar de bron voor deze foto. Kun je die er nog bij plaatsen?
https://www.chiphell.com/...236&page=1&authorid=34649
Het logo van de bron staat op de fotochoogen schreef op zaterdag 6 juni 2020 @ 18:17:
[...]
Ben ook wel benieuwd naar de bron voor deze foto. Kun je die er nog bij plaatsen?
Verwijderd
Ja chiphell was de bron, videocardz and hwi waren er ook al als de kippen bij zag ik.Paprika schreef op zaterdag 6 juni 2020 @ 18:18:
[...]
Het logo van de bron staat op de foto.
https://www.chiphell.com/...236&page=1&authorid=34649
Het is dan ook de vraag of deze op Samsung 10/8nm geproduceerd zal worden of op TSMC 7nm. Tweede is in welke staat dat zal gebeuren. Nvidia heeft nul ervaring met beide nodes wat niet zal helpen met vroege yields of optimaliseren van clock speeds. 10/8nm is toch al een onbekende voor een prestatie georiënteerd product omdat het officieel een low power node is. De architectuur van Ampère lijkt een "tick" te zijn op Turing. Dan ga je het niet zomaar redden op efficiëntie als AMD met 50% perf/watt komt en via de PS5 al bewijst dat ze ruim voorbij de 2GHz kunnen gaan.Sp3ci3s8472 schreef op zaterdag 6 juni 2020 @ 16:30:
[...]
Mijn eerste reactie, als hier al zo'n blok op zit. Dan vraag ik mij af wat er zo op de Ti versie zit. Ik krijg een zwaar vermoeden dat Nvidia AMD niet met de perf kroon wil laten weglopen met RDNA2.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Alles draait om de performance per watt (en natuurlijk prijs/prestatie) als die flink omhoog gaat en daar zou ik wel vanuit gaan door de grote stap in productieproces. Dan is een minder snelle kaart met een TDP van 200W ook een interessante optie.choogen schreef op dinsdag 9 juni 2020 @ 12:50:
Goede links allemaal, maar de TDP's van 320W-350W voor deze kaarten vallen me nogal tegen. Ik wil in mijn kleine kast sowieso geen enorme energieslurper/hitte-generator.
[ Voor 31% gewijzigd door Verwijderd op 09-06-2020 13:02 ]
De ventilator die 'boven' zit (gemonteerde toestand) zal zeer waarschijnlijk een pull ventilator zijn. Dus zuigt de lucht aan van onder naar boven. Het ontwerp is duidelijk anders dan de andere ventilator die dus normaal zal werken en vergelijkbaar zal zijn als de huidige generatie ontwerpen.Verwijderd schreef op dinsdag 9 juni 2020 @ 12:57:
Ik blijf het maar een vreemd ontwerp vinden. De ventilator onder krijgt zo gewoon veel warme lucht binnen van de ventilator boven die de warmte naar onder blaast. En de ventilator boven zuigt gewoon weer de warme opstijgende warme lucht naar onder om weer door de videokaart te gaan. Zo krijg je een airflow van lucht rond de videokaart die alleen maar warmer wordt.
Bij twee ventilators zoals bij reference videokaarten van de huidige generaties heb je hier geen last van. Daar kun je ook gewoon een stuk PCB open houden zodat de warmte gemakkelijker uit de videokaart kan.
The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.
Verwijderd
Je kunt aan de vorm van de bladen zien dat te beiden push zijn. Pull werkt overigens ook veel slechter, dus dat zou helemaal onlogisch zijn.thijsco19 schreef op dinsdag 9 juni 2020 @ 13:05:
[...]
De ventilator die 'boven' zit (gemonteerde toestand) zal zeer waarschijnlijk een pull ventilator zijn. Dus zuigt de lucht aan van onder naar boven. Het ontwerp is duidelijk anders dan de andere ventilator die dus normaal zal werken en vergelijkbaar zal zijn als de huidige generatie ontwerpen.
[ Voor 7% gewijzigd door Verwijderd op 09-06-2020 13:09 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Kleiner PCB is regelmatig prima mogelijk, bij een RX5700XT is dat bijvoorbeeld ook duidelijk te zien.Sissors schreef op dinsdag 9 juni 2020 @ 13:17:
Het verbaasd mij vooral dat als je een PCB blijkbaar zoveel kleiner kan maken, dat andere dat niet ook hebben gedaan. Dan krijg je net als wat mijn R9 Fury had een fan aan het uiteinde die niet op het PCB staat de blazen, maar rechtstreeks lucht door de koelvinnen kan blazen, dat zou toch de koeling behoorlijk ten goede moeten komen.
Een deukje in een koeler is een esthetische keuze, dat is vrij duidelijk. Dit is geen esthetische keuze, dit is een zeer grote verandering in het ontwerp van de koeler. Zo groot en zo vreemd dat het moeilijk voor te stellen is dat het klopt.En tja, de hele dual fan optie aan verschillende kanten lijkt mij gewoon een esthetische keuze. Net als dat mensen het bij de 5700XT founders edition ook helemaal aan het bedenken waren waarom de deuk voor betere airflow zou zorgen, terwijl ook dat uiteraard gewoon een keuze was om hem er leuker uit te laten zien. Je kan dit ontwerp mooi of lelijk vinden, maar hij is in ieder geval opvallend.
[ Voor 45% gewijzigd door Simbob op 09-06-2020 17:50 ]
Een mogelijke tijdlijn kan er als volgt uitzien:According to insiders, the leaked image is only one variant, which means that at the time of taking the pictures, the company was probably still in the so-called DVT (Design Validation Test) phase, in which various variants and options are played through before finally deciding on a design. Here, performance, the question of costs (purchasing from the OEM, subsequent production costs) and the consideration of long-term durability are the decisive factors for the final application.
In addition to a classic heatsink solution, there is probably also a significantly more cost-intensive cooler variant with a specially designed vapor-chamber (VC), which could also explain the circulated cooler price of 150 USD. Whereby it was also not clear whether this refers to a Small Series Product.
ik denk dat die wel tegen de 2000/3000 euro gaan aanlopen ... nog even dan hoef je alleen maar een HD aan te koppelen en klaar ben jeSimbob schreef op dinsdag 9 juni 2020 @ 17:49:
RTX 3090?
https://wccftech.com/nvidia-rtx-3090-graphics-card/
Wat een monster, 24 GB en 350W.
Poe daar zal best een prijzig prijskaartje aanhangen als dat echt is.
Systeem:AMD Ryzen 7 9800X3D ,RTX 5080 OC,FURY 64 GB DDR5-6000,ASUS TUF Gaming B850M-PLUS WIFI, SAMSUNG 990 EVO Plus 4 TB
Verwijderd
Dan lijkt het mij het meest logische dat die er niet zo uit gaat zien.XWB schreef op zondag 14 juni 2020 @ 14:35:
Wat die koeler betreft, volgens Igor zijn er meerdere koeloplossingen in ontwikkeling en alles wat we nu zien hoeft niet per se het uiteindelijke product te worden.
Je hoeft weinig aan te analyseren. Je kunt het gewoon duidelijk op de foto zien. De vorm van de bladen maken maar één draairichting mogelijk. De andere kant op draaien gaat niet werken, dan doet de fan zo goed als niks.Sp3ci3s8472 schreef op maandag 15 juni 2020 @ 00:03:
Coreteks heeft een analyse gedaan en denkt dat de fan op de achterkant ook gewoon push is
[ Voor 19% gewijzigd door Simbob op 19-06-2020 11:42 ]
Uh ja, dat klopt zeer waarschijnlijk niet. We weten dat er een vrij klein PCB op dat prototype zat en het zeer waarschijnlijk GA-102 is. Er zal niks meer passen op het PCB naast de GPU, VRAM en VRM's. Er zou een aparte RT chip bij elke RTX 3000 videokaart zitten. Nou waar zit die dan? Zoiets zal om koeling vragen en dat zou de tweede ventilator verklaren. En dat is precies het probleem.Sp3ci3s8472 schreef op maandag 15 juni 2020 @ 00:03:
[YouTube: A REVOLUTION in graphics is coming]
Coreteks heeft een analyse gedaan en denkt dat de fan op de achterkant ook gewoon push is, en dat er op die plek nog een (upgradebare) coprocessor zit die bedoelt is voor RT. Dit is tot nu toe de meest interessante analyse hierover.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Dat is helemaal afhankelijk van de prestaties en prijs van de AMD tegenhangers. Ze zullen vooral naar elkaar kijken, console is niet een echte concurrent. Een Xbox One S was in november met Black Friday ook maar 127 euro, kreeg je er ook nog games bij. Had ook geen invloed op de videokaart prijzen. Het is niet dat je de videochip van een Xbox of PS in je PC kan zetten.Simbob schreef op vrijdag 19 juni 2020 @ 11:39:
Ik denk dat Nvidia daar niet veel vanaf gaat zitten qua prijs.
Het enige wat we echt weten is dat we het niet weten. De rest zijn alleen nog maar geruchten.DaniëlWW2 schreef op zaterdag 20 juni 2020 @ 19:36:
[...]
We weten dat er een vrij klein PCB op dat prototype zat en het zeer waarschijnlijk GA-102 is.
[ Voor 22% gewijzigd door Verwijderd op 20-06-2020 20:25 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
[ Voor 27% gewijzigd door Help!!!! op 03-07-2020 09:33 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
[ Voor 37% gewijzigd door choogen op 13-07-2020 15:57 ]
[ Voor 149% gewijzigd door A87 op 19-07-2020 12:47 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
helaas denkt niet iedereen er zo over en gaan ze als warme broodjes over de toonbank.A87 schreef op zondag 19 juli 2020 @ 12:41:
Niet normaal meer die prijzen, eerst had je nog een 8800 GTX voor 600 euro nieuw. Maar dat ging ook wel ff lang mee.
[ Voor 46% gewijzigd door A87 op 19-07-2020 23:15 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
[ Voor 27% gewijzigd door Sissors op 20-07-2020 08:28 ]
Verwijderd
De connector bestaat sowieso al jaren. Het is een 12 pins Micro-FIT connector. En nVidia gaat er ook mee komen. Is alleen de vraag met welke videokaarten. Is het de eerst volgende generatie? Is het direct een flink aantal of is het maar één en heeft de rest gewoon de huidige aansluitingen? Dat zijn nog de onduidelijkheden.RobinNL schreef op maandag 20 juli 2020 @ 00:13:
Er was eerder deze week een gerucht dat nieuwe Nvidia videokaarten een nieuwe 12-pin connector nodig hebben. Dit gerucht is op Twitter ontkracht, terwijl andere websites met 'welgeplaatste bronnen binnen de industrie' zeggen dat deze connector wel bestaat.
Er zijn honderden fabrikanten die voedingen produceren, daar kun je geen deal mee sluiten. Zelfs de 8 grootsten (AcBel, Chicony, Delta, Flextronics, FSP, Lite-On, GreatWall, Huntkey) lijkt mij al lastig. Ook omdat je hiermee ook niet het grootste deel van de retail markt pakt.bluebear schreef op maandag 20 juli 2020 @ 03:00:
zouden ze een dealtje hebben met PSU manufacturers?
Fabrikanten zullen als ze het nodig vinden vaak genoeg een kabel weggeven of opsturen tegen verzendkosten. Bij de duurdere voedingen, doen ze nu ook al. En een goedkope voeding wil je toch sowieso niet gebruiken.Als je een nieuwe kaart koopt, moet je ook een nieuwe kabel kopen (of een hele nieuwe PSU?).
[ Voor 6% gewijzigd door Verwijderd op 20-07-2020 09:06 ]
Op 10m:14 zegt hij juist dat er op Ampere wel een HDMI 2.1 poort zit. Staat ook op zijn slide.HajoK schreef op maandag 20 juli 2020 @ 14:03:
Had 'm ook gezien. Hij heeft het erover dat er geen HDMI 2.1 in zou zitten, dat zou ik wel erg jammer vinden i.v.m. het willen aansluiten op (nieuwe) TV van m'n volgende PC..
Iemand met als naam "Moore's Law is Dead" zou toch moeten beseffen dat tegenwoordig voor HPC het niet zo kritiek meer is om op de nieuwste node te zitten. Waar vroeger nog de GPU fabrikanten voorop liepen, zijn dat nu de mobiele fabrikanten met een reden.choogen schreef op maandag 20 juli 2020 @ 11:33:
Interessante nieuwe video van Moore's Law is Dead waarin hij stelt dat het arrogant geworden Nvidia het zwaar gaat krijgen om dit jaar de performance kroon vast te houden wanneer AMD's Big Navi in november uitkomt. Een en ander heeft te maken met de voor Nvidia mislukte onderhandelingen met TSMC waardoor het bedrijf voornamelijk moet werken met 8nm chips (van Samsung) i.p.v. met 7nm chips van TSMC. AMD heeft betere banden met TSMC en kan daarom wel aan op 7nm geproduceerde chips komen. De YouTuber verwacht verder dat Nvidia dan al in 2021 weer terug zal slaan met een "Super" refresh versie van Ampere die wel op 7nm is gebaseerd, maar tegen die tijd zit AMD mogelijk al weer bijna op 5nm. Hoe dan ook worden het interessante tijden voor gamers, want de concurrentie is spoedig terug in alle hevigheid (maar dat moet zich dan hopelijk wel gaan vertalen in betere prijzen).
[YouTube: Nvidia Ampere Arrogance Leak: AMD Really Could Win with RDNA 2]
Alleen zijn de geruchten dat de Samsung 8nm node niet de hoge clocksnelheden kan waarmaken die Nvidia wil. Waar het eerst ging om 2200+ op TSMC hebben ze het nu over 1900+ op Samsung. Dat wordt volgens mij juist in het filmpje uitgelegd. Het is wellicht mogelijk, maar op 400 Watt. Wat waarschijnlijk wel mooi is is dat je nu wel fatsoenlijk RT performance gaat krijgen.Sissors schreef op maandag 20 juli 2020 @ 15:43:
[...]
Iemand met als naam "Moore's Law is Dead" zou toch moeten beseffen dat tegenwoordig voor HPC het niet zo kritiek meer is om op de nieuwste node te zitten. Waar vroeger nog de GPU fabrikanten voorop liepen, zijn dat nu de mobiele fabrikanten met een reden.
Dat zie je ook eraan dat Navi nou niet significant veel beter is dan wat Nvidia heeft, ondanks dat ze op 7nm zitten terwijl Nvidia op 12nm zit. En ook op CPU vlak zie je het: Ja ik ga echt niet ontkennen dat gemiddeld genomen Ryzen zeker de betere keuze is tov het Intel aanbod, maar Ryzen zit op 7nm, Intel op 14nm, Als we het equivalent van een tijdje geleden pakken: 130nm vs 65nm, dan was het performance verschil echt heel veel groter geworden.
Ik weet niet precies hoe goed 8nm zal presteren, maar het zal allicht beter zijn dan hun huidige 12nm node. En Samsung zal wel blij zijn eens een grote klant te hebben voor een nieuwe technologie, dus dat zal de prijs ook wel drukken.
Met Navi heeft AMD redelijk de achterstand ingelopen op Nvidia, maar er waren ook enorme verwachtingen die niet zijn waargemaakt. Dus ik moet Big Navi eerst zien voor ik geloof dat die een enorme stap voorwaarts is.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Exacte info van het filmpje (zie watermark), maar wel handig als een screenshotRobinNL schreef op maandag 20 juli 2020 @ 21:54:
Bovenstaande video heb ik nog niet bekeken, dus misschien kan er wat dubbele info in zitten.
Gerucht: Tensor-geheugencompressie van Nvidia’s Ampere-kaarten kan VRAM-gebruik tot 40% verminderen
[Afbeelding]
[Afbeelding]
[Afbeelding]
Dat hebben ze zeker bewust gedaan. Een kleine mid-tier (251mm is geen high end) chip gemaakt als massa product op 7nm.Sp3ci3s8472 schreef op maandag 20 juli 2020 @ 18:46:
[...]
Volgens mij heeft AMD express een mid-high range kaart uitgebrach met Navi 1,
Stopgap ja, maar niet omdat stopgap naar Navi2 omdat het zo liep. Een nieuwe node + nieuwe architectuur voor grote high end chips= problemenik denk dat als ze gewilt hadden ze best in staat waren een grotere variant uit te brengen maar dat ze dat niet hebben gedaan omdat ze Navi 1 als tussen architectuur zien en als een stopgap tot Navi 2.
Ben ik het niet helemaal mee eens, onder de 350 is mid-end. Tusen de 350-500 is mid-highend (dus nog geen highend); daarboven 450-650 is highend en daar weer boven is enthausiast. Onder de 200 is lowend. Maar dit zijn de definities waar ik van uit ga, dat staat niet in steen geschrevensjekneck schreef op maandag 20 juli 2020 @ 22:01:
[...]
Dat hebben ze zeker bewust gedaan. Een kleine mid-tier (251mm is geen high end) chip gemaakt als massa product op 7nm.
Men hoeft echt niet gelijk een Nvidia/AMD uber high end chip te gaan verwachten als eerste 5nm gpu als die node beschikbaar is. Een die shrink van een bestaand product of een low end/mid tier chip is best case.
Tel daarbij op dat de nieuwe nodes steeds prijziger worden, nog meer rede om voorzichtig te zijn.
[...]
Stopgap ja, maar niet omdat stopgap naar Navi2 omdat het zo liep. Een nieuwe node + nieuwe architectuur voor grote high end chips= problemen
Lage yields, hoog verbruik door lekstroom en weinig goed werkende chips op acceptabele speeds. Nvidia gaat bewust niet meer gelijk op een nieuwste node met high end chip mede omdat ze heel goed weten dat dit kostbaar is en resulteert in lage aantallen van functionele chips op specs. AMD doet al langer niet meer eerst nieuwe high end chips op een nieuwe node om vergelijkbare redenen. Daarom was Navi10 eerst, om te testen en de nieuwe node eerst op niveau te krijgen. Nvidia gaat groot op een bewezen proces.
Dat is wel appels met peren vergelijken. In de tijd van een 8800GTX had je geen 1440p en 4k 144hz gsync mainstream gaming schermen. Als je op dit moment een 1080p scherm hebt en een degelijke kaart zoals een RTX2070S hoef je de komende 5 jaren niet eens up te graden.A87 schreef op zondag 19 juli 2020 @ 12:41:
Niet normaal meer die prijzen, eerst had je nog een 8800 GTX voor 600 euro nieuw. Maar dat ging ook wel ff lang mee.
Mag wel een keer iets komen wat dubbel zo snel is als een 2080ti!
https://videocardz.com/ne...super-graphics-cards-soon
Allegedly discontinued GeForce RTX 20 graphics cards:
GeForce RTX 2080 Ti
GeForce RTX 2080 SUPER
GeForce RTX 2070 SUPER
GeForce RTX 2070
[ Voor 13% gewijzigd door biggydeen2 op 04-08-2020 16:21 ]
[ Voor 165% gewijzigd door A87 op 04-08-2020 23:07 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Deze opmerking raakt kant noch wal, sluit als een haspel in een zak en slaat daarbij als een tang op een varken. Volgens die logica hadden de eerste Pentium, Voodoo, eerste GeForce/Radeon allemaal hooguit enkele tientjes mogen kosten omdat de gangbare resolutie toentertijd 640x480 was en we nog geen 1080p haddenbiggydeen2 schreef op dinsdag 4 augustus 2020 @ 16:13:
Dat is wel appels met peren vergelijken. In de tijd van een 8800GTX had je geen 1440p en 4k 144hz gsync mainstream gaming schermen.
Zo gek is dat toch niet? Je kunt nu veel meer met een GPU dan in die tijd. Nvidia heeft vele miljarden besteed aan RTX en AI en hebben hiervoor zelfs aparte RTX en Tensor cores toegevoegd. Ik snap niet dat mensen dan verwachten dat de prijs dan maar gelijk blijft? Even afgezien van kunstmatige prijzen omdat er geen of weinig concurrentie is. Tel daarbij inflatie en cryptomining op dan zijn de huidige prijzen vrij logisch.Werelds schreef op dinsdag 4 augustus 2020 @ 20:22:
[...]
Deze opmerking raakt kant noch wal, sluit als een haspel in een zak en slaat daarbij als een tang op een varken. Volgens die logica hadden de eerste Pentium, Voodoo, eerste GeForce/Radeon allemaal hooguit enkele tientjes mogen kosten omdat de gangbare resolutie toentertijd 640x480 was en we nog geen 1080p hadden
De meeste mensen hadden ook geen 8800 GTX ($599) nodig, aangezien de gangbare ("de meeste mensen" dus) resolutie toentertijd 1280x1024 was, terwijl dat ding wel veel dingen op 2560x1600 kon draaien (in verhouding ligt dat niet ver van 2160p vs 1080p vandaan).
In die tijd kon je met die CPU's, GPU's ook veel meer dan de chips daarvoor. Sterker nog, de sprong die je met die chips maakte (met name de genoemde Voodoo bijvoorbeeld) was vele malen groter dan wat we de afgelopen jaren hebben gezien. Zeker vergeleken met Turing. En miljarden aan RTX en "AI" besteed? Dat laatste is software, waar jij op doelt zijn Tensor Cores die gebruikt kunnen worden voor verschillende ML/DL toepassingen. En die zijn niet nieuw en al helemaal niet door Nvidia "bedacht". Een TC is niets meer dan een matrix ALU, die al eerder bestonden. En specifiek voor ML/DL hebben Google, Microsoft en IBM elk al jaren geleden verschillende FPGA's en ASIC's gebruikt. Google's TPU (ik laat het aan de lezer om uit te vogelen waar deze 3 letters voor staanbiggydeen2 schreef op dinsdag 4 augustus 2020 @ 20:41:
Zo gek is dat toch niet? Je kunt nu veel meer met een GPU dan in die tijd. Nvidia heeft vele miljarden besteed aan RTX en AI en hebben hiervoor zelfs aparte RTX en Tensor cores toegevoegd. Ik snap niet dat mensen dan verwachten dat de prijs dan maar gelijk blijft? Even afgezien van kunstmatige prijzen omdat er geen of weinig concurrentie is. Tel daarbij inflatie en cryptomining op dan zijn de huidige prijzen vrij logisch.
Het zal niet door Nvidia bedacht zijn maar ze hebben dit wel allemaal (RTX en Tensor) samen op een GPU weten te plakken. Ook voor TSMC zal dit nieuw zijn. Dat is nog niet eerder door een andere partij gedaan. Ik ben geen techneut op dit vlak maar het lijkt mij dat je hier toch zeker een aantal jaren en veel geld aan kwijt bent om dat goed samen te laten werken en gezamenlijk op een chip te plakken.Werelds schreef op dinsdag 4 augustus 2020 @ 23:35:
[...]
In die tijd kon je met die CPU's, GPU's ook veel meer dan de chips daarvoor. Sterker nog, de sprong die je met die chips maakte (met name de genoemde Voodoo bijvoorbeeld) was vele malen groter dan wat we de afgelopen jaren hebben gezien. Zeker vergeleken met Turing. En miljarden aan RTX en "AI" besteed? Dat laatste is software, waar jij op doelt zijn Tensor Cores die gebruikt kunnen worden voor verschillende ML/DL toepassingen. En die zijn niet nieuw en al helemaal niet door Nvidia "bedacht". Een TC is niets meer dan een matrix ALU, die al eerder bestonden. En specifiek voor ML/DL hebben Google, Microsoft en IBM elk al jaren geleden verschillende FPGA's en ASIC's gebruikt. Google's TPU (ik laat het aan de lezer om uit te vogelen waar deze 3 letters voor staan) stamt alweer uit 2015.
Tensor cores zijn ook helemaal niet boeiend voor games en wat mij betreft mogen ze die er uit gooien, want ze kosten wel veel ruimte in de chip. De toepassingen voor games zijn extreem beperkt en met DLSS (tot nog toe de enige "nuttige" toepassing in games) heeft Nvidia meteen ook laten zien hoe slecht dat kan gaan. DLSS 1.0 is gewoon slecht, DLSS 2.0 doet in elk geval niet onder voor wat AMD puur op shaders kan en we zullen wel zien hoe 3.0 er uit gaat zien. In plaats van het te faken heb ik liever hardware die daadwerkelijk 2160p144 kan leveren. Dat is wat de Voodoo gaf in verhouding tot alles daarvoor. Dat is wat ATI's R300 deed voor MSAA. Dat is wat G80 in z'n algemeen deed.
En RT? Wederom, niets nieuws. Daarmee wil ik niet zeggen dat wat de RT cores doen niet slim is, het is echter bedacht door anderen. De RT cores zijn (op dit moment) een hardware implementatie van een BVH. Ray Tracing zelf wordt al 40 jaar gedaan en is zeker niet Nvidia's uitvinding.
Waarom hebben Nvidia/AMD/Intel dat dan niet eerder gedaan? Omdat het relatief grote units zijn en er voorheen simpelweg dusdanig weinig in een chip zouden passen dat het nog minder nuttig zou zijn dan het nu is. Het heeft meer te maken met het werk dat "ons" ASML en bakkers zoals TSMC doen om kleinere, compactere chips te maken dan iets anders.
Je betaalt zo'n 60% meer voor TU102 en dat krijg je er niet voor terug. Zeker niet in performance, maar ook niet in beeldkwaliteit omdat er te veel compromissen gesloten moeten worden. Dus nee, ik kan me niet vinden in de stelling dat de prijzen het waard zijn voor de vooruitgang in technologie. Turing is geen G80, R300 of Voodoo vergeleken met z'n voorgangers of zelfs de concurrentie. Beter dan de concurrentie? Absoluut. Een stap voorwaarts ten opzichte van z'n voorgangers? Ja. Maar geen 60% beter.
Voor TSMC maakt dat niets uit, dat onderdeel van de chip wordt niet anders gemaakt dan andere onderdelen. Dat het in een GPU zit maakt ook niet veel uit; met die logica moet je elk onderdeel van een GPU als revolutionair en supercomplex beschouwen. Vroeger hadden we overal pipelines voor en had bijna elk stukje graphics wel een eigen stukje hardware.biggydeen2 schreef op woensdag 5 augustus 2020 @ 08:58:
Het zal niet door Nvidia bedacht zijn maar ze hebben dit wel allemaal (RTX en Tensor) samen op een GPU weten te plakken. Ook voor TSMC zal dit nieuw zijn. Dat is nog niet eerder door een andere partij gedaan. Ik ben geen techneut op dit vlak maar het lijkt mij dat je hier toch zeker een aantal jaren en veel geld aan kwijt bent om dat goed samen te laten werken en gezamenlijk op een chip te plakken.
DLSS 1.0 was gewoon echt ronduit slecht. DLSS 2.0 ziet er op sommige momenten iets beter uit dan wat AMD met FidelityFX produceert, maar dat is het probleem juist: op sommige momenten. Het is niet constant beter. Wat 2.0 zo veel beter maakt dan 1.0 is dat er nu een sharpening filter overheen gaat, waarmee je de upscaling artifacts verbergt - en dat is precies wat AMD met FidelityFX doet. Ze zijn er echter nog weldegelijk, waardoor DLSS er niet per definitie "beter" uit ziet dan native rendering. De enige uitzondering daarop is Control, maar dat is omdat Control uit een pot vaseline getrokken wordt, dus elke vorm van sharpening geeft dat spel al meer detail.Waarom zou DLSS 2.0 of 3.0 niks toevoegen? De meest recente video's die je kunt zien op Youtube laten een performance boost van wel 40-50% zien zonder dat je details verliest. Sterker nog, het ziet er zelfs beter uit. Oftewel je speelt op 1440p met 4k kwaliteit. Vrijwel iedereen is hier zeer te spreken over (DLSS 1.0 was niet zo best overigens). Kun je aangeven waarom dit niks zou toevoegen? Heb je ook een voorbeeld waarbij AMD exact hetzelfde doet met enkel shaders? Ik heb een tijdje lopen zoeken maar ik kan hier niks over vinden.
En daar verschillen wij van mening. DLSS en vergelijkbare technieken bewijzen slechts één ding: dat GPU's zijn gestagneerd. De toekomst is daadwerkelijk al die pixels kunnen renderen. Dit is alsof je de teller in een auto op laat lopen naar 250 km/u en het gevoel van snelheid simuleert met projecties op de ramen terwijl je slechts 130 rijdt.Even afgezien van een performance boost voor RTX kunnen mensen met een oudere RTX kaart straks 40-50% meer performance krijgen en hoeven dus de komende tijd niet up te graden (zolang games DLSS gaan ondersteunen). Ik zie dit als de toekomst voor gaming op hogere resoluties.
Het probleem is puur het gebrek aan concurrentie. Ik hoop oprecht dat AMD binnenkort een Ryzen GPU uit hun hoed kan toveren en lekker laag in zet qua prijs. Ze hebben het al eerder gedaan en we hebben het nu heel hard nodig.Rechtvaardigt dit de hoge prijzen? Nee maar je kunt ook niet zomaar alles met elkaar vergelijken. De markt is compleet anders, Nvidia heeft vrijwel geen concurrentie, crypto mining is booming etc.
Als die 700 betekent dat ze het dubbele aan performance van GP102 (1080 Ti, Titan X(p)) kunnen leveren, ja. Maar anders niet. Vergeet niet dat die chip alweer 4 jaar op de markt is en de enige "upgrade" TU102 is, voor 65% meer dan een 1080 Ti 3,5 jaar geleden kostte. Dan krijg je met een beetje geluk 30% meer performance (zonder DLSS en RT). GP102 tegenover GM200 gaf minstens 50% performance. GM200 tegenover GK110 hikte daar tegenaan. GK110 tegenover GF100/GF110 is niet eens meer te vergelijken (vooral ook omdat Fermi zo ruk wasWe zullen zien wat de 3000 serie gaat doen qua prijs. Als ze voor de RTX3080 rond de 700-800 euro zitten is dat zeer netjes naar mijn idee.
Het gaat niet eens om volledige RT. Daar zijn we nog jaren van verwijderd. Maar zelfs voor reflecties is er nog niet genoeg hardware, laat staan om alle verlichting te vervangen door RT.SpcCwb schreef op woensdag 5 augustus 2020 @ 11:55:
DLSS is niet alleen bedoeld om hogere framerates te halen. Het is ook een vorm van AA. Volle 2160p mist AA waardoor dat er minder goed uitziet dan DLSS.
DLSS heeft enkele beperkingen, maar als je daardoor meer RT kan gebruiken en dus ook eerder volledige RT, heeft dat mijn voorkeur boven de kosten van 2160p. Alle manieren om nu schaduwen/reflecties/GI te doen hebben namelijk veel grotere artefacten (baked lighting is niet dynamisch, SSR valt weg als object niet in screen space is e.d.) dan DLSS.
Dus, zoals je zegt is volledige RT nog niet mogelijk, dat is ook vreselijk zwaar en kon tot voor kort alleen op grote supercomputers (die voor CGI uren staan te stampen). Maar er moet ergens een start gemaakt worden. Uiteindelijk zou volle RT op volle 2160p natuurlijk ideaal zijn. Ik tot die tijd veel liever zoveel mogelijk RT + DLSS dan geen RT + 2160p. Zoals jij het stelt, lijk je te zeggen dat er eerst op 2160p gerenderd moet worden voor we RT kunnen gaan gebruiken, lijkt me zonde (zeker omdat veel mensen op 1440/1080p spelen).
Of RT het waard is moet nog gaan blijken, er is nu mondjesmaat wat support en leuke proof of concepts. Een stuk beter dan de aftrap met brakke RT/DLSS implementatie in BF5 als paradepaardjeWerelds schreef op woensdag 5 augustus 2020 @ 14:13:
[...]
Het gaat niet eens om volledige RT. Daar zijn we nog jaren van verwijderd. Maar zelfs voor reflecties is er nog niet genoeg hardware, laat staan om alle verlichting te vervangen door RT.
Mijn punt is ook helemaal niet dat we eerst comfortabel 2160p144 moeten kunnen trekken voordat er wat aan RT komt, of dat het doel van DLSS geen nut heeft. Mijn punt is dat de meerprijs voor de RT cores en Tensor cores het niet waard is. Nogmaals, de tensor cores worden alleen voor DLSS gebruikt en dat is het gewoon niet waard. Het enige wat DLSS is/doet, is upscalen met een sharpening filter (2.0 tenminste). Leuk en aardig dat Nvidia daar een buzzword als "AI" aan vast hangt, maar ze hebben inmiddels ook zelf bewezen dat dat niet rendabel is. ML/DL heeft altijd een getraind model nodig en het is gewoon niet mogelijk om voor elk mogelijk frame in een game de juiste transities in te leren, dus DLSS blijft altijd een benadering. Het resultaat is dat het meestal niet of nauwelijks beter uit ziet dan andere oplossingen, zoals FidelityFX.
Intussen kosten die krengen wel pakweg 25% aan real estate in de chip. Laat dat nou fijn achterwege en maak de chip kleiner (en dus goedkoper) en zuiniger, of stop er meer rekenhardware in zodat hogere resoluties makkelijker gaan, terwijl RT ondersteuning breder wordt. MSAA lost het gros van aliasing dan wel op (en zeker met tiled rendering kost x4 amper iets aan performance).
Of ik gooi het helemaal op z'n kop en suggereer dat we nog veel hogere resoluties dan 2160p moeten kunnen renderen, want dan kun je supersamplen, wat nog veel betere resultaten geeft als het op AA aan komt
Dat is het hem nou juist. RT is de toekomst, daar bestaat geen twijfel over en dat zeg ik ook al heel lang. De huidige hardware is echter niet in staat tot veel meer dan de PoC's die er zijn; daar reken ik de implementaties in games ook in mee. Daarom is het is nu ook wél absurd duur.sjekneck schreef op woensdag 5 augustus 2020 @ 16:34:
Of RT het waard is moet nog gaan blijken, er is nu mondjesmaat wat support en leuke proof of concepts. Een stuk beter dan de aftrap met brakke RT/DLSS implementatie in BF5 als paradepaardje.
Nu de concurrent met Navi2 ook onboard is wat betreft RT lijkt het duidelijk een feature te worden waar rekening mee gehouden moet worden. Jij mag het de meerprijs niet waard vinden, dat is niet leidend voor de markt natuurlijk. Als er echte killer apps voor komen en het niet absurd duur is why not.
RT cores zeker niet. Tensor cores ben ik niet zo zeker van.Ik mag aannemen dat tensor/rt cores niet features zijn waar ze over een jaar mee stoppen. Het is immers dedicated opgenomen in het ontwerp van de chip. Deze keuze is bewust gepushed, daar zal echt wel een meerjarenplan voor zijn gemaakt.
Volgens mij valt dat reuze mee qua stagnatie. 1440p ultra settings 60+ fps is al geruime tijd makkelijk haalbaar op high end systemen. 4k 60 fps nog net niet. Daar gaat de 3080 en 3080ti/3090/big navi ook verandering in brengen. Het enige wat dan nog overblijft is 4k 144hz/fps. Alles daar boven (zowel resolutie en fps) voegt vrijwel niks meer toe. Dus de ultieme gaming ervaring hebben we al bijna bereikt. Dus zijn ze nu op zoek naar nieuwe features zoals raytracing om in de toekomst op te focussen.Werelds schreef op woensdag 5 augustus 2020 @ 11:11:
En daar verschillen wij van mening. DLSS en vergelijkbare technieken bewijzen slechts één ding: dat GPU's zijn gestagneerd. De toekomst is daadwerkelijk al die pixels kunnen renderen. Dit is alsof je de teller in een auto op laat lopen naar 250 km/u en het gevoel van snelheid simuleert met projecties op de ramen terwijl je slechts 130 rijdt.
Is upscaling + sharpening een oplossing voor mensen die niet de ultra high-end kunnen betalen? Zeker. Maar juist voor de ultra high-end zou dit helemaal geen paradepaardje moeten zijn. En zo'n hoge meerprijs betalen voor een compromis (want dat DLSS) is het niet waard als dat compromis ook voor 95% benaderd kan worden op bestaande hardware.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Vergelijkbare issue heb ik dus met mijn RTX 2070 SuperDaniëlWW2 schreef op donderdag 6 augustus 2020 @ 15:20:
Op het moment is het alleen zo dat ik me soms serieus afvraag waarom ik een RX5700XT heb. Er is bijna niks dat grafisch echt interessant is of die kaart al echt kan benutten. Veel games die ik speel, limiteer ik nota bene kunstmatig voor een beetje energiebesparing omdat de framerates zinloos zijn.
[ Voor 10% gewijzigd door Mizgala28 op 06-08-2020 16:00 ]
[ Voor 6% gewijzigd door Help!!!! op 06-08-2020 16:25 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Dat is zeker een volgende stap maar dat wordt tegengehouden door consolehardware. Ken jij bedrijven die games maken enkel voor de PC en daar het maximale uithalen qua rekenkracht? Ik niet. Betere textures zijn volgens mij prima mogelijk. Voordat je een 8-12 core CPU met RTX2080Ti op 1080P daarmee voltrekt moet je toch echt van goede huizen komen.DaniëlWW2 schreef op donderdag 6 augustus 2020 @ 15:20:
@biggydeen2 Je beseft je dat we nog niet eens in de buurt van foto realistische graphics zijn of dat de steeds verdere stagnatie eigenlijk al een decennia bezig is?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Volgens Steam Hardware Survey heeft 65% van de mensen als primary display resolution 1080p. Slechts 6% 1440p en 4k slechts 2%. Veruit de meeste mensen gamen dus op 1080p. Overigens zou ik ook niet terug willen naar 1080p.Help!!!! schreef op donderdag 6 augustus 2020 @ 16:24:
^
1080p. Zal aan mij liggen maar wie wil dat nu nog hebben behalve als je echt geen geld hebt![]()
Ik kijk ook niet meer op een CRT beeldbuis....
Best wat mensen eigenlijk, en als ik kijk naar mijn eigen omgeving pretty much iedereen die niet in de laatste 1,5 jaar hun PC heeft geupgrade. (maar de meeste van die mensen draaien niks beters dan een GTX 1060/RX580)Help!!!! schreef op donderdag 6 augustus 2020 @ 16:24:
^
1080p. Zal aan mij liggen maar wie wil dat nu nog hebben behalve als je echt geen geld hebt![]()
Ik kijk ook niet meer op een CRT beeldbuis....
[ Voor 5% gewijzigd door Mizgala28 op 06-08-2020 16:55 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Varieert wat je hebt en wat je eisen zijn, ik ging mijn GTX 1060 upgraden omdat ik met die kaart in bepaalde games die ik vaak speel, de settings naar beneden moest aanpassen om stabiele 60fps te kunnen halen op 1080p.Help!!!! schreef op donderdag 6 augustus 2020 @ 16:55:
Tja als je nog op houten banden rijdt dan heb je meestal idd geen snellere motor nodig.
[ Voor 4% gewijzigd door Mizgala28 op 06-08-2020 17:10 ]
Je spreekt jezelf tegen. Je wil dat er meer gevraagd wordt van videokaarten maar als er dan RT toe wordt gepast en de framerate zakt in, is het niet goed.DaniëlWW2 schreef op donderdag 6 augustus 2020 @ 15:20:
@biggydeen2 Je beseft je dat we nog niet eens in de buurt van foto realistische graphics zijn of dat de steeds verdere stagnatie eigenlijk al een decennia bezig is?![]()
Voor Fermi was het normaal om minstens 50% perf per generatie te verwachten. 50% was eigenlijk al zwak. Sinds Fermi mogen we al blij zijn met 30% en mag je altijd rekenen op een prijsverhoging voor dat beetje extra. Fermi naar Kepler was nog een aardige stap, voornamelijk omdat Fermi zo slecht was. Kepler naar Maxwell ook nog, maar dat was meteen de laatste keer dat Nvidia echt een stap heeft gezet in architectuur. Pascal was letterlijk Maxwell naar 16nm porten met fors hogere clock speeds. Met Turing kon dat niet meer en i.p.v. die gigantische oppervlakten te gebruiken voor fors meer shader hardware, kwam Nvidia met een hele hoop fixed function hardware voor RT. RT die voor zelfs de zeer matige implementatie, je framerate door de helft hakt.
Het hielp ook echt niet dat AMD zowat failliet ging rond 2012 en ze na Hawaï (R9 290) het botweg niet eens meer geprobeerd hebben tot hopelijk dit najaar. De stagnatie versnelde in ieder geval toen het duidelijk werd dat AMD eruit lag voor de komende jaren. De resultaten daarvan zijn Pascal en al helemaal Turing.
DLSS komt mij een beetje over als een poging om iets te doen met die tensor cores, maar wenselijk is anders. Het kan best fijn zijn voor mensen die hooguit een toch al veel te dure RTX2060 kunnen betalen, maar die hadden ook een stuk sneller kunnen zijn zonder tensor cores. Sloop die eruit en vervang het gewonnen oppervlakte voor shaders en je kijkt waarschijnlijk eerder naar RTX2080S prestaties. Daarnaast kan je beter inzetten op echte RT i.p.v. denoising wat die tensor cores doen. Dat prefereer ik over upscaling die voor een paar games überhaupt werkt, en alsnog niet zaligmakend is. Idem voor sharpening filters. Het kan best handig zijn voor games waar ze echt met de pet naar hebben gegooid, maar ik heb liever gewoon een fatsoenlijke grafische ervaring out of the box.
Ik heb liever gewoon textures die echt gerenderd zijn op tenminste native revolution. Ben de eindeloze 256x256 of 512x512 background textures die je wat minder slecht maakt met sharpening filters dus ook echt meer dan zat. Ik wil gewoon echt native resolution. Bijvoorbeeld meer zoals dit. Ja, de game is vijf jaar oud, maar alsnog zijn er genoeg games die dit nog steeds niet voor elkaar hebben.
[YouTube: The Witcher 3 HD Reworked Project 12.0 Ultimate - Environment Objects Quality Preview]
Ik lever graag wat meestal zinloze frames in voor dit en als het moet, dan koop ik wel een betere videokaart. Op het moment is het alleen zo dat ik me soms serieus afvraag waarom ik een RX5700XT heb. Er is bijna niks dat grafisch echt interessant is of die kaart al echt kan benutten. Veel games die ik speel, limiteer ik nota bene kunstmatig voor een beetje energiebesparing omdat de framerates zinloos zijn.
Komt er dan wel eens een game waar er wat grafische grenzen worden verlegd en ze dit soort zaken beter op orde hebben zoals RDR2, dan klagen mensen dat het slecht geoptimaliseerd is. Zelfs Battlefield is niet meer wat het geweest is. BF3 en BF4 kregen je videokaart nog op de knieën, BF5 echt niet. Daar was ook veel meer mogelijk geweest dan wat treurige RT effecten die je framerate halveren. Tegenwoordig is alles dat niet makkelijk 60fps/ultra doet op midrange hardware, slecht geoptimaliseerd. Dat is precies het probleem. Omdat videokaarten zo miserabel langzaam vooruit gaan, krijg je ook steeds minder games die nog de grenzen opzoeken. Er is toch geen verwachtingspatroon meer en als je het wel probeert, dan krijg je tegenwoordig verwijten dat het allemaal zo slecht draait...
Te veel mensen die ronduit beledigd leken te zijn dat hun veel te dure RTX2070S het niet makkelijk aankan. Dat xx70 nu de traditionele midrange is en zeker de RTX2070S echt belachelijk overpriced is alsmede een ronduit zwak product voor de prijs, daar komen mensen niet op.
Niet dat ik echt de illusie koester dat het veel beter gaat worden met Ampère. Het begint er steeds meer op te lijken dat GA-102 gewoon de volgende stap van circa 30% is. Van wat ik uit de geruchtenmolen opmaak lijkt 5375 cuda cores ongeveer de consensus. Dat is iets van 15% meer dan TU-102. Ongetwijfeld zal de RT hardware flink verbeterd worden zodat het niet zo miserabel meer is als nu, maar extreem veel verwacht ik ook niet. Nog wat clock speed erbij omdat ze waarschijnlijk naar Samsung 8nm gaan en dan heb je weer de tweejarige cyclus. Vervolgens moeten we hopen dat het niet nog duurder gaat worden en AMD dan gewoon volgt qua prijs...
Is dat zo? Enige waar ik op dit moment van onder de indruk was is de Unreal Engine demo van de PS5. Volgens mij gebruiken ze daar nog geen eens RT maar een andere vorm om GI op te lossen.SpcCwb schreef op donderdag 6 augustus 2020 @ 23:18:
[...]
Je spreekt jezelf tegen. Je wil dat er meer gevraagd wordt van videokaarten maar als er dan RT toe wordt gepast en de framerate zakt in, is het niet goed.
De volgende stap in graphics is echt RT. Kijk maar eens naar Minecraft met RT. Ziet er veel beter uit, zonder hoge resolutie textures. Het maakt games ontwikkelen ook eenvoudiger, waardoor er meer aandacht aan textures/materialen/polygonen besteed kan worden.
Alleen via RT komt fotorealisme dichterbij. Ben met je eens dat er nog een (kleine) stap gemaakt moet worden op gebied van resolutie en draw distance (en micro geometrisch detail zoals in de Unreal engine 5 demo).
Natuurlijke weergave van licht (en weerkaatsingen) is echter een enorme ontwikkeling en ik vind het te prijzen dat nVidia daarin juist de eerste stap heeft gezet en er speciale hardware voor heeft gemaakt.
Is dit een contradictie dan?SpcCwb schreef op donderdag 6 augustus 2020 @ 23:18:
[...]
Je spreekt jezelf tegen. Je wil dat er meer gevraagd wordt van videokaarten maar als er dan RT toe wordt gepast en de framerate zakt in, is het niet goed.
De volgende stap in graphics is echt RT. Kijk maar eens naar Minecraft met RT. Ziet er veel beter uit, zonder hoge resolutie textures. Het maakt games ontwikkelen ook eenvoudiger, waardoor er meer aandacht aan textures/materialen/polygonen besteed kan worden.
Alleen via RT komt fotorealisme dichterbij. Ben met je eens dat er nog een (kleine) stap gemaakt moet worden op gebied van resolutie en draw distance (en micro geometrisch detail zoals in de Unreal engine 5 demo).
Natuurlijke weergave van licht (en weerkaatsingen) is echter een enorme ontwikkeling en ik vind het te prijzen dat nVidia daarin juist de eerste stap heeft gezet en er speciale hardware voor heeft gemaakt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Probleem blijft dat je altijd ergens een concessie maakt. Er zijn zat spellen die ik prima op 4K 120Hz met maximale graphics kan spelen (bv Divinity Original Sin 2), maar als de game er beter uit zou zien dan zou ik het niet halen en je kunt altijd meer detail toevoegen dus 4K 144Hz zal nooit echt 'af' zijn. We zijn echt nog ontzettend ver weg van 't CGI niveau van bv LOTR of Avatar films en zelfs die films hebben nog ruimte voor verbetering.Help!!!! schreef op donderdag 6 augustus 2020 @ 16:02:
Van mij hoeven ze pas echt wat met raytracing te gaan doen als 4k stabiel @144hz op IQ hoog makkelijk te doen is. Een grotere monitor met hoge resolutie is voor mij veel relevanter qua gebruikservaring dan RT.
[ Voor 26% gewijzigd door Paprika op 07-08-2020 11:36 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Ik denk dat je helemaal niet moet kijken naar specifiek een resolutie en een refreshrate. Ik denk dat je moet kijken naar wat toepasselijk is voor de game. Daarom ben ik zelf eigenlijk wel blij met mijn 1440p 165Hz monitor. Je kan namelijk juist beide kanten op. Shooters ga je voor de 165Hz en RTS of RPG, zeker SP georiënteerd kan je veel lager gaan. Helaas zit daar het probleem, zoveel games die niet opschalen qua grafische kwaliteit waar het zinvol is. Dat mis ik de laatste jaren echt, naast simpelweg kwaliteit in veel games. Maar dit lijkt me offtopic genoeg.Paprika schreef op vrijdag 7 augustus 2020 @ 11:27:
[...]
Probleem blijft dat je altijd ergens een concessie maakt. Er zijn zat spellen die ik prima op 4K 120Hz met maximale graphics kan spelen (bv Divinity Original Sin 2), maar als de game er beter uit zou zien dan zou ik het niet halen en je kunt altijd meer detail toevoegen dus 4K 144Hz zal nooit echt 'af' zijn. We zijn echt nog ontzettend ver weg van 't CGI niveau van bv LOTR of Avatar films en zelfs die films hebben nog ruimte voor verbetering.
Zen 4 kan dat waarschijnlijk al. We zijn er dus bijna.Zelf zou ik een LOTR achtige setting waarbij jij een willekeurige bewoner van die wereld speelt wel kunnen waarderen. Dat de wereld dus om je heen echt zou leven zoals in zo'n de boeken/film getoond, waarbij de wereld om je heen daadwerkelijk een doorlopend verhaal heeft ongeacht wat jij doet en waar je bent. Spellen zijn nu alsnog heel erg scripted en alles is al "voorbestemd". Ooit hebben we vast genoeg CPU kracht om een hele wereld live te simuleren, toch?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Kwestie van tijd voor dat soort SSD's ook naar de PC komen.DaniëlWW2 schreef op vrijdag 7 augustus 2020 @ 12:46:
[...]
Komen we dus terug bij die SSD's in de consoles die heel wat meer mogelijk zouden moeten maken.
Ze komen waarschijnlijk dit jaar al.XWB schreef op vrijdag 7 augustus 2020 @ 12:50:
[...]
Kwestie van tijd voor dat soort SSD's ook naar de PC komen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
| PCB-ID | vervanging voor | VRAM | busbreedte | lancering |
| PG132-10 | 2080 Ti | 24 GB | 384-bit | 2H september |
| PG132-20 | 2080 Super | 20 GB | 320-bit | 1H oktober |
| PG132-30 | 2080 Super | 10 GB | 320-bit | mid. september |
| PG142-0 | 2070 Super | 16 GB | ? | ? |
| PG142-10 | 2070 Super | 8 GB | 256-bit | 2H september |
| PG190-10 | 2060 Super | 8 GB | 256-bit | ? |
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
dat zou wel mooi wezen nog even is de CPU overbodig en hebben we alleen maar een GPU en SSD Nodig in onze pc omdat de rekenkracht van de GRaka sneller is dan de CPUsDaniëlWW2 schreef op vrijdag 7 augustus 2020 @ 12:56:
[...]
Ze komen waarschijnlijk dit jaar al.
Maar het gaat om directe toegang tot die SSD's door de GPU. Dat is wat beide consoles doen en het scheelt gewoon CPU overhead in de schaal van meerdere Zen 2 cores. De vraag is wanneer Nvidia en AMD daarmee gaan komen. Dat is denk ik ook een aardige sprong voorwaarts voor grafische kwaliteit als de videokaart opeens GB/s kan binnenhalen aan data van een SSD, zonder tussenkomst van de CPU.
[ Voor 3% gewijzigd door ravw op 09-08-2020 11:36 ]
Systeem:AMD Ryzen 7 9800X3D ,RTX 5080 OC,FURY 64 GB DDR5-6000,ASUS TUF Gaming B850M-PLUS WIFI, SAMSUNG 990 EVO Plus 4 TB
Sowieso hebben ze allebei al zoiets toch? Voor professionele toepassingen met veel te grote datasets.DaniëlWW2 schreef op vrijdag 7 augustus 2020 @ 12:56:
[...]
Ze komen waarschijnlijk dit jaar al.
Maar het gaat om directe toegang tot die SSD's door de GPU. Dat is wat beide consoles doen en het scheelt gewoon CPU overhead in de schaal van meerdere Zen 2 cores. De vraag is wanneer Nvidia en AMD daarmee gaan komen. Dat is denk ik ook een aardige sprong voorwaarts voor grafische kwaliteit als de videokaart opeens GB/s kan binnenhalen aan data van een SSD, zonder tussenkomst van de CPU.
Mechwarrior Online: Flapdrol
De CPU wordt niet overbodig. Het gaat om de CPU eruit halen tussen de SSD en GPU zodat de CPU andere dingen kan doen. Immers is een CPU een heel ander soort processor dan een GPU.ravw schreef op zondag 9 augustus 2020 @ 11:35:
[...]
dat zou wel mooi wezen nog even is de CPU overbodig en hebben we alleen maar een GPU en SSD Nodig in onze pc omdat de rekenkracht van de GRaka sneller is dan de CPUs
Maar dat zal nog wel heel lang gaan duren denk ik ..
of een CPU ingebouwd in de Graka
maar zijner al prijzen bekent van de rts 3xxx
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
en de Nvidia Shield / pro dan :-)Nvidia die niet meedoen met die consoles en hun omzet nog steeds grotendeels uit PC gaming halen.
Systeem:AMD Ryzen 7 9800X3D ,RTX 5080 OC,FURY 64 GB DDR5-6000,ASUS TUF Gaming B850M-PLUS WIFI, SAMSUNG 990 EVO Plus 4 TB
Disclaimer: dit gaat over de PS5..Sissors schreef op zondag 9 augustus 2020 @ 12:48:
Ik vraag me af of dat hele verhaal nou echt zo'n groot voordeel is. Het is vast een leuke optimalisatie, maar een wereld van verschil?
Als eerste vraag ik me af hoeveel CPU power het echt kost om spul van een SSD naar een GPU te krijgen. Zelfs als dat veel meer is dan ik verwacht, hebben we gelukkig geen gebrek aan CPU cores tegenwoordig tijdens gaming.
Ik denk dat je niet beseft hoe veel data een gemiddelde game wel niet nodig heeft; die 150 GB schijfruimte van RDR2 is niet voor niets. Texture pop-in hoort hiermee zeker verleden tijd te zijn, maar het gaat hier vooral om laadtijden; zichtbaar of niet, want elke game met een beetje ruimte in de maps moet data streamen. Cerny noemt in z'n praatje "fast" travel in games. Eigenlijk een eufemisme, want zo snel is het niet. Met zulke leessnelheden kan dat daadwerkelijk snel. Niet alleen kan de data echter sneller gelezen worden, het kost ook nog eens minder tijd om het allemaal toe te wijzen in het geheugen en dergelijke. 4 GB aan data laden over PCI-e 3.0 kost je al meteen een halve seconde en dan heb je er nog niets mee gedaan. Dan heb ik nog niet gekeken naar de benodigde cycles voor compressie of adressen toewijzen.En wat gaat het oplossen? Texture popping? Dat is toch wel echt uitzonderlijk als dat gebeurd bij een fatsoenlijk spel. Zelfs als dat echt problematisch zou zijn, kunnen ze ook gewoon eens een 8GB regulier DDR geheugen bij een GPU plakken. Hoeft niet snel te zijn, want het is sowieso heel erg veel sneller dan welke SSD ook. En dan natuurlijk zou het mooi zijn als je zoiets overbodig kan maken met zo'n optimalisatie. Maar gezien er nog geen GPU bestaat die een stuk extra, relatief traag, geheugen erbij plakt voor zulk soort use cases, vraag ik me toch echt af in hoeverre dit nou echt een performance beperking is.
[ Voor 7% gewijzigd door Sissors op 09-08-2020 19:47 ]
Ik heb het niet over access latency, maar over de latency van laden van assets. Ik had er waarschijnlijk een ander woord voor moeten gebruiken, maar het is dus latency in de ruimste zin van het woordSissors schreef op zondag 9 augustus 2020 @ 19:35:
Maar je eerste helft gaat het erom dat het hoofdpunt latency is, en hetgeen je noemt in de tweede helft (texture popping, dynamisch zaken laden, etc) staat compleet los van latency. IIG bij de tijdsperiodes waar het hier over gaat.
Als je echter nieuwe dingen moet laden en je geheugen zit vol, betekent ook dat je dingen er uit moet gooien. Het laden op zich is niet zo'n probleem, maar de timing ervan wel. Daarom wordt er nu bizar veel in het VRAM geladen. Ook al heb je in sommige games 9 GB aan VRAM vol zitten, waarschijnlijk is slechts de helft écht nodig. Dat is dan ook waar developers zich nu op richten en waar ze door beperkt worden. Als ze dingen sneller konden laden zonder dat het een grote impact had, was er meer ruimte voor hogere resolutie assets.Je schijft dat de PCIe bus zat ruimte heeft bij gaming. Echter als die GPU constant nieuwe textures aan het laden zou zijn via de CPU, zou je alsnog verwachten dat de PCIe bus behoorlijk vol zit. Maar dat is dus niet het geval. Kom je in de buurt van een nieuw gebied, dan als je een beetje op tijd begint met laden maakt het toch niks uit of je een seconde ervoor nodig hebt of niet? Sowieso hoe snel die SSD ook is, ten opzichte van geheugen blijft hij traag. Of je dan wat milliseconde extra latency hebt bij het laden via je CPU lijkt mij geen wereld van verschil maken bij de use cases die je beschrijft.
Vergeet niet dat we het over het VRAM hebben in een PC; in een console is dat er niet. Er is simpelweg "geheugen". In een PC communiceert de CPU over PCIe met zowel de SSD (NVMe tenminsteMoet zeggen dat het me sowieso wat verbaasd dat een CPU geen DMA engine heeft om data van ene naar andere PCIe bus te kunnen gooien.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nvidia zal niet pushen om zoiets van MS voor elkaar te krijgen voor enkel kleine verbeteringen, maw de (gehoopte) verbeteringen/reden moet nog komen aka, de nieuwe gen.Perhaps the more interesting aspect of this driver release, though only tangential to DirectX 12 Ultimate support, is that NVIDIA is enabling support for hardware accelerated GPU scheduling. This mysterious feature was added to the Windows display driver stack with WDDM 2.7 (shipping in Win10 2004), and as alluded to by the name, it allows GPUs to more directly manage their VRAM. Traditionally Windows itself has done a lot of the VRAM management for GPUs, so this is a distinctive change in matters.
At a high level, NVIDIA is claiming that hardware accelerated GPU scheduling should offer minor improvements to the user experience, largely by reducing latency and improving performance thanks to more efficient video memory handling. I would not expect anything too significant here – otherwise NVIDIA would be heavily promoting the performance gains – but it’s something to keep an eye out for. Meanwhile, absent any other details, I find it interesting that NVIDIA lumps video playback in here as a beneficiary as well, since video playback is rarely an issue these days. At any rate, the video memory handling changes are being instituted at a low level, so hardware scheduling is not only for DirectX games and the Windows desktop, but also for Vulkan and OpenGL games as well.
[ Voor 37% gewijzigd door ColinZ op 10-08-2020 16:40 ]
Volgens mij kwam Nvidia met een cyberpunk pack voor de nieuwe kaarten. Dus lijkt mij logisch de launch samen te doen. Daarbij ook nog is de nieuwe release op de consoles.. Doen ze goed bij cd red.Psyonara schreef op maandag 10 augustus 2020 @ 19:52:
Poosje terug las ik overal dat men dacht voor de next Gen GPU's tegelijk next gen GPU's uit zou komen.
En ik had zoiets van waarom niet voor de release voor Cybepunk. Dat is de Next big Title die ook naar PC komt.
[ Voor 16% gewijzigd door Ferio op 11-08-2020 10:02 ]
Big Navi staat geloof ik voor Oktober geplanned. Dus met enig geluk zijn ze competitive. En heb je een leuke price wars. Hoe graag ik ook weer AMD wil gaan voor GPU, denk ik dat Nvidia wel op Top blijft plus persoonlijke productiveits plannen is Team Groen helaas ook beter.Ferio schreef op dinsdag 11 augustus 2020 @ 09:59:
[...]
Volgens mij kwam Nvidia met een cyberpunk pack voor de nieuwe kaarten. Dus lijkt mij logisch de launch samen te doen. Daarbij ook nog is de nieuwe release op de consoles.. Doen ze goed bij cd red.
Ik ben nieuwsgierig naar de reviews en de prijzen van de nieuwe kaarten. Las ooit is dat AMD Wat duurder wordt en Nvidia weer wat goedkoper.
Ben benieuwd of dit eindelijk een waardige upgrade wordt ipv een tussenstap.
AMD heeft enorme stappen genomen de laatste tijd. Het zal mij echt niets verbazen als het verschil vrijwel nihil is of dat AMD zelfs Nvidia voorbij gaat. In elk geval hoop ik dat de geruchten waar zijn en de prijzen dit keer lager zullen uitvallen.Psyonara schreef op dinsdag 11 augustus 2020 @ 13:46:
[...]
Big Navi staat geloof ik voor Oktober geplanned. Dus met enig geluk zijn ze competitive. En heb je een leuke price wars. Hoe graag ik ook weer AMD wil gaan voor GPU, denk ik dat Nvidia wel op Top blijft plus persoonlijke productiveits plannen is Team Groen helaas ook beter.
[ Voor 5% gewijzigd door Ferio op 11-08-2020 19:17 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
21 lijkt een belangrijk getal te zijn, dus het zou zomaar kunnen dat de nieuwe videokaarten niet de RTX 30x0 naam krijgen, maar RTX 21x0. Ik zou het zelf niet raar vinden, al bekt RTX 3000 net wat lekkerder.ColinZ schreef op maandag 10 augustus 2020 @ 16:31:
https://twitter.com/NVIDIAGeForce/status/1292808003897311232
Nog 21 dagen wachten.
Edit: GeForce 256 werd op 31 augustus 1999 aangekondigd. Vandaar 21 days. 21 years.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Why are video games typically released on Tuesdays? Wouldn't Fridays be more logical?DaniëlWW2 schreef op dinsdag 11 augustus 2020 @ 19:32:
Maar het gaat dus 1 september worden. Waarom techbedrijven een obsessie lijken te hebben met een dinsdag is mij een raadsel, maar enigszins voorspelbaar is het wel.
Maar eindelijk gaan we dan beginnen.
Ja, ik weet dat de games oorspronkelijk op dinsdag waren en op vrijdag voor de Britten en meestal dus ook de EU. Zo oud ben ik ook al. Het is alleen zo arbitrair dat het altijd dinsdag moet zijn.Gropah schreef op dinsdag 11 augustus 2020 @ 19:41:
[...]
Why are video games typically released on Tuesdays? Wouldn't Fridays be more logical?
TLDR; De eerste wereldwijde release was op een dinsdag en heeft een toon gezet, releases later in de week bleken vaker logistieke problemen te hebben en het zorgt er voor dat je meer dagen verkoopperiode hebt voor records en dergelijke dan een release later in de week.
2 van de 3 argumenten kun je ook gebruiken voor de release van videokaarten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De snelle SSD zal er voor zorgen dat assets meer en sneller geladen kunnen worden. Echter moeten deze assets nog steeds gerenderd worden door de GPU. De kracht van de GPU bepaalt dus nog steeds op welke resolutie//fps je kunt spelen. Ik denk niet dat de PS5 of XBOX X elke game op native 4k 60fps gaat draaien.DaniëlWW2 schreef op zondag 9 augustus 2020 @ 21:00:
Een heel ander punt is dat de bal nu bij Nvdia ligt. Zij zijn de PC marktleider en het is hun cash cow. Consoles die zaken kunnen zoals enorme spelwerelden die divers zijn, terwijl het niet op PC kan, gaat Nvidia aangerekend worden door de gewone consument. Waarom kan mijn dure GeForce dit niet? Waarom koop ik deze nog i.p.v. een console. Of wat als je tegen enorme CPU bottlenecks aan gaat lopen voor data van de SSD naar de GPU. Ik zie de meeste mensen dat ook afschuiven op de videokaart. Dat is het nachtmerrie scenario voor Nvidia. Ik denk dat het Nvidia er alles aan gelegen is om een tenminste werkbare oplossing te vinden. Ik hoef ook niet veel te googelen om zaken zoals dit te vinden: https://www.reddit.com/r/...mments/53bxrr/ssd_to_gpu/ Het lijkt een probleem te zijn waar de ML wereld al een aantal jaar mee bezig is. Laat Nvidia daar nu ook behoorlijk diep inzitten.
Het is ook een beetje persoonlijk. Als het om grafische pracht gaat, kan mij niks meer irriteren dan low res textures, slechte draw distances, pop in, eindeloos hergebruiken van assets of restrictief level ontwerp. Ik zeg ook niet dat je een of arme asset ontwerper bij bijvoorbeeld Ubisoft, handmatig tweeduizend verschillende bomen moet laten ontwerpen voor Assassins Ghosts Far Recon Cry Creed 7 waarna ze die ontslaan met de release van de game, want AAA publishers, maar iets meer variatie zou welkom zijn. Dan graag ook met eens wat echt detail in games, want dat mis ik de laatste jaren steeds meer. Je merkt de laatste jaren gewoon dat de polycon count wel omhoog gaat, maar zaken zoals variatie etc gewoon achter blijven. Dus ja, misschien ook wat wensdenken, maar ik wil het gewoon ja.
Jij weet meer dan de rest van ons?biggydeen2 schreef op vrijdag 14 augustus 2020 @ 07:42:
Dan hebben we het nog niet eens gehad over de RTX3000 welke de GPU's in de nieuwe consoles toch wel aardig weg gaan blazen qua performance. Native 4k 60fps wordt met de RTX3000 makkelijk gehaald.
Het is niet eens 5%.dan kan slechts 5% van de mensen er echt van genieten
Welke geruchten? Heeft ook niets met de CPU te maken.De geruchten zijn dat de mogelijkheden van de PS5 al mogelijk zijn op de nieuwe AMD cpu's welke eind dit jaar uitkomen.
Micron GDDR6X is the world’s fastest graphics memory, delivering legendary performance to help driveray tracing, shadow mapping and silky-smooth animation for an immersive PC gaming experience.
The new information would therefore confirm:In Summer of 2020, Micron announced the next evolution of Ultra-Bandwidth Solutions in GDDR6X. Working closely with NVIDIA on their Ampere generation of graphics cards, Micron’s 8Gb GDDR6X will deliver up to 21Gb/s (data rate per pin) in 2020. At 21Gb/s, a graphic card with 12pcs of GDDR6X will be able to break the 1TB/s of system bandwidth barrier! Micron’s roadmap also highlights the potential for a 16Gb GDDR6X in 2021 with the ability to reach up to 24Gb/s. GDDR6X is powered by a revolutionary new PAM4 modulation technology for Ultra-Bandwidth Solutions. PAM4 has the potential to drive even more improvements in data rate.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2026
•
Hosting door TrueFullstaq