Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Nu negeer je volledig waar je het zelf over had en waar ik op in ging. Ik had het niet over wat gamers kunnen en/of willen. Dat zal me worst wezen. De meeste gamers zijn schapen die geen snars begrijpen van wat er gebeurt.Gekke Jantje schreef op donderdag 22 augustus 2019 @ 10:59:
Je kunt DXR, als het te veel fps kost, gewoon uit zetten als je als gamer liever geen fps halvering hebt, dus hebben gamers niets te klagen en geen redenen om geen raytracing in games te willen hebben.
Jij noemde de ontwikkelaar lui omdat ze het "gewoon" uit kunnen zetten en dat je ze daarom gaat boycotten. Uitgerekend als gamer moet je zo'n beslissing van zo'n kleine studio juist toejuichen, omdat de game er als game beter van wordt. Minder tech demo, meer game.
Realistischer zonder dat je zaklamp fatsoenlijke schaduw werpt? Nee.En Metro ziet er prima uit voor deze tijd, het oogt veel minder candy kleur en meer realistisch maar smaken verschillen.
En dat was het punt niet. Het punt is dat Metro, met RTX, er slechts "prima" uit ziet. Er zijn scènes waar het er béter uit ziet dan vergelijkbare games door RT, maar dat zijn er maar weinig. De rest van de tijd ziet het er hooguit even goed uit en soms zelfs minder. Dat is geen 50% performance waard.
Metro is het slechtste voorbeeld voor RT. Op de verkeerde manier toegepast waardoor het idioot veel kost zonder veel zichtbaar effect.
Epic geeft aan dat juist global illumination (wat Metro dus doet met DXR) het minst interessant is qua RT op korte termijn. Daar is de hardware nog niet klaar voor. Het grootste deel van de tijd krijg je bijna exact hetzelfde resultaat met traditionele shadow maps en AO. Soft shadows vervangen door RT is veel interessanter, omdat dat perfect te doen is. Sterker nog, in scènes met veel "clutter" (veel objecten die schaduwen werpen in een klein gebied) zal RT béter draaien, omdat cascading shadow maps best kostbaar zijn qua frametime. Reflecties wordt de volgende stap, maar ook daar geldt dat de hardware nog niet snel genoeg is om meer dan 1 bounce te doen. Dus moet je heel goed kiezen wáár je dat toepast, want 1 bounce kan er heel raar uit zien.
Wat voorbeelden uit Epic's GDC presentatie over UE 4.22 + RT. Bij mijn weten allemaal op een enkele 2080 Ti op 120 Hz met VSync aan. Het meeste hiervan is in de editor, dus daadwerkelijke performance zou in een compiled build iets beter zijn.
Schaduw:
- Zonder RT: https://cl.ly/1fdf9e7504d8
- Met RT: https://cl.ly/a64b2da6e9e3
- Shadow clutter: https://cl.ly/e91843ec76b6 (onderste is RT)
Merk op hoe het verlies met RT verwaarloosbaar is. Dit is wel maar een kleine scene, maar het verschil is duidelijk zichtbaar. En let ook op de derde link; de versie mét RT draait daar béter dan de "ouderwetse" variant. Zichtbaar 0,0 verschil.
Reflecties:
- Zonder RT @ 120 FPS: https://cl.ly/3e297350c3df
- 1 bounce @ 115-120 FPS (bijna constant locked): https://cl.ly/64f97a5a017e
- 2 bounces @ 45-50 FPS: https://cl.ly/cdb94ec0ac98
- 3 bounces @ 25-30 FPS: https://cl.ly/e1626d395025
Zelfs met 2 bounces is het nog niet accuraat. Moet wel gezegd worden dat de SSR (het screenshot zonder RT) hier bijzonder lage kwaliteit is. Met 1 bounce ziet het er al goed uit en verlies je nagenoeg geen performance. Maar verder dan dat kun je realistisch gezien gewoon niet gaan, want dan kost het te veel.
Er zitten nog meer voorbeelden in dat filmpje, waar Sjoerd ook meerdere malen duidelijk aan geeft dat de hardware nog niet klaar is voor veel dingen. Reflecties van schaduw bijvoorbeeld zijn heel erg noisy met RT. Dat komt doordat er niet genoeg bounces plaats kunnen vinden en er dusdanig veel noise is dat de denoiser het maar beperkt weg krijgt gewerkt.
Dat zie ik alleen als een extra middelvingerGekke Jantje schreef op donderdag 22 augustus 2019 @ 09:52:
[...]
Metro Exodus vind ik er nog best knap uitzien zonder DXR aan. Ik mis er iig niet veel aan. Dat de game exclusive is van Epic is dan wel weer een middelvinger na de gamers toe, maar ik denk ook dat jij dat bedoeld😉
[YouTube: Metro: Exodus]
Het zag er beter uit in de E3 demo van 2017; toen zat er nog geen RT in en hadden ze een andere vorm van GI (wellicht baked). Hiermee wil ik niet zeggen dat het er niet uit ziet, het spel ziet er best oke uit, maar had er een stuk beter uit kunnen zien voor de andere 99%.
Nu heb ik het alleen over de lightning, andere elementen wisselen af.
Sluit mij aan bij Werelds, een klein team heeft niet de resources om DXR zo maar ff te implementeren. Dat kan je alleen doen met een zak geld (want zelfs ontwikkelaars van Nvidia zal je moeten begeleiden en dat kost geld en tijd) en wat ontwikkelaars van Nvidia als je target maar 1% van de markt is. Doe je dat niet en probeer je alleen die 1% aan te spreken dan heb je managers rondlopen die niet snappen wat ze doen.
Nvidia heeft een sterk verbeterde sharpening filter geïntroduceerd onder Freestyle. Kwaliteit lijkt vergelijkbaar te zijn met Radeon Image Scharpening, iets meer performance impact dan RIS, maar het is in tegenstelling tot RIS, wel instelbaar per game in sterkte en op het moment ook beschikbaar in meer games dan RIS nu is.
Het lijkt wel alsof er nu een soort van concurrentie ontstaat en er praktisch geïnnoveerd lijkt te worden i.p.v van zinloze en niet functionele gimmicks zoals DLSS of ver in de toekomst realtime ray tracing. Heerlijk want wat heeft deze industrie dat nodig zeg na de afgelopen vijf jaar. Als we nu dan ook nog eens een race naar de 40TFlops FP32 krijgen en dan niet allemaal teleurgesteld raken omdat we dan toch geen foto realistische games krijgen, dan ben ik helemaal tevreden. Vervolgens mogen we het dan hebben over ray tracing. Tegen die tijd zal het namelijk wel wat toe moeten kunnen voegen omdat de rest al op het ultieme niveau is en we dan niet meer games hebben die vol zitten met grafische imperfecties en/of fouten, met wat zwakke RT effecten ertussen zodat het geheel er 1% beter uitziet. Dat je nou meer kan winnen door die grafische imperfecties/fouten kan fixen, tja.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Heb geen 3rd party software opgestart nodig en het is nog beter aanpasbaar doordat je scherpte filters kan mixen voor een nog beter resultaat.
Enige situatie waar ik dit ga overwegen is vulkan games waar reshade niet werkt.
Verder wil ik niks met geforce experience te maken hebben.
De nvidia drivers op zich zijn al log zat.
Low latency mode ga ik testen maar ik denk niet dat het enig effect heeft en aangezien het fps kost denk ik niet dat ik het ga gebruiken.
As if there is nothing else to infer.
How do you save a random generator ?
What you did there, I see itenchion schreef op dinsdag 27 augustus 2019 @ 06:40:
Uberhaupt nooit begrepen dat DLSS het enige interessante is wat ze met de Tensor cores konden aanvangen.
As if there is nothing else to infer.
Ik heb er een beetje het idee bij dat ze die op de Turing chips hebben gezet omdat Nvidia haar aandeelhouders alleen maar kijken naar datacentra, datacentra en nog eens datacentra. Hier heb je de Tensor cores, geweldig, wat moeten we er nu mee voor de GeForce lijn waar Nvidia op draait? Die paar games met RTX ondersteuning rechtvaardigen het eigenlijk niet. Het is ook niet bepaald een efficiënte oplossing voor traditionele berekeningen.enchion schreef op dinsdag 27 augustus 2019 @ 06:40:
Uberhaupt nooit begrepen dat DLSS het enige interessante is wat ze met de Tensor cores konden aanvangen.
As if there is nothing else to infer.
Turing had heel erg krachtig kunnen zijn als Nvidia niet was begonnen met de RTX onzin. Zoveel ruimte op de chips die opgegeven is, terwijl het nauwelijks iets oplevert. Met name TU-104 is eigenlijk gewoon een slechte chip. Daar had eigenlijk de TU-102 moeten staan. Daarboven had er nog een veel grotere chip geplaatst kunnen worden.
Ondertussen zit Nvidia nu ook helemaal aan vast aan RTX in deze implementatie. Die Tensor cores gaan helemaal niet verdwijnen en die RT cores ook niet. Sterker nog, Nvidia zal zich door hun eigen marketing gedwongen zien om RTX performance relatief meer te verbeteren dan shaders. Dan gaan ze ook nog eens naar 7nm van Samsung. Waar ze nu doodleuk een 754mm2 kunnen laten produceren, zie ik ze dat niet lukken met 7nm. Dat gaat nog wat worden buiten RTX performance om iets substantieel snellers dan een RTX2080Ti te gaan lanceren. Ik zie het in ieder geval niet lukken zonder flinke verbeteringen in architectuur.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Edit
Dit was al gepost dus de video maar verwijderd. Enige nadeel is dat je niet bij iedere game de render resolutie kunt aanpassen en valt de performance helaas weg.
Control raytracing aan en uit vergelijking
[ Voor 77% gewijzigd door Gekke Jantje op 27-08-2019 16:26 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Nu wel dl baar. Opgelost.
Game draait verre van soepel op 2070 S
[ Voor 23% gewijzigd door magdatt op 16-09-2019 10:27 ]
TechPowerUp Announces NVCleanstall - Customize Your NVIDIA Driver Installation
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Hier een alternatief.Help!!!! schreef op maandag 14 oktober 2019 @ 18:40:
Op eerste gezicht erg fijn nieuw tooltje om alleen de relevante zaken te installeren
TechPowerUp Announces NVCleanstall - Customize Your NVIDIA Driver Installation
Nvidia heeft er natuurlijk commercieel belang bij om geen VRR buiten G-sync te ondersteunen (al kunnen ze dan ook hdmi2.1 nog langer uitstellen natuurlijk
Daarnaast bedacht ik me dat het eigelijk veel slimmer is om een high-end Freesync 2 monitor aan te schaffen ipv een vergelijkbare G-sync (mits die optie er natuurlijk is). Want bij een Freesync2 display kun je van zowel AMD als Nvidia VRR (ook met HDR) hebben zonder het belachelijke premium van G-sync Ultimate.
Bij het premium van G-sync sluit je een upgrade pad met AMD over de looptijd (denk al snel >5jaar) van je display uit tegen zeer geringe voordelen imo. (ULMB, OC en 'uitvoerige testing'
Verwijderd
En in principe is het verstandiger inderdaad om een goed Freesync display te kopen. Maar ik zou dan wel eerst op ervaringen checken hoe goed dat werkt, zowel met Nvidia als met AMD kaarten, immers varieert de kwaliteit van Freesync implementaties nogal.
Eigenlijk reageer ik hier niet meer maar kan het niet laten deze even te corrigeren:eL_Jay schreef op vrijdag 25 oktober 2019 @ 22:52:
Ik las vandaag dat Nvidia geen VRR ondersteund op HDMI enkel op DP i.t.t. AMD (zowel HDMI als DP). Zou dit betekenen dat wanneer Nvidia HDMI 2.1 eindelijk toepast ze hier toch geen VRR op ondersteunen? Of kun je bij HDMI2.1 niet om VRR heen?
Nvidia heeft er natuurlijk commercieel belang bij om geen VRR buiten G-sync te ondersteunen (al kunnen ze dan ook hdmi2.1 nog langer uitstellen natuurlijk). Hoe mooi het ook is dat g-sync compatible er is, Nvidia blijft gewoon een vuil Kwalitatief Uitermate Teleurstellend bedrijf.
Daarnaast bedacht ik me dat het eigelijk veel slimmer is om een high-end Freesync 2 monitor aan te schaffen ipv een vergelijkbare G-sync (mits die optie er natuurlijk is). Want bij een Freesync2 display kun je van zowel AMD als Nvidia VRR (ook met HDR) hebben zonder het belachelijke premium van G-sync Ultimate.
Bij het premium van G-sync sluit je een upgrade pad met AMD over de looptijd (denk al snel >5jaar) van je display uit tegen zeer geringe voordelen imo. (ULMB, OC en 'uitvoerige testing')
Zeflde panel mét en zonder g-sync module:

Premium was 100 euro toen ik ze vorige week bestelde (elke week anders).We measured a total display lag of only 3.3ms. We estimate that pretty much all of that will be a result of the pixel response times and so can infer that there is basically zero processing lag at all. This isn't an exact science but provides a good indication of what the signal processing lag is. We have seen similar behaviour from some other G-sync screens such as the Dell Alienware AW3418DW and Asus ROG Swift PG279Q for instance which had basically no signal processing lag and would be directly comparable in this area.
De nuance is dus dat er een lag voordeel van toepassing kan zijn en dat het dus niet persé een onzinnige premium is. In geval van de 950G vs 950F lijkt het mij duidelijk.
[ Voor 21% gewijzigd door sdk1985 op 02-11-2019 01:32 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
De v1 firmware had problemen en is pakweg 2 maanden na release vervangen door v2. Het gevolg is dat het gaat van dit (TFT Central staat hotlinking niet toe, dus jouw afbeelding werkt nietsdk1985 schreef op zaterdag 2 november 2019 @ 01:27:
Eigenlijk reageer ik hier niet meer maar kan het niet laten deze even te corrigeren:
Zeflde panel mét en zonder g-sync module:
[Afbeelding]
[...]
Premium was 100 euro toen ik ze vorige week bestelde (elke week anders).
De nuance is dus dat er een lag voordeel van toepassing kan zijn en dat het dus niet persé een onzinnige premium is. In geval van de 950G vs 950F lijkt het mij duidelijk.

Naar dit:

Het is 90% software. De modernere scalers zijn wat flexibeler te programmeren juist voor dit soort doeleinden. De G-Sync module is gewoon een (hele) dure scaler met wat DRM.
De 950F is weldegelijk de betere koop met de v2 firmware. HDMI 2.0 en DP 1.4 (ipv 1.4 en 1.2, een beperking van de G-Sync module), betere kalibratie out of the box (en je kunt als je wilt 8-bit+FRC doen), iets beter contrast, iets hogere refresh rate, strobing.
Sorry, maar je had je huiswerk beter moeten doen
Hoewel TFTCentral in dit geval ook hun G review had moeten updaten. Ze hebben enkel de F review geüpdated.
[ Voor 5% gewijzigd door Werelds op 02-11-2019 12:40 ]
Volgens mij valt mij weinig te verwijten ik ben alles behalve een display expert en ik vertrouw gewoon op het oordeel van tftcentral die zelf met de link tussen lage 'lag' en g-sync komen in het bevindingen. Het G-sync argument wordt in diverse reviews herhaald.Werelds schreef op zaterdag 2 november 2019 @ 12:40:
[...]
De v1 firmware had problemen en is pakweg 2 maanden na release vervangen door v2. Het gevolg is dat het gaat van dit (TFT Central staat hotlinking niet toe, dus jouw afbeelding werkt niet):
[Afbeelding]
Naar dit:
[Afbeelding]
Het is 90% software. De modernere scalers zijn wat flexibeler te programmeren juist voor dit soort doeleinden. De G-Sync module is gewoon een (hele) dure scaler met wat DRM.
De 950F is weldegelijk de betere koop met de v2 firmware. HDMI 2.0 en DP 1.4 (ipv 1.4 en 1.2, een beperking van de G-Sync module), betere kalibratie out of the box (en je kunt als je wilt 8-bit+FRC doen), iets beter contrast, iets hogere refresh rate, strobing.
Sorry, maar je had je huiswerk beter moeten doen
Hoewel TFTCentral in dit geval ook hun G review had moeten updaten. Ze hebben enkel de F review geüpdated.
Uit de review van de F:
Maar interessante aanvulling, dat wel!Original v1 Firmware Tests October 2018
We measured a total display lag of 13.8ms. With around 4.10ms of that account for by the pixel response times we can estimate a signal processing lag (the part you would feel) of around 9.70ms. This is a fairly low level of lag overall, although a little over 1 frame at 144Hz. Most G-sync screens show between 0 and 5ms of signal processing lag, as those are helped by the presence of the G-sync module and absence of an additional scaler. We've yet to see a G-sync screen that shows any real lag to be honest. FreeSync and other screens with a separate scaler are often quite a bit higher, for instance the LG 38UC99 had 19.4ms of signal processing lag, and the Philips 349X7FJEW had 17.25ms. This LG 34GK950F has 9.7ms which is somewhere in the middle. We don't expect this to cause any major issues for all but the serious, professional gamer to be honest in real use.
We've been asked by several people about the advertised "Dynamic Action Sync" (DAS) mode on this screen which is marketed as helping to reduce lag. There is no specific setting for this in the menu, or any kind of low lag mode as such. It is just enabled by default on the screen.
Updated v2 Firmware Tests February 2019
We were very pleased to see that the new firmware helped reduce all of the lag on this screen. We now had a signal processing lag of only ~0.2ms, so basically nothing. This was excellent news, as we know some people were put off by the previous modest levels of lag on the F model.
Ik heb tftcentral gemaild met het verzoek de review aan te passen. Op basis van die grafiek heb ik de 950F niet eens uit de doos gehaald toen ik die per ongeluk had besteld
Overigens heb ik zowel de 850G, 950G als 950F teruggestuurd en ben ik voor de X34P gegaan die 660 euro was tijdens de BTW dagen ipv de 1050+ voor de laatste twee. Verder heb ik ook ergens gelezen dat de 950G hetzelfde panel heeft maar dat de g-sync module voor de 120 Hz beperking zorgt. Het verschil tussen 144 en 120 Hz heb ik overigens niet in mijn ronde tijden dan wel Siege k/d terug kunnen vinden. Heb dat twee weken getest. Verschil tussen 60 en 120/144 was wel merkbaar.
[ Voor 39% gewijzigd door sdk1985 op 02-11-2019 14:51 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Mja, ligt ook niet aan jou. TFTCentral had hun review wat netter kunnen updaten. Eigenlijk verwonderlijk dat hij dat niet heeft gedaan, want hij (ik heb in het verleden veel contact met hem gehad over wat prototypes die we allebei in gebruik hadden) is erg nauwgezet in z'n methodiek.sdk1985 schreef op zaterdag 2 november 2019 @ 14:36:
Volgens mij valt mij weinig te verwijten ik ben alles behalve een display expert en ik vertrouw gewoon op het oordeel van tftcentral die zelf met de link tussen lage 'lag' en g-sync komen in het bevindingen.
Punt is vooral dat sinds de introductie van Adaptive Sync de scalers veel vooruit zijn gegaan. Voorheen was het vooral een kwestie van "hier heb je hem, je doet het er maar mee", maar tegenwoordig zijn ze een stuk flexibeler. Daarom zie je ook daadwerkelijk firmware updates de afgelopen jaren.
Overigens heb ik zowel de 850G, 950G als 950F teruggestuurd en ben ik voor de X34P gegaan die 660 euro was bij de BTW dagen ipv de 1050+ voor de laatste twee.
Hoe bevalt dat? Ik zit zelf al tijden te twijfelen over een enkele (super-)ultrawide ter vervanging van 2x24".
Edit:
Yep, G-Sync v1 gaat niet verder dan 120 Hz. En het verschil tussen 120 of 144 zie je inderdaad niet, 60 naar 100+ wel heel duidelijk. In sommige games meer dan andere, maar het is qua ervaring net zo'n groot verschil als van 30 naar 60 naar mijn mening. Enige verschil is dat 60 speelbaar is, en 120 prettiger en rustiger is, waar 30 gewoon niet te doen issdk1985 schreef op zaterdag 2 november 2019 @ 14:36:
Verder heb ik ook ergens gelezen dat de 950G hetzelfde panel heeft maar dat de g-sync module voor de 120 Hz beperking zorgt. Het verschil tussen 144 en 120 Hz heb ik overigens niet in mijn ronde tijden dan wel Siege k/d terug kunnen vinden. Heb dat twee weken getest. Verschil tussen 60 en 120/144 was wel merkbaar.
[ Voor 24% gewijzigd door Werelds op 02-11-2019 15:02 ]
Korte antwoord: Zo'n 34 inch curved 21:9 voegt voor mijn game ervaring meer toe dan elke videokaart die ik de afgelopen 20 jaar heb aangeschaft. Het werkt letterlijk voor elke game; racegames, shooters, strategy, mmo, enz.Werelds schreef op zaterdag 2 november 2019 @ 14:59:
offtopic:
Hoe bevalt dat? Ik zit zelf al tijden te twijfelen over een enkele (super-)ultrawide ter vervanging van 2x24".
Wil best een verslagje schrijven maar zou zo 1,2,3 niet weten welk topic.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dan open je een nieuw topic over Acer X34P ervaringen of plaats je het hier?sdk1985 schreef op zaterdag 2 november 2019 @ 15:34:
[...]
Korte antwoord: Zo'n 34 inch curved 21:9 voegt voor mijn game ervaring meer toe dan elke videokaart die ik de afgelopen 20 jaar heb aangeschaft. Het werkt letterlijk voor elke game; racegames, shooters, strategy, mmo, enz.
Wil best een verslagje schrijven maar zou zo 1,2,3 niet weten welk topic.
Soms denk ik wel eens dat wij roodjasjes in het algemeen. soms te liberaal zijn geweest met slotjes. De angst om een nieuw topic te openen is vaak net even te veel op GoT. Eigenlijk overal zie ik enige terughoudendheid bij mensen die al langer aanwezig zijn op de site, om gewoon een nieuw topic te openen. Ik kan je verklappen dat er niks mis is met een nieuw topic openen als je ook maar iets bijdraagt.
Zelf zit ik soms ook wel te kijken. Ik was heel erg laat met eindelijk naar 1080p gaan en eigenlijk had ik toen liever een formaat groter genomen. Helaas wou ik goedkoop doen, jaar later een 1080p 144Hz naar die 75Hz gekocht en dat is nu mijn setup. Helaas is de kalibratie van het 75Hz scherm niet optiimaal en dat merk je. Nu zou ik het liefst een 3840x1440p of 3840x1080p scherm met minstens HDR 600 ondersteuning willen. Helaas is de keuze zeer beperkt of niet bestaand en de prijzen zijn me ook wat te veel. Komt wel, ooit.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nu zet ik zelf ook al tijdje te azen op een widescreen. Wat maakt de ervaring voor jou zovéél beter?sdk1985 schreef op zaterdag 2 november 2019 @ 15:34:
[...]
Korte antwoord: Zo'n 34 inch curved 21:9 voegt voor mijn game ervaring meer toe dan elke videokaart die ik de afgelopen 20 jaar heb aangeschaft. Het werkt letterlijk voor elke game; racegames, shooters, strategy, mmo, enz.
Wil best een verslagje schrijven maar zou zo 1,2,3 niet weten welk topic.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
[Ervaring/Discussie] Het 21:9 Ultrawide topicsdk1985 schreef op zaterdag 2 november 2019 @ 15:34:
Korte antwoord: Zo'n 34 inch curved 21:9 voegt voor mijn game ervaring meer toe dan elke videokaart die ik de afgelopen 20 jaar heb aangeschaft. Het werkt letterlijk voor elke game; racegames, shooters, strategy, mmo, enz.
Wil best een verslagje schrijven maar zou zo 1,2,3 niet weten welk topic.
[ Voor 4% gewijzigd door zion op 03-11-2019 13:15 ]
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
So, in summary :
NVIDIA Ampere will feature :
1- "Massive" performance uplift in ray tracing.
2- Higher Rasterization throughput.
3- More vRAM across the board.
4- Lower TDPs.
5- Slightly higher clock speeds.
6- "Potentially" limited overclocking capability due to lower voltages.
https://wccftech.com/nvid...ram-lower-tdps-vs-turing/
En volgens AdoredTV laat Nvidia de naam Ampere juist los en heet de nieuwe Tesla-generatie Volta S
of Volta Next: YouTube: Tech Rumour Mill #2 - Nvidia, Intel and AMD Rumour Dump
'7nm Ampere Nvidia GPUs voor datacenters met enkele maanden uitgesteld'
https://nl.hardware.info/...enkele-maanden-uitgesteld
1 jaar na de introductie van de eerste RTX kaarten maakt Hardware Unboxed een tussentijdse balans op van Nvidia's nieuwe technologie: YouTube: Nvidia RTX Ray Tracing, One Year Later: "Just Buy It" ...or Maybe Not?
'Nvidia lanceert Ampere op GTC in maart 2020': https://nl.hardware.info/...e-wordt-op-gtc-gelanceerd
Gerucht: Nvidia's architectuur na Ampere gaat Hopper heten:
https://nl.hardware.info/...-ampere-gaat-hopper-heten
nieuws: Gerucht: Nvidia komt met Super-varianten van RTX- en GTX-gpu's voor l...
[ Voor 63% gewijzigd door choogen op 20-11-2019 16:21 ]
Gerucht: RTX 2080 Ti Super met meer cores en sneller geheugen is tóch in de maak
https://nl.hardware.info/...heugen-is-toch-in-de-maak
Klinkt niet echt super.choogen schreef op dinsdag 5 november 2019 @ 14:13:
So, in summary :
NVIDIA Ampere will feature :
1- "Massive" performance uplift in ray tracing.
2- Higher Rasterization throughput.
3- More vRAM across the board.
4- Lower TDPs.
5- Slightly higher clock speeds.
6- "Potentially" limited overclocking capability due to lower voltages.
Doubtchoogen schreef op dinsdag 26 november 2019 @ 11:36:
Nvidia geeft G-Sync monitoren Adaptive Sync voor ondersteuning AMD-videokaarten: https://nl.hardware.info/...steuning-amd-videokaarten
Ik vraag me dan serieus af of die nieuwe varianten die ze dan opengesteld hebben nog wel die Nvidia scaler bevatten. Indien niet dan is het gewoon adaptive sync met de Nvidia G-Sync merknaam, niets meer en niets minder; ik zou daar persoonlijk dus nooit de Nvidia meerprijs voor overhebben.
Als het toch "echte" G-Sync schermen zijn dan is dat misschien wel interessant. Toch doet mij dit ergens vermoeden dat Nvidia dit alleen maar doet zodat ze de 100-200 euro meerprijs in hun zak kunnen stoppen; maar ik ben dan ook niet helemaal objectief als het op Nvidia aankomt.
Ik blijf nog even bij eerst zien dan geloven.
Verwijderd
Genoeg droef toeters die zich er beter bij voelenSp3ci3s8472 schreef op dinsdag 26 november 2019 @ 20:21:
[...]
Ik zou daar persoonlijk dus nooit de Nvidia meerprijs voor overhebben.
Als het toch "echte" G-Sync schermen zijn dan is dat misschien wel interessant. Toch doet mij dit ergens vermoeden dat Nvidia dit alleen maar doet zodat ze de 100-200 euro meerprijs in hun zak kunnen stoppen; maar ik ben dan ook niet helemaal objectief als het op Nvidia aankomt.
Aan de ene kant hoop ik dat AMD meer marktaandeel krijgt voor gezondere concurrentie, maar ook dat Nvidia (mogelijk) meer spierballen laat zien staat me aan. Het verschil tussen de 10xx en de 20xx series was ook niet echt heel spannend te noemen.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Dat gezegd hebbende wat de beperkingen van 7nm zijn, gaat Nvidia niet tegen hetzelfde probleem oplopen?
Buildzoid video
Dat gezegd zou ik zulk soort geruchten ook niet al te serieus nemen. Misschien was het wel 50% sneller of de helft van het stroomverbruik.
https://twitter.com/VideoCardz/status/1219171309298561024
Dat over de release van Q2, was dat vorig jaar rond oktober al niet vermeld? Tenminste ik plaatste al rond die tijd een bericht hierover. Gerucht was toen dat Nvidia wellicht met een bundle met Cyberpunk kwam en AMD hierop inspeelt door een grote Navi goedkoper aan te bieden.
[ Voor 39% gewijzigd door Ferio op 21-01-2020 19:12 ]
De supers waren een reactie op Amd, en scherper geprijsd dan ooit van Nvidia verwacht.
de 2060 werd in prijs verlaagt na de aankondiging van de 5600XT.
Het is dus al gaande.
Op dit moment profiteert Amd van de prijsstelling van Nvidia en gaat dat iets onder zitten. Maar naarmate het marktaandeel van Amd stijgt zal Nvidia adequater moeten regeren. Op dit moment kunnen ze nog de prijzen bepalen zonder al te veel sales aan Amd te verliezen. Zodra het echt pijn gaat doen gaan ze wel scherper op prijs concurreren.
Nvidia is helaas nog steeds de go to kaart voor velen namelijk.
Maar verkoopt AMD daadwerkelijk ook GPU's in deze segmenten? Je meld al ongeveer dat mensen gewoon Nvidia koopt zonder over na te denken of puur brand loyalty.ZenTex schreef op woensdag 22 januari 2020 @ 04:25:
Dat hangt natuurlijk helemaal af van de prestaties die AMD gaat behalen.
De supers waren een reactie op Amd, en scherper geprijsd dan ooit van Nvidia verwacht.
de 2060 werd in prijs verlaagt na de aankondiging van de 5600XT.
Het is dus al gaande.
Op dit moment profiteert Amd van de prijsstelling van Nvidia en gaat dat iets onder zitten. Maar naarmate het marktaandeel van Amd stijgt zal Nvidia adequater moeten regeren. Op dit moment kunnen ze nog de prijzen bepalen zonder al te veel sales aan Amd te verliezen. Zodra het echt pijn gaat doen gaan ze wel scherper op prijs concurreren.
Nvidia is helaas nog steeds de go to kaart voor velen namelijk.
Je koopt toch gewoon het best presterende product wat er in jouw budget past?
Nee natuurlijk niet. Heel veel mensen kiezen juist voor een merk waar ze zich mee verbonden voelen. Het verschil moet behoorlijk groot worden om daar afbreuk aan te doen.JeroenNietDoen schreef op donderdag 23 januari 2020 @ 17:50:
Ik begrijp dat brand loyalty nooit. Zijn er serieus mensen die een cpu of gpu kopen die duidelijk minder presteerd ofzo omdat het van een bepaald merk is of omdat het best presterende of beste prijs/prestatie product van een merk is dat ze niet leuk vinden.
Je koopt toch gewoon het best presterende product wat er in jouw budget past?
Zelfs op Tweakers is dit een ding en hier is nog een behoorlijk percentage goed op de hoogte van prestaties. De normale consument gaat al helemaal op een merk af.
Enthusiasts zijn maar een klein deel van de markt.Beakzz schreef op donderdag 23 januari 2020 @ 19:47:
[...]
Nee natuurlijk niet. Heel veel mensen kiezen juist voor een merk waar ze zich mee verbonden voelen. Het verschil moet behoorlijk groot worden om daar afbreuk aan te doen.
Zelfs op Tweakers is dit een ding en hier is nog een behoorlijk percentage goed op de hoogte van prestaties. De normale consument gaat al helemaal op een merk af.
Een heleboel mensen hebben van Nvidia gehoord (het zij door reclame of kennissen/vrienden) maar niet van AMD. Of, ze denken (nog steeds) dat AMD een 'B-product' is, al is dit mede door het success van Ryzen aan het verminderen.
Het is niet de eerste keer dat mensen meer betalen voor een product doordat er een logo opzit.
(*kuch*, adidas, nike, apple, alienware, etc. *kuch*)
Heb jij echt enkel die-hard tweakers in je vrienden/kennissen kring? Ik niet in ieder geval en de paar vrienden die ik heb die überhaupt losse videokaarten kopen hoor ik al jarenlang, over alle generaties videokaarten heen, roepen dat ze een Nvidia hebben 'want die is toch het beste en AMD zuigt'. (Toegegeven, op specifieke momenten hebben ze nog gelijk ook, maar dat is een beetje onder het motto een kapotte klok geeft ook tweemaal daags de goede tijd aan). Wanneer ik navraag waar ze die wijsheid vandaan halen dan is dat 'omdat dat toch al jaren zo is?'.JeroenNietDoen schreef op donderdag 23 januari 2020 @ 17:50:
Ik begrijp dat brand loyalty nooit. Zijn er serieus mensen die een cpu of gpu kopen die duidelijk minder presteerd ofzo omdat het van een bepaald merk is of omdat het best presterende of beste prijs/prestatie product van een merk is dat ze niet leuk vinden.
Je koopt toch gewoon het best presterende product wat er in jouw budget past?
[ Voor 9% gewijzigd door JeroenNietDoen op 24-01-2020 09:15 ]
Naja hier is dat nog een beetje grijs he? Tuurlijk presteert een 5700xt beter dan qua prijs vergelijkbare nvidia kaarten, maar hij vreet ook keer stroom, wordt warmer en drivers zijn instabiel (geweest). De objectief best presterende kaart bestaat daarom niet, omdat iedereen andere prio's heeft.JeroenNietDoen schreef op donderdag 23 januari 2020 @ 17:50:
Ik begrijp dat brand loyalty nooit. Zijn er serieus mensen die een cpu of gpu kopen die duidelijk minder presteerd ofzo omdat het van een bepaald merk is of omdat het best presterende of beste prijs/prestatie product van een merk is dat ze niet leuk vinden.
Je koopt toch gewoon het best presterende product wat er in jouw budget past?
Maar brand loyalty is wel gek, maar uiteindelijk is iedereen er onderbewust wel gevoelig denk ik. Is menselijk om op basis van vooroordelen (die aan merken verbonden worden) te kiezen. Het wordt pas gek (en onbegrijpelijk) als het tot gevolg heeft dat feiten worden genegeerd of verdraaid. Beetje de Apple fanboy sekte waarin Windows elke minuut crasht, update of een virus heeft en Mac dat noooooit heeft.
Nvidia DLSS in 2020: Stunning Results This Could Be a Game-Changer
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Alleen jammer dat het vergelijken van de plaatjes zo lastig is, niet mogelijk om ze te bekijken op volle resolutie tenzij je ze uit de source vist afaik dus waardeloos. Ze hadden het op een image hosting site moeten gooien waar je zo'n slider hebt, daar bestaan er genoeg van voor video encoding en het vergelijken daarvan.Help!!!! schreef op woensdag 26 februari 2020 @ 18:10:
FWIW: Volgens Techspot werkt de nieuwste DLSS iteratie erg goed en op alle RTX GPU's.
Nvidia DLSS in 2020: Stunning Results This Could Be a Game-Changer
Het is in ieder geval een stuk beter dan versie 1.
Ik zie sowieso liever (split screen) video's die je liefst ongecomprimeerd kan downloaden
Maar goed, het feit dat Techspot zo positief is toch wel interessant ondanks dat ik het zelf niet echt kan controleren.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Precies. Zoals ik al zei het is een stuk beter dan versie 1 van DLSS. Alleen zou ik het graag naast een 1800p upscaled met sharpening willen zien.Help!!!! schreef op maandag 2 maart 2020 @ 16:16:
^
Ik zie sowieso liever (split screen) video's die je liefst ongecomprimeerd kan downloaden.
Maar goed, het feit dat Techspot zo positief is toch wel interessant ondanks dat ik het zelf niet echt kan controleren.
Hier zit best toekomst in, wat je voornamelijk wel met deeplearning ziet is dat plaatjes een soort "pastel" look krijgen.
Intel i7 8700K / Z370 Maximus X Code / 16GB G-SKILL 3200 C14 / ASUS Strix 3090 / Lian Li O11 Dynamic / NZXT X62 / Samsung 970 EVO 500GB
Het zou kunnen. Immers spraken de geruchten lange tijd geleden over een overstap naar Samsung, niet perse 7nm. Samsung 10nm is vervolgens een stap beter dan TSMC 16/12nm. Het is ook een volwassen DUV node en Nvidia kiest in principe altijd voor volwassen nodes en gaat zelden tot nooit voor leading edge. Immers zijn daar kosten aan verbonden en altijd het risico van productieproblemen. Nvidia is uiteindelijk een bedrijf dat zichzelf vrij succesvol in Intel haar wereldwijde kartel heeft geïnjecteerd als bijna exclusieve GPU leverancier voor OEM systemen. Voor Nvidia is leveringszekerheid voor die OEM's uiteindelijk topprioriteit. Dat kan best goed met een oudere node en dan maar grotere chips.
Tweede is dat Samsung haar 7nm problematisch lijkt te zijn. Qualcomm, Apple, Huawei en nu ook AMD zitten die 7nm wafers op te kopen bij TSMC. Allen kunnen waarschijnlijk meer betalen per wafer omdat er nu eenmaal meer marge zit op CPU's en zijn daartoe bereid. Het zou heel goed kunnen dat Nvidia niet eens veel 7nm capaciteit kan krijgen bij TSMC en dan maar naar Samsung 10nm gaat. Overigens als Nvidia het doet, dan zou het wel eens om de nieuwste iteratie van de 10nm klasse node kunnen gaan. Die prijst Samsung aan als 8nm LPP. Die node zal niet zo efficiënt zijn als TSMC 7nm, maar staat waarschijnlijk wel fors grotere chips toe. Zo kan Nvidia waarschijnlijk veel meer transistoren besteden aan RT hardware.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Mijn videokaart begint kuren te vertonen. Ik wacht het liefst op een nieuwe xx80 ti om aan te schaffen.
Ik ook niet. Beter = kopen. Alleen met auto's dan weer niet.JeroenNietDoen schreef op vrijdag 24 januari 2020 @ 09:11:
Dat vind ik geen brand loyalty. Ik doel op die specifieke groep die iets wel of juist niet kopen puur en alleen vanwege de naam maar tegelijkertijd de afkeer tegen de rivaliserende naam. Die groep waar jij op doelt roeptoeteren iets wat ze gelezen hebben. Ze hebben er geen sterke concrete mening over het merk of het rivaliserende merk.
Nu al weer naar september verplaatst: https://nl.hardware.info/...uitgesteld-naar-septemberchoogen schreef op donderdag 26 maart 2020 @ 12:45:
Op zijn vroegst in augustus van dit jaar: https://nl.hardware.info/...cuda-cores-en-12-gb-gddr6
NVIDIA RTX Voice: Real-World Testing & Performance Review - It's Like Magic
Heb alleen de conclusie gelezen en er verder niet in verdiept maar vraag me wel af hoe dat dan zit met privacy zeker bij business gebruik.
Al die gesprekken gaan dan ook via de nvidia servers om de AI te trainen of werkt het local
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Lancering op 14 mei?? Worden dan ook de nieuwe 30.. lijn bekend gemaakt?choogen schreef op maandag 30 maart 2020 @ 18:15:
[...]
Nu al weer naar september verplaatst: https://nl.hardware.info/...uitgesteld-naar-september
Nu is de vraag, wachten daarop of nu toch nog de 2070S aanschaffen?
Zit nu met een benodigde upgrade, 2070S is de target, maar als ik voor diezelfde prijs een 3070 kan krijgen...Sissors schreef op zondag 26 april 2020 @ 12:35:
Zie nieuws: Nvidia houdt 14 mei alsnog een online GTC 2020-keynote. Dus hopelijk krijgen we ook iets te horen over de 3000 serie, maar waarschijnlijk is het niet de focus.
Of dat de 2070S goedkoper gaat worden...
Tja niemand kan je een goed antwoord daarop geven. Maar ga sowieso maar uit van nog iig een half jaar voor een 3070 fatsoenlijk leverbaar zal zijn.thomas1750 schreef op zondag 26 april 2020 @ 13:10:
[...]
Zit nu met een benodigde upgrade, 2070S is de target, maar als ik voor diezelfde prijs een 3070 kan krijgen...
Of dat de 2070S goedkoper gaat worden...
Inderdaad, daar ga ik niet wachten aangezien mijn gtx960 wel echt klaar is!Sissors schreef op woensdag 29 april 2020 @ 13:04:
[...]
Tja niemand kan je een goed antwoord daarop geven. Maar ga sowieso maar uit van nog iig een half jaar voor een 3070 fatsoenlijk leverbaar zal zijn.
Alle specs "minder dan" en een chip nummer dat eindigt op 3? Lijkt me welVerwijderd schreef op woensdag 29 april 2020 @ 12:39:
Dit lijkt mij typisch zelf bedacht, zonder dat er enige bron bij gebruikt is.
De buren hebben het ook overgenomen, plus bronVerwijderd schreef op woensdag 29 april 2020 @ 12:39:
Dit lijkt mij typisch zelf bedacht, zonder dat er enige bron bij gebruikt is.
https://nl.hardware.info/...vidias-ampere-gpus-gelekt
With ray tracing capabilities supposedly four times that of Turing, Ampere's GeForce cards are expected to largely mitigate the prohibitive performance hit that turning ray tracing on demonstrates with the current generation of GPUs. And that is going to reportedly show how poorly Turing will age compared with the new cards, essentially making it look like a test platform for ray tracing, with Ampere being the proverbial 'real deal'.
The speculation is that something along the lines of a potential RTX 3060 could trace rays at the same sort of level as a $1,200 RTX 2080 Ti. Which is possibly a bit of a stretch... and doesn't mean it will deliver general gaming performance along those lines either. The rasterised performance of Ampere is something that's still yet to be even rumoured about, and that's going to play a big part in making up the overall gaming performance of the next generation of Nvidia graphics cards.
The other intriguing tidbit is the claim that GTX is dead, and that there will be RTX prefixes up and down the GeForce stack, with Tensor and RT Cores being dropped into even the lowest spec Ampere GPUs.
Al zou dit gerucht waar zijn, dan zou ik persoonlijk nog wel wachten met mijn upgrade. Zit op dit moment nog op een 980ti en merk wel dat hij moeite heeft om 1440p op 144hz te draaien, maar hij werkt uitstekend. Ray-tracing is wel een punt van wordt het veel toegepast of niet denk ik. Anders zou het wel zonde wezen om daarin te investeren.
Ik twijfel of dit waar zal zijn, immers heeft de 3080TI dan bijna twee keer zoveel GPU cores als de huidige Titan bron. Naast de GPU cores zijn de Ray tracing cores ook bijna 4 keer zoveel. Ik zou dat nog wel willen geloven, alleen de GPU cores zou ik persoonlijk te optimistisch vinden.fietsbob schreef op woensdag 29 april 2020 @ 12:33:
Vanochtend gepost en daarna weer verwijderd, maar een prima gerucht
[Afbeelding]
Zelfs de 2080 Ti heeft met vele games moeite om 144fps aan te houden op 1440p. Je bent verplicht om de instellingen lager te zetten wil je een gemiddelde van 144ffps behalen. Als je echt op maximum instellingen wil gamen en toch 144fps gemiddeld behouden dan doe je dat beter op 1080p. Dat is voor mij ook de reden geweest om terug te schakelen van 1440p naar 1080p.Emryte schreef op donderdag 7 mei 2020 @ 11:11:
[...]
Al zou dit gerucht waar zijn, dan zou ik persoonlijk nog wel wachten met mijn upgrade. Zit op dit moment nog op een 980ti en merk wel dat hij moeite heeft om 1440p op 144hz te draaien, maar hij werkt uitstekend. Ray-tracing is wel een punt van wordt het veel toegepast of niet denk ik. Anders zou het wel zonde wezen om daarin te investeren.
Samsung produceert mogelijk lower-end Ampere kaarten, TSMC de high-end kaarten.Citing unnamed sources familiar with the matter, DigiTimes said TSMC will continue being Nvidia's main source of chips for the upcoming GPUs, which shouldn't come as a surprise. TSMC is a long-standing Nvidia partner, and the Taiwanese foundry has sufficient production capacity to fill big orders. Nvidia has reportedly put in a significant 7nm order for its upcoming Ampere graphics cards, which could include the RTX 3080 line.
Furthermore, Nvidia has even reportedly reserved TSMC's 5nm production capacity in 2021 for Hopper, which is believed to be the microarchitecture succeeding Ampere. This would be wise on Nvidia's part, considering that TSMC is pegged to produce Apple's 5nm Arm-based processors and AMD's rumored Ryzen 5000-series CPUs.
So where does that leave Samsung? Anonymous sources have whispered to DigiTimes that Nvidia is tapping Samsung to produce lower-end Ampere graphics cards. By doing this, Nvidia could effectively lessen the load on TSMC and maximize the yields from both foundries.
It's currently speculated that low-end Ampere products could leverage Samsung's 7nm EUV or 8nm process nodes. Samsung seemingly transitioned to the newer and improved 5nm EUV manufacturing process in the second quarter of this year, DigiTimes said. Its sources also claimed that Nvidia and Samsung are in negotiations as to whether the latter can get a small piece of Nvidia's 5nm orders.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
HWI heeft het overgenomen met een bron erbij. In dat artikel werd ook hetzelfde plaatje getoond.Emryte schreef op donderdag 7 mei 2020 @ 11:11:
Ik twijfel of dit waar zal zijn, immers heeft de 3080TI dan bijna twee keer zoveel GPU cores als de huidige Titan bron. Naast de GPU cores zijn de Ray tracing cores ook bijna 4 keer zoveel. Ik zou dat nog wel willen geloven, alleen de GPU cores zou ik persoonlijk te optimistisch vinden.
Maar het blijft gissen. Wat mespeelt is de komst van Big Navi en de komst van de nieuwe consoles. Dat zal allemaal meespelen met de bepaling van de prijs en de specs.
Monitor is meer toekomst gericht en voor de spellen die ik speel, is het wel te halen alleen komt het er nog wel eens flink onder.Flying schreef op donderdag 7 mei 2020 @ 11:28:
[...]
Zelfs de 2080 Ti heeft met vele games moeite om 144fps aan te houden op 1440p. Je bent verplicht om de instellingen lager te zetten wil je een gemiddelde van 144ffps behalen. Als je echt op maximum instellingen wil gamen en toch 144fps gemiddeld behouden dan doe je dat beter op 1080p. Dat is voor mij ook de reden geweest om terug te schakelen van 1440p naar 1080p.
Op Reddit had ik al gelezen dat die afbeelding ook snel weer verwijderd was (het kan zijn dat het weer online is gezet). Het blijft zeker gissen, ik denk ook dat het sterk afhankelijk is van de consoles. Immers weten we niet wat Big Navi doet tegenover de 2000 en straks 3000 serie.fietsbob schreef op donderdag 7 mei 2020 @ 11:37:
[...]
HWI heeft het overgenomen met een bron erbij. In dat artikel werd ook hetzelfde plaatje getoond.
Maar het blijft gissen. Wat mespeelt is de komst van Big Navi en de komst van de nieuwe consoles. Dat zal allemaal meespelen met de bepaling van de prijs en de specs.
https://www.youtube.com/watch?v=oCPufeQmFJk&t=1601s
NVIDIA CEO Introduces NVIDIA Ampere Architecture, NVIDIA A100 GPU
NVIDIA GA100 Scalar Processor Specs Sheet Released
NVIDIA Announces Double-Precision (FP64) Tensor Cores with "Ampere"
NVIDIA "Ampere" Designed for both HPC and GeForce/Quadro
GeForce lijn komt later.
YouTube: NVIDIA GTC 2020 Keynote Part 1: CEO Jensen Huang Introduces Data-Cen...
Op zich leuk gedaan en ok, smaken verschillen, I get that. Maar dan ben je miljardair en heb je zo'n ugly ass old school keuken. Only in America
[ Voor 4% gewijzigd door Help!!!! op 14-05-2020 18:37 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Help!!!! schreef op donderdag 14 mei 2020 @ 17:31:
[URL="https://www.youtube.com/watch?
offtopic:
Op zich leuk gedaan en ok, smaken verschillen, I get that. Maar dan ben je miljardair en heb je zo'n ugly ass old school keuken. Only in America![]()
Da's gewoon een bepaalde stijl. Maar zijn keuken kost wellicht meer dan een gemiddeld Nederlands huis
Het is zeker een bepaalde stijl, echter zeker niet door mij bewonderd
Ondanks dat ik absoluut geen fan ben van nvidia's omgang met media, developers, consumenten etc, ik vind ze anti-consumer, heb ik toch wel respect voor hun catchy presentaties en visie.
Qua marketing overtuigingskracht zijn ze echt ver voor op bijv. AMD. Zelfs vanuit zijn keuken.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
-32 thread/clk
-Even verdeling INT en FP32 cores. FP16 met de Tensor cores
-Een special function unit.
Verschillen zijn extra cache per SM en extra Load/Storage units. Dat kan alleen ook goed GA100 exclusief zijn, zie Volta hieronder. Die FP64 cores zijn waarschijnlijk ook GA100 exclusief. Gezien de node zal dit de niet EUV variant van TSMC 7nm zijn vanwege de lagere reticle limit van de EUV node. 108SM's is alleen serieus. Wederom een extra twee SM's per GPC zoals Nvidia nu al jaren doet, maar ook twee GPC's erbij.
Onder de kap lijken de Tensorcores wel flink verbeterd te zijn en dat zal ray tracing denoicing enorm moeten helpen. In tegenstelling tot Turing is het dan misschien niet helemaal hopeloos.
De grote vraag is denk ik alleen of het klopt dat alleen high end Ampère op 7nm geproduceerd zal worden en de rest op Samsung 8nm. Op Samsung 8nm kan je waarschijnlijk grotere chips produceren voor minder kosten, maar het zal waarschijnlijk ten koste van efficiëntie en clock speed gaan.
Ampère

Volta

Turing
[ Voor 12% gewijzigd door DaniëlWW2 op 14-05-2020 21:21 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Easter egg van het team dat die demo heeft gemaakt. Daar zal ie zelf echt niet op hebben gestuurd...
Een "32" in de naam hebben daar is wel heel creatief. Ja, het heeft de range van een 32-bit float, waardoor die niet ineens zullen gaan klippen/overflowen wanneer je die gebruikt. Maar de precisie van een 16-bit float, wat uiteindelijk neerkomt op dat hij 19-bit gebruikt. Dat een 32-bitter noemen is wel twijfelachtig imo.
Lijkt me ook niet, zou anders wel beetje narcistisch zijn.Paprika schreef op donderdag 14 mei 2020 @ 23:45:
[...]
Easter egg van het team dat die demo heeft gemaakt. Daar zal ie zelf echt niet op hebben gestuurd...
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Ik vind dat hele gedoe met de oven behoorlijk cringey. Even los van het feit dat ik hoop dat de GPU's niet nu al de oven in moetenHelp!!!! schreef op donderdag 14 mei 2020 @ 18:21:
offtopic:
Het is zeker een bepaalde stijl, echter zeker niet door mij bewonderd. Ook dat peper en zoutstel kan, hoe down to earth ook, wel een professionele behandeling gebruiken....
Ondanks dat ik absoluut geen fan ben van nvidia's omgang met media, developers, consumenten etc, ik vind ze anti-consumer, heb ik toch wel respect voor hun catchy presentaties en visie.
Qua marketing overtuigingskracht zijn ze echt ver voor op bijv. AMD. Zelfs vanuit zijn keuken.
Verder is Ampère gewoon wat te verwachten viel, het is een tick, geen tock. Het meest noemenswaardige vind ik nog het feit dat Nvidia zo te zien iets geleerd heeft bij TSMC, want hun transistor dichtheid is enorm hoog. Die is meer dan het dubbele dan het voorheen was en normaal gesproken ligt de dichtheid bij Nvidia enkele miljoenen onder die van AMD bij de transitie naar een nieuwe node en kruipen ze langzaam omhoog. In dit geval persen ze er net geen 60% meer uit dan AMD en zitten ze meer dan 150% boven hun eigen beste dichtheid tot nu toe. Die sprong is echt absurd.
Gaan ze dan niet clock speed inruilen voor fysieke hardware? GA100 heeft heel wat meer hardware dan GV100, meer dan de gebruikelijke stappen van Nvidia. Zit je ook nog op een node zoals TSMC 7nm waar je toch al problemen zal krijgen met clock speeds in verband met dichtheid.Werelds schreef op vrijdag 15 mei 2020 @ 11:21:
[...]
Ik vind dat hele gedoe met de oven behoorlijk cringey. Even los van het feit dat ik hoop dat de GPU's niet nu al de oven in moeten
Verder is Ampère gewoon wat te verwachten viel, het is een tick, geen tock. Het meest noemenswaardige vind ik nog het feit dat Nvidia zo te zien iets geleerd heeft bij TSMC, want hun transistor dichtheid is enorm hoog. Die is meer dan het dubbele dan het voorheen was en normaal gesproken ligt de dichtheid bij Nvidia enkele miljoenen onder die van AMD bij de transitie naar een nieuwe node en kruipen ze langzaam omhoog. In dit geval persen ze er net geen 60% meer uit dan AMD en zitten ze meer dan 150% boven hun eigen beste dichtheid tot nu toe. Die sprong is echt absurd.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Jawel, vandaar ook dat de geadverteerde boost clock "~1410 MHz" is. Die 1410 is dus een absolute piek waarde onder specifieke omstandigheden, ik vermoed dat de base clock dus ook rond de 1 GHz uit gaat komen; of misschien zelfs daaronder.DaniëlWW2 schreef op vrijdag 15 mei 2020 @ 11:56:
[...]
Gaan ze dan niet clock speed inruilen voor fysieke hardware? GA100 heeft heel wat meer hardware dan GV100, meer dan de gebruikelijke stappen van Nvidia. Zit je ook nog op een node zoals TSMC 7nm waar je toch al problemen zal krijgen met clock speeds in verband met dichtheid.
Neemt niet weg dat deze sprong in dichtheid ronduit absurd is; en dan toch onder de 400W blijven? Ik ben benieuwd
Ik moet nog eens goed kijken zo te zien.Werelds schreef op vrijdag 15 mei 2020 @ 12:03:
[...]
Jawel, vandaar ook dat de geadverteerde boost clock "~1410 MHz" is. Die 1410 is dus een absolute piek waarde onder specifieke omstandigheden, ik vermoed dat de base clock dus ook rond de 1 GHz uit gaat komen; of misschien zelfs daaronder.
Neemt niet weg dat deze sprong in dichtheid ronduit absurd is; en dan toch onder de 400W blijven? Ik ben benieuwd
Maar TSMC 7nm blijft wonder na wonder verrichten. Ergens zie ik Nvidia het bij 300W houden, misschien 350W zodat ze niet over hoeven te gaan op exotische koeling.
edit: Ben ook weer wakker. De opsluiting helpt me gewoon echt niet. Ik ben werkelijk elke scherpte aan het verliezen.
400W TDP ja en de koeling lijkt op flinke heatpipes met koelblokken. Serieus systeem, maar daar betaal je ook voor. Het roept alleen wel de vraag op of de rest van Ampere nu ook voor deze aanpak gaat. Denk het niet omdat de GeForce, uh RTX force? modellen met veel krappere marges zullen werken. Aan de andere kant is het de vraag of Nvidia de boel echt gaat splitsen met Samsung 8nm. Daar zouden grotere chips wel eens kunnen om minimale ray tracing prestaties te behalen. Perf/watt zal waarschijnlijk ook minder zijn dan 7nm chips. Het zijn alleen vragen waar we denk ik pas over een halfjaar een goed antwoord op zullen krijgen.
[ Voor 41% gewijzigd door DaniëlWW2 op 15-05-2020 15:48 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Er gaat hier nu pas een lampje branden... zou die oven een onbedoelde reverentie zijn naar al die Tesla (GeForce 8 kaarten) die in de oven moesten na 1-2 jaar?Werelds schreef op vrijdag 15 mei 2020 @ 11:21:
[...]
Ik vind dat hele gedoe met de oven behoorlijk cringey. Even los van het feit dat ik hoop dat de GPU's niet nu al de oven in moeten
Verwijderd
Korter PCB (HBM ?) met een hoek eruit, dus dual fan, 1 bovenop en een op het uiteinde van de kaart aan de onderkant.ChronoTtrigger schreef op zaterdag 6 juni 2020 @ 15:24:
Okay, hype train. Raar uiterlijk overigens.
Eerste indruk: Ziet er niet uit.
Vind het niet zo belangrijk, als de prestaties maar goed zijn.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Interessant! Volgens andere geruchten zou er een 2080-like design zijn met 3 fans, dus misschien is er wat veranderd?
edit: nu zie ik het
Verwijderd schreef op zaterdag 6 juni 2020 @ 15:27:
[...]
Korter PCB (HBM ?) met een hoek eruit, dus dual fan, 1 bovenop en een op het uiteinde van de kaart aan de onderkant.
[ Voor 57% gewijzigd door haarbal op 06-06-2020 16:07 ]
Mechwarrior Online: Flapdrol
Verwijderd
zitten twee fans ophaarbal schreef op zaterdag 6 juni 2020 @ 16:04:
Vreemd dat bij de ene kaart de fan aan de voorkant lijkt te zitten en bij de ander aan de achterkant.
edit: nu zie ik het
[...]
Mijn eerste reactie, als hier al zo'n blok op zit. Dan vraag ik mij af wat er zo op de Ti versie zit. Ik krijg een zwaar vermoeden dat Nvidia AMD niet met de perf kroon wil laten weglopen met RDNA2.
Verwijderd
Ti versie zal denk ik pas veel later komenSp3ci3s8472 schreef op zaterdag 6 juni 2020 @ 16:30:
[...]
Mijn eerste reactie, als hier al zo'n blok op zit. Dan vraag ik mij af wat er zo op de Ti versie zit. Ik krijg een zwaar vermoeden dat Nvidia AMD niet met de perf kroon wil laten weglopen met RDNA2.
Verwijderd
Vorige keer was het volgens mij tegelijkertijd.Verwijderd schreef op zaterdag 6 juni 2020 @ 17:11:
[...]
Ti versie zal denk ik pas veel later komen
Ben ook wel benieuwd naar de bron voor deze foto. Kun je die er nog bij plaatsen?
Laat maar, ik zie dat het bij de buren vandaan komt: https://nl.hardware.info/...ijzonder-ontwerp-duikt-op
[ Voor 16% gewijzigd door choogen op 06-06-2020 18:18 ]
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
/f/image/830ZUEdYNWUsFnNDf0SHPU6V.png?f=fotoalbum_large)
/f/image/pg6aoSRk0FpHyGF2i1No1reX.png?f=fotoalbum_large)
:strip_exif()/f/image/7M43jQk0DMjECSLqop1oT2cn.jpg?f=fotoalbum_large)