• Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
@Sp3ci3s8472, mijn voorkeur ligt bij een nieuwe HD5870 :+ (ik heb niet voor niets een 2700X). Het was niet zo negatief bedoelt overigens, maar ik begrijp waarom je het wel zo hebt begrepen.

En de upscale functionaliteit vind ik niet zo interessant. Ik ben alleen geïnteresseerd in de echte AA.

[ Voor 76% gewijzigd door Paprika op 30-09-2018 17:56 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12-12 10:42
sdk1985 schreef op zondag 30 september 2018 @ 16:43:
Wat een onzinnige toevoeging is dit nu weer _O- . Hij gaf al aan dat hij op 60 fps capped dus dat zal ongetwijfeld de directe aanleiding zijn voor de 40% load. Verandert verder niets aan mijn punt, al zou het de cpu zijn, als je 40% load hebt dan kun je hetzelfde effect met een twee keer zo trage kaart bereiken :). Je kunt er nog zoveel detail bij halen als je wilt, dat verandert niet.
Dat is dus niet noodzakelijkerwijs zo :)

Een 1060 zit op pakweg 45% van de rauwe rekenkracht van een 1080 Ti en op 1080p komt dat er ook goed uit als je naar bijvoorbeeld een Battlefield game kijkt (sterker nog, een 1060 presteert dan wellicht iets beter dan je zou verwachten). Dat is omdat die engine vooral op shader kracht leunt. Neem je een Witcher 3 dan ziet dat er ineens heel anders uit en presteert diezelfde 1060 ruim onder wat je zou verwachten, terwijl een 1070 exact presteert zoals je zou verwachten. Dat komt doordat W3 veel meer op de geometry units leunt. Die 10 die een 1060 er heeft zijn er duidelijk net niet genoeg en de 15 van een 1070 zijn ruim voldoende.

Datzelfde geldt voor een CPU limiet. Waar je met een 1080 Ti misschien net genoeg werk kunt verzetten om 10 SM's aan de praat te houden (35% "load") is de kans groot dat je met een 1060 gewoon GPU-bound bent doordat die GPU bepaalde dingen net iets trager doet.

Dat was dan ook het punt: "load" kan niet accuraat worden gemeten op een GPU. "Load" verschilt per combinatie van game en engine. Je kunt niet zomaar zeggen dat je ook met een 50% tragere GPU genoeg had gehad, dat is veel te kort door de bocht. Het hangt helemaal af van wat je er mee doet.

En met een FPS cap wordt het al helemaal een verwarrend verhaal, omdat je dan helemaal nergens op kan rekenen. Die load cijfers zijn slechts meetpunten, dus hoewel je wellicht "40%" ziet, is dat niet eens een gemiddelde. Het kan dus best zijn dat een 1060 dat helemaal niet behapstukt krijgt op volle snelheid.

Dat was dus mijn punt, niet zozeer dat je gelijk of ongelijk had, maar dat je te kort door de bocht ging. Je moet bij de aanschaf van een GPU altijd naar reviews kijken - en dan geen gemiddelde nemen zoals TPU's samenvattingen, maar specifiek naar games die je speelt (voor zover dat kan) :)

Verwijderd

Paprika schreef op zondag 30 september 2018 @ 17:36:
Je doet DLSS weer te kort. Je kunt het ook als een hogere AA gebruiken en niet alleen om je resolutie te verhogen. Ook "simpele upscale" is niet terecht, maar ach, het is ook maar NVIDIA tech natuurlijk. :+


[...]
Voor wie enkel het citaat leest, dit was niet aan mij gericht.
Hardware Unboxed stelde vast dat '4k' met DLSS er hetzelfde uitzag en dezelfde FPS haalde (geef en neem een verwaarloosbaar klein percentage) als 1800p met TAA geupscaled naar 4k. Voor wat het waard is.
Het zal inderdaad wat meer inhouden dan simpele upscaling maar of dat het zoveel meer is dan checkerboard-rendering is voor mij nog een vraagteken. We zullen het de komende jaren wel te weten komen wanneer slimme mensen uit de doeken doen hoe DLSS precies werkt en wat het precies doet. Hoe dan ook, DLSS is mogelijk nog interessant voor deze generatie, raytracing zal de komende jaren nog niet zo interessant worden. Wat vind jij trouwens van pathtracing als alternatief voor raytracing?

[ Voor 7% gewijzigd door Verwijderd op 01-10-2018 14:40 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-12 17:24

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zondag 30 september 2018 @ 19:38:
[...]

Voor wie enkel het citaat leest, dit was niet aan mij gericht.
Hardware Unboxed stelde vast dat '4k' met DLSS er hetzelfde uitzag en dezelfde FPS haalde (geef en een een verwaarloosbaar klein percentage) als 1800p met TAA geupscaled naar 4k. Voor wat het waard is.
Het zal inderdaad wat meer inhouden dan simpele upscaling maar of dat het zoveel meer is dan checkerboard-rendering is voor mij nog een vraagteken. We zullen het de komende jaren wel te weten komen wanneer slimme mensen uit de doeken doen hoe DLSS precies werkt en wat het precies doet. Hoe dan ook, DLSS is mogelijk nog interessant voor deze generatie, raytracing zal de komende jaren nog niet zo interessant worden. Wat vind jij trouwens van pathtracing als alternatief voor raytracing?

[YouTube: Beyond Turing - Ray Tracing and the Future of Computer Graphics]
Leuk stuk om te kijken. De overgang naar RT is niet zo maar gedaan, wat ook logisch is. Je kan dit niet in een generatie afdwingen. Te veel (eigenlijk alles) wordt nog gedaan met rasterization. Het is een mooie stap om te beginnen met schaduw en reflecties.
We zijn nog lang niet op het punt dat we volledig overkunnen op RT. Path Tracing zou over 3 generaties best mogelijk zijn.

Interessante discussie:
https://news.ycombinator.com/item?id=17126961

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Nog even wat BIOS files gaan doorspitten:
Afbeeldingslocatie: https://i.imgur.com/TGUatUX.png

Max power limit van die Galax kaart is wel absurd zeg. Ik gok dat dat deze is. :+

Edit:
En.... :D _/-\o_
Afbeeldingslocatie: https://i.imgur.com/Ycr0Pck.png

Afbeeldingslocatie: https://i.imgur.com/CuJDmGa.png

[ Voor 38% gewijzigd door Paprika op 01-10-2018 18:04 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53

NVLink Bridges

Afbeeldingslocatie: https://www.techpowerup.com/img/emhwjzj6VCI1INEm.jpg
NVIDIA selling its NVLink bridge at $80 (roughly the price of an entry-level motherboard) was sure to lure motherboard makers to design their own "premium" NVLink bridges. The first third-party bridge comes from ASUS. The new ROG-NVLink bridge is more functional than NVIDIA's bridge, the LED illuminating the company's ROG logo on the bridge does 16.7 million colors, and can be controlled by ASUS Aura Sync RGB software. The top of the bridge features a combination of glossy acrylic, matte aluminium, and brushed aluminium. The bridge comes in 3-slot (2 slots between cards) and 4-slot (3 slots between cards) spacing sizes. The company didn't reveal pricing.
Afbeeldingslocatie: https://www.techpowerup.com/img/Mk3Ym0g9I0sYuhcA.jpg
After NVIDIA's own $80 NVLink bridge, and ASUS' slightly more functional ROG NVLink Bridge, it's becoming clear that at $80, or higher price than entry-level graphics cards and motherboards, NVIDIA is guiding its partners to make a business of selling $5 pieces of hardware at $80. The latest entry to this contempt toward gamers is GIGABYTE, with its Aorus-branded NVLink Bridge, available in 3-slot (2 slots between cards) and 4-slot (3 slots between cards) variants. The bridge is characterized by a less pronounced C-shape than NVIDIA's bridge, through not completely trapezoid like ASUS'. The Aorus logo is capable of 16.7 million color RGB LED illumination, which you control via GIGABYTE RGB Fusion software. Like every other 2-way NVLink bridge, this one will go for $80.
Afbeeldingslocatie: https://www.techpowerup.com/img/61PQYjp6LeuHHALm.jpg
EVGA unveiled the design of its NVLink bridges, closely following ASUS and GIGABYTE. Its design has the most pronounced C-shape among all aftermarket bridges, and four nearly independent RGB LED diffusers along the top shroud, which somewhat has the design language as its recent graphics cards. Like the others, the EVGA NVLink bridge could come in 3-slot (2 slots between cards) and 4-slot (3 slots between cards) sizes, and could be priced at $80, if not more.
(click voor bijbehorende artikels en meer foto's)

Allemaal zijn ze zo lelijk als je waterblokken hebt 8)7 Wat overigens geldt voor het merendeel van de 2080Ti eigenaren als ik overclock.net zo bekijk, waar het 2080Ti draadje al 150 pagina's beslaat overigens, verkoopt als water :+...
it's becoming clear that at $80, or higher price than entry-level graphics cards and motherboards, NVIDIA is guiding its partners to make a business of selling $5 pieces of hardware at $80.
Er was een tijd dat je die gewoon bij je moederbord erbij kreeg... O-)

Afbeeldingslocatie: https://i.imgur.com/wtcxGwG.png

Deze ligt hier nog altijd en was misschien nog duurder om te maken ook. :/

Leuke photoshop fail van ASUS overigens....

Afbeeldingslocatie: https://i.imgur.com/jMObPXf.png

[ Voor 99% gewijzigd door Paprika op 02-10-2018 18:43 ]


  • The Source
  • Registratie: April 2000
  • Laatst online: 15:48
Sorry zat in buitenland.

Power usage komt door hoge power limit en de agressieve turbo.
Voor de koeler is het geen probleem die is stil genoeg.
Echter moet je je afvragen hoeveel power die extra FPS waard zijn.
Op 1080p en 1440p zal kan het voor de 144Hz schermen wel interessant zijn maar op 4k maakt het weinig FPS verschil. Straks met Raytracing wellicht wat meer.

Zijn veel verschillende meningen wat de juiste power limit / OC setting is. Dit is zeker niet de sweetspot die ik gekozen zou hebben. Ik zie sommige andere merken weer aan de andere kant van het spectrum zitten dus FPS inleveren om zo koel mogelijk in de statistieken te komen.

Ik zal wel eens checken of ik wat testen resultaten met verschillende settings kan posten, maar kan niet alles sharen ivm NV NDA.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Geen probleem en ik ben sowieso van mening dat NVIDIA best wel goed de sweetspot heeft uitgezocht. Hij kan nog ietsje efficienter, maar ook maar iets meer performance kost je al snel 50W.

[ Voor 15% gewijzigd door Paprika op 03-10-2018 00:06 ]


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

De gelinkte video van AdoredTV was erg interessant en inzichtelijk. Kennelijk staat er de komende jaren nog veel te gebeuren op het gebied van foto-realistische weergave in videospellen.

[ Voor 7% gewijzigd door choogen op 03-10-2018 21:27 ]


Verwijderd

choogen schreef op woensdag 3 oktober 2018 @ 21:20:
[...]


De gelinkte video van AdoredTV was erg interessant en inzichtelijk. Kennelijk staat er de komende jaren nog veel te gebeuren op het gebied van foto-realistische weergave in videospellen.
Ja, daarnaast is het voor deze generatie van kaarten nog niet zo relevant. Bij een aanzienlijk lagere prijs voor de 1080 Ti zou ik die kiezen in plaats van de 2080, als je een Nvidia-kaart wil kopen. Bij een ongeveer gelijke prijs zou ik natuurlijk wel voor de 2080 kiezen. Zowel AMD als Nvidia werken toe naar raytracing en pathtracing maar de hardware is er nu helaas nog niet klaar voor.
The Source schreef op dinsdag 2 oktober 2018 @ 22:55:
[...]

Sorry zat in buitenland.

Power usage komt door hoge power limit en de agressieve turbo.
Voor de koeler is het geen probleem die is stil genoeg.
Ik zou graag zien dat MSI dat meer doet, in het bijzonder voor AMD kaarten. :X
Zijn veel verschillende meningen wat de juiste power limit / OC setting is. Dit is zeker niet de sweetspot die ik gekozen zou hebben. Ik zie sommige andere merken weer aan de andere kant van het spectrum zitten dus FPS inleveren om zo koel mogelijk in de statistieken te komen.
Technisch gezien en qua gebruikservaring lijkt dat mij de betere keuze (ik ben het met jou eens dat zoveel extra vermogen voor die paar FPS niet interessant is) maar reviewers maken het lastig om dat te doen aangezien ze zich blindstaren op de FPS en vaak niet goed het geluid testen. Ik vermoed dat dat minstens gedeeltelijk te maken heeft met een onvermogen bij hen om dat te testen omdat het testen van het geluidsniveau lastiger is (apparatuur, voldoende stille ruimte, kennis) dan het meten van de FPS.

[ Voor 49% gewijzigd door Verwijderd op 03-10-2018 21:36 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-12 17:24

Sp3ci3s8472

@ 12 graden...

Paprika schreef op dinsdag 2 oktober 2018 @ 18:28:

NVLink Bridges

[Afbeelding]


[...]


[Afbeelding]


[...]


[Afbeelding]


[...]


(click voor bijbehorende artikels en meer foto's)

Allemaal zijn ze zo lelijk als je waterblokken hebt 8)7 Wat overigens geldt voor het merendeel van de 2080Ti eigenaren als ik overclock.net zo bekijk, waar het 2080Ti draadje al 150 pagina's beslaat overigens, verkoopt als water :+...


[...]

Er was een tijd dat je die gewoon bij je moederbord erbij kreeg... O-)

[Afbeelding]

Deze ligt hier nog altijd en was misschien nog duurder om te maken ook. :/

Leuke photoshop fail van ASUS overigens....

[Afbeelding]
Prijzige brug :/ , zou me niks verbazen als een ander bedrijf ze uiteindelijk gaat namaken voor een normale prijs. Hoewel de markt waarschijnlijk erg klein is en mensen die toch al 2 van die kaarten kopen 80$ echt niet gaan missen.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
https://github.com/Micros...s/Desktop/D3D12Raytracing

D3D12 Raytracing Samples

Je hebt ook de meest recente drivers (releasedate = vandaag) nodig:
https://www.nvidia.co.uk/...Results.aspx/138578/en-uk

Afbeeldingslocatie: https://i.imgur.com/1x8Cogk.png

Afbeeldingslocatie: https://i.imgur.com/YUk7qH0.png

Graphics! :+

[ Voor 50% gewijzigd door Paprika op 04-10-2018 20:33 ]


Verwijderd

Prijzige NVLink bruggetjes. Goh, wie zag dat toch aankomen? :+

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Na 1600 euro voor twee kaarten kon zo'n brug er ook nog wel bij. :p

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
The Source schreef op dinsdag 2 oktober 2018 @ 22:55:
Op 1080p en 1440p zal kan het voor de 144Hz schermen wel interessant zijn maar op 4k maakt het weinig FPS verschil.
Relatief (%) gezien zal het op 2160p toch net zoveel (of meer) voordeel hebben?
Juist bij lagere framerates is elk frame er een..

[ Voor 7% gewijzigd door Olaf van der Spek op 04-10-2018 20:43 ]


  • The Source
  • Registratie: April 2000
  • Laatst online: 15:48
Olaf van der Spek schreef op donderdag 4 oktober 2018 @ 20:42:
[...]

Relatief (%) gezien zal het op 2160p toch net zoveel (of meer) voordeel hebben?
Juist bij lagere framerates is elk frame er een..
Klopt ja.
Het ligt ook helemaal aan de engine van een spel. Die zullen hopelijk ook steeds zwaarder worden, vandaag waren we AC Odyssey aan het benchmarken en die is ook behoorlijk zwaar. Weet niet of het de engine is of brak programeer werk.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Waarom is de NVlink zo prijzig, voor de quadro kaarten waren de NVLink bridges 600 euro of zelf meer.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

Paprika schreef op dinsdag 2 oktober 2018 @ 18:28:

NVLink Bridges

[Afbeelding]


[...]


[Afbeelding]


[...]


[Afbeelding]


[...]


(click voor bijbehorende artikels en meer foto's)

Allemaal zijn ze zo lelijk als je waterblokken hebt 8)7 Wat overigens geldt voor het merendeel van de 2080Ti eigenaren als ik overclock.net zo bekijk, waar het 2080Ti draadje al 150 pagina's beslaat overigens, verkoopt als water :+...


[...]

Er was een tijd dat je die gewoon bij je moederbord erbij kreeg... O-)

[Afbeelding]

Deze ligt hier nog altijd en was misschien nog duurder om te maken ook. :/

Leuke photoshop fail van ASUS overigens....

[Afbeelding]
Haha die goede oude tijd, dat je kast er zo uitzag zonder raampjes:
Afbeeldingslocatie: https://c1.neweggimages.com/NeweggImage/productimage/11-119-121-20.jpg

Als dan de familie er was je trots het zijpaneel eraf schroefde (echte bazen hadden van die duimschroeven) en je dan de overwegend printplaat groene hardware liet zien 8)
Het hoogte punt was natuurlijk, 2 videokaarten met zo een kek bruggetje:
Afbeeldingslocatie: https://cdn.shopify.com/s/files/1/2214/8523/products/AS-06-05_360x.jpg?v=1500935021

Die kreeg je er toen nog gewoon bij, voor de nopes :D
Wel heel gaaf dit, kan mij nog wel tijden herinneren dat je processor hier minuten op aan het stampen was op 1 plaatje uit Blender.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Brilsmurfffje schreef op donderdag 4 oktober 2018 @ 21:57:
[...]

Wel heel gaaf dit, kan mij nog wel tijden herinneren dat je processor hier minuten op aan het stampen was op 1 plaatje uit Blender.
Afbeeldingslocatie: https://i.imgur.com/zYWR7qU.jpg

Een "engine"! :+

  • hubhib
  • Registratie: December 2006
  • Laatst online: 14-12 13:31
The Source schreef op donderdag 4 oktober 2018 @ 20:49:
[...]

Klopt ja.
Het ligt ook helemaal aan de engine van een spel. Die zullen hopelijk ook steeds zwaarder worden, vandaag waren we AC Odyssey aan het benchmarken en die is ook behoorlijk zwaar. Weet niet of het de engine is of brak programeer werk.
Waarom hoop je dat de game engines steeds zwaarder worden? Zodat je meer overprijsde kaarten kunt verkopen? :+

Ik als gamer hoop dat game engines juist steeds lichter worden met mooiere graphics. Assassin's Creed Odyssee is wat dat betreft een draak van een game, maar voor fabrikanten natuurlijk ideaal om nieuwe hardware te verkopen.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Model and textures zijn een stuk mooier in Odessee vandaar ook een stuk zwaarder dan Origins. De game draait verder prima met minder zware instellingen waarbij de game er als nog mooier uit ziet dan Origins met de zelfde fps. Op de GTX 1080 Ti laat ik alles op ultra staan overigens. Dat de game mooier is gemaakt om nieuwe kaarten te verkopen kan zijn, maar het is pure speculatie.

[ Voor 16% gewijzigd door Gekke Jantje op 05-10-2018 14:49 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Verwijderd

Olaf van der Spek schreef op donderdag 4 oktober 2018 @ 20:35:
Na 1600 euro voor twee kaarten kon zo'n brug er ook nog wel bij. :p
Dat is de reden waarom ze zo duur zijn, deze groep klanten kan het betalen en dus is de prijs erg inelastisch binnen een vrij groot domein.

Verwijderd

hubhib schreef op vrijdag 5 oktober 2018 @ 09:53:
[...]


Waarom hoop je dat de game engines steeds zwaarder worden? Zodat je meer overprijsde kaarten kunt verkopen? :+

Ik als gamer hoop dat game engines juist steeds lichter worden met mooiere graphics. Assassin's Creed Odyssee is wat dat betreft een draak van een game, maar voor fabrikanten natuurlijk ideaal om nieuwe hardware te verkopen.
Ik vermoed dat zijn redenatie was dat je zwaardere engines nodig hebt voor betere graphics maar dat gaat natuurlijk niet 1 op 1 op, dat gaf hij zelf ook aan.
Als gamer wil ik graag mooie graphics hebben maar niet ten koste van alles en zeker niet ten koste van gameplay. Misschien zouden de studios zich wat meer moeten richten op performance-optimalisatie, het goed leren gebruiken van Vulkan en gameplay en wat minder op graphics?
The Source schreef op donderdag 4 oktober 2018 @ 20:49:
[...]

Klopt ja.
Het ligt ook helemaal aan de engine van een spel. Die zullen hopelijk ook steeds zwaarder worden, vandaag waren we AC Odyssey aan het benchmarken en die is ook behoorlijk zwaar. Weet niet of het de engine is of brak programeer werk.
Daar hadden wij het eerder in de week al over.
Verwijderd in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Hier een overzichtje met de resultaten van Hardware Unboxed die een groot aantal kaarten (vanaf de 900-serie en 300-serie) en alle relevante instellingen (presets van laag t/m zeer hoog en alle drie de resoluties) gebruikte voor de in-game benchmark. Kijk eens naar de grafiekjes, ik vermoed dat ze weinig afwijken van wat jullie vonden.


Als je ziet dat de 970 de FuryX verslaat, dat de 390 gelijk presteert met de 960, dat de 1060 (6 GB uiteraard, niet de valse 1060) en de 1070 respectievelijk ruimschoots winnen van de 580 en de Vega56, dan mag je rustig stellen dat de software niet lekker werkt. De performance van het vorige AC spel liet hetzelfde patroon zien, het ligt dus ofwel aan de engine ofwel aan hoe Ubisoft die engine gebruikt. Contrasteer dat met de performance van Far Cry 5 (min of meer een fork van de CryTek engine).

Er lijkt een of andere bottleneck te zijn die AMD meer heeft dan Nvidia en waarvoor AMD gedeeltelijk de achterstand heeft ingelopen (van de 300 serie+Fury naar Polaris+Vega) gezien de verhouding tussen de performance van de beide bedrijven hun kaarten bij de diverse series en hoe die verhouding is bij andere spellen. De relevante vraag is in hoeverre Ubisoft de performance zou kunnen verbeteren zonder dat de graphics ook maar iets minder mooi worden. @Blaat dacht dat de drawcalls het probleem zijn.

ACO ziet er grafisch gezien mooi uit maar met zo'n slechte performance laat ik het links liggen totdat ik de hardware heb die het wel lekker kan draaien. Sinds AC2 maakt Ubisoft er een zooitje van. ACR geeft flinke stutter op een HD 7850 dankzij het rookeffectje (rook/mist) van Nvidia. AC3 en AC4 waren in eerste instantie onspeelbaar op de beste AMD-kaarten. ACU was aanvankelijk een puinhoop voor alle hardware, inclusief consoles.

Vraagje aan iedereen. Hebben jullie er nog zin in om een spel met gemiddeld 45 FPS te spelen? Ik denk dat de graphics niet eens echt het probleem zijn. We zien al jarenlang dat sommige spellen met dezelfde graphics een veel betere performance halen dan andere spellen. Positieve uitzonderingen: Tomb Raider, Bioschock Infinite, Wolfenstein2, Doom, Far Cry 5.
Negatieve uitzonderingen: AC, GRW, PUBG...

[ Voor 51% gewijzigd door Verwijderd op 05-10-2018 14:50 ]


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Far Cry 5 heeft dan ook zeer slechte textures, niets kan bewegen zoals de bomen en het gras. Heel veel objecten zijn statisch, toch wel logisch dat er dan gemiddeld 50 fps meer word gehaald.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Verwijderd

Het is wel handig als de gemiddelde en minima FPS boven de 60 uitkomt, dat lukt bij ACO enkel bij de beste en duurste Nvidia-kaarten bij normale instellingen. Dat jij een gemiddelde FPS van onder de 60 als "prima" qualificeert begrijp ik niet. Als een Vega56 dat al niet haalt bij normale instellingen @1080p dan is het juist het tegenovergestelde van prima. Het is een spel, het moet in eerste instantie speelbaar zijn! ;)

[ Voor 52% gewijzigd door Verwijderd op 05-10-2018 15:05 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Verwijderd schreef op vrijdag 5 oktober 2018 @ 14:30:
[...]
Positieve uitzonderingen: Tomb Raider, Bioschock Infinite, Wolfenstein2, Doom, Far Cry 5.
Negatieve uitzonderingen: AC, GRW, PUBG...
Ik ben het niet met je eens dat deze games allemaal dezelfde graphics hebben.
Verwijderd schreef op vrijdag 5 oktober 2018 @ 15:03:
Het is wel handig als de gemiddelde en minima FPS boven de 60 uitkomt, dat lukt bij ACO enkel bij de beste en duurste Nvidia-kaarten bij normale instellingen. Dat jij een gemiddelde FPS van onder de 60 als "prima performance" qualificeert begrijp ik niet.
Dan speel je hem toch over een paar jaar? :p Geef mij maar juist meer Crysis 1-achtige games i.p.v. spellen die al vanaf dag 1 met 120 FPS te spelen zijn. Ik heb liever een blik naar de toekomst (al geldt dit niet voor AC overigens imo).

[ Voor 48% gewijzigd door Paprika op 05-10-2018 15:05 ]


Verwijderd

Paprika schreef op vrijdag 5 oktober 2018 @ 15:04:
[...]

Ik ben het niet met je eens dat deze games allemaal dezelfde graphics hebben.
Het ging mij niet om de kwaliteit van de graphics maar om FPS vs. kwaliteit graphics. Ik vind de graphics van GRW en PUBG matig, in het beste geval.
Ik liet bewust in het midden of dat het puur grafische rendering is of ook de kwaliteit van het ontwerp (het artistieke deel). Nintendo is hier een meester in, Bioschock Infinite is ook een goed voorbeeld, dat stukje met die 'kerk' ziet er erg mooi uit maar het vereist relatief weinig performance van de hardware.
Ik denk dat jij het met mij eens bent dat PUBG geen goede graphics heeft (ik zou het hooguit als middelmatig categoriseren), maar de gemiddelde en minimale FPS zijn erg laag.
Dan speel je hem toch over een paar jaar? :p Geef mij maar juist meer Crysis 1-achtige games i.p.v. spellen die al vanaf dag 1 met 120 FPS te spelen zijn. Ik heb liever een blik naar de toekomst (al geldt dit niet voor AC overigens imo).
Precies mijn gedachte. Alleen hebben wij bij AC spellen uit het verleden niet gezien dat die die geweldige performance haalden waar het bij Crysis wel lekker blijft schalen. AC2, AC3 en AC4 hebben zelfs een harde FPS-cap van 62, want Ubisoft vond dat een goed idee om een mysterieuze reden. :+
Ik ben een voorstander van het uitbrengen van spellen die de hardware tot het uiterste pushen maar dan moet dat wel zijn omdat die spellen zeer goede graphics bieden, een zeer goede AI hebben etc. , niet omdat de performance slecht is. Mijn subjectieve indruk is dat bij ACO beide geldt: de graphics zijn wel goed maar het is niet goed geoptimaliseerd.

Een nieuw Crysis-achtig spel zou geweldig zijn, ik zou vooraan in de rij staan om dat lof toe te zingen. In deze tijd zijn er veel mogelijkheden voor zoiets, maak bijvoorbeeld een engine waarmee je 8 CPU-kernen volop aan het werk zet voor zowel graphics als AI, physics, collission detection...

[ Voor 19% gewijzigd door Verwijderd op 05-10-2018 15:24 ]


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Je kunt ook een paar settings lager zetten. Ik haal overigens meer fps dan wat ik in de benchmarks tot nu toe heb gezien, maar goed ik heb dan ook driver 416.16 geïnstalleerd en een custom Ti. De benchmark zelf zegt ook vrij weinig vergeleken met in game performance wat hoger uit valt.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Wow... De FTW 3 is echt gigantisch. De XC Ultra was al groot, maar dit is echt absurd 8)7

Afbeeldingslocatie: https://i.imgur.com/wqfwe3l.jpg
Afbeeldingslocatie: https://i.imgur.com/4gS2Nlq.jpg

[ Voor 16% gewijzigd door Paprika op 05-10-2018 18:26 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 5 oktober 2018 @ 18:25:
Wow... De FTW 3 is echt gigantisch. De XC Ultra was al groot, maar dit is echt absurd 8)7

[Afbeelding]
[Afbeelding]
Denk dat het verbruik als je deze kaart overclocked en ray tracing toepast dan ook vrij extreem zal zijn. Fermi zal er niks bij zijn. :+


knip, laat maar

[ Voor 64% gewijzigd door DaniëlWW2 op 06-10-2018 10:05 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
DaniëlWW2 schreef op vrijdag 5 oktober 2018 @ 19:19:
[...]
Denk dat het verbruik als je deze kaart overclocked en ray tracing toepast dan ook vrij extreem zal zijn. Fermi zal er niks bij zijn. :+
2080Ti van MSI trekt n al meer dan de GTX480 @ TPU.

Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/images/power_maximum.gif
Afbeeldingslocatie: https://tpucdn.com/reviews/MSI/GeForce_RTX_2080_Ti_Gaming_X_Trio/images/power_maximum.png

Daar is echter niet iets mis mee als de performance/watt wel goed is:
Afbeeldingslocatie: https://tpucdn.com/reviews/MSI/GeForce_RTX_2080_Ti_Gaming_X_Trio/images/performance-per-watt_3840-2160.png

Uiteraard geldt dat de nieuwe kaarten out of the box al aardig optimaal zijn ingesteld door NVIDIA. Ieder beetje MHz erbij kost je letterlijk meer Watt dan het aantal MHz dat je erbij krijgt (reken 1MHz:1.3W ongeveer).

  • The Source
  • Registratie: April 2000
  • Laatst online: 15:48
hubhib schreef op vrijdag 5 oktober 2018 @ 09:53:
[...]


Waarom hoop je dat de game engines steeds zwaarder worden? Zodat je meer overprijsde kaarten kunt verkopen? :+

Ik als gamer hoop dat game engines juist steeds lichter worden met mooiere graphics. Assassin's Creed Odyssee is wat dat betreft een draak van een game, maar voor fabrikanten natuurlijk ideaal om nieuwe hardware te verkopen.
Ik wil dat games mooier worden, ik hou van mooie graphics. Maar dat gaat bijna nooit met lichtere engines... dan zijn het optimalisaties of brakke engines. Maar we willen dus het zelfde :) Die hardware verkoopt toch wel, zijn altijd gamers die het tijd vinden om te upgraden, komen altijd nieuwe titels en technologien zoals hogere resoluties of dingen zoals HDR, Raytracing. 1440p ultra wide 144FPS bv klinkt simple maar is een bitch.

Verwijderd

Gekke Jantje schreef op vrijdag 5 oktober 2018 @ 15:47:
Je kunt ook een paar settings lager zetten. Ik haal overigens meer fps dan wat ik in de benchmarks tot nu toe heb gezien, maar goed ik heb dan ook driver 416.16 geïnstalleerd en een custom Ti. De benchmark zelf zegt ook vrij weinig vergeleken met in game performance wat hoger uit valt.
Niet helemaal, de benchmark zal waarschijnlijk representatief zijn voor de zwaardere delen in het spel, je gaat dan wel die performance zien terwijl je speelt. :/
Belangrijker, ook met "een paar instellingen lager". Zelfs met lage instellingen tankt de RX 580 onder de 60 FPS bij die benchmark bij 1080p, dat is naar mijn mening onaanvaardbaar voor een spel, in die zin dat het voor mij betekent dat ik het spel links laat liggen totdat ik de hardware heb die wel een goede performance kan leveren met het spel. Hopelijk kan AMD de performance wat verbeteren met de drivers. Ik zie 60 FPS als ondergrens voor een spel. Ik zou niet willen dat Ubisoft de lat lager legt voor ACO, ik zou het wel fijn vinden als ze het aantal drawcalls wat kunnen beperken zonder aan grafische kwaliteit in te leveren.
Modbreak:Volgens mij zit je in het verkeerde topic. Dit is het nVidia Nieuwsdiscussietopic, jij hebt het over een AMD RX580. Daar hebben we andere topics voor...



Edit.
Jim Sterling heeft een vernietigende review over het spel.

Veel grinding als je niet beter wapens koopt (met echt geld!).

[ Voor 45% gewijzigd door dion_b op 06-10-2018 12:26 ]


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Ik ben tijdens het spelen nog niet onder de 70 fps uitgekomen en heb er iets van 12 uur inzitten nu. Zit wil goed na nieuwe patches waarschijnlijk en de driver update. AMD komt vaak wat later met driver updates met verbeteringen, gezien AMD vaker met meerdere driver updates komt omdat het hun niet in 1 keer lukt. Leuk filmpje, wat een zuurpuim van een jankerd ook. Ik zit niet zo met in game aankopen gezien je acties kunt uitvoeren om de punten bij elkaar te halen en zo als nog met in game geld wapens kopen. Ik kan ook dat soort zaken goed negeren en me niet er als een bezetene mee bezig hoeden omdat ik graag een mooi glimmend wapentje zie. UbiDowners hou je toch wel.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 5 oktober 2018 @ 19:29:
[...]

2080Ti van MSI trekt n al meer dan de GTX480 @ TPU.

[Afbeelding]
[Afbeelding]

Daar is echter niet iets mis mee als de performance/watt wel goed is:
[Afbeelding]

Uiteraard geldt dat de nieuwe kaarten out of the box al aardig optimaal zijn ingesteld door NVIDIA. Ieder beetje MHz erbij kost je letterlijk meer Watt dan het aantal MHz dat je erbij krijgt (reken 1MHz:1.3W ongeveer).
Wat is het voltage ongeveer? Pascal was als ik het me goed herinner 1,09v ish. Vraag me af of Nvidia iets aan de voltages heeft gedaan en of wat aanpassingen tussen Pascal en Turing alsmede 12nm van TSMC toch net wat winst lijkt te hebben geboekt.

In ieder geval is het beter dan Vega. Daar won ik namelijk iets van 3 a 4MHz per watt die ik eraf haalde. :+

Maar ik vraag me onderhand ook wel af wat er gebeurd met de powerlimiet en effectieve boostclocks als de RT cores belast gaan worden. Je kan het nu nog niet testen, maar ik zou niet verbaast zijn als de boostclocks gaan zakken. Zeker als je de videokaart overclocked. :)

En nog geen barbecue memes. Het internet stelt teleur. :N :P

[ Voor 8% gewijzigd door DaniëlWW2 op 06-10-2018 10:15 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • aex351
  • Registratie: Juni 2005
  • Laatst online: 17-12 12:12

aex351

I am the one

Paprika schreef op vrijdag 5 oktober 2018 @ 18:25:
Wow... De FTW 3 is echt gigantisch. De XC Ultra was al groot, maar dit is echt absurd 8)7

[Afbeelding]
[Afbeelding]
Ziet er inderdaad groot uit. Straks is het bijna even groot als PlayStation.

< dit stukje webruimte is te huur >


  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 15:56
Gekke Jantje schreef op zaterdag 6 oktober 2018 @ 08:48:
AMD komt vaak wat later met driver updates met verbeteringen, gezien AMD vaker met meerdere driver updates komt omdat het hun niet in 1 keer lukt.
Wat een goed onderbouwde stellingname zeg. Heb je uberhaupt wel eens in de release notes van zowel AMD als Nvidia driver releases gekeken om te zien wat er voor wijzigingen in de driver zitten? Je zal zien dat het vlak na de release een stuk bugfixing is maar nog belangrijker; beide partijen brengen ook regelmatig nieuwe drivers uit om de performance van recente games op te schroeven.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Lord_Dain schreef op zaterdag 6 oktober 2018 @ 11:03:
[...]


Wat een goed onderbouwde stellingname zeg. Heb je uberhaupt wel eens in de release notes van zowel AMD als Nvidia driver releases gekeken om te zien wat er voor wijzigingen in de driver zitten? Je zal zien dat het vlak na de release een stuk bugfixing is maar nog belangrijker; beide partijen brengen ook regelmatig nieuwe drivers uit om de performance van recente games op te schroeven.
Ik heb het over performance gains.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
@DaniëlWW2, 1.05V is het maximale.

Oh en ja, met de slider kon je tot 1.093V gaan. Nu is die slider er niet meer. Standaard was 1.062V.

GTX1080&1070: https://www.anandtech.com...ounders-edition-review/31

[ Voor 90% gewijzigd door Paprika op 06-10-2018 15:17 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12-12 10:42
Paprika schreef op vrijdag 5 oktober 2018 @ 15:04:
Dan speel je hem toch over een paar jaar? :p Geef mij maar juist meer Crysis 1-achtige games i.p.v. spellen die al vanaf dag 1 met 120 FPS te spelen zijn. Ik heb liever een blik naar de toekomst (al geldt dit niet voor AC overigens imo).
Crysis ja, Crysis 2 nee, Crysis 3 mwah. Overigens moeten we de eerste Far Cry ook niet vergeten, die deed ook veel dingen belachelijk goed voor z'n tijd.

Crysis 1 was inderdaad terecht "zwaar". Er zat niets in dat nergens op sloeg of onevenredig veel performance kostte. Het belangrijkste punt was echter dat het ook schaalbaar was: Ultra was ook echt ultra, maar zelfs op medium zag het spel er waanzinnig uit en op de meest gangbare resolutie van die tijd (1680x1050) trok G80 dat. Wel maar net, maar het ging wel. Wat Crytek met Crysis 1 deed was gewoon de shaders tot het maximale pushen, maar dan wel op zo'n manier dat ze de intensiteit simpelweg iets terug konden schroeven om soepeler te draaien. Op High kreeg je bijvoorbeeld HDR lighting er bij en werden soft shadows daarmee ook veel mooier. Hun texture kwaliteit niveaus schaalden ook heel goed. Waar ze wel de plank mee mis sloegen is de haalbaarheid van alles maxed out. Met DX9/10 heb je niet zo heel veel mogelijkheden om de workload te verdelen, dus horizontaal schalen (meer cores op zowel CPU als GPU) werkt niet zo geweldig met die engine. En verticaal schalen (snellere cores) is sindsdien eigenlijk in verhouding maar weinig gebeurd, waar zij wel min op meer hebben gebouwd.

Dat staat in schril contrast met de opvolger. Crysis 2 deed alles wat het vorige deel goed deed, fout. Zowel qua gameplay als qua graphics. Afgrijselijke texture kwaliteit, overal vaseline geknoeid en uiteraard misbruik van tessellation. Ik moet eigenlijk eens CryEd opnieuw installeren en een paar van de C2 maps met wireframes doorlopen, want dat spel is nog steeds een geweldig voorbeeld van hoe het niet moet. Even los van het gebrek aan culling/occlusion (de oceaan onder de map is het bekende voorbeeld, maar dat geldt voor alles in de map), draafden ze ook door met het aantal samples. Sta je in-game nog 15 meter van een rots af, zitten zij al doodleuk op 16 of 32 samples. Slaat nergens op.

Crysis 3 was mooi, maar schaalde minder lekker. En in verhouding tot enkele tijdsgenoten was het niet zo voortvarend als het eerste deel. Crytek had toen meer concurrentie :p

De AC games kan ik, net als jij, niet in datzelfde rijtje plaatsen. Om te beginnen zijn ze echt niet zo mooi als sommigen vinden. Texture kwaliteit laat vaak te wensen over en al jaren hebben ze veel last van pop-in en andere LoD problemen. Hun lighting kan ook echt niet op tegen bijvoorbeeld Battlefield - en dat terwijl het low-pace 100% SP games zijn. En schalen doen ze ook niet lekker.

Nee, waar hun engine al jaren keihard mee op z'n bek gaat, is framepacing. Ze optimaliseren nog altijd voor 1080p30 (hoi consoles) en daarboven is er simpelweg nauwelijks framepacing. 70 FPS gemiddeld klinkt leuk, maar vloeiend is dat niet in die games. En laat ik het dan maar niet over het gebrek aan testen met AMD hebben. Ik weet helaas hoe het er aan toe gaat in hun QA kantoren en laten we het er maar op houden dat de waardeloze performance op AMD GPU's niet echt aan AMD ligt.

En als je dan ziet dat een 2080 Ti moeite heeft gemiddeld 60+ FPS te halen met hoe de game er uit ziet - waarbij 45% van de frames boven de 16.67ms zit en de laatste 5% zelfs tegen of boven de 20ms? Nee, sorry :p

Er wordt te veel goed gepraat tegenwoordig. Games als AC verkopen helaas als warme broodjes, terwijl ze vanuit technisch standpunt gewoon uitermate ruk zijn. Dat er mensen zijn die de gameplay leuk vinden kan, maar dat betekent nog niet dat je de technische kant moet negeren. Het zit gewoon slecht in elkaar.

Edit:

Zie hier een GIFje van een 8800 GT tegenover een 560 Ti. Beide 35 FPS op 1920x1200, maar de 8800 GT draait op medium met 4xAA, de 560 Ti op Very High met 2xAA.

Wat Crysis op Very High doet, doen veel games nu nog maar nauwelijks. En dat deden zij in 2007. Elf jaar geleden. Bewegende planten en dergelijke zie je nu ook nauwelijks, dat deden zij toen ook al.

[ Voor 5% gewijzigd door Werelds op 06-10-2018 17:22 ]


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Hoe kun je Crysis 1 goed praten terwijl die game ook brak draaide met max 25 fps op very high, en op enkele punten zoals het eerste grote dorp waar de framerate nog verder instort. GPU's van nu hebben zelf nog problemen op sommige stukken in Crysis 1 Bewegende planten zie ik nu overigens ook nog regelmatig in games zoals AC origins, GRWL, he Witcher 3 en nog wel meer games.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

Gekke Jantje schreef op zondag 7 oktober 2018 @ 09:30:
Hoe kun je Crysis 1 goed praten terwijl die game ook brak draaide met max 25 fps op very high, en op enkele punten zoals het eerste grote dorp waar de framerate nog verder instort. GPU's van nu hebben zelf nog problemen op sommige stukken in Crysis 1 Bewegende planten zie ik nu overigens ook nog regelmatig in games zoals AC origins, GRWL, he Witcher 3 en nog wel meer games.
Ten tijde van Crysis was het nog redelijk gebruikelijk om crossfire of SLI te draaien, terwijl tegenwoordig zo goed als iedereen op een single GPU draait.

Verwijderd

Werelds schreef op zaterdag 6 oktober 2018 @ 17:17:
En als je dan ziet dat een 2080 Ti moeite heeft gemiddeld 60+ FPS te halen met hoe de game er uit ziet - waarbij 45% van de frames boven de 16.67ms zit en de laatste 5% zelfs tegen of boven de 20ms? Nee, sorry :p
Meer veelzeggend is dat een GTX 1060 en zelfs een Vega56 nog niet eens boven de 60 FPS blijft bij de "normale" preset. Dan weet je dat het een slecht draaiende engine is gezien het feit dat andere spellen met even goede of betere graphics niet dat probleem hebben. Maar goed, gezien het feit dat ze de gameplay hebben gebroken om 'upgrades' te verkopen laten we dat spel sowieso beter maar links liggen.

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Brilsmurfffje schreef op zondag 7 oktober 2018 @ 11:44:
[...]


Ten tijde van Crysis was het nog redelijk gebruikelijk om crossfire of SLI te draaien, terwijl tegenwoordig zo goed als iedereen op een single GPU draait.
Tot de komst van de 2080(TI) series zo lijkt, want ik kom overal (op verschillende sites) topics over NVLink bridges e.d. tegen.
Ik denk dat opeens iedereen zoiets heeft van: als ik toch >€1000,- uitgeef, kan ik beter meteen een dual 2080(TI) kopen ofzo... oOo *O* 7(8)7 :+

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 16:14
zion schreef op zondag 7 oktober 2018 @ 12:57:
[...]

Tot de komst van de 2080(TI) series zo lijkt, want ik kom overal (op verschillende sites) topics over NVLink bridges e.d. tegen.
Ik denk dat opeens iedereen zoiets heeft van: als ik toch >€1000,- uitgeef, kan ik beter meteen een dual 2080(TI) kopen ofzo... oOo *O* 7(8)7 :+
En zo'n Bridge kost ook nog ongeveer 80 dollar. Zit je zo over de 2500 dollar voor een dual 2080 ti setup. 8)7

Ik weet nog dat ik de aanschaf van mijn 1080ti weken lang recht moest lullen tegen over mijn vrouw. ;) Ik zal zo'n setup er nooit doorheen krijgen vrees ik. En eerlijk gezegd heb ik daar ook geen behoefte aan. Voor het eerst sinds de 500 serie sla ik een generatie over.

Wie goed doet, die goed ontmoet.


Verwijderd

AtlAntA schreef op zondag 7 oktober 2018 @ 13:05:
[...]


En zo'n Bridge kost ook nog ongeveer 80 dollar. Zit je zo over de 2500 dollar voor een dual 2080 ti setup. 8)7
Ach, dat is ongeveer 3% van de totale kosten bij 2 2080 Ti-kaarten. Waar hebben we het over? :P
Ik weet nog dat ik de aanschaf van mijn 1080ti weken lang recht moest lullen tegen over mijn vrouw. ;)
Terecht natuurlijk aangezien dat best veel geld is terwijl je met een aanzienlijk minder dure kaart ook prima kan gamen maar proficiat dat het wel mocht. ;)

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 16-12 09:44
Gekke Jantje schreef op zondag 7 oktober 2018 @ 09:30:
Hoe kun je Crysis 1 goed praten terwijl die game ook brak draaide met max 25 fps op very high, en op enkele punten zoals het eerste grote dorp waar de framerate nog verder instort. GPU's van nu hebben zelf nog problemen op sommige stukken in Crysis 1 Bewegende planten zie ik nu overigens ook nog regelmatig in games zoals AC origins, GRWL, he Witcher 3 en nog wel meer games.
Crysis zit er nu ook nog heerlijk uit, paar jaar terug Crysis gedaan, ultra, altijd goede fps.. Good times :> :9

Verwijderd

Brilsmurfffje schreef op zondag 7 oktober 2018 @ 11:44:
[...]


Ten tijde van Crysis was het nog redelijk gebruikelijk om crossfire of SLI te draaien, terwijl tegenwoordig zo goed als iedereen op een single GPU draait.
Bovendien had Werelds net daarboven al antwoord gegeven op Jantje zijn vraag: Crysis leverde graphics die in verhouding stonden tot de performance terwijl dat bij AC niet het geval is.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
zion schreef op zondag 7 oktober 2018 @ 12:57:
[...]

Tot de komst van de 2080(TI) series zo lijkt, want ik kom overal (op verschillende sites) topics over NVLink bridges e.d. tegen.
Ik denk dat opeens iedereen zoiets heeft van: als ik toch >€1000,- uitgeef, kan ik beter meteen een dual 2080(TI) kopen ofzo... oOo *O* 7(8)7 :+
De meesten die in dat segment shoppen hadden ook al minimaal 1 1080Ti of meerdere tot aan Titans in SLI. Het is verhelderend om te zien hoeveel interesse er is voor de nieuwe kaarten. NVIDIA heeft in ieder geval 'n goede keuze gemaakt wat betreft de prijsstelling want ze zijn letterlijk niet aan te slepen.

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Paprika schreef op zondag 7 oktober 2018 @ 16:48:
[...]

De meesten die in dat segment shoppen hadden ook al minimaal 1 1080Ti of meerdere tot aan Titans in SLI. Het is verhelderend om te zien hoeveel interesse er is voor de nieuwe kaarten. NVIDIA heeft in ieder geval 'n goede keuze gemaakt wat betreft de prijsstelling want ze zijn letterlijk niet aan te slepen.
Dat de early adopters er vol op in zouden springen was ook wel te verwachten, die kopen toch wat ze willen (indien ze het kunnen veroorloven uiteraard). Interessant wordt het pas als ze naar de mainstream markt gaan (over een maandje, 2 op zijn hoogst), om te kijken wat ze dán doen qua verkoopcijfers.

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 18:40
Werelds schreef op zaterdag 6 oktober 2018 @ 17:17:
[...]

Crysis ja, Crysis 2 nee, Crysis 3 mwah. Overigens moeten we de eerste Far Cry ook niet vergeten, die deed ook veel dingen belachelijk goed voor z'n tijd.

Crysis 1 was inderdaad terecht "zwaar". Er zat niets in dat nergens op sloeg of onevenredig veel performance kostte. Het belangrijkste punt was echter dat het ook schaalbaar was: Ultra was ook echt ultra, maar zelfs op medium zag het spel er waanzinnig uit en op de meest gangbare resolutie van die tijd (1680x1050) trok G80 dat. Wel maar net, maar het ging wel. Wat Crytek met Crysis 1 deed was gewoon de shaders tot het maximale pushen, maar dan wel op zo'n manier dat ze de intensiteit simpelweg iets terug konden schroeven om soepeler te draaien. Op High kreeg je bijvoorbeeld HDR lighting er bij en werden soft shadows daarmee ook veel mooier. Hun texture kwaliteit niveaus schaalden ook heel goed. Waar ze wel de plank mee mis sloegen is de haalbaarheid van alles maxed out. Met DX9/10 heb je niet zo heel veel mogelijkheden om de workload te verdelen, dus horizontaal schalen (meer cores op zowel CPU als GPU) werkt niet zo geweldig met die engine. En verticaal schalen (snellere cores) is sindsdien eigenlijk in verhouding maar weinig gebeurd, waar zij wel min op meer hebben gebouwd.

Dat staat in schril contrast met de opvolger. Crysis 2 deed alles wat het vorige deel goed deed, fout. Zowel qua gameplay als qua graphics. Afgrijselijke texture kwaliteit, overal vaseline geknoeid en uiteraard misbruik van tessellation. Ik moet eigenlijk eens CryEd opnieuw installeren en een paar van de C2 maps met wireframes doorlopen, want dat spel is nog steeds een geweldig voorbeeld van hoe het niet moet. Even los van het gebrek aan culling/occlusion (de oceaan onder de map is het bekende voorbeeld, maar dat geldt voor alles in de map), draafden ze ook door met het aantal samples. Sta je in-game nog 15 meter van een rots af, zitten zij al doodleuk op 16 of 32 samples. Slaat nergens op.

Crysis 3 was mooi, maar schaalde minder lekker. En in verhouding tot enkele tijdsgenoten was het niet zo voortvarend als het eerste deel. Crytek had toen meer concurrentie :p

De AC games kan ik, net als jij, niet in datzelfde rijtje plaatsen. Om te beginnen zijn ze echt niet zo mooi als sommigen vinden. Texture kwaliteit laat vaak te wensen over en al jaren hebben ze veel last van pop-in en andere LoD problemen. Hun lighting kan ook echt niet op tegen bijvoorbeeld Battlefield - en dat terwijl het low-pace 100% SP games zijn. En schalen doen ze ook niet lekker.

Nee, waar hun engine al jaren keihard mee op z'n bek gaat, is framepacing. Ze optimaliseren nog altijd voor 1080p30 (hoi consoles) en daarboven is er simpelweg nauwelijks framepacing. 70 FPS gemiddeld klinkt leuk, maar vloeiend is dat niet in die games. En laat ik het dan maar niet over het gebrek aan testen met AMD hebben. Ik weet helaas hoe het er aan toe gaat in hun QA kantoren en laten we het er maar op houden dat de waardeloze performance op AMD GPU's niet echt aan AMD ligt.

En als je dan ziet dat een 2080 Ti moeite heeft gemiddeld 60+ FPS te halen met hoe de game er uit ziet - waarbij 45% van de frames boven de 16.67ms zit en de laatste 5% zelfs tegen of boven de 20ms? Nee, sorry :p

Er wordt te veel goed gepraat tegenwoordig. Games als AC verkopen helaas als warme broodjes, terwijl ze vanuit technisch standpunt gewoon uitermate ruk zijn. Dat er mensen zijn die de gameplay leuk vinden kan, maar dat betekent nog niet dat je de technische kant moet negeren. Het zit gewoon slecht in elkaar.

Edit:

Zie hier een GIFje van een 8800 GT tegenover een 560 Ti. Beide 35 FPS op 1920x1200, maar de 8800 GT draait op medium met 4xAA, de 560 Ti op Very High met 2xAA.

Wat Crysis op Very High doet, doen veel games nu nog maar nauwelijks. En dat deden zij in 2007. Elf jaar geleden. Bewegende planten en dergelijke zie je nu ook nauwelijks, dat deden zij toen ook al.
Ik vond de graphics destijds echt tegenvallen en vond de tropische sfeer in far cry beter overkomen dan in de spirituele opvolger crisis. Als ik me niet vergis viel vooral alles bij de kust in crisis tegen en het was allemaal een stuk minder 'clean'.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12-12 10:42
Gekke Jantje schreef op zondag 7 oktober 2018 @ 09:30:
Hoe kun je Crysis 1 goed praten terwijl die game ook brak draaide met max 25 fps op very high, en op enkele punten zoals het eerste grote dorp waar de framerate nog verder instort. GPU's van nu hebben zelf nog problemen op sommige stukken in Crysis 1 Bewegende planten zie ik nu overigens ook nog regelmatig in games zoals AC origins, GRWL, he Witcher 3 en nog wel meer games.
Dat is juist het punt. Very High was in Crysis heel bewust te zwaar voor alle gangbare kaarten van dat moment. Nogmaals: de lighting die Crytek in die game stopte kan zelfs vandaag de dag nog behoorlijk mee komen. Medium was vergelijkbaar met de meeste andere games qua graphics. De AO die je op high (en vooral very high) kreeg was voor die tijd gewoon belachelijk goed. Op VH heb je gewoon overal soft shadows. Doet AC niet. Daar zijn de soft shadows heel beperkt.

En nee, dat is niet het soort bewegende fauna waar ik het over heb. In Crysis liep je tegen een blad van een varen aan en dan bewoog die (relatief) realistisch mee. In TW3 beweegt het allemaal "met de wind mee" (maar niet erg realistisch). En in de meeste games, zoals AC:O, beweegt flora wel als je er tegenaan/doorheen loopt, maar dat is het dan ook: het beweegt. Het beweegt niet met je mee, wat in Crysis wel zo was. Sowieso had het spel een hele goeie (en vooral vermakelijke :P) physics engine, waar een heel groot deel van de spelwereld aan onderworpen werd. Ook dat is iets wat in veel games ver te zoeken is tegenwoordig.

Ze speelden dat klaar met een engine die was ontworpen in een tijd waarin de geometry processors lang niet zo veel mogelijkheden hadden als tegenwoordig. Laat staan dat ze bijvoorbeeld tessellation hadden - er wordt nu heel veel versneld waar men toen dacht dat alles via de shaders ging lopen. Geen gekke frameworks, geen kant en klare effecten die voor geen meter lopen. Als het team achter CryEngine 2 (groot deel vertrok helaas na Crysis) de hardware van nu had gehad waren veel dingen anders ontworpen. Zij moesten het doen met 2 CPU cores (de eerste quads bestonden pas net) en GPU's met 128 SP's. Wat die engine allemaal klaar kon spelen, kon op dat soort hardware ook gewoon niet.

Op technisch vlak was Crysis z'n tijd echt jaren vooruit. Dat het niet 100% schaalt op hedendaagse hardware, ligt aan de hardware. De focus is verschoven na Fermi, waardoor de SP's minder "oomph" hadden. En Crysis heeft geen geoptimaliseerd renderpath voor die architecturen. Dat kun je ze niet kwalijk nemen, we hebben het dan al over 5 jaar ná release van hun spel. Ga je namelijk kijken naar hoe het schaalt van G80, naar GT200, naar GF110 dan zie je dat het vrijwel 100% lineair schaalt in verhouding tot de beschikbare rekenkracht. En dat komt doordat Tesla en Fermi nog goed vergelijkbaar zijn, terwijl er vanaf Kepler veel veranderde.
sdk1985 schreef op zondag 7 oktober 2018 @ 19:34:
Ik vond de graphics destijds echt tegenvallen en vond de tropische sfeer in far cry beter overkomen dan in de spirituele opvolger crisis. Als ik me niet vergis viel vooral alles bij de kust in crisis tegen en het was allemaal een stuk minder 'clean'.
Het was een stuk grauwer dan Far Cry ja, maar FC was eigenlijk juist over-the-top kleurrijk. Dat is echter esthetiek en heeft vrij weinig met het technische aspect te maken :)

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-12 17:24

Sp3ci3s8472

@ 12 graden...

Werelds schreef op maandag 8 oktober 2018 @ 00:44:
[...]

Dat is juist het punt. Very High was in Crysis heel bewust te zwaar voor alle gangbare kaarten van dat moment. Nogmaals: de lighting die Crytek in die game stopte kan zelfs vandaag de dag nog behoorlijk mee komen. Medium was vergelijkbaar met de meeste andere games qua graphics. De AO die je op high (en vooral very high) kreeg was voor die tijd gewoon belachelijk goed. Op VH heb je gewoon overal soft shadows. Doet AC niet. Daar zijn de soft shadows heel beperkt.

En nee, dat is niet het soort bewegende fauna waar ik het over heb. In Crysis liep je tegen een blad van een varen aan en dan bewoog die (relatief) realistisch mee. In TW3 beweegt het allemaal "met de wind mee" (maar niet erg realistisch). En in de meeste games, zoals AC:O, beweegt flora wel als je er tegenaan/doorheen loopt, maar dat is het dan ook: het beweegt. Het beweegt niet met je mee, wat in Crysis wel zo was. Sowieso had het spel een hele goeie (en vooral vermakelijke :P) physics engine, waar een heel groot deel van de spelwereld aan onderworpen werd. Ook dat is iets wat in veel games ver te zoeken is tegenwoordig.

Ze speelden dat klaar met een engine die was ontworpen in een tijd waarin de geometry processors lang niet zo veel mogelijkheden hadden als tegenwoordig. Laat staan dat ze bijvoorbeeld tessellation hadden - er wordt nu heel veel versneld waar men toen dacht dat alles via de shaders ging lopen. Geen gekke frameworks, geen kant en klare effecten die voor geen meter lopen. Als het team achter CryEngine 2 (groot deel vertrok helaas na Crysis) de hardware van nu had gehad waren veel dingen anders ontworpen. Zij moesten het doen met 2 CPU cores (de eerste quads bestonden pas net) en GPU's met 128 SP's. Wat die engine allemaal klaar kon spelen, kon op dat soort hardware ook gewoon niet.

Op technisch vlak was Crysis z'n tijd echt jaren vooruit. Dat het niet 100% schaalt op hedendaagse hardware, ligt aan de hardware. De focus is verschoven na Fermi, waardoor de SP's minder "oomph" hadden. En Crysis heeft geen geoptimaliseerd renderpath voor die architecturen. Dat kun je ze niet kwalijk nemen, we hebben het dan al over 5 jaar ná release van hun spel. Ga je namelijk kijken naar hoe het schaalt van G80, naar GT200, naar GF110 dan zie je dat het vrijwel 100% lineair schaalt in verhouding tot de beschikbare rekenkracht. En dat komt doordat Tesla en Fermi nog goed vergelijkbaar zijn, terwijl er vanaf Kepler veel veranderde.


[...]

Het was een stuk grauwer dan Far Cry ja, maar FC was eigenlijk juist over-the-top kleurrijk. Dat is echter esthetiek en heeft vrij weinig met het technische aspect te maken :)
Aanvullend, ze misten inderdaad nog tesselation maar ze hadden al wel technieken zoals parallax occlusion mapping.
Ben het er helemaal mee eens dat het er nog steeds erg goed uit ziet tegenwoordig en dat het spel terrecht zwaar was.

Dat kan je van spellen zoals PUBG niet zeggen, dat ziet er niet uit en het draait niet (voor hedendaagse standaarden). Ze kunnen best wat leren van Planetside 2, wat al wat ouder is maar veel meer spelers op een map heeft en er beter uitziet voor de performance.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Er gaat momenteel veel valse beschuldigingen rond dat Nvidia nu alles onder Turing kreupel maakt via de drivers, mensen maken er YouTube filmpjes van en een hoop plaatjes, maar er zijn nog veel meer mensen die het kreupel maken via drivers niet ervaren. Sterker nog ik heb met de laatste drivers ongeveer de zelfde performance als met driver 399.24 alleen veel betere frame times met 316 drivers. Dezelfde valse beschuldigingen had je overigens ook tijdens de release van Maxwell.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Precies volgens de verwachtingen dus. Net wat sneller dan een GTX1080, vergelijkbare prijs met de GTX1080.

Maar wat is die review een puinzooi zeg. De hele website is toch al 15 jaar out of date, maar dit was wel heel erg. Verder is het ook een gigantische naaistreek naar de andere techmedia om een paar dagen voor de launch al een review te plaatsen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 17:57
DaniëlWW2 schreef op maandag 15 oktober 2018 @ 14:58:
[...]


Precies volgens de verwachtingen dus. Net wat sneller dan een GTX1080, vergelijkbare prijs met de GTX1080.

Maar wat is die review een puinzooi zeg. De hele website is toch al 15 jaar out of date, maar dit was wel heel erg. Verder is het ook een gigantische naaistreek naar de andere techmedia om een paar dagen voor de launch al een review te plaatsen.
Vipeax linkt wel naar de mobiele versie van de site he ;)

https://www.hardocp.com/a...ing_z_performance_review/

Ik mis wel een paar dingen, zoals temps en verbruik bijvoorbeeld. En leuk dat ze de clockspeeds van de Nvidia kaarten laten zien, maar waar is dat grafiekje van de Vega...

Wel een beetje gerushed dus om iedereen voor te zijn.

[ Voor 15% gewijzigd door Zeara op 15-10-2018 15:22 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Zeara schreef op maandag 15 oktober 2018 @ 15:18:
[...]
Vipeax linkt wel naar de mobiele versie van de site he ;)
Device gebaseerd redirecten i.p.v. gewoon stylesheets te gebruiken om je website responsive te maken is ook wel een aparte keuze zeg. :+

En inderdaad, veel 'technische' grafiekjes ontbreken...

Verwijderd

Gekke Jantje schreef op zondag 14 oktober 2018 @ 12:26:
Er gaat momenteel veel valse beschuldigingen rond dat Nvidia nu alles onder Turing kreupel maakt via de drivers, mensen maken er YouTube filmpjes van en een hoop plaatjes, maar er zijn nog veel meer mensen die het kreupel maken via drivers niet ervaren. Sterker nog ik heb met de laatste drivers ongeveer de zelfde performance als met driver 399.24 alleen veel betere frame times met 316 drivers. Dezelfde valse beschuldigingen had je overigens ook tijdens de release van Maxwell.
Het lijkt me meer geloofwaardig dat de support voor de oudere generatie (nu Pascal) afneemt. Ik heb de huidige beschuldigingen niet onderzocht (geen kanalen die ik volg) maar ik weet uit andere vergelijkingen dat het niet zo zeer het probleem was dat Nvidia de drivers kreupel maakte door support die er al was weg te halen maar dat de support voor nieuwe spellen voor de oudere generaties kaarten afneemt. Ik laat in het midden in welke mate dat komt door prioriteiten en in welke mate dat komt doordat bepaalde eigenschappen die de nieuwere kaarten (meer) hebben (denk bijv. aan meer tessellation bij vorige generatie) worden ingeschakeld voor nieuwere spellen (Gameworks) en dat daardoor de oudere kaarten zwakker presteren.

Maar goed, diezelfde mensen zouden naar mijn mening beter hun munitie kunnen richten op de valse voorlichting omtrent Turing: doen alsof je op 4k een bepaalde FPS haalt terwijl dat bijvoorbeeld 1440p met upscaling was (DLSS). Daar mag Nvidia rustig op worden aangevallen. Dat geldt natuurlijk voor elk bedrijf wat misleidende benchmarks geeft, ook voor de andere twee.
DaniëlWW2 schreef op maandag 15 oktober 2018 @ 14:58:
[...]


Precies volgens de verwachtingen dus. Net wat sneller dan een GTX1080, vergelijkbare prijs met de GTX1080.
We zijn dus gegaan van de situatie waarin je voor de prijs van 1 tier lager de performance van dezelfde tier krijgt in vergelijking met de vorige generatie naar de situatie dat je voor de prijs van dezelfde tier de performance krijgt van dezelfde tier. Om fair te zijn richting Nvidia, er zit een hoop extra hardware op, maar of dat dat voor de gamer nu zo interessant is...
Die DLSS misschien, die raytracing zeker niet in het geval van de 2070.

[ Voor 17% gewijzigd door Verwijderd op 15-10-2018 17:27 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Verwijderd schreef op maandag 15 oktober 2018 @ 17:17:
[...]
doen alsof je op 4k een bepaalde FPS haalt terwijl dat 1440p met upscaling was (DLSS). Daar mag Nvidia rustig op worden aangevallen.
Welk geval hebben we 't dan over? (serieuze vraag/interesse)

Verwijderd

Paprika schreef op maandag 15 oktober 2018 @ 17:19:
[...]

Welk geval hebben we 't dan over? (serieuze vraag/interesse)
Nvidia presenteerde die slides met 1,5-2 keer hogere FPS bij 4k met DLSS in vergelijking met de vorige generatie (2080 vs. 1080 Ti uit mijn hoofd). Als daar 4k staat zonder enige toelichting dan vind ik dat behoorlijk misleidend, ook al staat er bij dat het met DLSS is. Je moet immers wel weten wat DLSS doet om die '4k' goed te duiden. Dat is voor mij over de nrand van het toegestane bij marketing, ik zie liever dat ze dan bijv. 1440p met DLSS upscaled naar 4k vermelden of wat het technisch dan ook precies is. Maar ja, dat bekt niet zo lekker...
Ik weet niet zeker of dat er geupscaled werd vanaf 1440p maar er wordt toch geupscaled met DLSS?

Ik zeg er verder niets over of dat DLSS wel of niet goed werkt. Hardware Unboxed vond bij 1 spel dat de FPS en graphics vergelijkbaar waren met 1800p met TAA upscaled naar 4k (bij de 1080 Ti) of zoiets. Samplesize=1 dus dat moet nog veel meer worden onderzocht voordat je er een stelling over moet willen innemen naar mijn mening.

[ Voor 15% gewijzigd door Verwijderd op 15-10-2018 17:26 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
https://devblogs.nvidia.c...ng-architecture-in-depth/

Deze was al vroeg beschikbaar (review datum) en ze leggen het daar prima uit. De meeste reviews gaven ook aan hoe die performance slide is opgezet. Ik ben het dus niet met je oneens, maar ik lig er ook niet bepaald wakker van, want vendor performancewaarden zijn zelden (eigenlijk nooit) interessant.

(pssst: voor mensen die die link nooit hebben gezien, maar wel graag technische leesvoer, met een licht technical marketing sausje, hebben misschien wel waard om sowieso even te klikken. Voor de versie zonder marketing sausje is er natuurlijk altijd nog de whitepaper: https://www.nvidia.com/co...chitecture-Whitepaper.pdf)

[ Voor 29% gewijzigd door Paprika op 15-10-2018 17:51 ]


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Verwijderd schreef op maandag 15 oktober 2018 @ 17:17:
[...]

Het lijkt me meer geloofwaardig dat de support voor de oudere generatie (nu Pascal) afneemt. Ik heb de huidige beschuldigingen niet onderzocht (geen kanalen die ik volg) maar ik weet uit andere vergelijkingen dat het niet zo zeer het probleem was dat Nvidia de drivers kreupel maakte door support die er al was weg te halen maar dat de support voor nieuwe spellen voor de oudere generaties kaarten afneemt. Ik laat in het midden in welke mate dat komt door prioriteiten en in welke mate dat komt doordat bepaalde eigenschappen die de nieuwere kaarten (meer) hebben (denk bijv. aan meer tessellation bij vorige generatie) worden ingeschakeld voor nieuwere spellen (Gameworks) en dat daardoor de oudere kaarten zwakker presteren.

Maar goed, diezelfde mensen zouden naar mijn mening beter hun munitie kunnen richten op de valse voorlichting omtrent Turing: doen alsof je op 4k een bepaalde FPS haalt terwijl dat bijvoorbeeld 1440p met upscaling was (DLSS). Daar mag Nvidia rustig op worden aangevallen. Dat geldt natuurlijk voor elk bedrijf wat misleidende benchmarks geeft, ook voor de andere twee.


[...]

We zijn dus gegaan van de situatie waarin je voor de prijs van 1 tier lager de performance van dezelfde tier krijgt in vergelijking met de vorige generatie naar de situatie dat je voor de prijs van dezelfde tier de performance krijgt van dezelfde tier. Om fair te zijn richting Nvidia, er zit een hoop extra hardware op, maar of dat dat voor de gamer nu zo interessant is...
Die DLSS misschien, die raytracing zeker niet in het geval van de 2070.
Ik heb dezelfde benchmarks gedraaid en haalde even veel zo niet meer fps door een stabielere frametime. Dat er nu in eens weer trolls zijn die 10 fps in de min laten ziens moet men met een korreltje zout nemen. Zulke lui moeten ze gewoon internet verbod opleggen. Een beetje liegen en bedriegen vanwege voorkeur.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Verwijderd

Paprika schreef op maandag 15 oktober 2018 @ 17:47:
[...]

https://devblogs.nvidia.c...ng-architecture-in-depth/

Deze was al vroeg beschikbaar (review datum) en ze leggen het daar prima uit. De meeste reviews gaven ook aan hoe die performance slide is opgezet. Ik ben het dus niet met je oneens, maar ik lig er ook niet bepaald wakker van, want vendor performancewaarden zijn zelden (eigenlijk nooit) interessant.

(pssst: voor mensen die die link nooit hebben gezien, maar wel graag technische leesvoer, met een licht technical marketing sausje, hebben misschien wel waard om sowieso even te klikken. Voor de versie zonder marketing sausje is er natuurlijk altijd nog de whitepaper: https://www.nvidia.com/co...chitecture-Whitepaper.pdf)
De whitepaper is interessant. Mijn bezwaar zit er vooral in dat veel van de mensen aan wie die marketing is gericht niet over de kennis beschikken om de context te begrijpen maar ze wel "influencers" zijn.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 08-11 09:45
Zeara schreef op maandag 15 oktober 2018 @ 15:18:
[...]


Vipeax linkt wel naar de mobiele versie van de site he ;)

https://www.hardocp.com/a...ing_z_performance_review/

Ik mis wel een paar dingen, zoals temps en verbruik bijvoorbeeld. En leuk dat ze de clockspeeds van de Nvidia kaarten laten zien, maar waar is dat grafiekje van de Vega...

Wel een beetje gerushed dus om iedereen voor te zijn.
Ik vind dit nog wel het mooiste
Update: MSI has contacted us today asking HardOCP to remove this RTX 2070 review, even though MSI had nothing to do with sourcing this review. NVIDIA's green feathers are apparently flying over this RTX 2070 review being published before its embargo date and time that is has with reviewers that signed its NDA. This is how things turn out when NVIDIA tries to force 5 year blanket NDAs down journalists throats. We chose not to sign NVIDIA's NDA. Our review is 100% legitimate and we are not going to remove it because NVIDIA is throwing a fit over it being published. The fact of the matter is that NVIDIA changed its entire NDA/Product Embargo structure after we reported on GPP this year. It did this to muzzle stories about NVIDIA in the future, and it is on NVIDIA for tying that to its product reviews. It is sad that MSI is having to deal with the brunt of NVIDIA's fury over this, and to that, we are sorry that is happening. This review could have easily been over any other AIB's card, it just so happens that an MSI card was the first one that we could source.
Vind het wel een mooie f*ck you nvidia.
En ze laten nog steeds zien ondanks ze geen maatjes zijn met nvidia ze wel een objectieve review kunnen schrijven.

Nog wat extra info over die NDA's:
https://www.hardocp.com/a...unch_driver_distribution/

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Dat er geen early reviews zijn is dan ook het hele doel van een NDA. Wat een verassing dat men (= MSI die nu kunnen gaan uitleggen hoe die kaart zo vroeg in de winkel komt) dat verzoek stuurt. Alsof AMD blij was dat het hele press deck van de HD5870 al lang was uitgelekt voor de release...

Het enige langdurige gevolg hiervan is dat MSI hem niet snel kaarten zal geven (ook niet AMD kaarten) en dat Kyle Bennett beter achterin kan gaan zitten bij press meetings, want ook daar valt dit niet altijd positief.

[ Voor 71% gewijzigd door Paprika op 15-10-2018 20:14 ]


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Apart dat dit nog geen voorpagina nieuws is op Tweakers en HWI...

Of zou het linken naar HardOCP ook gezien worden als NDA breach?

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Jeroenneman schreef op maandag 15 oktober 2018 @ 20:21:
Apart dat dit nog geen voorpagina nieuws is op Tweakers en HWI...

Of zou het linken naar HardOCP ook gezien worden als NDA breach?
Nee, want gelekte data mag worden gedeeld. Het is echter niet logisch om naartoe te linken, want het levert geen advertentieinkomsten als men elders gaat kijken. Een nieuwsartikel is 1 linkje, terwijl een review vaak 20 of meer pagina's aan advertenties bevat.

[ Voor 10% gewijzigd door Paprika op 15-10-2018 20:22 ]


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Paprika schreef op maandag 15 oktober 2018 @ 20:22:
[...]

Nee, want gelekte data mag worden gedeeld. Het is echter niet logisch om naartoe te linken, want het levert geen advertentieinkomsten als men elders gaat kijken. Een nieuwsartikel is 1 linkje, terwijl een review vaak 20 of meer pagina's aan advertenties bevat.
Maar wel weer extra klikjes, en het is niet alsof mensen niet én de review van HardOCP én de review van Tweakers kunnen lezen.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Jeroenneman schreef op maandag 15 oktober 2018 @ 20:23:
[...]


Maar wel weer extra klikjes, en het is niet alsof mensen niet én de review van HardOCP én de review van Tweakers kunnen lezen.
Met de kwaliteit van de Tweakers reviews.. :p

Verwijderd

Heeft Tweakers reviews? :+
Paprika schreef op maandag 15 oktober 2018 @ 20:00:
Dat er geen early reviews zijn is dan ook het hele doel van een NDA. Wat een verassing dat men (= MSI die nu kunnen gaan uitleggen hoe die kaart zo vroeg in de winkel komt) dat verzoek stuurt. Alsof AMD blij was dat het hele press deck van de HD5870 al lang was uitgelekt voor de release...

Het enige langdurige gevolg hiervan is dat MSI hem niet snel kaarten zal geven (ook niet AMD kaarten) en dat Kyle Bennett beter achterin kan gaan zitten bij press meetings, want ook daar valt dit niet altijd positief.
Hij is natuurlijk niet gebonden aan een NDA maar het zou wellicht handiger zijn als hij Gamers Nexus zijn voorbeeld volgt en zich wel aan die datum houdt uit respect voor zijn mede-reviewers. Anderzijds, het is nu niet dat Nvidia nog zou toestaan dat een van die bedrijven hem een (Nvidia-)kaart stuurt.
Ik zal overigens reviews van MSI-kaarten van AMD niet missen. Laat hen eerst maar eens een keer AMD niet als tweederangs-merk behandelen en een fatsoenlijke koeling en PCB geven. Hun Polaris- en Vega-kaarten waren nogal slecht.
Astennu schreef op maandag 15 oktober 2018 @ 19:58:
Vind het wel een mooie f*ck you nvidia.
En ze laten nog steeds zien ondanks ze geen maatjes zijn met nvidia ze wel een objectieve review kunnen schrijven.
Dat kan ik waarderen.
Over f*ck you Nvidia gesproken, deze klassieker mag nu niet ontbreken. Van Linus Torvalds.

Hier wat meer context met een slechtere kwaliteit audio en video.
YouTube: Linus Torvalds - Nvidia F_ck You!
En hier nog wat meer context (het laatste stukje ontbreekt in de vorige): YouTube: Aalto Talk with Linus Torvalds \[Full-length]

[ Voor 25% gewijzigd door Verwijderd op 15-10-2018 21:51 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Verwijderd schreef op maandag 15 oktober 2018 @ 21:42:
Hij is natuurlijk niet gebonden aan een NDA maar het zou wellicht handiger zijn als hij Gamers Nexus zijn voorbeeld volgt en zich wel aan die datum houdt uit respect voor zijn mede-reviewers.
NVIDIA heeft dan ook geen contact gehad en MSI heeft een verzoek en geen eis gestuurd.

Verwijderd

Paprika schreef op maandag 15 oktober 2018 @ 21:56:
[...]

NVIDIA heeft dan ook geen contact gehad en MSI heeft een verzoek en geen eis gestuurd.
Over het laatste zijn wij het eens, het is slechts een verzoek en het is aan HardOCP om dat wel of niet in te willigen. Met betrekking tot Nvidia maakt het niet uit wat hij doet (hij blijft toch op de zwarte lijst staan), met betrekking tot collega's is het waarschijnlijk handiger om zich aan de NDA-datum te houden, ook al is hij daar niet aan gebonden (etiquette) en met betrekking tot het bezoek aan zijn website op de lange termijn, geen idee.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Er is geen zwarte lijst. NVIDIA heeft al aangegeven dat ie welkom is als ie alsnog tekent. Dat ie het niet doet is prima (ik kan het wel waarderen dat iemand bij zijn/haar standpunt blijft), maar zelfs de andere press mensen hebben al meermaals aangegeven dat het overhyped is inmiddels en dat alles hieraan linken erg overdreven is.

[ Voor 21% gewijzigd door Paprika op 15-10-2018 22:10 ]


Verwijderd

Paprika schreef op maandag 15 oktober 2018 @ 22:07:
Er is geen zwarte lijst. NVIDIA heeft al aangegeven dat ie welkom is als ie alsnog tekent. Dat ie het niet doet is prima (ik kan het wel waarderen dat iemand bij zijn/haar standpunt blijfjt), maar zelfs de andere press mensen hebben al meermaals aangegeven dat het overhyped is inmiddels en dat alles hieraan linken erg overdreven is.
Als Nvidia andere bedrijven vertelt welke reviewers ZIJ wel en niet een kaart mogen sturen, dan spreek ik van een zwarte lijst. Hij gaat dat contract niet ondertekenen dus Nvidia blijft bedrijven verbieden om hem een kaart te sturen. Misschien zou het anders zijn als het enkel zou gaan om welke kaarten Nvidia zelf wel en niet stuurt en daar ben ik ook niet zeker van maar dat is nu niet relevant. Over het al dan niet overhyped zijn verschillen de menigen blijkbaar, de ene jurist zegt dat het meevalt en de andere jurist tilt er wel zwaar aan. De 'pers'-mensen geven aan dat wat er in staat zwaarder is dan hoe het naar hun inschatting uitpakt omdat Nvidia de mogelijkheid wil hebben om bepaalde dingen te doen maar hier in de praktijk niet zo snel gebruik van zal maken.

[ Voor 4% gewijzigd door Verwijderd op 15-10-2018 22:14 ]


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Paprika schreef op maandag 15 oktober 2018 @ 20:00:
Het enige langdurige gevolg hiervan is dat MSI hem niet snel kaarten zal geven (ook niet AMD kaarten) en dat Kyle Bennett beter achterin kan gaan zitten bij press meetings, want ook daar valt dit niet altijd positief.
De kaart komt toch niet direct van MSI?

[ Voor 8% gewijzigd door Olaf van der Spek op 15-10-2018 22:22 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 18:40
Overigens vind ik de review zelf te positief. Performance van 10-20%, aldus de review en daar betaal je $100 dollar meer voor. Dat is niet hoe het bij een nieuwe generatie hoort te werken. Normaliter krijg je voor dezelfde adviesprijs extra performance.
Update: MSI has contacted us today asking HardOCP to remove this RTX 2070 review, even though MSI had nothing to do with sourcing this review. NVIDIA's green feathers are apparently flying over this RTX 2070 review being published before its embargo date and time that is has with reviewers that signed its NDA. This is how things turn out when NVIDIA tries to force 5 year blanket NDAs down journalists throats. We chose not to sign NVIDIA's NDA. Our review is 100% legitimate and we are not going to remove it because NVIDIA is throwing a fit over it being published. The fact of the matter is that NVIDIA changed its entire NDA/Product Embargo structure after we reported on GPP this year. It did this to muzzle stories about NVIDIA in the future, and it is on NVIDIA for tying that to its product reviews. It is sad that MSI is having to deal with the brunt of NVIDIA's fury over this, and to that, we are sorry that is happening. This review could have easily been over any other AIB's card, it just so happens that an MSI card was the first one that we could source.
Daar gaat de allocatie van MSI voor 2019 :P.

[ Voor 10% gewijzigd door sdk1985 op 15-10-2018 22:27 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Olaf van der Spek schreef op maandag 15 oktober 2018 @ 22:18:
[...]

De kaart komt toch niet direct van MSI?
Nee, maar omdat ie MSI niet helpt hun(!) NDA te behouden zal dat vast niet de relatie verbeteren.

Verwijderd

Het is maar de vraag of dat MSI iets te 'verwijten' valt. Stel dat Kyle die kaart heeft geleend/gekocht van een winkel/distributeur-medewerker (in dat geval op een latere datum genoteerd in de boeken?)...
Ik ga nu even uit van rationeel handelende mensen (top bij zo'n bedrijf) wat wellicht schromelijk naïef is.

[ Voor 21% gewijzigd door Verwijderd op 15-10-2018 22:34 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Hij komt van een winkel, maar toch zijn ze niet blij gok ik zo...

Verwijderd

Paprika schreef op maandag 15 oktober 2018 @ 22:34:
Hij komt van een winkel, maar toch zijn ze niet blij gok ik zo...
Zie mijn toevoeging. ;)
sdk1985 schreef op maandag 15 oktober 2018 @ 22:24:
Overigens vind ik de review zelf te positief. Performance van 10-20%, aldus de review en daar betaal je $100 dollar meer voor. Dat is niet hoe het bij een nieuwe generatie hoort te werken. Normaliter krijg je voor dezelfde adviesprijs extra performance.
Een bekend verhaal.
Gebrek aan concurrentie + een nogal grote diesize waarvan minstens 1/3de in essentie niets doet waar de gamer iets aan heeft (raytracing op de 2070 is een joke) en 1/3de voorlopig twijfelachtig is (DLSS). Ook dat moet worden betaald. Denk niet alleen aan het extra oppervlakte maar ook aan de relatief lage yields die reeds bevestigd zijn.

[ Voor 64% gewijzigd door Verwijderd op 15-10-2018 22:39 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Wat zou eigenlijk het alternatief zijn geweest? Stel ze hadden wel alleen veel shaders erop geplakt met de huidige hoeveelheid transistors/diesize. Hoog verbruik en een gigantische bus of bandwidth bottleneck?

Verwijderd

Paprika schreef op maandag 15 oktober 2018 @ 22:39:
Wat zou eigenlijk het alternatief zijn geweest? Stel ze hadden wel alleen veel shaders erop geplakt met de huidige hoeveelheid transistors/diesize. Hoog verbruik en een gigantische bus of bandwidth bottleneck?
Alternatieven:
- een Volta-achtige kaart als opvolger van de 1080 Ti voor de prijs van de 1080 Ti introduceren en alles 1 prijssegment laten zakken
- wachten op de 7 nm. node.

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Paprika schreef op maandag 15 oktober 2018 @ 22:27:
[...]

Nee, maar omdat ie MSI niet helpt hun(!) NDA te behouden zal dat vast niet de relatie verbeteren.
MSI heeft haar NDA toch niet overtreden?
sdk1985 schreef op maandag 15 oktober 2018 @ 22:24:
Dat is niet hoe het bij een nieuwe generatie hoort te werken. Normaliter krijg je voor dezelfde adviesprijs extra performance.
Geen nieuw / goedkoper proces -> geen gratis performance.

[ Voor 36% gewijzigd door Olaf van der Spek op 15-10-2018 22:47 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Olaf van der Spek schreef op maandag 15 oktober 2018 @ 22:45:
[...]

MSI heeft haar NDA toch niet overtreden?
Klopt, maar waarschijnlijk is het alsnog niet heel wenselijk anders vroegen ze het niet gok ik zo.

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Paprika schreef op maandag 15 oktober 2018 @ 23:11:
[...]

Klopt, maar waarschijnlijk is het alsnog niet heel wenselijk anders vroegen ze het niet gok ik zo.
Waarschijnlijk niet en dus vragen we ons af waarom...
Paprika schreef op maandag 15 oktober 2018 @ 22:39:
Wat zou eigenlijk het alternatief zijn geweest? Stel ze hadden wel alleen veel shaders erop geplakt met de huidige hoeveelheid transistors/diesize. Hoog verbruik en een gigantische bus of bandwidth bottleneck?
Geheugenbandbreedte is van 8 naar 11 naar 14 gegaan, waarom zou je daar een bottleneck verwachten? Verbruik van de 1080 was ook vrij redelijk dus daar had best wat bij gekund.

[ Voor 47% gewijzigd door Olaf van der Spek op 16-10-2018 08:59 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Verwijderd schreef op maandag 15 oktober 2018 @ 19:16:
[...]

De whitepaper is interessant. Mijn bezwaar zit er vooral in dat veel van de mensen aan wie die marketing is gericht niet over de kennis beschikken om de context te begrijpen maar ze wel "influencers" zijn.
Deze is wel slecht trouwens, omdat ze in deze nieuwe grafiek expliciet 4k noemen:
Afbeeldingslocatie: https://blogs.nvidia.com/wp-content/uploads/2018/10/infiltrator-fps-chart.jpg

4k vs upscaled 1440p. Geen wonder dat de een sneller is dan de ander. Maar dit is ook waarom ik zelf meer interesse heb in de 2x modus. Upscalen kan handig zijn als ~1800p (upscale vanuit 1440p) met hogere settings beter uitziet dan native 4k met lagere settings, maar het blijft lastig te vergelijken denk ik.

[ Voor 21% gewijzigd door Paprika op 16-10-2018 11:04 ]


  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 28-11 20:09
De RTX 2070 is walgelijk duur voor een x70 kaart. Een GTX 970 kreeg je voor € 350, de 1070 was € 475. En nu ga je gewoon € 650-800 neerleggen voor een 2070! Waar houdt het op?

Vroeger kreeg je bij een nieuwe generatie meer performance voor dezelfde prijs. Nu betaal je bij een nieuwe generatie meer voor dezelfde performance!

[ Voor 30% gewijzigd door VSA100_victim op 16-10-2018 12:33 ]

R7 5700X, 16GB DDR4-3200, RTX 3070


Verwijderd

De 2070 is eveneens belachelijk groot voor een *70-kaart. ;)
Paprika schreef op dinsdag 16 oktober 2018 @ 11:01:
[...]

Deze is wel slecht trouwens, omdat ze in deze nieuwe grafiek expliciet 4k noemen:
[Afbeelding]

4k vs upscaled 1440p. Geen wonder dat de een sneller is dan de ander. Maar dit is ook waarom ik zelf meer interesse heb in de 2x modus. Upscalen kan handig zijn als ~1800p (upscale vanuit 1440p) met hogere settings beter uitziet dan native 4k met lagere settings, maar het blijft lastig te vergelijken denk ik.
Wat de vraag oproept of dat Nvidia niet bewust probeert om de minder goed geïnformeerde influencers te misleiden. Niet dat Nvidia het enige bedrijf is wat dat doet maar dat is voor een andere draad.
Ik vind de 2x modus ook veel interessanter, bij die paar spellen waarbij je het kan gebruiken. Ik ben benieuwd hoe consistent het resultaat is. Aangezien er deep learning voor nodig is kan ik me voorstellen dat het de ene keer veel beter lukt dan de andere keer, zelfs binnen hetzelfde spel.

[ Voor 11% gewijzigd door Verwijderd op 16-10-2018 13:47 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Verwijderd schreef op dinsdag 16 oktober 2018 @ 13:41:
[...]

Ik vind de 2x modus ook veel interessanter, bij die paar spellen waarbij je het kan gebruiken. Ik ben benieuwd hoe consistent het resultaat is. Aangezien er deep learning voor nodig is kan ik me voorstellen dat het de ene keer veel beter lukt dan de andere keer, zelfs binnen hetzelfde spel.
Het hele idee is dat bij het trainen je een confidence score berekent. Ze kunnen dus opnames uit het spel blijven voeden totdat de confidence score altijd boven hun minimale drempel ligt. In de basis kom je dus altijd op een moment dat je "altijd" wel goede resultaten krijgt. Het enige probleem is natuurlijk dat de doorlooptijd van het trainen langer duurt naarmate je meer confidence wilt behalen.

In dit geval is dat best makkelijk, omdat je diezelfde playthrough ook in parallel op die gigantische resolutie kunt renderen en een perfecte manier van vergelijken hebt.

[ Voor 9% gewijzigd door Paprika op 16-10-2018 13:47 ]


Verwijderd

Paprika schreef op dinsdag 16 oktober 2018 @ 13:47:
[...]

Het hele idee is dat bij het trainen je een confidence score berekent. Ze kunnen dus opnames uit het spel blijven voeden totdat de confidence score altijd boven hun minimale drempel ligt. In de basis kom je dus altijd op een moment dat je "altijd" wel goede resultaten krijgt. Het enige probleem is natuurlijk dat de doorlooptijd van het trainen langer duurt naarmate je meer confidence wilt behalen.

In dit geval is dat best makkelijk, omdat je diezelfde playthrough ook in parallel op die gigantische resolutie kunt renderen en een perfecte manier van vergelijken hebt.
Ongeveer (in grote lijnen) als volgt?
- kies een bepaalde aanvangswaarde voor bepaalde variabelen in het algoritme
- render frames
- vergelijk die output (elke waarde van de pixel?) met die van echt 4k
- gebruik wat statistische bewerkingen om te beoordelen hoe ver het ervan verwijderd zit
- pas 1 waarde van 1 variabele aan in een bepaalde richting
- render frames
- vergelijk die output met die van echt 4k
- gebruik wat statistische bewerkingen om te beoordelen hoe ver het ervan verwijderd zit
- if(beter resultaat) aanpassing variabele in dezelfde richting; else aanpassing in de andere richting

Dit dan eventueel met meerdere algorithmes omdat het ene algorithme in sommige gevallen beter werkt en het andere in andere gevallen?

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 18:40
VSA100_victim schreef op dinsdag 16 oktober 2018 @ 12:29:
De RTX 2070 is walgelijk duur voor een x70 kaart. Een GTX 970 kreeg je voor € 350, de 1070 was € 475. En nu ga je gewoon € 650-800 neerleggen voor een 2070! Waar houdt het op?

Vroeger kreeg je bij een nieuwe generatie meer performance voor dezelfde prijs. Nu betaal je bij een nieuwe generatie meer voor dezelfde performance!
Het stopt wanneer het massaal niet meer wordt gekocht. Vermoedelijk pas tijdens de volgende crisis.

Overigens kun je beter naar de MSRP in dollars kijken. Een 770 zat bijvoorbeeld op $399, de 970 was een koopje met $329. De 1070 zat op $379.

[ Voor 11% gewijzigd door sdk1985 op 16-10-2018 14:13 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:53
Verwijderd schreef op dinsdag 16 oktober 2018 @ 13:55:
[...]

Ongeveer (in grote lijnen) als volgt?
- kies een bepaalde aanvangswaarde voor bepaalde variabelen in het algoritme
- render frames
- vergelijk die output (elke waarde van de pixel?) met die van echt 4k
- gebruik wat statistische bewerkingen om te beoordelen hoe ver het ervan verwijderd zit
- pas 1 waarde van 1 variabele aan in een bepaalde richting
- render frames
- vergelijk die output met die van echt 4k
- gebruik wat statistische bewerkingen om te beoordelen hoe ver het ervan verwijderd zit
- if(beter resultaat) aanpassing variabele in dezelfde richting; else aanpassing in de andere richting

Dit dan eventueel met meerdere algorithmes omdat het ene algorithme in sommige gevallen beter werkt en het andere in andere gevallen?
Zoiets ja. Het is dan ook geen machine learning (zelf-lerend en verbeterend), maar deep learning (waarbij je de variabelen dus continue aanpast). Bij deep learning moet je dus ook denken aan image recognition (content tagging, mensen herkennen etc). Gelukkig noemt NVIDIA het dan ook zelf DLSS (Deep Learning Super-Sampling) en niet MLSS :+.
DLSS requires a training set of full resolution frames of the aliased images that use one sample per pixel to act as a baseline for training. Another full resolution set of frames with at least 64 samples per pixel acts as the reference that DLSS aims to achieve. At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information. Training also requires a variety of scenes from the game in order to generate the best results.
The DLSS model is trained on a mix of final rendered frames and intermediate buffers taken from a game’s rendering pipeline. We do a large amount of preprocessing to prepare the data to be fed into the training process on NVIDIA’s Saturn V DGX-based supercomputing cluster. One of the key elements of the preprocessing is to accumulate the frames so to generate “perfect frames”.

During training, the DLSS model is fed thousands of aliased input frames and its output is judged against the “perfect” accumulated frames. This has the effect of teaching the model how to infer a 64 sample per pixel supersampled image from a 1 sample per pixel input frame. This is quite a feat! We are able to use the newly inferred information about the image to apply extremely high quality “ultra AA” and increase the frame size to achieve a higher display resolution.

To explain a little further, DLSS uses a convolutional auto-encoder to process each frame which is a very different approach than other antialiasing techniques. The “encoder” of the DLSS model extracts multidimensional features from each frame to determine what are edges and shapes and what should and should not be adjusted. The “decoder” then brings the multidimensional features back to the more simple Red, Green, Blue values that we humans can understand. But while the decoder is doing this, it’s also smoothing out edges and sharpening areas of detail that the encoder flagged as important.
Dit is dan ook de reden waarom je voor iedere game dit apart zult moeten doen, omdat een andere art-style meteen andere resultaten gaat geven. Als een ontwikkelaar met een DLC komt is de kans groot dat dezelfde variabelen prima werken wegens dezelfde art style, maar neem even stom gezegd World of Warcraft, omdat deze game over de jaren visueel sterk is verandert t.o.v. de versie bij de oorspronkelijke release. De waarden die toen van toepassing waren gaan nu echt niet meer de juiste resultaten geven en dan zou je dus het model opnieuw moeten trainen.

Nog wat leuk kijkvoer:
https://on-demand-gtc.gpu...onFormat=&submit=&select=

Een leuke review die wat meer van de deeplearning functionaliteiten benchmarked:
https://www.phoronix.com/...tx2080ti-tensorflow&num=1
Bij de resultaten van deze review zie je ook wel goed hoeveel verschil er in performane valt te halen met de Turing architectuur en waarom AMD met VEGA in deze markt het waarschijnlijk ook beter doet dan de consumenten markt. Voor deze zakelijke markt is Turing dan ook heel interessant, ongeacht de prijsstelling. Een Turing GPU is voor deze toepassing dus veel costefficienter dan de Pascal reeks, ondanks de hogere aanschafprijs. Op de lange termijn is de $/performance ratio dus alsnog erg sterk.

[ Voor 44% gewijzigd door Paprika op 16-10-2018 14:22 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 08-11 09:45
Verwijderd schreef op dinsdag 16 oktober 2018 @ 13:41:
De 2070 is eveneens belachelijk groot voor een *70-kaart. ;)

[...]

Wat de vraag oproept of dat Nvidia niet bewust probeert om de minder goed geïnformeerde influencers te misleiden. Niet dat Nvidia het enige bedrijf is wat dat doet maar dat is voor een andere draad.
Ik vind de 2x modus ook veel interessanter, bij die paar spellen waarbij je het kan gebruiken. Ik ben benieuwd hoe consistent het resultaat is. Aangezien er deep learning voor nodig is kan ik me voorstellen dat het de ene keer veel beter lukt dan de andere keer, zelfs binnen hetzelfde spel.
Same here. Intel en nvidia hebben hier beide een handje van. Maar vooral nVidia is echt super goed in dit soort marketing. En heel veel mensen online geloofde de slides en best veel mensen hadden preorders.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: September 2001
  • Laatst online: 08-11 09:45
Als deze kaarten straks echt voor 530 euro in de winkel te krijgen zijn en dat ook blijven is dit de eerste kaart in de RTX reeks die interessant is tov Pascal als je het hebt over prijs vs prestaties.
De RTX 2080 Ti is wel interessant als je hele diepe zakken hebt en je wilt perse op 4K gamen met hoge framerates maar buiten dat is het geen interessante kaart. Deze RTX 2070 zou dat wel kunnen zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Voor reviews raad ik HardwareUnboxed en GamersNexus aan. Meestal net wat professioneler dan de rest. :X
Gordon en Brad van PCWorld doen het ook goed.
Voor vergelijkingen tussen grafische kaarten (dezelfde GPU etc. , andere modellen) is Computerbase.de erg goed, maar helaas doen ze het niet heel erg vaak, maar als ze het doen dan doen ze het goed.

[ Voor 4% gewijzigd door Verwijderd op 16-10-2018 16:05 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-12 17:24

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 16 oktober 2018 @ 16:02:
[...]

Voor reviews raad ik HardwareUnboxed en GamersNexus aan. Meestal net wat professioneler dan de rest. :X
Gordon en Brad van PCWorld doen het ook goed.
Voor vergelijkingen tussen grafische kaarten (dezelfde GPU etc. , andere modellen) is Computerbase.de erg goed, maar helaas doen ze het niet heel erg vaak, maar als ze het doen dan doen ze het goed.
Linkjes:
https://www.gamersnexus.n...ing-fps-temperature-noise
https://www.pcworld.com/a...nders-edition-review.html
https://www.pcworld.com/a...e-rtx-2070-xc-review.html
Pagina: 1 ... 57 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.