Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-10 17:17
VGA GPUs zijn er moeilijk te binnen, meestal weet je de performance pas als ze op de PCB zitten. Dus dan kun je ze er niet meer vanaf halen om aan een IAB te verkopen. Daarbij zijn klokspeeds afhankelijk van goede koeling, dus custom koelings zijn zoiezo beter.

Nee dit hoeft geen exhaust fan model te zijn.
Dit kan ook een ander model zijjn.. zie onze nieuwe Ventus.

Afbeeldingslocatie: https://cdn.videocardz.com/1/2018/08/MSI-GeForce-RTX-2080-Series.jpg

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zijn de custom kaarten nou tegelijk leverbaar met de FE kaarten :?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Ja, vandaar de toevoeging tussen haakjes. Is de Ventus goedkoper dan de Aero of positioneren jullie deze op een vergelijkbaar niveau? De Sea Hawk positionering moge duidelijk zijn :p.

Acties:
  • 0 Henk 'm!

  • TheBouwman
  • Registratie: November 2013
  • Laatst online: 15-09 18:37
zojuist de strix 2080 bij azerty besteld als eerste videokaart. Jammer dat de ti versie een belachelijk hoge prijs heeft.

Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-10 17:17
Paprika schreef op maandag 20 augustus 2018 @ 21:09:
Ja, vandaar de toevoeging tussen haakjes. Is de Ventus goedkoper dan de Aero of positioneren jullie deze op een vergelijkbaar niveau? De Sea Hawk positionering moge duidelijk zijn :p.
Ze staan niet op prijs of performance volgorde en ze er missen nog wat modellen :)

Retail prijs verschil tussen Aero en Ventus weet ik nog niet. Maar exhaust FAN wordt vooral door bepaalde system integrators gebruikt of door workstations. Ventus zal meer voor gamers zijn.
Help!!!! schreef op maandag 20 augustus 2018 @ 21:09:
Zijn de custom kaarten nou tegelijk leverbaar met de FE kaarten :?
Nee.. custom design PCB is een monster.
Ik weet nog niet wat we allemaal mogelijk vertellen over onze custom kaarten, NDA details zijn erg vaag. As. woensdag host ik wel een live stream waarin ik meer hoop te kunnen laten zien. Maar nog even duidelijkheid afwachten.

[ Voor 28% gewijzigd door The Source op 20-08-2018 21:15 ]


Acties:
  • +9 Henk 'm!

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 09:22
Niet om lullig te doen, maar hebben jullie nu geen grafische kaart? Je wil toch wel eerst een objectieve review lezen over de nieuwe kaarten.

[ Voor 8% gewijzigd door NotSoSteady op 20-08-2018 21:17 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
The Source schreef op maandag 20 augustus 2018 @ 21:14:
[...]


Ze staan niet op prijs of performance volgorde en ze er missen nog wat modellen :)

Retail prijs verschil tussen Aero en Ventus weet ik nog niet. Maar exhaust FAN wordt vooral door bepaalde system integrators gebruikt of door workstations. Ventus zal meer voor gamers zijn.
Duidelijk, dankje!

@NotSoSteady, voor een aantal komt de buyers remorse vast nog wel :+.

[ Voor 8% gewijzigd door Paprika op 20-08-2018 21:16 ]


Acties:
  • 0 Henk 'm!

  • rstyled
  • Registratie: September 2006
  • Laatst online: 26-09 13:09
Paprika schreef op maandag 20 augustus 2018 @ 21:04:
[...]

Iedere AIB wordt dit keer dus verplicht een blower model uit te brengen (meestal is een blower model het goedkoopst, uiteraard kan het vanalles zijn)? Interessant. Dat verklaart wel een aantal van de volledige line-ups die zijn uitgelekt tot op heden (MSI, Inno3D, ...).


[...]

[afbeelding]

[afbeelding]

:p.
Ik vermoed dat Nvidia niet al te veel energie wil steken in het ontwerp van een goede blower en zich toespitst op een dual fan design wat volstaat. Gezien de grote heatsinks van AIB's zal er aardig wat hitte afgevoerd worden.

Acties:
  • 0 Henk 'm!

  • marcelo16bo
  • Registratie: September 2010
  • Laatst online: 09-10 23:24
Weet iemand wanneer de eerste benchmarks uitgebracht worden?

Zit nu te twijfelen om een 1080Ti te kopen of een 2080.

Hoe lang duurde het de vorige keer?

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Met die prijzen van gemiddeld E1.3k voor de 2080Ti vs dacht ik ongeveer E750 destijds voor de 1080Ti moet het wel een BEEEEEEEEST van een kaart worden. :o

Ik bekijk eerst de reviews wel even :)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-10 00:07

pino85

Im just a Bird in the Sky

mca2 schreef op maandag 20 augustus 2018 @ 14:40:
[...]

Manmanman wat een geld. 840 USD voor 8GB en dik 1000 voor 11GB
Dat doet geen concurrentie helaas voor ons.. :'(
stin00 schreef op maandag 20 augustus 2018 @ 19:11:
[...]


Hun videokaarten zijn ijzertserk, maar zaken als Gameworks, GPP en dure G-sync geven een hele bittere nasmaak.
Klopt maar ze kunnen zich(helaas) dit ook permitteren zo lang ze zo sterk blijven. Ze hebben wel echte innovatie mbt de raytracing getoond,en AMD kan voor nu niet antwoorden.

[ Voor 47% gewijzigd door pino85 op 20-08-2018 21:26 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Help!!!! schreef op maandag 20 augustus 2018 @ 21:18:
Met die prijzen van gemiddeld E1.3k voor de 2080Ti vs dacht ik ongeveer E750 destijds voor de 1080Ti moet het wel een BEEEEEEEEST van een kaart worden. :o

Ik bekijk eerst de reviews wel even :)
De pre-order/day 1 prijzen wel wat hoger toch? Reken eerder 800-900 voor de betere custom modellen. Nog lang geen 1200 waar sommigen nu gewoon voor bestellen met 0 getallen erbij :+.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
DaniëlWW2 schreef op maandag 20 augustus 2018 @ 20:47:
[...]


Tja ray tracing heeft wel meerwaarde. Het is eigenlijk de grootste stap sinds unified shaders. Voor die generatie van Nvidia hardware moest je ook afrekenen met ribben en organen. :+

Maar zoals ik een week geleden al zij komt dit ook door de afwezigheid van AMD als concurrent. Er gaat denk ik niet veel veranderen in de lagere prijssegmenten. Zelfs de RTX2070 gaat een dure kaart worden en de rest van de Turing lijn heeft waarschijnlijk geen ray tracing. Dan heb je niks meer dan een Maxwell/Pascal refresh. Die prijzen zullen waarschijnlijk wat minder gestoord zijn, want enige concurrentie.
PhysX had potentie in de handen van AGEIA. Toen nVidia het de kreeg hebben ze het nagenoeg meteen de nek omgedraaid. Plots kon het ook niet meer gebruikt worden in combinatie met een AMD videokaart (twee videokaarten, een AMD en een nVidia voor PhysX ondersteuning). nVidia geeft geen fuck, die doen alles om AMD een blok te zetten, zelfs als daar niet direct geld mee gemoeid is. Als AMD er maar op achteruitgaat. Sterker nog, als AMD er relatief maar meer op achteruitgaat.

Tesselation tot een factor veel te veel forceren omdat ze op pure tesselation performance beter presteren dan AMD. Veel te veel als in van 32x naar 64x of van 64x naar 128x, terwijl je met een vergroot glas de IQ verbetering kunt gaan zoeken. Dit laatste geldt ook voor nVidia en ook hun klanten verliezen dus onnodig veel performance. Maar relatief komt nVidia dus beter uit de verf in deze situaties/benchmarks.

Enfin, de overeenkomst PhysX/GPP/TWIMTBP/Tesselation was dat nVidia er de concurrentie mee wil kapot maken en zo meer geld verdienen. Eerlijk, en dus gunstig voor alle consumenten, concurreren zit er imo niet in. Daar kunnen we bomen over opzetten, maar dan komen we CO2 tekort :+ G-Sync ben ik trouwens nog vergeten.

RTX zal met hetzelfde doeleinde gebruikt gaan worden. Ik sta niet te juichen :N Het is voor AMD te hopen dat ze met iets gelijkaardigs komen. Bieden ze die, specifiek voor nVidia kreupel gemaakte ray tracing, aan Sony en Microsoft aan. Dan is er i.i.g. een goede basis voor draagvlak vanuit game ontwikkelaars.

Acties:
  • 0 Henk 'm!

  • Torched
  • Registratie: April 2008
  • Nu online
Nee, maar door de hele crypto craze en amd's gebrek aan concurrentie kunnen ze gewoon hoge prijzen vragen.

Mijn huidige baas verdient ook bakken met geld met dingen die hij 4 tot 6 keer over de kop zet.

[ Voor 5% gewijzigd door Torched op 20-08-2018 21:30 ]


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op maandag 20 augustus 2018 @ 21:26:
[...]

De pre-order/day 1 prijzen wel wat hoger toch? Reken eerder 800-900 voor de betere custom modellen. Nog lang geen 1200 waar sommigen nu gewoon voor bestellen met 0 getallen erbij :+.
Ik weet het niet meer precies maar ik weet wel dat ik even rustig afwacht. :)

Linksom of rechtsom zullen de prestaties gewoon heel erg goed moeten zijn om (veel) hogere prijzen dan de voorgaande serie te rechtvaardigen.
Torched schreef op maandag 20 augustus 2018 @ 21:29:
Nee, maar door de hele crypto craze en amd's gebrek aan concurrentie kunnen ze gewoon hoge prijzen vragen.

Mijn huidige baas verdient ook bakken met geld met dingen die hij 4 tot 6 keer over de kop zet.
Moet je wel afnemers hebben / blijven houden.

Kijk kan het geld momenteel makkelijk missen (Niet om te patsen en ben niet superrijk of zo) maar op een gegeven moment zijn prijzen wellicht gewoon totaal niet meer in verhouding tot wat het is en dan heb ik er geen zin meer in. Dan wens ik nvidia veel plezier met de Dubai people en ga ik wat anders doen.

[ Voor 38% gewijzigd door Help!!!! op 21-08-2018 19:35 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op maandag 20 augustus 2018 @ 21:18:
Met die prijzen van gemiddeld E1.3k voor de 2080Ti vs dacht ik ongeveer E750 destijds voor de 1080Ti moet het wel een BEEEEEEEEST van een kaart worden. :o

Ik bekijk eerst de reviews wel even :)
Uh nee. Reken op 20 a 25% sneller. Er is gewoon geen sprong gezet in clockspeeds, nog core design buiten het ray tracing verhaal. Was er wat verbeterd in core design, dan had Nvidia er wel over gesproken. Blijft dus de circa 21% stijging in Cuda Cores en 27% extra geheugenbandbreedte over als benchmark.

@madmaxnl Ray tracing is wat anders dan GameWorks en heeft paradoxaal ook een enorm voordeel voro AMD. RTX gaat geen prestatie verpestende software worden omdat RTX forceren zal betekenen dat de game niet meer draait op alles wat niet minstens een RTX2070 is. Het gaat dus volledig optimaal worden. Verder werkt RTX alleen met low level API's, en gaat Nvidia dit keihard pushen. Dat betekent dat je prestatiesprongen gaat zien voor AMD hardware omdat die eindelijk van hun draw call bottleneck verlost gaan worden. Reken er dus op dat Polaris 10 het eindelijk systematisch zal winnen van GP106, idem voor Vega 10 en GP104. Dat is waarschijnlijk ook wat de RTG in de lucht zal houden, want boven Vega 10 heeft Nvidia vrij spel om belachelijke prijzen te vragen, en dat doen ze gewoon. Nvidia gaat haar winstmarges gewoon nog verder opschroeven.

Verder kan dit ook wel eens een preventieve zet zijn tegenover Intel hun GPU plannen. Die zullen hoogstwaarschijnlijk ook geen ray tracing ondersteunen en dan kan Nvidia deze in 2020 meteen al achterhaald verklaren, terwijl ze dan naar Ampère zullen toewerken. ;)

[ Voor 47% gewijzigd door DaniëlWW2 op 20-08-2018 21:43 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op maandag 20 augustus 2018 @ 21:36:
[...]


Uh nee. Reken op 20 a 25% sneller. Er is gewoon geen sprong gezet in clockspeeds, nog core design buiten het ray tracing verhaal. Was er wat verbeterd in core design, dan had Nvidia er wel over gesproken. Blijft dus de circa 21% stijging in Cuda Cores en 27% extra geheugenbandbreedte over als benchmark.
Het was sarcastisch, zoals je ook wel weet. 8)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op maandag 20 augustus 2018 @ 21:39:
[...]

Het was sarcastisch, zoals je ook wel weet. 8)
Sarcasmemeter.exe has crashed. O-)

[ Voor 3% gewijzigd door DaniëlWW2 op 20-08-2018 21:44 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Even de performance/$ grafiek afwachten van TPU :+...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op maandag 20 augustus 2018 @ 21:46:
Even de performance/$ grafiek afwachten van TPU :+...
Ach, het zal wel meevallen joh. Geweldige prijs/kwaliteit. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • DijkvanPieter
  • Registratie: Januari 2010
  • Laatst online: 10-10 23:41
Ik kijk toch wel een beetje met verbazing naar alle mensen die nu 1300 euro neerleggen voor een videokaart waar ze nog geen enkel idee van hebben hoe die zal gaan presteren.

Also, het lijkt er wel op dat de 2080ti nu gewoon de oude plaats van de Titan in neemt qua prijs. Meen me te herinneren dat die kaarten ook altijd vroeg uitkwamen tegen een vergelijkebare prijs.

[ Voor 36% gewijzigd door DijkvanPieter op 20-08-2018 22:07 ]


Acties:
  • 0 Henk 'm!

  • Turismo
  • Registratie: December 2000
  • Laatst online: 12-10 10:22
DaniëlWW2 schreef op maandag 20 augustus 2018 @ 21:36:
[...]


Uh nee. Reken op 20 a 25% sneller. Er is gewoon geen sprong gezet in clockspeeds, nog core design buiten het ray tracing verhaal. Was er wat verbeterd in core design, dan had Nvidia er wel over gesproken. Blijft dus de circa 21% stijging in Cuda Cores en 27% extra geheugenbandbreedte over als benchmark.

@madmaxnl Ray tracing is wat anders dan GameWorks en heeft paradoxaal ook een enorm voordeel voro AMD. RTX gaat geen prestatie verpestende software worden omdat RTX forceren zal betekenen dat de game niet meer draait op alles wat niet minstens een RTX2070 is. Het gaat dus volledig optimaal worden. Verder werkt RTX alleen met low level API's, en gaat Nvidia dit keihard pushen. Dat betekent dat je prestatiesprongen gaat zien voor AMD hardware omdat die eindelijk van hun draw call bottleneck verlost gaan worden. Reken er dus op dat Polaris 10 het eindelijk systematisch zal winnen van GP106, idem voor Vega 10 en GP104. Dat is waarschijnlijk ook wat de RTG in de lucht zal houden, want boven Vega 10 heeft Nvidia vrij spel om belachelijke prijzen te vragen, en dat doen ze gewoon. Nvidia gaat haar winstmarges gewoon nog verder opschroeven.

Verder kan dit ook wel eens een preventieve zet zijn tegenover Intel hun GPU plannen. Die zullen hoogstwaarschijnlijk ook geen ray tracing ondersteunen en dan kan Nvidia deze in 2020 meteen al achterhaald verklaren, terwijl ze dan naar Ampère zullen toewerken. ;)
Vergeet niet dat AMD met Vega al ray tracing heeft in Vulkan, en het ook nog eens open source heeft gemaakt _/-\o_ , aan dat gedrag kan Nvidia nog wat van leren met hun monolotische positie en closed-source technieken.

https://pro.radeon.com/en/software/radeon-rays/
https://www.tomshardware....-software,news-58082.html

Gamebak Look Behind you, a Three Headed Monkey!


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

DijkvanPieter schreef op maandag 20 augustus 2018 @ 22:04:
Ik kijk toch wel een beetje met verbazing naar alle mensen die nu 1300 euro neerleggen voor een videokaart waar ze nog geen enkel idee van hebben hoe die zal gaan presteren.
Ik helaas niet. Het was een sterk stukje toneel van Jen-Hsun Huang. Alleen maar nadruk op ray tracing, gelikte presentaties, veel ondersteuning voor ray tracing aangekondigd, maar genegeerd dat de kaarten buiten ray tracing waarschijnlijk behoorlijk gaan tegenvallen. :/
Turismo schreef op maandag 20 augustus 2018 @ 22:07:
[...]


Vergeet niet dat AMD met Vega al ray tracing heeft in Vulkan, en het ook nog eens open source heeft gemaakt _/-\o_ , aan dat gedrag kan Nvidia nog wat van leren met hun monolotische positie en closed-source technieken.

https://www.tomshardware....-software,news-58082.html
Ik weet het, nou en? Nvidia haar implementatie is vele malen krachtiger. Zelfs als je RTX opeen Vega kan draaien, dan zal je te maken krijgen met gigantische framerate issues.

[ Voor 35% gewijzigd door DaniëlWW2 op 20-08-2018 22:08 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Turismo schreef op maandag 20 augustus 2018 @ 22:07:
[...]


Vergeet niet dat AMD met Vega al ray tracing heeft in Vulkan, en het ook nog eens open source heeft gemaakt _/-\o_ , aan dat gedrag kan Nvidia nog wat van leren met hun monolotische positie en closed-source technieken.

https://pro.radeon.com/en/software/radeon-rays/
https://www.tomshardware....-software,news-58082.html
OpenCL is wel heel wat anders dan DX12. De overhead van surface sharing is in dit geval erg groot en zal dan ook niet voor realtime toepassingen zijn...

Acties:
  • 0 Henk 'm!

  • Turismo
  • Registratie: December 2000
  • Laatst online: 12-10 10:22
DaniëlWW2 schreef op maandag 20 augustus 2018 @ 22:07:
[...]


Ik helaas niet. Het was een sterk stukje toneel van Jen-Hsun Huang. Alleen maar nadruk op ray tracing, gelikte presentaties, veel ondersteuning voor ray tracing aangekondigd, maar genegeerd dat de kaarten buiten ray tracing waarschijnlijk behoorlijk gaan tegenvallen. :/


[...]


Ik weet het, nou en? Nvidia haar implementatie is vele malen krachtiger. Zelfs als je RTX opeen Vega kan draaien, dan zal je te maken krijgen met gigantische framerate issues.
Heb je zeker een punt, maar wilde het voor de volledigheid nog even aangeven.
Niet dat Nvidia de enige is die deze zogenaamde "Holy Grail" heeft ontkluisterd.

Gamebak Look Behind you, a Three Headed Monkey!


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
https://www.evga.com/arti...ga-geforce-rtx-20-series/

Hier komt ie vandaan, staan ook wat meer details over hun kaarten. Die shield optie is voor mensen die graag meer zoemgeluiden willen horen?

[ Voor 11% gewijzigd door Paprika op 20-08-2018 22:35 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op maandag 20 augustus 2018 @ 22:09:
[...]

OpenCL is wel heel wat anders dan DX12. De overhead van surface sharing is in dit geval erg groot en zal dan ook niet voor realtime toepassingen zijn...
AMD heeft ook een mixed rasterisation en ray tracing programma binnen hun Radeon ProRender 1.2 zitten. Dit werkt tenminste voor Vulkan, en ik zie geen reden waarom niet voor DX12. Waarom ze dit niet duidelijk maken op hun website en je een beetje moet graven? Werkelijk geen flauw idee. Ik denk maar "RTG", dan verbaast weinig je meer. :>
Turismo schreef op maandag 20 augustus 2018 @ 22:10:
Heb je zeker een punt, maar wilde het voor de volledigheid nog even aangeven.
Niet dat Nvidia de enige is die deze zogenaamde "Holy Grail" heeft ontkluisterd.
Juist wel. Met AMD haar implementatie kan je waarschijnlijk maar weinig in real time doen. Met RTX kan je juist ray tracing in real time toepassen omdat je dedicated hardware hebt, en niet zo'n klein beetje ook. Hier moet AMD op antwoorden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • R-utger
  • Registratie: Februari 2012
  • Laatst online: 26-09 20:45
Paprika schreef op maandag 20 augustus 2018 @ 22:33:
[...]

https://www.evga.com/arti...ga-geforce-rtx-20-series/

Hier komt ie vandaan, staan ook wat meer details over hun kaarten. Die shield optie is voor mensen die graag meer zoemgeluiden willen horen?
Blij dat EVGA ook met de 3 fan koeler komt, vond die wel het mooiste en presteert ook het beste.

Hoewel ik de MSI ook erg mooi vind, maar die heeft wel 2x 8 pin en 1x 6 pin aansluiting 7(8)7

Intel i7 8700K / Z370 Maximus X Code / 16GB G-SKILL 3200 C14 / ASUS Strix 3090 / Lian Li O11 Dynamic / NZXT X62 / Samsung 970 EVO 500GB


Acties:
  • 0 Henk 'm!

  • Japser
  • Registratie: Januari 2001
  • Laatst online: 09:01

Japser

Jeej!

Wat kunnen we nog verwachten nu op termijn mbt de prijzen van de 1080Ti? Zullen die drastisch dalen?

Acties:
  • 0 Henk 'm!

  • Joosie200
  • Registratie: September 2007
  • Niet online
Japser schreef op maandag 20 augustus 2018 @ 23:09:
Wat kunnen we nog verwachten nu op termijn mbt de prijzen van de 1080Ti? Zullen die drastisch dalen?
Ik verwacht van niet. /glazenbol

De huidige voorraad wordt opgemaakt, dan komt er ruimte voor een nieuwe voorraad rtx kaarten. Maar ze gaan de laatste restanten niet voor een appel en een ei wegdoen. Dan kun je beter azen op een leuke deal in de V&A.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Wat hier nog niet is langs gekomen maar wat ik zelf wel een opzienbarende opmerking vond is dat Jensen ook kort de nieuwe SLI verbinding noemde.
Two GPU's operating as one virtual GPU!
Daar valt ook nog wel het e.e.a. over te speculeren. Betekent dat dat slechte SLI scaling verleden tijd is? Kan het me haast niet voorstellen aangezien hij er dan echt wel meer aandacht aan besteed had.

Of zit daar toch meer achter?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
Wat ik Een beetje mis in de huidige discussie over de sprong in performance. Er wordt nu puur gekeken naar cuda cores en de rtx core wordt weggemoffeld als "dat meldt nog ondersteund gaan worden". Echter, wat als de rtx core sowieso kan helpen in de 'oude' manier van shading? Daarnaast, voor games waar Ray tracing aan staat, worden de normale cuda's ontlast dus worden die effectiever aan het werk gezet. Dan heb je ook nog de AI core waar AA mee gedaan kan worden, en zo worden de cuda's weer ontlast.

Ik kan zo nog wel begrijpen dat Nvidia zegt dat er een enorme sprong is gemaakt, terwijl de harde specs wellicht een ander beeld geven. Ik ben in ieder geval erg benieuwd naar de benchmarks, ik denk dat t best kan meevallen..

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Denk dat we daar allemaal erg benieuwd naar zijn :)

Zijn de aantallen cuda cores die genoemd worden nu incl. de Tensor/RT cores :? Lijkt me eigenlijk niet.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Blaat schreef op dinsdag 21 augustus 2018 @ 08:16:
Wat hier nog niet is langs gekomen maar wat ik zelf wel een opzienbarende opmerking vond is dat Jensen ook kort de nieuwe SLI verbinding noemde.

[...]

Daar valt ook nog wel het e.e.a. over te speculeren. Betekent dat dat slechte SLI scaling verleden tijd is? Kan het me haast niet voorstellen aangezien hij er dan echt wel meer aandacht aan besteed had.

Of zit daar toch meer achter?
Ik ook; Ik ben ook benieuwd of je met nvlink op de 1080's het vram nu kunt op tellen als bij de pro gpu's, en dat je daar ook met compute gebruik van kunt maken, wat handig is voor content creation enzo.
Vind het wel des NVIDIA's om dat dan weer te blokkeren...

specs


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Melantrix schreef op dinsdag 21 augustus 2018 @ 08:26:
Wat ik Een beetje mis in de huidige discussie over de sprong in performance. Er wordt nu puur gekeken naar cuda cores en de rtx core wordt weggemoffeld als "dat meldt nog ondersteund gaan worden". Echter, wat als de rtx core sowieso kan helpen in de 'oude' manier van shading? Daarnaast, voor games waar Ray tracing aan staat, worden de normale cuda's ontlast dus worden die effectiever aan het werk gezet. Dan heb je ook nog de AI core waar AA mee gedaan kan worden, en zo worden de cuda's weer ontlast.

Ik kan zo nog wel begrijpen dat Nvidia zegt dat er een enorme sprong is gemaakt, terwijl de harde specs wellicht een ander beeld geven. Ik ben in ieder geval erg benieuwd naar de benchmarks, ik denk dat t best kan meevallen..
Die RT cores hebben hoogstwaarschijnlijk geen ROPs tot hun beschikking. Dat is een probleem omdat je met die cores wel 2D lijnen, maar geen 3D objecten kan produceren. Verder gaat het om een gemengde vorm van rasterization en ray tracing. Ray tracing vormt hierbij een extra laag waardoor ik geen grote ontlasting van de traditionele pipelines verwacht. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 23:47
MelvinW schreef op maandag 20 augustus 2018 @ 20:23:
Pre-order geplaatst voor de EVGA RTX 2080 Ti XC Ultra :)
|:(

Verbaast me toch wel dat er nog mensen zijn die zelfs met deze prijzen, en zonder benchmarks, alsnog pre-orderen. Zullen wel millionaires rondhangen hier.

[ Voor 30% gewijzigd door DoubleYouPee op 21-08-2018 10:00 ]


Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 09:55:
[...]


Die RT cores hebben hoogstwaarschijnlijk geen ROPs tot hun beschikking. Dat is een probleem omdat je met die cores wel 2D lijnen, maar geen 3D objecten kan produceren. Verder gaat het om een gemengde vorm van rasterization en ray tracing. Ray tracing vormt hierbij een extra laag waardoor ik geen grote ontlasting van de traditionele pipelines verwacht. :)
Waarom niet? Je hoeft de traditionele shading gewoon niet meer toe te passen toch? As far as my knowledge goes, elke pixel krijgt op basis van je shade een kleur toegewezen. traditioneel gaat dit met berekeningen die een situatie benaderen. Met RTX ga je het op een compleet andere manier berekenen. Maar je hoeft niet zowel traditioneel als met RTX dat te berekenen want je hebt maar 1 kleur nodig. Dus het traditionele deel kan je gewoon wegstrepen. Maar misschien denk ik er nu te makkelijk over?

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • +1 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 07-10 18:17
Ik denk dat ik nog wel even doorga met m'n 1080Ti, heb geen haast om over te stappen, zeker niet met deze prijzen.
Als de prijzen vergelijkbaar waren met de 1080Ti dan had misschien een mooie doorschuif actie kunnen zijn naar de kids en papa dan weer wat nieuws. :-)
Maar dit gaat wel een beetje erg uit de hand lopen met die prijzen zo.

Acties:
  • 0 Henk 'm!

  • MelvinW
  • Registratie: Juli 2014
  • Laatst online: 09:19
DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 09:56:
[...]

|:(

Verbaast me toch wel dat er nog mensen zijn die zelfs met deze prijzen, en zonder benchmarks, alsnog pre-orderen. Zullen wel millionaires rondhangen hier.
Ik heb mijn 1080 Ti voor een hele mooie prijs kunnen verkopen tijdens de crypto dagen. Heb dus niet heel veel bij hoeven leggen. Heb ongeveer $1330 betaald inclusief verzending. Komt voor mij geen btw en importkosten meer overheen, omdat ik in een belastingvrij land woon :P

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Melantrix schreef op dinsdag 21 augustus 2018 @ 10:00:
[...]

Waarom niet? Je hoeft de traditionele shading gewoon niet meer toe te passen toch? As far as my knowledge goes, elke pixel krijgt op basis van je shade een kleur toegewezen. traditioneel gaat dit met berekeningen die een situatie benaderen. Met RTX ga je het op een compleet andere manier berekenen. Maar je hoeft niet zowel traditioneel als met RTX dat te berekenen want je hebt maar 1 kleur nodig. Dus het traditionele deel kan je gewoon wegstrepen. Maar misschien denk ik er nu te makkelijk over?
Van die demo's kreeg ik sterk de indruk dat RTX een toevoeging is voor extra effecten, geen vervanging. Het zijn ook alleen de RTX2070, 2080 en de Ti die ray tracing uit kunnen voeren. Alle andere videokaarten blijven rasterization gebruiken. Bij rasterization worden er door de ROPs ook pas 3D objecten gecreëerd en daaran worden deze voorzien van kleur en textuur. Zonder ROPs kan je dus geen objecten creëren. Die RT cores zijn dus nutteloos voor de traditionele methode om grafische objecten te produceren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Bartosy
  • Registratie: Juli 2014
  • Laatst online: 22:37
Tadream schreef op dinsdag 21 augustus 2018 @ 10:08:
Ik denk dat ik nog wel even doorga met m'n 1080Ti, heb geen haast om over te stappen, zeker niet met deze prijzen.
Als de prijzen vergelijkbaar waren met de 1080Ti dan had misschien een mooie doorschuif actie kunnen zijn naar de kids en papa dan weer wat nieuws. :-)
Maar dit gaat wel een beetje erg uit de hand lopen met die prijzen zo.
zit in dezelfde boot. heb een 1080gtx en ga de komende tijd ook niet upgraden. een kaar van 850 euro is gewoon te duur laat staan 1250 euro en om je videokaart op dit moment voor een habbekrats te verpatsen is ook zeker geen goed advies. denk dat de tweedehands prijzen voor de oude kaarten de komende maand gaan kelderen totdat je ziet hoeveel performance je werkelijk wint waardoor ze weer een beetje in prijs gaan stijgen en de komende jaren stabiel gaan worden. dan haal ik liever een kaart over 2 jaar waarbij rtx veel meer geimplimenteerd is en de kinderziektes eruit zijn.

Acties:
  • 0 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 07-10 18:17
Bartosy schreef op dinsdag 21 augustus 2018 @ 10:17:
[...]
zit in dezelfde boot. heb een 1080gtx en ga de komende tijd ook niet upgraden. een kaar van 850 euro is gewoon te duur laat staan 1250 euro en om je videokaart op dit moment voor een habbekrats te verpatsen is ook zeker geen goed advies. denk dat de tweedehands prijzen voor de oude kaarten de komende maand gaan kelderen totdat je ziet hoeveel performance je werkelijk wint waardoor ze weer een beetje in prijs gaan stijgen en de komende jaren stabiel gaan worden. dan haal ik liever een kaart over 2 jaar waarbij rtx veel meer geimplimenteerd is en de kinderziektes eruit zijn.
Of er moet één of ander interessant step up programma zijn van een leverancier, maar daar heb ik nog niets over gezien. Denk dat je daarvoor de leverancier van je kaart in de gaten moet houden.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
maratropa schreef op dinsdag 21 augustus 2018 @ 09:53:
[...]


Ik ook; Ik ben ook benieuwd of je met nvlink op de 1080's het vram nu kunt op tellen als bij de pro gpu's, en dat je daar ook met compute gebruik van kunt maken, wat handig is voor content creation enzo.
Vind het wel des NVIDIA's om dat dan weer te blokkeren...
NVLink is niet de "magic bullet" waar jij op hoopt.

Werelds in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"

Hoe kom je er bij dat je bij "pro" GPU's het geheugen wel zomaar bij elkaar op kunt tellen? Want dat is niet zo. Zelfs met een stel V100's op NVLink moet je software er gewoon gebruik van maken. Dat er een stuk meer HPC toepassingen zijn die dat kunnen is een ander verhaal.
Melantrix schreef op dinsdag 21 augustus 2018 @ 08:26:
Wat ik Een beetje mis in de huidige discussie over de sprong in performance. Er wordt nu puur gekeken naar cuda cores en de rtx core wordt weggemoffeld als "dat meldt nog ondersteund gaan worden". Echter, wat als de rtx core sowieso kan helpen in de 'oude' manier van shading? Daarnaast, voor games waar Ray tracing aan staat, worden de normale cuda's ontlast dus worden die effectiever aan het werk gezet. Dan heb je ook nog de AI core waar AA mee gedaan kan worden, en zo worden de cuda's weer ontlast.

Ik kan zo nog wel begrijpen dat Nvidia zegt dat er een enorme sprong is gemaakt, terwijl de harde specs wellicht een ander beeld geven. Ik ben in ieder geval erg benieuwd naar de benchmarks, ik denk dat t best kan meevallen..
Met "AI Core" bedoel je de Tensor cores, waar mee Deep Learning AA gedaan kan worden? Zo werkt dat niet. DLAA is iets anders dan de AA die we in games hebben. Om te beginnen vereist het implementatie. Het is niet zo dat je met een knopje kunt zeggen dat je TXAA/FXAA/SMAA/MSAA maar even op de Tensor cores gedaan moet worden. Daarnaast is het geen exacte wetenschap. Dat kan gebruikt worden voor een benadering, maar de uitkomst is een voorspelling. Dat is het hele punt van DL. Voor een dynamische render situatie zoals games zie ik niet zo 1-2-3 in hoe je daar performance mee kunt winnen - zeker niet ten opzichte van PPAA varianten. MSAA zou je een deel van de tijd waarschijnlijk wel iets bij kunnen winnen, maar dat is een stuk ingewikkelder dan het klinkt. Dat is ook niet waar Nvidia DLAA voor in de markt zet, zij hebben het vooral over denoising en scaling.
Melantrix schreef op dinsdag 21 augustus 2018 @ 10:00:
Waarom niet? Je hoeft de traditionele shading gewoon niet meer toe te passen toch? As far as my knowledge goes, elke pixel krijgt op basis van je shade een kleur toegewezen. traditioneel gaat dit met berekeningen die een situatie benaderen. Met RTX ga je het op een compleet andere manier berekenen. Maar je hoeft niet zowel traditioneel als met RTX dat te berekenen want je hebt maar 1 kleur nodig. Dus het traditionele deel kan je gewoon wegstrepen. Maar misschien denk ik er nu te makkelijk over?
Daar denk je te makkelijk over. Omdat niet je hele scene geraytraced is zit je dubbel werk te doen, want je hebt gewoon overlap :)

Dus nee, het is niet zo dat games met ondersteuning voor dit hele verhaal zomaar even een deel van hun workload op de RT cores dumpen en dat helemaal kwijt zijn.

Daarom is het ook zo hilarisch dat mensen nu al pre-orderen.

De enige echte real-time demo tot dusver is die van Tomb Raider geweest, de rest is allemaal pre-rendered geweest. Kan best in-engine zijn, maar dat is iets anders dan real-time. Vervolgens hebben ze nog nérgens over performance cijfers of specs gerept. Sterker nog, ik heb nog niet eens een demo gezien waar ze het mét en zonder laten zien. Tot nu toe is het niet meer dan het gezever rondom PhysX, ApeX en het grootste deel van de GameWorks dingen. In hun demo's ziet het er allemaal geweldig uit, maar als puntje bij paaltje komt gaan de games er kapot van of ziet het er niet zo mooi uit als in de demo's - of beide. Batman blijft een van de beste voorbeelden daarvan: de rook en mist heeft nooit zo gereageerd als in de demo's en al die geweldige physics werden verminderd tot het punt waar iets wat nog nét geen sprite was ineens explodeerde in velletjes papier die vervolgens omlaag dwarrelen. De reden? De hardware was daar helemaal niet snel genoeg voor - en een groot deel van die dingen kon sowieso al niet op de GPU, waardoor de game kapot ging van de CPU load.

Nvidia's marketing machine doet hun werk weer geweldig en nu preorderen is gewoon oer en oer dom. Wat iedereen met z'n geld doet is hun eigen keuze, maar het is geen weloverwogen en geïnformeerde aankoop. Het enige wat je hebt is een hoop marketing bullshit. Maar voor de meesten zal dat er allemaal niet toe doen omdat het Nvidia is - als hier een AMD labeltje op had gezeten was de reactie op zulke prijzen voor spookproducten héél anders geweest :)


Ik sta er wel van te kijken dat ze Tensors naar de consument brengen. Of we er gelukkig van moeten worden weet ik nog niet, want ik vermoed dat ze vooral veel ruimte en stroom kosten, zonder dat we er al te veel uit kunnen krijgen als gamers. Briljante zet van hen uit gezien natuurlijk :P

Ook had ik niet verwacht dat de NVLink connector gewoon aan zou staan.

[ Voor 3% gewijzigd door Werelds op 21-08-2018 10:41 ]


Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
Werelds schreef op dinsdag 21 augustus 2018 @ 10:39:
[...]

Met "AI Core" bedoel je de Tensor cores, waar mee Deep Learning AA gedaan kan worden? Zo werkt dat niet. DLAA is iets anders dan de AA die we in games hebben. Om te beginnen vereist het implementatie. Het is niet zo dat je met een knopje kunt zeggen dat je TXAA/FXAA/SMAA/MSAA maar even op de Tensor cores gedaan moet worden. Daarnaast is het geen exacte wetenschap. Dat kan gebruikt worden voor een benadering, maar de uitkomst is een voorspelling. Dat is het hele punt van DL. Voor een dynamische render situatie zoals games zie ik niet zo 1-2-3 in hoe je daar performance mee kunt winnen - zeker niet ten opzichte van PPAA varianten. MSAA zou je een deel van de tijd waarschijnlijk wel iets bij kunnen winnen, maar dat is een stuk ingewikkelder dan het klinkt. Dat is ook niet waar Nvidia DLAA voor in de markt zet, zij hebben het vooral over denoising en scaling.
Ik bedoel inderdaad de Tensor cores. Ik begreep uit de presentatie dat dit een tegenhanger wordt van o.a. TXAA. Wellicht heb ik het verkeerd begrepen maar wat ik ervan begrijp is dat het wel een alternatief voor de traditionele AA gaat worden. Zal het nog wel even gaan uitzoeken igg, vraag me dan vooral af waarvoor het wél dient..
Werelds schreef op dinsdag 21 augustus 2018 @ 10:39:
[...]

Daar denk je te makkelijk over. Omdat niet je hele scene geraytraced is zit je dubbel werk te doen, want je hebt gewoon overlap :)

Dus nee, het is niet zo dat games met ondersteuning voor dit hele verhaal zomaar even een deel van hun workload op de RT cores dumpen en dat helemaal kwijt zijn.

Daarom is het ook zo hilarisch dat mensen nu al pre-orderen.

De enige echte real-time demo tot dusver is die van Tomb Raider geweest, de rest is allemaal pre-rendered geweest. Kan best in-engine zijn, maar dat is iets anders dan real-time. Vervolgens hebben ze nog nérgens over performance cijfers of specs gerept. Sterker nog, ik heb nog niet eens een demo gezien waar ze het mét en zonder laten zien. Tot nu toe is het niet meer dan het gezever rondom PhysX, ApeX en het grootste deel van de GameWorks dingen. In hun demo's ziet het er allemaal geweldig uit, maar als puntje bij paaltje komt gaan de games er kapot van of ziet het er niet zo mooi uit als in de demo's - of beide. Batman blijft een van de beste voorbeelden daarvan: de rook en mist heeft nooit zo gereageerd als in de demo's en al die geweldige physics werden verminderd tot het punt waar iets wat nog nét geen sprite was ineens explodeerde in velletjes papier die vervolgens omlaag dwarrelen. De reden? De hardware was daar helemaal niet snel genoeg voor - en een groot deel van die dingen kon sowieso al niet op de GPU, waardoor de game kapot ging van de CPU load.

Nvidia's marketing machine doet hun werk weer geweldig en nu preorderen is gewoon oer en oer dom. Wat iedereen met z'n geld doet is hun eigen keuze, maar het is geen weloverwogen en geïnformeerde aankoop. Het enige wat je hebt is een hoop marketing bullshit. Maar voor de meesten zal dat er allemaal niet toe doen omdat het Nvidia is - als hier een AMD labeltje op had gezeten was de reactie op zulke prijzen voor spookproducten héél anders geweest :)


Ik sta er wel van te kijken dat ze Tensors naar de consument brengen. Of we er gelukkig van moeten worden weet ik nog niet, want ik vermoed dat ze vooral veel ruimte en stroom kosten, zonder dat we er al te veel uit kunnen krijgen als gamers. Briljante zet van hen uit gezien natuurlijk :P

Ook had ik niet verwacht dat de NVLink connector gewoon aan zou staan.
BF 5 was ook realtime, ze zaten daar gewoon in de game omgeving en ze deden alles aan/uit en bewogen door de omgeving. En ik vond het er erg tof uit zien overigens.

Persoonlijk wacht ik wel op de benchmarks inderdaad, maar ik zal wel aan de 2000 serie gaan. Ik zit nog op een 970 die niet echt lekker meer meegaat, en ik heb buiten gamen om ook andere redenen om een nieuwe gpu te moeten aanschaffen. Dan koop ik liever 1 van de nieuwste generatie dan 1 van 2/3 jaar oud. Ik ben nu vooral benieuwd hoe het technisch allemaal werkt.

Ergens blijf ik erbij dat de standaard cuda's ontlast gaan worden, maar hoe geen idee. ergens is dat m'n gut feeling maar ook gewoon keiharde eigewijsheid :+

edit:
Wacht ff, waarom is niet je hele scene geraytraced? In principe zou dat allemaal wel moeten aangezien ze vanuit je oog/camera alle ray's gaan tracen. Ze kunnen alleen heel effectief delen wegstrepen voor de betreffende ray. per definitie zie je alleen de objecten waarvan licht de camera binnenkomen, dus in theorie gaan ze alle ray's moeten tracen..?

[ Voor 3% gewijzigd door Melantrix op 21-08-2018 10:55 ]

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Melantrix schreef op dinsdag 21 augustus 2018 @ 10:53:
Ik bedoel inderdaad de Tensor cores. Ik begreep uit de presentatie dat dit een tegenhanger wordt van o.a. TXAA. Wellicht heb ik het verkeerd begrepen maar wat ik ervan begrijp is dat het wel een alternatief voor de traditionele AA gaat worden. Zal het nog wel even gaan uitzoeken igg, vraag me dan vooral af waarvoor het wél dient..
Bij TXAA zal het om denoising gaan :)

Dus niet zo zeer een tegenhanger als wel een verbetering.
BF 5 was ook realtime, ze zaten daar gewoon in de game omgeving en ze deden alles aan/uit en bewogen door de omgeving. En ik vond het er erg tof uit zien overigens.
Waar vind ik die? Heb ik nog niet gezien.
Persoonlijk wacht ik wel op de benchmarks inderdaad, maar ik zal wel aan de 2000 serie gaan. Ik zit nog op een 970 die niet echt lekker meer meegaat, en ik heb buiten gamen om ook andere redenen om een nieuwe gpu te moeten aanschaffen. Dan koop ik liever 1 van de nieuwste generatie dan 1 van 2/3 jaar oud. Ik ben nu vooral benieuwd hoe het technisch allemaal werkt.
Vanaf een 970 begrijp ik het wel, hoewel ik een preorder alsnog niet begrijp.

Geld is voor mij absoluut geen probleem maar ik ga toch geen dingen aanschaffen waarvan ik niet weet hoe ze presteren? :P
edit:
Wacht ff, waarom is niet je hele scene geraytraced? In principe zou dat allemaal wel moeten aangezien ze vanuit je oog/camera alle ray's gaan tracen. Ze kunnen alleen heel effectief delen wegstrepen voor de betreffende ray. per definitie zie je alleen de objecten waarvan licht de camera binnenkomen, dus in theorie gaan ze alle ray's moeten tracen..?
Dat kan niet :P

Zo snel is de hardware niet. Ik hoop dat je beseft dat tot dusver ray-tracing seconden per frames kostte. Dat werd gemeten in seconden per frame, niet frames per seconde.

Wat nu mogelijk zal zijn, zijn specifieke lichtbronnen. Een hele scene raytracen, met alle point light sources, global illumination en dergelijke is extreem intensief. Daarnaast is het -en ik kan dit niet genoeg benadrukken- niet 100% raytraced. Nvidia zelf geeft keer op keer aan dat ze veel aan denoising doen. Dat is waar de tensor cores voor gebruikt worden.

Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
Werelds schreef op dinsdag 21 augustus 2018 @ 11:05:
[...]

Bij TXAA zal het om denoising gaan :)

Dus niet zo zeer een tegenhanger als wel een verbetering.


[...]

Waar vind ik die? Heb ik nog niet gezien.


[...]

Vanaf een 970 begrijp ik het wel, hoewel ik een preorder alsnog niet begrijp.

Geld is voor mij absoluut geen probleem maar ik ga toch geen dingen aanschaffen waarvan ik niet weet hoe ze presteren? :P


[...]

Dat kan niet :P

Zo snel is de hardware niet. Ik hoop dat je beseft dat tot dusver ray-tracing seconden per frames kostte. Dat werd gemeten in seconden per frame, niet frames per seconde.

Wat nu mogelijk zal zijn, zijn specifieke lichtbronnen. Een hele scene raytracen, met alle point light sources, global illumination en dergelijke is extreem intensief. Daarnaast is het -en ik kan dit niet genoeg benadrukken- niet 100% raytraced. Nvidia zelf geeft keer op keer aan dat ze veel aan denoising doen. Dat is waar de tensor cores voor gebruikt worden.
https://www.youtube.com/watch?v=uzaGI78NtkE Hier kan je hem terug kijken (niet mijn filmpje).
Ik denk dat mijn kennis rondom ray tracing niet diepgaand genoeg is, ik begreep uit zijn uitleg namelijk dat ze het nu wel konden doen omdat ze met boxes werken waarbij ze heel snel de rest van de scene kunnen weglaten. Maar dit zullen ze dan op een andere manier toepassen dan ik begreep.

Nja, we gaan het zien. Ben benieuwd.

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Melantrix schreef op dinsdag 21 augustus 2018 @ 11:19:
[...]


https://www.youtube.com/watch?v=uzaGI78NtkE Hier kan je hem terug kijken (niet mijn filmpje).
Ik denk dat mijn kennis rondom ray tracing niet diepgaand genoeg is, ik begreep uit zijn uitleg namelijk dat ze het nu wel konden doen omdat ze met boxes werken waarbij ze heel snel de rest van de scene kunnen weglaten. Maar dit zullen ze dan op een andere manier toepassen dan ik begreep.

Nja, we gaan het zien. Ben benieuwd.
Het enige dat ze in die demo ray tracen zijn bepaalde lichtbronnen. Dat is al veeleisend genoeg. De rest van het beeld, die andere 90%+ procent is gewoon met shaders en rasterization gedaan. Daar heeft Nvidia geen enkele verbetering voor aangekondigd. Dat impliceert dat ze geen noemenswaardige verbeteringen hebben doorgevoerd. Opeens is de prijs/kwaliteit van de RTX kaarten dan vrij dramatisch.

Verder ben ik denk ik wat positiever over dit dan @Werelds. Ja, echt ik ga eens positief doen over Nvidia. :P Voor nu is ray tracing misschien nog een beetje een gimmick, maar dat Nvidia de technologie nu al heeft en introduceert zal een stroomversnelling in de ontwikkelingen teweeg brengen. Voor mij is dit wat meer dan het zoveelste GameWorks effect wat framerates vooral verpest. Nee, ik zie dit eerder als het begin van de verschuiving naar ray tracing, tenminste voor lichteffecten. De rest van een beeld zal nog wel voor langere tijd worden opgebouwd met shaders en rasterization.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 11:33:
[...]


Het enige dat ze in die demo ray tracen zijn bepaalde lichtbronnen. Dat is al veeleisend genoeg. De rest van het beeld, die andere 90%+ procent is gewoon met shaders en rasterization gedaan. Daar heeft Nvidia geen enkele verbetering voor aangekondigd. Dat impliceert dat ze geen noemenswaardige verbeteringen hebben doorgevoerd. Opeens is de prijs/kwaliteit van de RTX kaarten dan vrij dramatisch.

Verder ben ik denk ik wat positiever over dit dan @Werelds. Ja, echt ik ga eens positief doen over Nvidia. :P Voor nu is ray tracing misschien nog een beetje een gimmick, maar dat Nvidia de technologie nu al heeft en introduceert zal een stroomversnelling in de ontwikkelingen teweeg brengen. Voor mij is dit wat meer dan het zoveelste GameWorks effect wat framerates vooral verpest. Nee, ik zie dit eerder als het begin van de verschuiving naar ray tracing, tenminste voor lichteffecten. De rest van een beeld zal nog wel voor langere tijd worden opgebouwd met shaders en rasterization.
Ik denk dat ik inderdaad verkeerd om dacht, ik dacht dat ze het vanuit de camera tracen, maar het is blijkbaar vanuit lichtbronnen. Ben me nu hier wat meer aan het in verdiepen :)

Overigens heeft Nvidia wel een verbetering aangekondigd (volgens mij) voor de traditionele methode: Floating Point en Integer operaties konden nu compleet los van elkaar worden uitgevoerd. Dit kan ook veel effect hebben volgens mij.

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nvidia blog: GeForce RTX Founders Edition Graphics Cards: Cool and Quiet, and Factory Overclocked

LOL @ comment onder blog en de uitnodiging om vragen achter te laten.:
Yeah, I have a question, when are you going to stop with the marketing talk bullshit and give us some real performance numbers compared to the 1080ti in non RTX games?

Oh what’s that? You’re not? Because it’s barely any better but you’re charging double the price?

Prove me wrong, I will wait...
Ben benieuwd hoe groot de verschillen gaan zijn met de AIB kaarten. Kan me niet voorstellen dat de AIB's blij zijn met de FE ontwikkeling.

[ Voor 60% gewijzigd door Help!!!! op 21-08-2018 11:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

Melantrix schreef op dinsdag 21 augustus 2018 @ 11:19:
[...]


https://www.youtube.com/watch?v=uzaGI78NtkE Hier kan je hem terug kijken (niet mijn filmpje).
Ik denk dat mijn kennis rondom ray tracing niet diepgaand genoeg is, ik begreep uit zijn uitleg namelijk dat ze het nu wel konden doen omdat ze met boxes werken waarbij ze heel snel de rest van de scene kunnen weglaten. Maar dit zullen ze dan op een andere manier toepassen dan ik begreep.

Nja, we gaan het zien. Ben benieuwd.
Yep dat noemen ze denoiseing. Weglaten wat je niet nodig hebt of in dit geval weglaten zodat je een klein beetje overhoud om te doen omdat het anders te zwaar wordt.

Voor zover ik begrijp wordt het alleen voor bepaalde schaduwen en reflecties gebruikt. Dus die gaan er vooral op vooruit.

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Melantrix schreef op dinsdag 21 augustus 2018 @ 11:19:
[...]


https://www.youtube.com/watch?v=uzaGI78NtkE Hier kan je hem terug kijken (niet mijn filmpje).
Ik denk dat mijn kennis rondom ray tracing niet diepgaand genoeg is, ik begreep uit zijn uitleg namelijk dat ze het nu wel konden doen omdat ze met boxes werken waarbij ze heel snel de rest van de scene kunnen weglaten. Maar dit zullen ze dan op een andere manier toepassen dan ik begreep.

Nja, we gaan het zien. Ben benieuwd.
Dat is de beste demo tot nu toe. Framerate lijkt niet helemaal lekker en ik kan nergens vinden waar ze dit op draaiden helaas.

Je ziet hier echter wel goed wat ik bedoel met betrekking tot het "benaderen" van raytracen. Overigens is dit ook een demo van extremen, want met "RTX off" gaat er wel meer uit dan alleen RTX :+

Afbeeldingslocatie: https://d3vv6lp55qjaqc.cloudfront.net/items/2E400L0t0J0G1C1l1q3n/Image%202018-08-21%20at%2011.36.48%20AM.png

Hier klopt van alles niet aan :P

De reflectie van de soldaat is veel te "hard", met name bij de benen. Een deel van de schaduw is echter bovenop de reflectie geprojecteerd en niet getraced, waardoor het er onnatuurlijk uit ziet. Als je enkele frames verder gaat zie je precies dat gebeuren wanneer ze RTX uit zetten:

Afbeeldingslocatie: https://d3vv6lp55qjaqc.cloudfront.net/items/2K2t0N322w1r3g3j2Z3Q/Image%202018-08-21%20at%2011.38.46%20AM.png

Vervolgens zie je ook door de gehele demo dat de waterplassen met RTX aan simpelweg spiegels met keiharde randen worden; wat ook weer aan geeft dat niet alles getraced wordt. Pijnlijk duidelijk als je dit bekijkt:

Afbeeldingslocatie: https://d3vv6lp55qjaqc.cloudfront.net/items/1O2w1832001L1x1J2R0L/Image%202018-08-21%20at%2011.43.38%20AM.png

Ga je weer een stukje verder, dan zie je dit soort ongein:

Afbeeldingslocatie: https://d3vv6lp55qjaqc.cloudfront.net/items/3N341E321d1m1F2M1j2K/Image%202018-08-21%20at%2011.48.43%20AM.png

Ik kan zo nog wel even door gaan, en het ziet er allemaal zeker beter uit, maar zo extreem als het gebracht wordt door Nvidia (dat commentaar is overigens ook wel cringe-worthy...) is het niet.

Nu moet ik ook wel toegeven dat ik met dit soort dingen vrij gevoelig ben voor fouten. Ik heb bijvoorbeeld een ontzettende grafhekel aan FXAA (en dus ook TXAA op meer dan medium) omdat er dingen anti-aliased worden waar AA met z'n poten vanaf hoort te blijven. Haarscherpe textures worden ineens wazig. Ik ben dus ook één van die debielen die nog altijd MSAA zal gebruiken áls het beschikbaar is. En ook SMAA over FXAA als het kan ;)

Dit soort dingen zijn mooi, maar ik vind het stiekem veel belangrijker dat games bijvoorbeeld lip-syncing weer eens terug brengen, want dat is vaak heel ver te zoeken. En als Valve het 14 jaar geleden (jawel, zolang terug is het al) beter deed dan 98% van alle games nu, dan zit er toch iets heel erg fout. Reflecties zijn leuk en aardig, het grootste deel van de tijd let je er niet op - vooral in BF V niet. Maar als er dan een cutscene is en ik moet kiezen tussen mooiere reflecties in een Bruce Lee film of stemacteerwerk en een verhaal die tot hun recht komen, weet ik wel wat ik liever heb :)

offtopic:
Overigens deed Valve toen al meer dingen bijzonder goed. HL2 mag dan wat poly's en texture resolutie missen ten opzichte van nieuwere games, ze deden ook al heel veel dingen idioot goed. Bekijk hun water refracties maar eens ;)
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 11:33:
Verder ben ik denk ik wat positiever over dit dan @Werelds. Ja, echt ik ga eens positief doen over Nvidia. :P Voor nu is ray tracing misschien nog een beetje een gimmick, maar dat Nvidia de technologie nu al heeft en introduceert zal een stroomversnelling in de ontwikkelingen teweeg brengen.
Ik ben er helemaal niet negatief over, het is een prachtige ontwikkeling. Ik draai echter al lang genoeg mee om te beseffen dat we de heilige graal dan wel zien, maar nog niet aan kunnen raken ;)
Voor mij is dit wat meer dan het zoveelste GameWorks effect wat framerates vooral verpest.
En hier verschillen wij dan wel van mening.

Wat ik hier namelijk zie is gehamer op Nvidia RTX, met weinig tot geen bevestiging dat dit grotendeels via DXR (DirectX Raytracing) gebeurt.

En zolang dat niet gebeurt is dit gedoemd te falen. Het móet interoperable zijn om mainstream door te breken. Ook dat is simpelweg een stukje ervaring dat ik de afgelopen 25 jaar heb opgedaan ;)
Melantrix schreef op dinsdag 21 augustus 2018 @ 11:38:
[...]


Ik denk dat ik inderdaad verkeerd om dacht, ik dacht dat ze het vanuit de camera tracen, maar het is blijkbaar vanuit lichtbronnen. Ben me nu hier wat meer aan het in verdiepen :)

Overigens heeft Nvidia wel een verbetering aangekondigd (volgens mij) voor de traditionele methode: Floating Point en Integer operaties konden nu compleet los van elkaar worden uitgevoerd. Dit kan ook veel effect hebben volgens mij.
Microsoft's pers bericht had wel enkele aardige afbeeldingen: MSDN: Announcing Microsoft DirectX Raytracing! – DirectX Developer Blog

MS heeft sowieso wel goede blogs tegenwoordig.

Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
Werelds schreef op dinsdag 21 augustus 2018 @ 12:08:
[...]

Dat is de beste demo tot nu toe. Framerate lijkt niet helemaal lekker en ik kan nergens vinden waar ze dit op draaiden helaas.

Je ziet hier echter wel goed wat ik bedoel met betrekking tot het "benaderen" van raytracen. Overigens is dit ook een demo van extremen, want met "RTX off" gaat er wel meer uit dan alleen RTX :+

[afbeelding]

Hier klopt van alles niet aan :P

De reflectie van de soldaat is veel te "hard", met name bij de benen. Een deel van de schaduw is echter bovenop de reflectie geprojecteerd en niet getraced, waardoor het er onnatuurlijk uit ziet. Als je enkele frames verder gaat zie je precies dat gebeuren wanneer ze RTX uit zetten:

[afbeelding]

Vervolgens zie je ook door de gehele demo dat de waterplassen met RTX aan simpelweg spiegels met keiharde randen worden; wat ook weer aan geeft dat niet alles getraced wordt. Pijnlijk duidelijk als je dit bekijkt:

[afbeelding]

Ga je weer een stukje verder, dan zie je dit soort ongein:

[afbeelding]

Ik kan zo nog wel even door gaan, en het ziet er allemaal zeker beter uit, maar zo extreem als het gebracht wordt door Nvidia (dat commentaar is overigens ook wel cringe-worthy...) is het niet.

Nu moet ik ook wel toegeven dat ik met dit soort dingen vrij gevoelig ben voor fouten. Ik heb bijvoorbeeld een ontzettende grafhekel aan FXAA (en dus ook TXAA op meer dan medium) omdat er dingen anti-aliased worden waar AA met z'n poten vanaf hoort te blijven. Haarscherpe textures worden ineens wazig. Ik ben dus ook één van die debielen die nog altijd MSAA zal gebruiken áls het beschikbaar is. En ook SMAA over FXAA als het kan ;)

Dit soort dingen zijn mooi, maar ik vind het stiekem veel belangrijker dat games bijvoorbeeld lip-syncing weer eens terug brengen, want dat is vaak heel ver te zoeken. En als Valve het 14 jaar geleden (jawel, zolang terug is het al) beter deed dan 98% van alle games nu, dan zit er toch iets heel erg fout. Reflecties zijn leuk en aardig, het grootste deel van de tijd let je er niet op - vooral in BF V niet. Maar als er dan een cutscene is en ik moet kiezen tussen mooiere reflecties in een Bruce Lee film of stemacteerwerk en een verhaal die tot hun recht komen, weet ik wel wat ik liever heb :)

offtopic:
Overigens deed Valve toen al meer dingen bijzonder goed. HL2 mag dan wat poly's en texture resolutie missen ten opzichte van nieuwere games, ze deden ook al heel veel dingen idioot goed. Bekijk hun water refracties maar eens ;)



[...]

Ik ben er helemaal niet negatief over, het is een prachtige ontwikkeling. Ik draai echter al lang genoeg mee om te beseffen dat we de heilige graal dan wel zien, maar nog niet aan kunnen raken ;)


[...]

En hier verschillen wij dan wel van mening.

Wat ik hier namelijk zie is gehamer op Nvidia RTX, met weinig tot geen bevestiging dat dit grotendeels via DXR (DirectX Raytracing) gebeurt.

En zolang dat niet gebeurt is dit gedoemd te falen. Het móet interoperable zijn om mainstream door te breken. Ook dat is simpelweg een stukje ervaring dat ik de afgelopen 25 jaar heb opgedaan ;)


[...]

Microsoft's pers bericht had wel enkele aardige afbeeldingen: MSDN: Announcing Microsoft DirectX Raytracing! – DirectX Developer Blog

MS heeft sowieso wel goede blogs tegenwoordig.
Dude, thanks, dat laat wel zien wat er wel/niet gebeurd inderdaad! Verklaart een boel!

Voor een wat betere bevestiging als het gaat om de integratie met DirectX: https://developer.nvidia.com/rtx#source=pr. Hier staat wel duidelijk dat het werkt met DirectX en vulcan.
Ray tracing acceleration is leveraged by developers through NVIDIA OptiX, Microsoft DXR enhanced with NVIDIA ray tracing libraries, and the upcoming Vulkan ray tracing API.
Klik hier ook op "Learn more about RTX ray tracing" voor wat meer info.

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Nu online
Vraag me af of het dan ook in glas/ramen soms een oppervlak reflechite of licht breek oid in de vorm van een regenboog effect hebt oid.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Psyonara schreef op dinsdag 21 augustus 2018 @ 12:18:
Vraag me af of het dan ook in glas/ramen soms een oppervlak reflechite of licht breek oid in de vorm van een regenboog effect hebt oid.
Bedoel je chromatic aberration?

Dat lijkt me niet omdat je dan het spectrum moet gaan opsplitsen in meerdere rays.

Bovendien bestaat het effect al en kost nauwelijks rekenkracht in zijn huidige vorm.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op dinsdag 21 augustus 2018 @ 12:08:
Ik ben er helemaal niet negatief over, het is een prachtige ontwikkeling. Ik draai echter al lang genoeg mee om te beseffen dat we de heilige graal dan wel zien, maar nog niet aan kunnen raken ;)

En hier verschillen wij dan wel van mening.

Wat ik hier namelijk zie is gehamer op Nvidia RTX, met weinig tot geen bevestiging dat dit grotendeels via DXR (DirectX Raytracing) gebeurt.

En zolang dat niet gebeurt is dit gedoemd te falen. Het móet interoperable zijn om mainstream door te breken. Ook dat is simpelweg een stukje ervaring dat ik de afgelopen 25 jaar heb opgedaan ;)
Ik zie het juist van de andere kant. Het gaat nu al zolang over ray tracing, en Nvidia komt "gewoon" even met de hardware om het echt te doen op beperkte schaal. Nvidia heeft ook wel een reputatie dat ze hun exclusieve software weten te pushen in grote releases, en dat lijkt nu weer te gebeuren.

Qua DXR vraag ik me af of er niet sprake is van de noodzaak om er een GPU vendor specifieke laag overheen te leggen voor optimaal resultaat? Zo zie ik RTX namelijk. Natuurlijk betekent dit dat AMD er niks mee kan, en Intel ook niet als die in 2020 weer gaan proberen om de videokaarten in te stappen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 12:37:
[...]


Ik zie het juist van de andere kant. Het gaat nu al zolang over ray tracing, en Nvidia komt "gewoon" even met de hardware om het echt te doen op beperkte schaal. Nvidia heeft ook wel een reputatie dat ze hun exclusieve software weten te pushen in grote releases, en dat lijkt nu weer te gebeuren.

Qua DXR vraag ik me af of er niet sprake is van de noodzaak om er een GPU vendor specifieke laag overheen te leggen voor optimaal resultaat? Zo zie ik RTX namelijk. Natuurlijk betekent dit dat AMD er niks mee kan, en Intel ook niet als die in 2020 weer gaan proberen om de videokaarten in te stappen.
Volgens mij is er het een juist niet gpu vendor specifiek als het gaat om de laag die er overheen gaat. als ik het plaatje Afbeeldingslocatie: https://developer.nvidia.com/sites/default/files/akamai/RTX/images/rtxplatform002.png mag geloven gaat Vulcan, DirectX en OptiX(?) gebruik kunnen maken van RTX. AMD kan dus met een hardware oplossing komen als tegenhanger van RTX waar Vulcan/DirectX ook mee kan praten.

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • +1 Henk 'm!

  • Turismo
  • Registratie: December 2000
  • Laatst online: 12-10 10:22
Blaat schreef op dinsdag 21 augustus 2018 @ 12:24:
[...]


Bedoel je chromatic aberration?

Dat lijkt me niet omdat je dan het spectrum moet gaan opsplitsen in meerdere rays.

Bovendien bestaat het effect al en kost nauwelijks rekenkracht in zijn huidige vorm.
Juist, bijvoorbeeld UE4 heeft dit al met een diffuse shader, in de doc wordt het uitgelegd hoe https://docs.unrealengine...Mobility/StationaryLights

Gamebak Look Behind you, a Three Headed Monkey!


Acties:
  • 0 Henk 'm!

  • Mozy
  • Registratie: Mei 2012
  • Laatst online: 05-10 20:14
https://www.reddit.com/r/...omb_raider_with_rtx_2080/
http://www.pcgameshardwar...-the-Tomb-Raider-1263244/

Settings zijn onbekend, het tijdschrift gaat uit van max. Maar 30 fps op 1080p met een kaart van 1300 euro?

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 23-09 15:05
Mozy schreef op dinsdag 21 augustus 2018 @ 12:46:
https://www.reddit.com/r/...omb_raider_with_rtx_2080/
http://www.pcgameshardwar...-the-Tomb-Raider-1263244/

Settings zijn onbekend, het tijdschrift gaat uit van max. Maar 30 fps op 1080p met een kaart van 1300 euro?
Heel reddit valt hierover, maar dit ligt toch gewoon aan deze specifieke game in plaats van de kaart? Lijkt me niet dat een 1080 Ti of een Vega 64 het beter gaat doen.

Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 23:47
Denzo schreef op dinsdag 21 augustus 2018 @ 13:07:
[...]


Heel reddit valt hierover, maar dit ligt toch gewoon aan deze specifieke game in plaats van de kaart? Lijkt me niet dat een 1080 Ti of een Vega 64 het beter gaat doen.
Zeker gaan die het niet beter doen, maar je mag toch hopen dat die niet gebruikelijk is met RTX, want wat heb je dan aan je €1300 RTX kaart?

Acties:
  • 0 Henk 'm!

  • Matthias87
  • Registratie: Juli 2013
  • Laatst online: 26-08 10:30
Lees veel teleurgestelde, en boze reacties online (reddit, andere fora). Als ze (nvidia) niet uitkijken krijg je straks ineens zo een 'angry mob' die destijds onstond tegen EA bij onvrede over Battlefront 2.

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 23-09 15:05
DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 13:10:
[...]

Zeker gaan die het niet beter doen, maar je mag toch hopen dat die niet gebruikelijk is met RTX, want wat heb je dan aan je €1300 RTX kaart?
Dan speel je een game die wel optimized is? Battlefield V draaide behoorlijk soepel, terwijl dat ook nog een beta build is. Het punt dat ik probeer te maken is dat iedereen valt over de performance van de kaart, terwijl dit duidelijk niks met de hardware te maken heeft.

Acties:
  • 0 Henk 'm!

  • Melantrix
  • Registratie: Maart 2009
  • Laatst online: 03:26
DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 13:10:
[...]

Zeker gaan die het niet beter doen, maar je mag toch hopen dat die niet gebruikelijk is met RTX, want wat heb je dan aan je €1300 RTX kaart?
Je kan hier echt geen conclusies aan verbinden. Ze weten niet wat voor systeem het precies is, ze weten niet welke settings er aan staan, sowieso dat dit nog geen final product is van het spel, sowieso niet geoptimaliseerde drivers, waarschijnlijk nog maar een beta implementatie van RTX e.d. etc etc. Dit zou ik met net zoveel zout nemen als t praatje van Nvidia zelf..

"Never attribute to malice that which is adequately explained by stupidity"


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
DaniëlWW2 schreef op dinsdag 21 augustus 2018 @ 12:37:
Ik zie het juist van de andere kant. Het gaat nu al zolang over ray tracing, en Nvidia komt "gewoon" even met de hardware om het echt te doen op beperkte schaal. Nvidia heeft ook wel een reputatie dat ze hun exclusieve software weten te pushen in grote releases, en dat lijkt nu weer te gebeuren.

Qua DXR vraag ik me af of er niet sprake is van de noodzaak om er een GPU vendor specifieke laag overheen te leggen voor optimaal resultaat? Zo zie ik RTX namelijk. Natuurlijk betekent dit dat AMD er niks mee kan, en Intel ook niet als die in 2020 weer gaan proberen om de videokaarten in te stappen.
Melantrix schreef op dinsdag 21 augustus 2018 @ 12:41:
Volgens mij is er het een juist niet gpu vendor specifiek als het gaat om de laag die er overheen gaat. als ik het plaatje [afbeelding] mag geloven gaat Vulcan, DirectX en OptiX(?) gebruik kunnen maken van RTX. AMD kan dus met een hardware oplossing komen als tegenhanger van RTX waar Vulcan/DirectX ook mee kan praten.
Eerst zien, dan geloven :)

Dat Nvidia's DXR implementatie via de RT en Tensor cores loopt staat buiten kijf. De vraag is echter of deze games DXR (kunnen) gebruiken of niet.

Want dat is TWIMTBP: met Nvidia-proprietary technologie; dus bijvoorbeeld specifiek met OptiX en niet DXR.
Denzo schreef op dinsdag 21 augustus 2018 @ 13:07:
Heel reddit valt hierover, maar dit ligt toch gewoon aan deze specifieke game in plaats van de kaart? Lijkt me niet dat een 1080 Ti of een Vega 64 het beter gaat doen.
Vooralsnog zou ik met name bij TR ook even een slag om de arm houden. De vorige game in die reeks liep immers ook niet bepaald lekker.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Denzo schreef op dinsdag 21 augustus 2018 @ 13:13:
[...]


Dan speel je een game die wel optimized is? Battlefield V draaide behoorlijk soepel, terwijl dat ook nog een beta build is. Het punt dat ik probeer te maken is dat iedereen valt over de performance van de kaart, terwijl dit duidelijk niks met de hardware te maken heeft.
Of de Battlefield demo echt soepel draaide kan je niet echt zeggen over een 30fps stream waarin vrijwel de hele demo in slomo draaide.

Bovendien heb ik nergens FPS getallen gezien daar, noch de exacte configuratie waarop het draaide. Misschien waren het wel 4 RTX 2080Ti kaarten. 8)7

Zeggen dat het "duidelijk niet" aan de hardware ligt vind ik daarom voorbarig.

[ Voor 4% gewijzigd door Blaat op 21-08-2018 13:20 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Nu online
Wel een drastische performance hit!?
Misschien kan AMD hier nog op in spelen gezien die met hogere ress/DX12 minder performance loss hebben met Vega. In vergelijking met Nvidia's 1000 serie.

Die hebben ook nog ergens tracing tech.

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ik zit al jaren in de 3d visualisatie en nvidia's presentatie was een leuke refresh maar ik heb heel weinig nieuws gehoord eigenlijk. Het was natuurlijk wachten tot ze raytracen zo versneld hadden dat het, of iig delen, realtime gaan. De vergelijkingen met rasterization waren misleidend..
Met AI denoisen en de qualiteit verbeteren is wel leuk.

Al doet bijv Vray ook al langer denoisen van frames via cuda of openCL, ik geloof dat AMD gpu's daar zelfs de beste prijs/prestatie zijn. (maar das niet realtime) In de komende versie van Vray zit trouwens ook de optie om via NVIDIA Optix te denoisen, met voor en nadelen:
https://www.chaosgroup.co...the-nvidia-optix-denoiser

@Werelds natuurlijk moet de software er wel wat mee doen, maar het mooie aan nvlink op de pro gpu's is dat je vram kunt poolen en bijv een gpu renderer 2x zo veel vram heeft als voorheen (voor nvlink)

Wat ik me dan afvraag is, blijft die functie behouden als je "game" georienteerde 2080's met nvlink verbind; als in; gaat dat soort software toch 2x de vram zien..? Een van de pluspunten van de pro gpu's is de vram hoeveelheid, en met een 2x 2080ti zou je dan nu ook ineens 22GB hebben voor een compute taak. Ik vraag me af of nvidia dat dus bij compute gaat toestaan...

[ Voor 3% gewijzigd door maratropa op 21-08-2018 13:40 ]

specs


Acties:
  • +3 Henk 'm!

  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 11-10 09:04
Zonder iemand op de tenen te trappen, maar wat een overhypede launch is dit zeg. Ik kan me niet voorstellen hoe je blindelings een GPU hypet (laat staan bestelt) waarvan nog geen enkele (real life) benchmark beschikbaar is. Als je dan ook nog eens bedenkt dat de MSRP/launch prijs in 2 generaties tijd praktisch verdubbeld is, waar gaat het dan nog over?

Ik hoop persoonlijk stiekem dat Nvidia keihard op zijn mond gaat met deze launch en dat de benchmarks tegenvallen en mensen de kaarten massaal links laten liggen. Als blijkt dat de benchmarks inderdaad 50% meer performance geven dan de vorige gen en de prijzen zakken nog wat, neem ik mijn woorden terug :)

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 23-09 15:05


IGN heeft even Shadow of the Tomb Raider mogen spelen op een RTX 2080 Ti met een 1080p scherm, en dat lijkt soepeltjes te gaan.

Acties:
  • +1 Henk 'm!

  • ymmv
  • Registratie: Mei 2003
  • Laatst online: 05-10 10:18
Denzo schreef op dinsdag 21 augustus 2018 @ 13:30:
[video]

IGN heeft even Shadow of the Tomb Raider mogen spelen op een RTX 2080 Ti met een 1080p scherm, en dat lijkt soepeltjes te gaan.
Wie gaat er nou 8)7 een 2080 TI kopen om in 1080p te gaan gamen.... Da's toch geen benchmarkmateriaal.

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 23-09 15:05
ymmv schreef op dinsdag 21 augustus 2018 @ 13:34:
[...]


Wie gaat er nou 8)7 een 2080 TI kopen om in 1080p te gaan gamen.... Da's toch geen benchmarkmateriaal.
Het is sowieso geen benchmark materiaal want het is een game die niet gereleaset is en wat dus sowieso nog niet altijd smooth draait. Hoe de kaart zich echt verhoudt tegen de 1080 Ti zullen we pas zien als men beide kaarten de vertrouwde benchmarks laat draaien.

Maar inderdaad, 1080p is een beetje een raar om mee te show-offen van NVIDIA/IGN. Laat wat games zien die draaien op de 4K BFG, of die nieuwe 144Hz 4K HDR van Asus.

[ Voor 14% gewijzigd door Denzo op 21-08-2018 13:38 ]


Acties:
  • 0 Henk 'm!

  • Mozy
  • Registratie: Mei 2012
  • Laatst online: 05-10 20:14
Denzo schreef op dinsdag 21 augustus 2018 @ 13:13:
[...]


Dan speel je een game die wel optimized is? Battlefield V draaide behoorlijk soepel, terwijl dat ook nog een beta build is. Het punt dat ik probeer te maken is dat iedereen valt over de performance van de kaart, terwijl dit duidelijk niks met de hardware te maken heeft.
https://www.pcgamesn.com/nvidia-rtx-2080-ti-hands-on
Quote m.b.t BF:V Rotterdam map.
"But of course there is still a hefty performance hit to the game. Again we were capturing the game resolution at 1080p and while we couldn’t bring the fps counter up in the show demo version, we’d bet it wasn’t hitting 60fps either. "
PCGN zegt dat Tomb Raider tussen de 33 en 48 fps draaide. Dit was wel in een day-time level met enorm veel bewegende onderdelen.

[ Voor 9% gewijzigd door Mozy op 21-08-2018 13:55 ]


Acties:
  • +3 Henk 'm!

  • ymmv
  • Registratie: Mei 2003
  • Laatst online: 05-10 10:18
https://www.overclock3d.n...oesn_t_mean_ray_tracing/1
Nvidia Clarifies - RTX in games doesn't just mean Ray Tracing

At their Geforce Gaming Celebration before Gamescom 2018, Nvidia announced that a total of 21 games would support Nvidia's RTX technologies, a feature that was almost exclusively marketed as Ray Tracing support at the show, with examples like Battlefield V, Metro Exodus, Atomic Heart and Assetto Corsa: Competizione all featuring support for real-time Ray Tracing.

Now that the dust has settled a little, Nvidia has released a press release to confirm that RTX technology refers to both AI and Ray Tracing, which means that almost half of the "RTX Games" below will lack any support for Ray Tracing. In fact, more of the titles below support Nvidia's AI-driven DLSS (Deep Learning Super Sampling) than real-time Ray Tracing, with 16 games supporting DLSS while 11 support Ray Traced elements.

Below is a list of all the games below that will support Real-Time Ray Tracing;

- Assetto Corsa Competizione
- Atomic Heart
- Battlefield V
- Control
- Enlisted
- Justice
- JX3
- MechWarrior 5: Mercenaries
- Metro Exodus
- ProjectDH
- Shadow of the Tomb Raider


Nvidia Clarifies - RTX in games doesn't mean Ray Tracing

Nvidia's DLSS (Deep Learning Super Sampling) technology is designed to render sharp images with smooth edges through the use of Turing's Tensor Cores. Nvidia's name for the technology suggests that it offers image quality improvements that are similar to supersampling.

Below is a list of games that will support Nvidia DLSS;

- Ark: Survival Evolved
- Atomic Heart
- Dauntless
- Final Fantasy XV
- Fractured Lands
- Hitman 2
- Islands of Nyne
- Justice
- JX3
- Mechwarrior 5: Mercenaries
- Player Unknown's Battlegrounds
- Remnant: From the Ashes
- Serious Sam 4: PLanet Badass
- Shadow of the Tomb Raider
- The Forge Arena
- We Happy Few

Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Nu online
Denzo schreef op dinsdag 21 augustus 2018 @ 13:30:
[video]

IGN heeft even Shadow of the Tomb Raider mogen spelen op een RTX 2080 Ti met een 1080p scherm, en dat lijkt soepeltjes te gaan.
Wat ik mis als ze dood valt is dat ze niet gilt! wat ik eigenlijks wel een trademark vind in TR games gaf me altijd kippenvel.

Acties:
  • +1 Henk 'm!

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 09:22
Denzo schreef op dinsdag 21 augustus 2018 @ 13:30:
[video]

IGN heeft even Shadow of the Tomb Raider mogen spelen op een RTX 2080 Ti met een 1080p scherm, en dat lijkt soepeltjes te gaan.
Indrukwekkend hoor op 1080p. |:(

Ten tweede ziet het er goed uit, maar die effecten vallen mij persoonlijk niet extreem op. Zonder de nieuwe kaarten was het me waarschijnlijk niet eens opgevallen.

[ Voor 21% gewijzigd door NotSoSteady op 21-08-2018 14:17 ]


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

ymmv schreef op dinsdag 21 augustus 2018 @ 14:10:
https://www.overclock3d.n...oesn_t_mean_ray_tracing/1
Nvidia Clarifies - RTX in games doesn't just mean Ray Tracing

At their Geforce Gaming Celebration before Gamescom 2018, Nvidia announced that a total of 21 games would support Nvidia's RTX technologies, a feature that was almost exclusively marketed as Ray Tracing support at the show, with examples like Battlefield V, Metro Exodus, Atomic Heart and Assetto Corsa: Competizione all featuring support for real-time Ray Tracing.

Now that the dust has settled a little, Nvidia has released a press release to confirm that RTX technology refers to both AI and Ray Tracing, which means that almost half of the "RTX Games" below will lack any support for Ray Tracing. In fact, more of the titles below support Nvidia's AI-driven DLSS (Deep Learning Super Sampling) than real-time Ray Tracing, with 16 games supporting DLSS while 11 support Ray Traced elements.

Below is a list of all the games below that will support Real-Time Ray Tracing;

- Assetto Corsa Competizione
- Atomic Heart
- Battlefield V
- Control
- Enlisted
- Justice
- JX3
- MechWarrior 5: Mercenaries
- Metro Exodus
- ProjectDH
- Shadow of the Tomb Raider


Nvidia Clarifies - RTX in games doesn't mean Ray Tracing

Nvidia's DLSS (Deep Learning Super Sampling) technology is designed to render sharp images with smooth edges through the use of Turing's Tensor Cores. Nvidia's name for the technology suggests that it offers image quality improvements that are similar to supersampling.

Below is a list of games that will support Nvidia DLSS;

- Ark: Survival Evolved
- Atomic Heart
- Dauntless
- Final Fantasy XV
- Fractured Lands
- Hitman 2
- Islands of Nyne
- Justice
- JX3
- Mechwarrior 5: Mercenaries
- Player Unknown's Battlegrounds
- Remnant: From the Ashes
- Serious Sam 4: PLanet Badass
- Shadow of the Tomb Raider
- The Forge Arena
- We Happy Few
Ik kon me ook al niet voorstellen dat PUBG corp zelfmoord wilde plegen door de performance van het spel in vieren te hakken met wat mooiere reflecties. Ze willen net een poging gaan doen het beter te maken. :P

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
maratropa schreef op dinsdag 21 augustus 2018 @ 13:27:
@Werelds natuurlijk moet de software er wel wat mee doen, maar het mooie aan nvlink op de pro gpu's is dat je vram kunt poolen en bijv een gpu renderer 2x zo veel vram heeft als voorheen (voor nvlink)

Wat ik me dan afvraag is, blijft die functie behouden als je "game" georienteerde 2080's met nvlink verbind; als in; gaat dat soort software toch 2x de vram zien..? Een van de pluspunten van de pro gpu's is de vram hoeveelheid, en met een 2x 2080ti zou je dan nu ook ineens 22GB hebben voor een compute taak. Ik vraag me af of nvidia dat dus bij compute gaat toestaan...
Je laat het nu toch iets eenvoudiger klinken dan het is :P

Met NVLink 2.0 (1.0 kan dit niet op dezelfde manier) + NVSwitch kun je inderdaad relatief eenvoudig memory poolen. Mits de software daar expliciet ondersteuning voor heeft. En dan heb ik het over ondersteuning voor pooling m.b.v. NVLink. Zie bijvoorbeeld V-Ray, die hebben dat expliciet toe moeten voegen.

Of ze dat mogelijk maken met de "game" GPU's? Geen idee, maar je hebt gelijk, als er iets is wat Nvidia uit wil zetten, is het dat wel. Waarom zouden ze NVLink dan echter überhaupt aan zetten? Want dat is nu juist het grote voordeel.

Voor games zijn we er nog niet. Zelfs met de volle bandbreedte van NVLink 2.0 heb je het over maximaal 300 GB/s (minder dan een 1080 dus doet); ik weet niet hoe het met de latency zit. In V-Ray is dat niet zo spannend, daar wil je liever alles in het geheugen hebben als het kan. Als het dan net iets langer duurt omdat het uit het geheugen van de andere GPU komt en dus met "maar" 300 GB/s gelezen kan worden, is dat niet zo spannend, het is alsnog sneller dan laden door de PCI-e bus als het nog niet geladen is.

In games zit je echter met targets waarbij elke microseconde telt. Juist op een GPU als een 2080 Ti zie ik er het nut niet van in...maar plak die connector nu eens op bijvoorbeeld een 1060? Dan wordt het pas interessant ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Volgens mij heeft raytracing niet echt een performance hit als je van 1080p naar 4k resolutie gaat, helaas de rest wat niet geraytraced wordt wel :+

dat is het nadeel van de hybride methode die ze nu hanteren. (volledig raytracing is ook niet te doen nu)


Mijn clonclusie is nogsteeds dat het een leuke gimmick is voor wat betere schaduwen en reflecties tegenover een perfomance restrictie.

Ik vraag me ook af hoe dat in de pipeline werkt. is het dan nu zo dat die RT en tensor cores de bottleneck zijn en dat in dit voorbeeld met Tomb Raider op 1080p met 30-60 fps een deel van de SM's zit te wachten en onbenut is ?

Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 23:47
Verwijderd schreef op dinsdag 21 augustus 2018 @ 14:55:
Volgens mij heeft raytracing niet echt een performance hit als je van 1080p naar 4k resolutie gaat, helaas de rest wat niet geraytraced wordt wel :+
Wordt er bij ray tracing niet een "light" gestuurd vanuit elke pixel?

Acties:
  • 0 Henk 'm!

  • ErnstH
  • Registratie: September 2003
  • Niet online
Iets waar ik over aan het nadenken was, maar nog niet ergens heb gezien: als een groot deel van de lighting pipeline op de RT cores zal draaien, dan zal dat als neven-effect hebben dat er meer tijd overblijft voor de rest van de shaders. Dus zelfs al zou een RTX 2080 even snel zijn als een GTX 1080 (en dat lijkt me onwaarschijnlijk), dan zou een spel dat gebruik maakt van RTX voor lighting alsnog (significant) sneller kunnen zijn.

Edit:
Afbeeldingslocatie: https://images.anandtech.com/doci/13240/14_575px.jpg
Als je bijvoorbeeld naar dit plaatje kijkt, dan zou je je kunnen voorstellen dat in een traditionele pipeline de gele (FP shading) en blauwe balkjes (INT shading) veel meer tijd in beslag zouden nemen (nog afgezien van het feit dat bij de vorige generatie kaarten FP en INT shading niet apart waren).

[ Voor 30% gewijzigd door ErnstH op 21-08-2018 15:00 ]


Acties:
  • +3 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 10-10 22:35
Deze release begint steeds meer op het GeForce FX fiasco te lijken. Veel hype, een 'Cinematic Experience'. Een nieuwe naam (RTX). Waarschijnlijk worden de kaarten erg warm/verbruiken ze veel. Waarschijnlijk vallen de prestaties tegen.

Er mist alleen nog een Radeon 9800 Pro om ze de genadeklap te geven.

Ben ik trouwens erg achterdochtig, als ik mijn FPS in de gaten ga houden bij nieuwe driver updates. Het zou wel heel erg nVidia zijn om de Pascal kaarten iets terug te houden met nieuwe drivers in aanloop naar de Turing benchmarks. >:)

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 14:56:
[...]

Wordt er bij ray tracing niet een "light" gestuurd vanuit elke pixel?
Niet bij RTX. Er worden er maar enkele verstuurd en de rest aangevuld met deep learning info.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Werelds thnx. Ik las bij Anandtech dat de Nvlink op de 20xx 2 channels zijn voor 50GB/sec full duplex. Dus niet leip veel idd..

specs


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 23:47
Blaat schreef op dinsdag 21 augustus 2018 @ 15:05:
[...]


Niet bij RTX. Er worden er maar enkele verstuurd en de rest aangevuld met deep learning.
Ja oke, maar gaat dat aantal dan niet alsnog omhoog bij 4k? Bijv een aantal % van de pixels

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 15:07:
[...]

Ja oke, maar gaat dat aantal dan niet alsnog omhoog bij 4k? Bijv een aantal % van de pixels
Lijkt me wel, anders zouden alle demo's wel in 4k zijn. :P

@Werelds, maar er kan toch ook nog data via de PCI-e sloten verstuurd worden? Lijkt mij voldoende om het verschil in bandbreedte aan te vullen voor iets wat sneller is dan een 1060. Of denk ik nu te eenvoudig?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

DoubleYouPee schreef op dinsdag 21 augustus 2018 @ 14:56:
[...]

Wordt er bij ray tracing niet een "light" gestuurd vanuit elke pixel?
Ik dacht dat Huang benoemde dat resolutie voor raytracing niet echt er toe doet. Heeft er mischien mee te maken dat Nvidia het lijkt te doen vanuit een beperkt aantal lichtpunten. maar kan er naast zitten.

[ Voor 3% gewijzigd door Verwijderd op 21-08-2018 15:18 ]


Acties:
  • 0 Henk 'm!

Verwijderd

ehoutgast schreef op dinsdag 21 augustus 2018 @ 14:57:
Iets waar ik over aan het nadenken was, maar nog niet ergens heb gezien: als een groot deel van de lighting pipeline op de RT cores zal draaien, dan zal dat als neven-effect hebben dat er meer tijd overblijft voor de rest van de shaders. Dus zelfs al zou een RTX 2080 even snel zijn als een GTX 1080 (en dat lijkt me onwaarschijnlijk), dan zou een spel dat gebruik maakt van RTX voor lighting alsnog (significant) sneller kunnen zijn.

Edit:
[afbeelding]
Als je bijvoorbeeld naar dit plaatje kijkt, dan zou je je kunnen voorstellen dat in een traditionele pipeline de gele (FP shading) en blauwe balkjes (INT shading) veel meer tijd in beslag zouden nemen (nog afgezien van het feit dat bij de vorige generatie kaarten FP en INT shading niet apart waren).
Dat nevefect heb niet veel aan als blijkt dat doordat het 1 pipeline is , de RT en Tensor cores de bottlneck zijn en je Shadercores ondertussen zitten te wachten en niks te doen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op dinsdag 21 augustus 2018 @ 13:17:
[...]


[...]

Eerst zien, dan geloven :)

Dat Nvidia's DXR implementatie via de RT en Tensor cores loopt staat buiten kijf. De vraag is echter of deze games DXR (kunnen) gebruiken of niet.

Want dat is TWIMTBP: met Nvidia-proprietary technologie; dus bijvoorbeeld specifiek met OptiX en niet DXR.
Ik denk dat we beiden stiekem het antwoord daar wel op weten. :+
Ik kijk alleen naar de langere termijn, dus voorbij een generatie of zelfs twee. We hebben nu een ray tracing API als extensie van DirectX en daarmee een standaard. Vervolgens zit de intrede van Intel in de videokaarten eraan te komen als een derde optie die de markt eens flink kan opschudden. Oorspronkelijk was dit gericht op deep learning, maar ze lijken nu ook naar gaming te kijken. Intel heeft alleen geen eigen doorontwikkelde software stacks om die videokaarten wel even te laten draaien. Dat gegeven schijnt Larrabee de nek om te hebben gedraaid.

Om nu een nieuwe videokaart architectuur uitbrengen zonder fatsoenlijke software stacks is gewoon geldverspilling. Nou is Intel daar vrij goed in, maar zo dom zijn ze nou ook weer niet, hoop ik dan. Nee, dat is het soort stupiditeit dat ik associeer met AMD in het pre Lisa Su tijdperk. :P

Nu hebben ze een jaar geleden een zeker hoofd van de GPU divisie van AMD overgenomen. Onder zijn leiding is AMD begonnen met de opbouw van een software stack voor deep learning, en zijn de drivers voor de gaming kaarten ook flink verbeterd en uitgebreid. Verder zet AMD de tools, documentatie en hun kennis voor low level API's gewoon online om die barrière te slechten. Het is ook allemaal open source.

Intel kan dus kiezen om zelf hun eigen software stacks op te gaan bouwen, of open source gaan, zich aansluiten bij AMD hun werk en zelf bij gaan dragen aan bijvoorbeeld het "Boltzmann Initiative" en dan eigen drivers ontwikkelen die hier vervolgens gebruik van maken. Ik gok dat optie twee zeker niet onrealistisch is. Zeker omdat Intel en AMD tegenwoordig meer "frenemies" zijn dan aartsvijanden. Ze hebben een gezamenlijke vijand, Nvidia. Intel en AMD kunnen niet zonder elkaar bestaan, maar wel zonder Nvidia. ;)

Een dag later zien we ook dat ray tracing problematisch blijft, dus er is tijd voordat het mainstream zal worden. Genoeg tijd voor Intel om haar intreden te doen en tijd voor AMD om te reageren. Nvidia is ook echt niet zomaar bezig om zichzelf in te graven in gaming en deep learning en zich te positioneren als onmisbaar. Nog bouwt Nvidia zomaar een enorme oorlogskas op. "Leather jacked man" is echt niet zo stom om niet te zien wat er staat te gebeuren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Blaat schreef op dinsdag 21 augustus 2018 @ 15:08:
@Werelds, maar er kan toch ook nog data via de PCI-e sloten verstuurd worden? Lijkt mij voldoende om het verschil in bandbreedte aan te vullen voor iets wat sneller is dan een 1060. Of denk ik nu te eenvoudig?
Doet het nut van NVLink echter helemaal teniet. Het hele idee is juist dat je het één keer laadt en vervolgens op beide GPU's kan gebruiken.

Met SLI gaat al je data naar beide GPU's, punt. De brug is er vooral om frames naar de goede output te krijgen.

Met EMA zonder NVLink kun je er (als dev) voor kiezen om iets alleen in het geheugen van GPU1 te knallen en dus ook alleen die GPU er mee te laten werken. Dat is ook meteen het probleem, GPU2 kan niets met dat stukje data.

Met EMA + NVLink kun je GPU2 óók laten werken met dat stukje data. Het is dan iets trager, maar nog steeds vele malen sneller dan over de PCIe bus laden. Op het moment dat jij 500 MB aan data door de PCIe bus moet rammen voor een frame omdat het er nog niet staat, heb je de race al verloren. Dat kost je sowieso je volgende refresh op 60 Hz.

Vergeet niet dat PCIe 3.0 x16 slechts 15,8 GB/s is. Dat is met pijn en moeite 5% van wat een 1080 doet, laat staan snellere kaarten. Daarom wordt dat allemaal tijdens laadschermpjes gedaan. Dan worden ze van het traagste onderdeel geladen (je harde schijf; ook een SSD stelt nog steeds geen reet voor :P), door een veel snellere bus gestuurd om vervolgens in bloedsnel geheugen opgeslagen te worden voor als het nodig is. De PCIe bus wordt gebruikt om data in het geheugen te zetten vóórdat het nodig is. Doe je dat niet dan krijg je gestotter in je spel. Het gaat maar om milliseconden, maar daar draaien framerates ook om ;)

Dat is ook waarom ik NVLink uitermate boeiend zou vinden op zoiets als een 1060 (en ook waarom dat nooit zal gebeuren). 300 GB/s is meer dan de kaart zelf aan bandbreedte heeft, dus het enige wat GPU2 zou verliezen door iets van GPU1 te laden is enige latency die er bij het lezen komt kijken. Met andere woorden, met iets tragere GPU's zou je dan pas écht perfecte scaling met 0,0 microstuttering kunnen krijgen. Met een snellere kaart verlies je nog richting de milliseconde als het over de link moet. Dat hóeft dan geen probleem te zijn, maar als je er geen rekening mee houdt kan het wel in microstuttering resulteren.

Acties:
  • +1 Henk 'm!

Verwijderd

ymmv schreef op dinsdag 21 augustus 2018 @ 14:10:
Nvidia's DLSS (Deep Learning Super Sampling) technology is designed to render sharp images with smooth edges
Dus gewoon anti-aliasing?

Goed consumentenadvies van Hardware Unboxed.

Niet pre-orderen, rustig de performance afwachten en waarschijnlijk beter nog een 1080 Ti kopen wanneer het nog kan.
Mijn eigen toevoeging, als je niets geeft om FreeSync en G-Sync. Qua prijzen van de kaarten zelf is Nvidia momenteel aantrekkelijker, gek genoeg.
Puur afgaande op het aantal CUDA-kernen en zo zal de performance-winst matig zijn, zo'n 20%, en zal een 2080 minder presteren dan een 1080 Ti, een 2070 minder presteren dan de 1080 etc.
Daarnaast lijkt het erop (volgens hem, ik ben het ermee eens) dat je binnen een jaar alweer de volgende generatie hebt aangezien Nvidia iets tegenover Navi (7 nm.) moet plaatsen. Je betaalt best wel veel voor weinig extra performance en dit bij een generatie die hooguit 1 jaar oud wordt.

[ Voor 12% gewijzigd door Verwijderd op 21-08-2018 17:32 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Paprika schreef op maandag 20 augustus 2018 @ 20:58:
Blijft wel spannend al die mensen die gewoon bestellingen plaatsen zonder ook maar 1 benchmark te hebben gezien. Performance, geluid, temperatuur, overklokbaarheid... Zowel bij de FE als de custom kaarten wil je zoiets toch gewoon weten?

[afbeelding]
https://www.reddit.com/r/...te_preorder_cancellation/

:+

Toch wel wat mensen met buyers remorse nu de eerste fps bevindingen mbt RTing naar buiten komen en eveneens de verwachte beperkte performance verbetering (reken zo'n 6-700 euro bovenop de huidige videokaart om daar eigenlijk niet veel voor terug te krijgen). Toch maar wachten op benchmarks?

Bij Pascal hadden we nog een leuke winst door extra's als de vierde generatie delta color compressie. Het enige dat ik dit keer heb gehoord is iets over integer berekeningen meen ik....

Dit dus:
Finally, Nvidia CEO Jensen Huang mentioned the ability of Turing to do simultaneous floating-point and integer calculations, at 14 TFLOPS/TIPS each. Graphics cards have to do a lot of address generation when loading textures, and the simultaneous FP + INT calculations could provide a serious benefit to performance, even in games that don't use ray-tracing. Jensen mentioned Turing being "1.5 times faster" than Pascal at one point, seemingly referring to the concurrent FP and INT capability, and if that proves to hold true in most games, even the RTX 2070 could match GTX 1080 Ti performance.
Maar dat wil ik eerst wel eens zien terugkomen in reviews, want gezien we er niets van hebben gezien (terwijl bij Pascal de nieuwe compressie uitgebreid werd toegelicht tijdens de announcement) geeft me weinig hoop dat deze getallen ook realistisch zijn.

[ Voor 48% gewijzigd door Paprika op 21-08-2018 17:58 ]


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Nu online
Verwijderd schreef op dinsdag 21 augustus 2018 @ 16:39:
[...]

Dus gewoon anti-aliasing?

Goed consumentenadvies van Hardware Unboxed.
[video]
Niet pre-orderen, rustig de performance afwachten en waarschijnlijk beter nog een 1080 Ti kopen wanneer het nog kan.
Mijn eigen toevoeging, als je niets geeft om FreeSync en G-Sync. Qua prijzen van de kaarten zelf is Nvidia momenteel aantrekkelijker, gek genoeg.
Puur afgaande op het aantal CUDA-kernen en zo zal de performance-winst matig zijn, zo'n 20%, en zal een 2080 minder presteren dan een 1080 Ti, een 2070 minder presteren dan de 1080 etc.
Daarnaast lijkt het erop (volgens hem, ik ben het ermee eens) dat je binnen een jaar alweer de volgende generatie hebt aangezien Nvidia iets tegenover Navi (7 nm.) moet plaatsen. Je betaalt best wel veel voor weinig extra performance en dit bij een generatie die hooguit 1 jaar oud wordt.
Waarom zou de 2070 minder presteren dan een 1080? de 1070 Ti komt al heel erg in de buurt van een stock 1080. Neem aan dat de standaarden in de nieuwe serie gewoon doorschuiven.

Tuurlijk is het afwachten op de benchmarks etc. Trouwens wanneer krijgen de Techmedia's hun speeltjes?

Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Psyonara schreef op dinsdag 21 augustus 2018 @ 17:55:
[...]


Waarom zou de 2070 minder presteren dan een 1080? de 1070 Ti komt al heel erg in de buurt van een stock 1080. Neem aan dat de standaarden in de nieuwe serie gewoon doorschuiven.

Tuurlijk is het afwachten op de benchmarks etc. Trouwens wanneer krijgen de Techmedia's hun speeltjes?
Op 't moment dat de pre-orders bij Postnl liggen.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

YouTube: GeForce Garage - Turing L3p Spectre feat. GeForce RTX 2080 Ti "Onze" L3p :P d:)b

Anandtech editiorial: NVIDIA Announces the GeForce RTX 20 Series: RTX 2080 Ti & 2080 on Sept. 20th, RTX 2070 in October

"RT cores and tensor cores are semi-fixed function hardware; they can’t be used for rasterization, and the transistors allocated to them are transistors that could have been dedicated to more rasterization hardware otherwise. So NVIDIA has made an incredibly significant move here in terms of opportunity cost by going the hybrid rendering route rather than building a bigger Pascal."

"As a result, NVIDIA is attempting a paradigm shift in consumer rendering, one that we’ve really only see before with the introduction of pixel and vertex shaders (DX8 & DX9 era tech) all the way back in 2001 & 2002. Which is why Microsoft’s DirectX Raytracing (DXR) initiative is so important, as are NVIDIA’s other developer and consumer initiatives. NVIDIA needs to sell consumers and developers alike on this vision of mixing rasterization with ray tracing to provide better image quality. And more so than that, they need to ease developers into the idea of working with more specialized, fixed function units as Moore’s Law continues to slow down and fixed function hardware becomes a means to achieve greater efficiency.

NVIDIA hasn’t bet the farm on hybrid rendering, but they’ve never attempted to move the market in this fashion. So if it seems like NVIDIA is hyper-focused on hybrid rendering and ray tracing, that’s because they are. It’s their vision of the future, and now they need to get everyone else on board."

[ Voor 158% gewijzigd door Help!!!! op 21-08-2018 18:19 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

Psyonara schreef op dinsdag 21 augustus 2018 @ 17:55:
[...]


Waarom zou de 2070 minder presteren dan een 1080?
Aantal shaders (2560 vs. 2304), klokfrequenties...
Vergelijk het en je ziet het. Tenzij je die nieuwe features in spellen aan zet zou de 2070 iets onder de 1080 moeten komen.

Acties:
  • 0 Henk 'm!

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Misschien dat er op termijn voor de Turing kaarten nog een prijsverlaging in het vat zit, vooral wanneer Nvidia zijn voorraad aan Pascal kaarten toch heeft weten kwijt te raken. Handige strategie.

Qua FPS/€ beginnen de Pascal kaarten er opeens een stuk beter uit te zien dan voorheen - zelfs indien de Turing kaarten over de hele linie in staat zouden zijn tot een 20% performance winst (t.o.v. de Pascal tegenligger). Volgens die Australiër van Hardware Unboxed is zelfs die 20% al aan de hoge kant, hij gaat eerder uit van 10-15%.

Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Nu online
Verwijderd schreef op dinsdag 21 augustus 2018 @ 18:11:
[...]

Aantal shaders (2560 vs. 2304), klokfrequenties...
Vergelijk het en je ziet het. Tenzij je die nieuwe features in spellen aan zet zou de 2070 iets onder de 1080 moeten komen.
Ja heb de specs wel gezien en ook in vergelijking, maar wat ik van de Press terug heb gekeken hebben ze wel weer ge-adverteerd dat de 2070 sneller zou zijn dan de 1080.

De nieuwe Tech en Vram mogelijk het verschil overbruggen in Klocksnelheden etc.
Het zou raar zijn als ze een nieuwe generatie uitbrengen, en dat het dan zwaar onder performed lijkt me een beetje onwaarschijnlijk. Ook een van redenen dat ik de specs niet zo Letterlijk neem.

Maar ja het is niet de eerste keer dat Nvidia iets verknalt heeft.

En RTX tech zelf boeit me eerlijk gezegt niet dat zal pas een generatie of 2 verder pas een norm zijn.

[ Voor 6% gewijzigd door Psyonara op 21-08-2018 18:22 ]


Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:23
Psyonara schreef op dinsdag 21 augustus 2018 @ 18:20:
[...]


De nieuwe Tech en Vram mogelijk het verschil overbruggen in Klocksnelheden etc.
Het zou raar zijn als ze een nieuwe generatie uitbrengen, en dat het dan zwaar onder performed lijkt me een beetje onwaarschijnlijk.
7.5 TFLOPs (2070) vs 8.9 TFLOPs (1080) is wel 'n gat van 18.5%...

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

PCGamesn heeft ook haar handen gekregen op de demo met de RTX1080Ti. Tja, ze geven aan dat naast de volgende Tomb Raider, BF5 waarschijnlijk ook geen 60fps haalde met ray tracing aan en 1080p. :N
https://www.pcgamesn.com/nvidia-rtx-2080-ti-hands-on

Als dat klopt dan kan Nvidia wel eens een enorme fout hebben gemaakt. Ray tracing is als concept geweldig, dat schuif ik echt niet onder stoelen of banken. Ik wil het zelf ook aangezien ik wel wat grafische effecten kan waarderen, maar niet ten koste van tientallen frames per seconde. Daar hebben we het namelijk over. Is dat de uitkomst, dan is het niks meer dan een gimmick en heeft Nvidia een, ogenschijnlijk twee gigantische GPU's gecreëerd waar een aanzienlijk deel van de hardware waardeloos is en ze geen noemenswaardige sprong in traditionele shader en rasterization prestaties hebben gezet.

Vervolgens moet Nvidia DX12 nu keihard gaan pushen omdat ze games moeten hebben waar RTX werkt. Daarmee creëert Nvidia potentieel een enorm probleem voor zichzelf. Vega 10 is namelijk vrij systematisch sneller dan GP104 in DX12 titels en benaderd vaak de GTX1080Ti al. De RTX2070 en RTX2080 lijken niet of nauwelijks sneller te worden dan hun voorgangers. Zo krijg je dadelijk de bezopen situatie dat Nvidia gaat betalen om games te voorzien van RTX en DX12 dus moet pushen. Vervolgens zetten gamers de RTX functies uit, of zetten ze deze op lage instellingen omdat het framerates sloopt. En dan blijken de AMD Vega kaarten, een jaar lang verguist, opeens sneller te zijn dan de Nvidia tegenhangers.


Bottom line, oh wat wil ik graag benchmarks zien hoe RTX nu werkelijk presteert en hoe flexibel de instellingen zijn. Dit kan heel erg interesant gaan worden. De eerste horde is BF5. :9

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
M'n gevoel zegt ook dat als je kijkt naar wat goeie high end rasterization engines nu kunnen laten zien (dus absoluut niet wat nvidia als voorbeelden gaf in de presentatie) veel mensen zich gaan afvragen of dit de performance hit en het geld waard is...

specs

Pagina: 1 ... 48 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.