• -The_Mask-
  • Registratie: November 2007
  • Niet online
Gekke Jantje schreef op woensdag 17 april 2019 @ 13:11:
Ik zeg niet dat een aparte RT kaart gaat komen, echter zie ik wel liever een aparte RT kaart want het moet mogelijk zijn met veel betere performance dan waneer je alles in een enkele gpu stopt.
Lijkt mij juist negatief te werken door de veel hogere latency impact. Onderlinge communicate is natuurlijk veel sneller als het op dezelfde videokaart is, nog beter is dezelfde package en het meest ideale is gewoon dezelfde die.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Valt wel mee, sli latency is ook niet merkbaar. Het is natuurlijk wel beter dat het op de zelfde GPU kan maar hoe veel groter word de die size dan wel niet en de extra kosten? Nvidia MCM is waarschijnlijk ook nog ver weg. Tot die tijd ben ik wel voor een aparte RT kaart. Of 7nm moet zo goed zijn met Nvidia's next gen zodat de raytracing prestaties worden verdubbeld door nog meer RT cores in de chip.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Gekke Jantje schreef op woensdag 17 april 2019 @ 14:17:
Valt wel mee, sli latency is ook niet merkbaar.
Eén van de redenen dat we het bijna niet meer gebruikt wordt is omdat het dus vaak genoeg wel merkbaar is. Waarom denk je dat de serieuze reviewers jaren geleden begonnen zijn met frame time metingen? Juist omdat er gemerkt werd dat de games niet soepel draaiende terwijl de frame rate wel hoog lag.

Meer dan één videokaart is al zo goed als over. Dat terwijl een tweede videokaart in het grootste deel van de games iets toe zal voegen. Dat moet je al te denken geven over een toekomst van een dedicated ray tracing kaart die wat zal toevoegen in een handje vol games.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Gekke Jantje schreef op woensdag 17 april 2019 @ 14:17:
Valt wel mee, sli latency is ook niet merkbaar. Het is natuurlijk wel beter dat het op de zelfde GPU kan maar hoe veel groter word de die size dan wel niet en de extra kosten? Nvidia MCM is waarschijnlijk ook nog ver weg. Tot die tijd ben ik wel voor een aparte RT kaart. Of 7nm moet zo goed zijn met Nvidia's next gen zodat de raytracing prestaties worden verdubbeld door nog meer RT cores in de chip.
SLI latency is minder merkbaar omdat er gebruik wordt gemaakt van alternate frame rendering. Ze doen om de beurten iets.
Het is een ander verhaal als je ray tracing uitvoerd op een andere kaart denk ik.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Sp3ci3s8472 schreef op woensdag 17 april 2019 @ 15:40:
[...]


SLI latency is minder merkbaar omdat er gebruik wordt gemaakt van alternate frame rendering. Ze doen om de beurten iets.
Het is een ander verhaal als je ray tracing uitvoerd op een andere kaart denk ik.
Dat zou eventueel ook met alternate frame rendering kunnen worden opgelost. Ik vind de latency wat je ziet in fact met sli ook prima. Daar heb je meer aan dan 30fps met ray tracing want daar mee merk je de latency wel op.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Gekke Jantje schreef op woensdag 17 april 2019 @ 11:07:
Hier even getest met de GTX 1080 Ti maar het draait 90 tot 100% slomer dan een RTX 2080. Ik kreeg 25-35 fps in Battlefield 5 Rotterdam map met ultra instellingen op 2560x1440.
Oh?
Afbeeldingslocatie: https://static.techspot.com/articles-info/1749/images/1.png
Deze resultaten zijn volgens mij van een versie ouder dan degene die we nu hebben, maar hier presteerd de 2080Ti ongeveer zo goed als wat jij zegt wat je 1080Ti doet.

Verder heb ik begrepen dat RTX/DXR op low best al een verbetering is, heb je dat ook geprobeerd?

Ik hoop dat ik er vanavond aan toe kom. Ik had mn 1080Ti nodig voor werk en CUDA10.1 is echt een crime om te installeren :/

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Gekke Jantje schreef op woensdag 17 april 2019 @ 16:40:
[...]


Dat zou eventueel ook met alternate frame rendering kunnen worden opgelost. Ik vind de latency wat je ziet in fact met sli ook prima. Daar heb je meer aan dan 30fps met ray tracing want daar mee merk je de latency wel op.
Hè? Hoe zie jij voor je dat je AFR toepast met RT?

Leg dat maar eens uit, want ik denk dat er veel developers dat graag zouden doen.

  • Devil N
  • Registratie: September 2000
  • Laatst online: 28-10 12:25
XanderDrake schreef op donderdag 18 april 2019 @ 08:44:
[...]

Oh?
[Afbeelding]
Deze resultaten zijn volgens mij van een versie ouder dan degene die we nu hebben, maar hier presteerd de 2080Ti ongeveer zo goed als wat jij zegt wat je 1080Ti doet.

Verder heb ik begrepen dat RTX/DXR op low best al een verbetering is, heb je dat ook geprobeerd?

Ik hoop dat ik er vanavond aan toe kom. Ik had mn 1080Ti nodig voor werk en CUDA10.1 is echt een crime om te installeren :/
Het grootste probleem met DXR op Pascal videokaarten is dat de framerates erg inconsistent zijn. In scenes met weinig raytracing kun je dan 100+ fps hebben en in scenes met veel raytracing duikt ie ineens omlaag naar 25 fps. Dit zie je niet terug in dit soort grafieken; de gemiddelde framerate ligt ergens tussen het minimum en het maximum, en de 1% lows zijn er om een indicatie te geven van hoeveel de game stottert. Maar het probleem zit hem hier dus niet in stotters, maar in sustained lage framerates afgewisseld door "normale" framerates. Er zou dus eigenlijk een ander soort meting nodig moeten zijn om deze inconsistentie zichtbaar te maken in de grafieken.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
XanderDrake schreef op donderdag 18 april 2019 @ 08:44:
[...]

Oh?
[Afbeelding]
Deze resultaten zijn volgens mij van een versie ouder dan degene die we nu hebben, maar hier presteerd de 2080Ti ongeveer zo goed als wat jij zegt wat je 1080Ti doet.

Verder heb ik begrepen dat RTX/DXR op low best al een verbetering is, heb je dat ook geprobeerd?

Ik hoop dat ik er vanavond aan toe kom. Ik had mn 1080Ti nodig voor werk en CUDA10.1 is echt een crime om te installeren :/
Volgens mij was dit nog voor de 50% performance verbetering patch dus vergelijken gaat helaas niet.

Edit.

Hier haalt de RTX 2080 ti een hoop meer fps met DXR aan.
https://www.guru3d.com/ar...ormance_benchmarks,7.html

[ Voor 9% gewijzigd door Gekke Jantje op 18-04-2019 11:17 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Blaat
  • Registratie: September 2007
  • Laatst online: 09:36

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Sp3ci3s8472 schreef op woensdag 17 april 2019 @ 15:40:
[...]


SLI latency is minder merkbaar omdat er gebruik wordt gemaakt van alternate frame rendering. Ze doen om de beurten iets.
Het is een ander verhaal als je ray tracing uitvoerd op een andere kaart denk ik.
Wacht even... Naar mijn begrip (correct me if I'm wrong) staat AFR voor alternate frame rendering en is dat een SLI methode waarbij de ene kaart de even frames voor z'n rekening neemt en de andere kaart de oneven frames.

Dit is een methode waarbij (volgens mij) frame pacing juist een enorm probleem wordt omdat je soms in de situatie komt dat 1 kaart net iets sneller of trager klaar is dan zou moeten met zijn frame. Het resultaat is inconsistente frametimes en microstuttering.

SFR heeft dit probleem inherent niet (of iig minder) omdat beide kaarten aan hetzelfde frame werken maar dit heeft wat beperkingen qua snelheid.

Of zit ik er nu naast?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Verwijderd

Blaat schreef op donderdag 18 april 2019 @ 11:18:
[...]


Wacht even... Naar mijn begrip (correct me if I'm wrong) staat AFR voor alternate frame rendering en is dat een SLI methode waarbij de ene kaart de even frames voor z'n rekening neemt en de andere kaart de oneven frames.

Dit is een methode waarbij (volgens mij) frame pacing juist een enorm probleem wordt omdat je soms in de situatie komt dat 1 kaart net iets sneller of trager klaar is dan zou moeten met zijn frame. Het resultaat is inconsistente frametimes en microstuttering.

SFR heeft dit probleem inherent niet (of iig minder) omdat beide kaarten aan hetzelfde frame werken maar dit heeft wat beperkingen qua snelheid.

Of zit ik er nu naast?
Probleem bij sfr is dan weer dat je je bepaalde data (omdat rendering veel complexer is tegenwoordig) dubbel moet doen op beide kaarten ook al valt het buiten het deel van wat ze renderen.

Kaart A kan dus niet zo makkelijk zeggen ik doe alleen dit stukje en dat andere stukje hoef ik niks mee te doen want dat doet kaart B wel.

Ik weet niet of het woord overhead toepasbaar is maar tegenwoordig is er veel meer overhead die beide kaarten verplicht zijn om te doen voor dat kleine stukje van het frame.

Dan geef je uiteindelijk het dubbele geld uit voor een 20% prestatieboost

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Verwijderd schreef op donderdag 18 april 2019 @ 11:52:
Probleem bij sfr is dan weer dat je je bepaalde data (omdat rendering veel complexer is tegenwoordig) dubbel moet doen op beide kaarten ook al valt het buiten het deel van wat ze renderen.
Dat is bij AFR precies hetzelfde. Bij een standaard AFR multi-GPU implementatie (lees: alles behalve DX12 explicit multi-adapter) hebben beide videokaarten dezelfde data in het geheugen omdat ze niet met elkaar communiceren.

Het is een mythe dat SLI/Crossfire bruggen voor iets anders gebruikt worden dan het transporteren van de framebuffer. Dat is het énige waar die dingen voor dienen. Er is 0,0 communicatie en synchronisatie tussen GPU's in een SLI/CFX opstelling. Beide GPU's gaan te werk alsof ze een zelfstandige, alleenstaande GPU zijn. Alle aansturing komt vanuit de driver.

NVLink zou dat in theorie kunnen veranderen, maar dat vereist een specifieke implementatie van devs voor NVLink. EMA werkt daar niet eens mee. En er is geen enkele developer die tijd en moeite gaat steken in een technologie die beschikbaar is op welgeteld 5 GPU's, waarvan er slechts 2 voor consumenten zijn, die vervolgens ook nog eens door een minuscuul deel van de markt gekocht worden - waarvan een nog microscopisch deel dan besluit om voor multi-GPU te gaan.

Verwijderd

Werelds schreef op donderdag 18 april 2019 @ 12:56:
[...]

Dat is bij AFR precies hetzelfde. Bij een standaard AFR multi-GPU implementatie (lees: alles behalve DX12 explicit multi-adapter) hebben beide videokaarten dezelfde data in het geheugen omdat ze niet met elkaar communiceren.

Het is een mythe dat SLI/Crossfire bruggen voor iets anders gebruikt worden dan het transporteren van de framebuffer. Dat is het énige waar die dingen voor dienen. Er is 0,0 communicatie en synchronisatie tussen GPU's in een SLI/CFX opstelling. Beide GPU's gaan te werk alsof ze een zelfstandige, alleenstaande GPU zijn. Alle aansturing komt vanuit de driver.

NVLink zou dat in theorie kunnen veranderen, maar dat vereist een specifieke implementatie van devs voor NVLink. EMA werkt daar niet eens mee. En er is geen enkele developer die tijd en moeite gaat steken in een technologie die beschikbaar is op welgeteld 5 GPU's, waarvan er slechts 2 voor consumenten zijn, die vervolgens ook nog eens door een minuscuul deel van de markt gekocht worden - waarvan een nog microscopisch deel dan besluit om voor multi-GPU te gaan.
Data ja maar ze renderen niet hetzelfde daarom is er geen synchronisatie nodig. laat je 2 gpu's delen van 1 frame renderen dan moeten ze uiteindelijk alles synchroniseren en dit is eigenlijk niet goed meer mogelijk tegenwoordig. SFR werkt nu niet goed meer omdat we nu rendering technieken gebruiken die moeilijk splitsbaar zijn over het scherm dus moet je die op beide uitvoeren.

Maargoed mischien kan jij het beteren uitleggen waarom het sinds dx9 niet echt meer toepasbaar is en Frame pipelining een beter optie is :p

Ik ben benieuwd naar de ontwikkelingen op dit gebied de komende jaren, ik hoop dat ze AI kunnen toepassen om bijvoorbeeld een command list slimmer op te splitsen over 2 of meer gpu's. Hoe kleiner de verdeelde de opdrachten hoe minder latency je mogelijk krijgt. Een soort slimme Async maar dan over meerdere gpu's.

[ Voor 23% gewijzigd door Verwijderd op 18-04-2019 13:38 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Verwijderd schreef op donderdag 18 april 2019 @ 13:15:
data ja maar ze renderen niet hetzelfde.
Dat maakt in de praktijk bijna niets uit. Het grootste deel van het geheugen gebruik is simpelweg alle data die nodig is om een frame (of een deel daarvan) te renderen. Sterker nog, een groot deel van de uitkomsten van het rekenwerk komt blijft hangen in de caches en zal nooit geheugen bezetten (met uitzondering van de framebuffer uiteraard). Technieken die multi-samplen vreten wel geheugen als een malle, maar als je dat voor frame X moet doen, is de kans heel groot dat je dat voor X+1 ook moet doen. Tussen twee frames zit over het algemeen maar relatief weinig verschil wat dat betreft.

Waar SFR meer op verliest is het daadwerkelijke rekenwerk. Afhankelijk van je pipeline en hoe je je frame splitst, is de kans vrij reëel dat een GPU rekenwerk moet verrichten dat niet rechtstreeks naar z'n framebuffer zal gaan, maar wel de uitkomsten nodig heeft om een ander deel te renderen. Daardoor win je uiteindelijk veel minder dan je zou denken.

Een heel simplistisch voorbeeld is bijvoorbeeld een scène waar de linkerhelft een spiegel bevat en de rechterhelft een dansend persoon. Met AFR zullen beide GPU's alle poly's voor de beide models berekenen, én de reflectie in de spiegel. Het enige verschil tussen twee frames zal de houding van het character zijn, wat geen verschil maakt voor het geheugen gebruik.

Als je dan een SFR implementatie doet die horizontaal splitst zullen beide GPU's minder werk dan normaal hebben. Beiden hoeven immers slechts de helft van de models en de reflectie te berekenen - beiden zullen minder geheugen gebruiken om dat te berekenen, maar die winst zal in de kilobytes lopen.

Splits je verticaal, dan zal 1 GPU supersnel klaar zijn omdat die alleen het character model hoeft te renderen. De ander zal echter zo'n beetje alles moeten renderen, anders kan hij de reflectie immers niet renderen. Deze GPU zal ook iets meer geheugen gebruiken om het resultaat te berekenen. Dat is echter niet meer dan een GPU met AFR nodig zou hebben.

Met een checkerboard aanpak zul je wel wat winst zien, maar ook niet gigantisch. Beide GPU's zullen bijna alles moeten renderen. Beiden zullen immers waarschijnlijk tiles met delen van de models en de reflectie krijgen.

In al deze gevallen zullen beide GPU's de volledige models voor de spiegel + character en alle textures in hun geheugen hebben zitten. Dat is wat het meeste geheugen vreet.


Zowel AFR als SFR zijn zonder EMA gewoon beperkte oplossingen omdat beide GPU's ten alle tijde álles van de staat van een scène moeten weten. Zelfs in het verticale SFR voorbeeld zal de GPU voor de rechterhelft alsnog het model + textures voor de spiegel in z'n geheugen hebben, juist omdat de CPU niet weet of dat invloed gaat hebben. Sterker nog, ik heb verlichting niet meegenomen; als je het licht wil laten weerkaatsen via de spiegel en de voorkant van het character model daardoor verlicht, zal die GPU ook nauwelijks iets winnen.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 09:36

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Iets anders wat ik een keer hoorde, was dat multi GPU rendering (specifiek AFR) steeds moeilijker te implementeren wordt omdat modernere game engines steeds vaker afhankelijkheden t.o.v. het vorige frame inbouwen om rekenkracht te besparen. In een dergelijke situatie zou AFR eigenlijk niet meer te doen zijn.

Weet jij of daar iets van waar is @Werelds ?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 02:06
Dat is zeker waar.

Veel variabelen (denk aan lighting) hoef je bv niet ieder frame in te stellen.

[ Voor 69% gewijzigd door Paprika op 18-04-2019 15:44 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Blaat schreef op donderdag 18 april 2019 @ 14:50:
Iets anders wat ik een keer hoorde, was dat multi GPU rendering (specifiek AFR) steeds moeilijker te implementeren wordt omdat modernere game engines steeds vaker afhankelijkheden t.o.v. het vorige frame inbouwen om rekenkracht te besparen. In een dergelijke situatie zou AFR eigenlijk niet meer te doen zijn.

Weet jij of daar iets van waar is @Werelds ?
Ik ben geen graphics programmeur, maar dat zou me niets verbazen. Even los van wat @Paprika zegt, zijn er de laatste jaren ook veel technieken opgekomen die vanuit hele simpele data vrij complexe dingen genereren. Veel daarvan zal wel enkele frames gecached worden waar mogelijk.

Multi-GPU in z'n algemeen is gewoon lastig. Er zijn devs die heel goed zijn in het beheren van hun datastroom en daardoor niet alleen games produceren die goed lopen, maar dat daardoor ook weten te vertalen naar meerdere GPU's. DICE is daar een goed voorbeeld van. Nu hebben zij het voordeel dat ze een briljant team achter de engine hebben zitten die daar ongetwijfeld veel mee helpen, want diezelfde engine presteert een stuk minder als er teams mee aan de slag hebben die niet zo handig zijn. Neemt niet weg dat de Battlefield games gewoon heel goed draaien voor hetgeen ze aan beeldmateriaal produceren.

AFR en SFR zijn gewoon ondermaatse oplossingen. Dat zijn de snelle oplossingen voor renderen op meerdere GPU's. De "correcte" oplossing is erg tijdrovend en iets wat vrijwel niemand zal doen omdat er gewoon te weinig animo voor is.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Blaat schreef op donderdag 18 april 2019 @ 11:18:
[...]


Wacht even... Naar mijn begrip (correct me if I'm wrong) staat AFR voor alternate frame rendering en is dat een SLI methode waarbij de ene kaart de even frames voor z'n rekening neemt en de andere kaart de oneven frames.

Dit is een methode waarbij (volgens mij) frame pacing juist een enorm probleem wordt omdat je soms in de situatie komt dat 1 kaart net iets sneller of trager klaar is dan zou moeten met zijn frame. Het resultaat is inconsistente frametimes en microstuttering.

SFR heeft dit probleem inherent niet (of iig minder) omdat beide kaarten aan hetzelfde frame werken maar dit heeft wat beperkingen qua snelheid.

Of zit ik er nu naast?
Klopt, maar omdat de "slave" kaart niet hoeft te wachten op informatie van de andere kaart, of minimaal lijkt het mij minder latency geven. Dat laat inderdaad niet weg dat je nog steeds microstuttering kan ervaren, dat heb je goed :P. Met een aparte raytrace kaart lijkt het mij dat er meer data heen en weer moet, omdat rendering veel meer omvat dan alleen het raytracen.
Dus zelst met SFR lijkt mij dat er minder latency is, omdat na elk frame er waarschijnlijk wordt afgesproken hoeveel procent een kaart voor het volgende frame voor zijn kiezen krijgt.

Maar pin mij hier niet op vast, ik weet niet genoeg van beide technieken om dit met zekerheid te kunnen beoordelen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 18 april 2019 @ 16:06:
Multi-GPU in z'n algemeen is gewoon lastig. Er zijn devs die heel goed zijn in het beheren van hun datastroom en daardoor niet alleen games produceren die goed lopen, maar dat daardoor ook weten te vertalen naar meerdere GPU's. DICE is daar een goed voorbeeld van. Nu hebben zij het voordeel dat ze een briljant team achter de engine hebben zitten die daar ongetwijfeld veel mee helpen, want diezelfde engine presteert een stuk minder als er teams mee aan de slag hebben die niet zo handig zijn. Neemt niet weg dat de Battlefield games gewoon heel goed draaien voor hetgeen ze aan beeldmateriaal produceren.
Ga ik toch even op inhakken. :P
Ja, ook groot fan van wat DICE kan met Frostbite, maar naar aanleiding van Anthem begint het erop te lijken dat Frostbite ook een keerzijde heeft. Er schijnen nauwelijks functionele tools te zijn om iets te creëren in die engine, noch worden zaken gescheiden gehouden. Documentatie zou ook erg slecht zijn. De boel zou erg omslachtig, onnodig complex zijn en zaken hangen meer aan elkaar met een hele serie aan hacks en shortcuts omdat het dan nog net te doen is.

Tja, ik denk dat er wel een punt in zit. Iedereen die wel eens een recente BF heeft gespeeld zal het fenomeel wel herkennen. Simpele bug, we nemen de beruchte M26 dart glitch uit BF3. De M26 dart is een underbarrel shotgun die met die glitch opeens dezelfde damage value kreeg als je normale wapen. In BF3 waren de meeste wapens 25 damage en health was 100. Het is een shotgun dus veel meer kogels per schot. Het resultaat was dat je hele groepen neer kon schieten met een schot. Duurde maanden om te fixen. Dat was dan een supersimpele fout waar alleen de M26 dart, want er waren ook nog andere M26 varianten, een verkeerd getal gaf aan elke shotgun dart die je afvuurde.

Het zou niks meer moeten zijn geweest dan een simpele debug. Zo werkt het niet met Battlefield games. elke patch is daar afwachten of het ratio gefixed vs. gesloopt positief uitvalt. Bijvoorbeeld voor BF5 is DX12 nu al zo vaak gesloopt. DICE wisselt het gewoon af. Dan is het voor AMD kapot en een grote framedrop en stutter, dan is het weer voor Nvidia zover. Ik zou dus niet universeel complimenteus zijn over DICE en Frostbite. Ze kunnen zeker wat doen op grafisch gebied en optimalisatie. Ze slopen alleen wel ongeveer elke patch weer wat. :P
Complicating these problems further was the fact that sometimes when the Anthem leadership team did make a decision, it could take weeks or even months for them to see it in action. “There were a lot of plans,” said a developer, “where by the time they were implemented it was a year later and the game had evolved.” The explanation for this lag can be summed up in one word, a word that has plagued many of EA’s studios for years now, most notably BioWare and the now-defunct Visceral Games, a word that can still evoke a mocking smile or sad grimace from anyone who’s spent any time with it.

That word, of course, is Frostbite.

“Frostbite is full of razor blades,” one former BioWare employee told me a few weeks ago, aptly summing up the feelings of perhaps hundreds of game developers who have worked at Electronic Arts over the past few years.

Frostbite is a video game engine, or a suite of technology that is used to make a game. Created by the EA-owned Swedish studio DICE in order to make Battlefield shooters, the Frostbite engine became ubiquitous across Electronic Arts this past decade thanks to an initiative led by former executive Patrick Söderlund to get all of its studios on the same technology. (By using Frostbite rather than a third-party engine like Unreal, those studios could share knowledge and save a whole lot of money in licensing fees.) BioWare first shifted to Frostbite for Dragon Age: Inquisition in 2011, which caused massive problems for that team. Many of the features those developers had taken for granted in previous engines, like a save-load system and a third-person camera, simply did not exist in Frostbite, which meant that the Inquisition team had to build them all from scratch. Mass Effect: Andromeda ran into similar issues. Surely the third time would be the charm?

As it turned out, Anthem was not the charm. Using Frostbite to build an online-only action game, which BioWare had never done before, led to a host of new problems for BioWare’s designers, artists, and programmers. “Frostbite is like an in-house engine with all the problems that entails—it’s poorly documented, hacked together, and so on—with all the problems of an externally sourced engine,” said one former BioWare employee. “Nobody you actually work with designed it, so you don’t know why this thing works the way it does, why this is named the way it is.”

Throughout those early years in development, the Anthem team realized that many of the ideas they’d originally conceived would be difficult if not impossible to create on Frostbite. The engine allowed them to build big, beautiful levels, but it just wasn’t equipped with the tools to support all of those ambitious prototypes that they’d created. Slowly and gradually, they started cutting back on the environmental and survival features that they’d devised for Anthem, in large part because they just weren’t working.

“Part of the trouble was you could do enough in the engine to hack it to show what was possible, but then to get the investment behind it to get it actually done took a lot longer, and in some cases you’d run into a brick wall,” said a BioWare developer. “Then you’d realize, ‘Oh my god, we can do this only if we reinvent the wheel, which is going to take too long.’ It was sometimes difficult to know when to cut and run.”
“Frostbite is full of razor blades.” - former BioWare developer

Even today, BioWare developers say Frostbite can make their jobs exponentially more difficult. Building new iterations on levels and mechanics can be challenging due to sluggish tools, while bugs that should take a few minutes to squash might require days of back-and-forth conversations. “If it takes you a week to make a little bug fix, it discourages people from fixing bugs,” said one person who worked on Anthem. “If you can hack around it, you hack around it, as opposed to fixing it properly.” Said a second: “I would say the biggest problem I had with Frostbite was how many steps you needed to do something basic. With another engine I could do something myself, maybe with a designer. Here it’s a complicated thing.”

“It’s hard enough to make a game,” said a third BioWare developer. “It’s really hard to make a game where you have to fight your own tool set all the time.”

From the beginning, Anthem’s senior leadership had made the decision to start from scratch for a large part of the game’s technology rather than using all of the systems the company had built for Inquisition and Andromeda. Part of this may have been a desire to stand out from those other teams, but another explanation was simple: Anthem was online. The other games were not. The inventory system that BioWare had already designed for Dragon Age on Frostbite might not stand up in an online game, so the Anthem team figured they’d need to build a new one. “Towards the end of the project we started complaining,” said one developer. “Maybe we would’ve gone further if we had Dragon Age: Inquisition stuff. But we’re also just complaining about lack of manpower in general.”

It often felt to the Anthem team like they were understaffed, according to that developer and others who worked on the game, many of whom told me their team was a fraction of the size of developers behind similar games, like Destiny and The Division. There were a number of reasons for this. One was that in 2016, the FIFA games had to move to Frostbite. The annual soccer franchise was EA’s most important series, bringing in a large chunk of the publisher’s revenue, and BioWare had programmers with Frostbite experience, so Electronic Arts shifted them to FIFA.

“A lot of the really talented engineers were actually working on FIFA when they should’ve been working on Anthem,” said one person who was on the project. There was also the fact that BioWare’s main office was located in Edmonton, a place where winters can dip to minus 20 or even minus 40 degrees Fahrenheit, which staff there say has always made it difficult to recruit veterans from more habitable cities. (One also has to wonder: How many programmers heard about Frostbite’s razor blades and decided to shy away?)

When a BioWare engineer had questions or wanted to report bugs, they’d usually have to talk to EA’s central Frostbite team, a group of support staff that worked with all of the publisher’s studios. Within EA, it was common for studios to battle for resources like the Frostbite team’s time, and BioWare would usually lose those battles. After all, role-playing games brought in a fraction of the revenue of a FIFA or a Battlefront. “The amount of support you’d get at EA on Frostbite is based on how much money your studio’s game is going to make,” said one developer. All of BioWare’s best-laid technological plans could go awry if they weren’t getting the help they expected.

No matter how many people were involved, one thing about Frostbite would always remain consistent, as it did on Dragon Age: Inquisition and Mass Effect: Andromeda: It made everything take longer than anyone thought it should. “We’re trying to make this huge procedural world but we’re constantly fighting Frostbite because that’s not what it’s designed to do,” said one developer. “Things like baking the lighting can take 24 hours. If we’re making changes to a level, we have to go through another bake process. It’s a very complex process.”

Frostbite’s razor blades were buried deeply inside the Anthem team, and it would prove impossible to stop the bleeding.
https://kotaku.com/how-biowares-anthem-went-wrong-1833731964

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Gekke Jantje schreef op donderdag 18 april 2019 @ 11:08:
[...]


Volgens mij was dit nog voor de 50% performance verbetering patch dus vergelijken gaat helaas niet.

Edit.

Hier haalt de RTX 2080 ti een hoop meer fps met DXR aan.
https://www.guru3d.com/ar...ormance_benchmarks,7.html
Devil N schreef op donderdag 18 april 2019 @ 10:56:
[...]

Het grootste probleem met DXR op Pascal videokaarten is dat de framerates erg inconsistent zijn. In scenes met weinig raytracing kun je dan 100+ fps hebben en in scenes met veel raytracing duikt ie ineens omlaag naar 25 fps. Dit zie je niet terug in dit soort grafieken; de gemiddelde framerate ligt ergens tussen het minimum en het maximum, en de 1% lows zijn er om een indicatie te geven van hoeveel de game stottert. Maar het probleem zit hem hier dus niet in stotters, maar in sustained lage framerates afgewisseld door "normale" framerates. Er zou dus eigenlijk een ander soort meting nodig moeten zijn om deze inconsistentie zichtbaar te maken in de grafieken.
Ja, ik heb nu het filmpje van Digital foundry gekeken. Het is uiteindelijk niet stabiel genoeg, snel genoeg om DXR op 1080TI de moeite waard te maken.

Een probleem dat ik blijf zien: we zijn weer terug op 1080p, want zelfs de high end GPUs (minus misschien de 2080TI) kunnen niet stabiel contant 60FPS DXR boven die resolutie geven.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
@DaniëlWW2 Frostbite is ongetwijfeld niet eenvoudig om mee te werken. Het is dan ook een in-house engine die door een publisher min of meer aan andere studio's opgedwongen werd zodat ze minder aan Epic kwijt zouden zijn.

Dat gezegd hebbende, is het ook zo dat de Bioware studio's nou niet bepaald bekend staan (of stonden) om hun geweldige vaardigheden op dat gebied. Zelfs de eerste Mass Effect had problemen en ME2 was gewoon ronduit slecht. En dat was gewoon UE.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 19 april 2019 @ 11:20:
@DaniëlWW2 Frostbite is ongetwijfeld niet eenvoudig om mee te werken. Het is dan ook een in-house engine die door een publisher min of meer aan andere studio's opgedwongen werd zodat ze minder aan Epic kwijt zouden zijn.

Dat gezegd hebbende, is het ook zo dat de Bioware studio's nou niet bepaald bekend staan (of stonden) om hun geweldige vaardigheden op dat gebied. Zelfs de eerste Mass Effect had problemen en ME2 was gewoon ronduit slecht. En dat was gewoon UE.
Die van Bioware geef ik je, maar het zijn wel meer EA studio's waar rare dingen gebeuren zodra ze over moesten op Frostbite. Verder blijven de BF games ook altijd fascinerend om te zien wat ze nu weer indirect weten te slopen. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 02:06
XanderDrake schreef op donderdag 18 april 2019 @ 21:55:
[...]


[...]

Ja, ik heb nu het filmpje van Digital foundry gekeken. Het is uiteindelijk niet stabiel genoeg, snel genoeg om DXR op 1080TI de moeite waard te maken.

Een probleem dat ik blijf zien: we zijn weer terug op 1080p, want zelfs de high end GPUs (minus misschien de 2080TI) kunnen niet stabiel contant 60FPS DXR boven die resolutie geven.
Dat gold ook voor de introductie van shaders, AA technieken, tessellation etc. Ik zie niet hoe dat iets negatiefs hoeft te zijn? Over een paar jaar zet je DXR op de hoogste instelling en scheelt het 1% FPS en dan ben je niet anders meer gewend.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Werelds schreef op vrijdag 19 april 2019 @ 11:20:
@DaniëlWW2 Frostbite is ongetwijfeld niet eenvoudig om mee te werken. Het is dan ook een in-house engine die door een publisher min of meer aan andere studio's opgedwongen werd zodat ze minder aan Epic kwijt zouden zijn.

Dat gezegd hebbende, is het ook zo dat de Bioware studio's nou niet bepaald bekend staan (of stonden) om hun geweldige vaardigheden op dat gebied. Zelfs de eerste Mass Effect had problemen en ME2 was gewoon ronduit slecht. En dat was gewoon UE.
Precies, Bioware (was) vooral goed in werelden/verhalen maken. Animaties en graphics zijn nooit hun sterkste punt geweest.
Pas met ME3 hadden ze UE een beetje onder controle.

Het zal dus een mix zijn geweest van de genoemde dingen. Moeilijke engine, onkunde en dat de tooling voor de engine niet op orde was of niet goed samenging met hun pipeline.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

T.net's review van de DXR drivers is te lezen!
https://tweakers.net/revi...cores-gamebenchmarks.html
Met een GTX 1060 kun je raytracing maar beter uit laten staan, maar met de overige GTX-kaarten haal je geen onverdienstelijke framerates in Battlefield V. We hebben de raytracingsettings hierbij op High staan.
Dit maakt me dan wel weer hoopvol. Ikzelf game op ultrawide, 2560*1080, dus dat is 25% zwaarder dan de geteste 1080p. Misschien met een kleine overclock op mn 1080Ti richting de 60fps?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Verwijderd

Ik heb net weer even wat 2060 laptop reviews gekeken, en het lijkt erop dat de 1660 ti mobile ongeveer even snel kan gaan zijn. Dit heeft alles te maken met de superlage kloksnelheid van een 2060 mobile gpu met een boost van slechts 1200mhz tov 1590mhz voor de 1660 ti mobile gpu.

Vlug, slechts ten dele representatief rekenwerk toont aan dat 1590/1200=1.325, 1536/1920=0.8 en 0.8×1.325=1.06 keer 2060 mobile prestaties is gelijk aan een 1660 ti mobile (niet max-q). Hm, weet waar ik voor spaar!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Wilde BFV DXR on Pascal nog eens proberen, maar ik kreeg niet de optie in het graphics menu. Blijkt dat je ook je Windows 10 moet updaten om dat te kunnen :? Ben benieuwd of dat het verschil maakt.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 20-12 22:48

MazeWing

The plot thickens...

@DaniëlWW2 Ik denk dat we het er met z'n allen over eens kunnen zijn dat de Unreal Engine (4) met gepaste afstand de beste engine is. Het is ongekend hoeveel verschillende genres die engine voor z'n rekening kan nemen en ook qua gemak, compatibiliteit en modulariteit is het top of the line.

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MazeWing schreef op zondag 28 april 2019 @ 10:53:
@DaniëlWW2 Ik denk dat we het er met z'n allen over eens kunnen zijn dat de Unreal Engine (4) met gepaste afstand de beste engine is. Het is ongekend hoeveel verschillende genres die engine voor z'n rekening kan nemen en ook qua gemak, compatibiliteit en modulariteit is het top of the line.
Dat denk ik ook wel. Frostbite is waarschijnlijk de allerkrachtigste als je ermee om kan gaan. Ook nog eens extreem goed te optimaliseren wat je bij elke BF weer terugziet. Die zal waarschijnlijk gevolgd worden door CryEngine, maar Unreal lijkt gewoon "unreal" te zijn in hoeveel games erop draaien. :P

[ Voor 10% gewijzigd door DaniëlWW2 op 28-04-2019 10:58 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Zo ik heb even een subjectieve review gedaan van BFV DXR op mijn Gigabyte 1080Ti. Ik draai een overclock op mn GPU, boostclocks doen zo'n 1949mhz met 120% TDP. Mijn Xeon decacore kan niet worden overclockt dus stock. Zie sig voor de rest.

Ik speelde combined arms, want dat maakt dat je scenes makkelijker kan vergelijken tussen normaal en DXR.
Ook kan je, na het uitschakelen van meeste vijanden, gewoon vrij rondlopen en effecten checken.

Ik kan met deze settings All Ultra@2560x1080 draaien met Resolution scale op 100% en DXR op Low. Dan doet ie ongeveer 55-75 FPS met mediaan denk ik net boven de 60 FPS. Dit dipt als er explosies in beeld komen want die doen van alles met de reflecties.
De DXR Low setting maakt de reflecties al een heel stuk mooier en levendiger dan non-ray traced; normaal is het een fletse en vooral onnauwkeurige boel (artifacts, afwijkingen in animaties, wazigheden in reflecties). Dat was me anders normaal nooit echt opgevallen, nu kan ik het waarschijnlijk niet meer "ont-zien" :/
DXR Ultra maakt dat er veel meer gebeurt in de reflecties, maar dat is ook wel beetje eye-candy, overkill mode. Volgens mij went het snel, maar in multiplayer kan het volgens mij zelfs een afleidend zijn. Daarnaast dropt de FPS vaak naar de 35-55 range, waar Low boven de 55 blijft.

Water en glas zijn natuurlijk de grootste verbeteringen. Glanzende effecten op auto's doen mij iets minder.
Vooral ramen in Rotterdam zijn cool: je kan ze gebruiken als spiegel om te kijken rondlopende vijanden zonder dat ze jou zien als je achter cover zit. Ideaal voor stealth en knife-kills! Dus DXR heeft game-play voordelen.

Ik twijfel wat ik ga doen: op stock Ultra settings zit mn 1080Ti normaliter uit zn neus te vreten, dus zet ik Resolution scale op 150%. Dit maakt het spel een heel stuk mooier, realistischer. Daarnaast is FPS smoothness van de scale=150% een stuk beter dan de framedrops van DXR. DXR doet ook veel met het realisme, maar ik kan niet én DXR Low én scaling op 150% zetten. Keuzes Keuzes :+
Even kijken wat het met me doet in Firestorm.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Is al bekend of en zo ja wanneer Nvidia HDMI 2.1 met VRR gast ondersteunen ?
Ik wil graag upgraden maar HDMI 2.0 op de gpus weerhoudt me.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wat gaat Nvidia binnenkort aankondigen?

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Vast niet iets betaalbaars.... :X

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op donderdag 23 mei 2019 @ 19:34:
Vast niet iets betaalbaars.... :X
Hah, je was me voor.
Weet niet of ik me moet afvragen of dit de reactie is die Nvidia wil. Helaas dacht ik precies hetzelfde :+.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

RTX2070Ti en 16Gbps GDDR6 refresh. ;)
Trouwens kijk naar de top comments. Het internet stelt niet teleur. :+

[ Voor 49% gewijzigd door DaniëlWW2 op 23-05-2019 20:17 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Alexknl
  • Registratie: Maart 2017
  • Laatst online: 20-12 22:14
SuperTX

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Zo zo, net de 2080ti gekocht.. In mijn flipperkast spel Pinball wicked op 1440p Ultra ging FPS van 114 naar 240 (144hz monitor). En ik hoopte op 'slechts 140 fps met de 2080ti
1080ti OVERCLOCKED 1.9ghz VS stock 2080ti.... Scheelt nogal .. holycow.

Straks even battlefield 5 testen.

Die 2080TI is echt een absurd monster. Niets 10% sneller dan 1080ti maar veeeeel sneller.
In Tomb Raider en Max Payne 3 ook DIK DIK meer fps gewoon makkelijk 20-30+% meer
Modbreak:Dit is een nieuwsdiscussietopic, geen ervaringentopic. Jouw ervaringen zijn mooi, maar hier offtopic.

[ Voor 52% gewijzigd door dion_b op 24-05-2019 22:51 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 20-12 23:22
Zal wel een 2080 Titan zijn. Persoonlijk hoop ik op iets met de rekenkracht van de 2080TI zonder RTX onder de €1000,-, maar dan ben ik gewoon aan het dromen ;)

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op donderdag 23 mei 2019 @ 20:03:
RTX2070Ti en 16Gbps GDDR6 refresh. ;)
Dat zijn nou niet echt producten waarvoor ik het woord "super" zou gebruiken :)

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 24 mei 2019 @ 22:48:
[...]


Dat zijn nou niet echt producten waarvoor ik het woord "super" zou gebruiken :)
Er zijn weinig andere opties. Nvidia lanceert in principe nooit een GPU architectuur vroeg op een productieproces. Verder is Nvidia zeer slecht om nieuwe producten geheim te houden. We hadden het allang geweten als ze met wat echt nieuws kwamen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

https://www.polygon.com/2...-remaster-download-nvidia

Mooi spul! Ik vond de eerste versies van de Quake2 RTX mod al briljant. Hopelijk werken de RTX on Pascal drivers hiermee ook, maar ik verwacht van wel! Zo ja dan ga ik dit in juni zeker spelen: heb de CDROM van het volledige spel nog ergens liggen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Zou mooi zijn. Wordt mijn Navi een stuk goedkoper dankzij Nvidia die voor prijsconcurrentie gaat zorgen. :+

Maar het zou heel goed kunnen. Nvidia maakt enorme marges en Turing lijkt ook niet het grootste verkoop succes ooit te zijn. Cryptominers hielpen ook wel, maar dat is het niet alleen zijn geweest.

Nvidia claimt dat ze $289 miljoen aan omzet verloren hebben uit mining. Totale omzet over Q1 vorig jaar was allen $2.765 miljard. Dat was nu nog maar $2.022 miljard. Dat is dan met hogere marktprijzen voor vrijwel alle segmenten met Turing over Pascal. Ergo, die Turings verkopen niet zo goed als Pascal.
https://www.anandtech.com...s-report-postcrypto-reset


Nu de prijs laten zakken is dus goed mogelijk. Nvidia zet overduidelijk in op marktcontrole door iedereen het RTX ecosysteem in te krijgen. Iedereen moet een ray tracing kaart hebben. Dat gaat niet met zulke prijzen. Ik weet alleen niet of Nvidia naar $249 zal gaan voor de RTX2060. Dat is een flinke daling en komt waarschijnlijk neer op €280-€300 hier in de winkel. Tu-106 is geen kleine chip en dit zal Nvidia aardig wat marge kosten.
Beakzz schreef op zondag 2 juni 2019 @ 12:31:
[...]


Kom maar op. Kan niet wachten op een nieuwe krachtige GPU zonder RTX onzin. Het geld staat al heel lang klaar hier, maar ik weiger de RTX tax te betalen en zo ken ik er nog wel een paar om mij heen.
Dan kan je lang wachten. Er gaan geen high end Nvidia kaarten meer komen zonder RTX. Een videokaart zonder RTX heet een Radeon. ;)

[ Voor 73% gewijzigd door DaniëlWW2 op 02-06-2019 12:37 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 20-12 23:22
Kom maar op. Kan niet wachten op een nieuwe krachtige GPU zonder RTX onzin. Het geld staat al heel lang klaar hier, maar ik weiger de RTX tax te betalen en zo ken ik er nog wel een paar om mij heen.
DaniëlWW2 schreef op zondag 2 juni 2019 @ 12:15:
[...]


Dan kan je lang wachten. Er gaan geen high end Nvidia kaarten meer komen zonder RTX. Een videokaart zonder RTX heet een Radeon. ;)
Er mag van mij best RTX op zitten als ze dat zo graag willen. Als ik maar niet die RTX tax hoef te betalen. Het prijsverschil voor de toprange is in vergelijking met de vorige generatie gewoon te groot. En dat is niet omdat ze zo'n ontzettende vooruitgang hebben geboekt in de prestaties vergeleken met de vorige generatie.

Nee die meerprijs betaal je voor een handjevol games met RTX. Games die mij niets doen en als ik eerlijk ben boeit het mij ook niet of het klopt wat ik gespiegeld zie in een raam, loop van een geweer of een regenplas.

[ Voor 48% gewijzigd door Beakzz op 02-06-2019 12:46 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Beakzz schreef op zondag 2 juni 2019 @ 12:31:
Er mag van mij best RTX op zitten als ze dat zo graag willen. Als ik maar niet die RTX tax hoef te betalen. Het prijsverschil voor de toprange is in vergelijking met de vorige generatie gewoon te groot. En dat is niet omdat ze zo'n ontzettende vooruitgang hebben geboekt in de prestaties vergeleken met de vorige generatie.

Nee die meerprijs betaal je voor een handjevol games met RTX. Games die mij niets doen en als ik eerlijk ben boeit het mij ook niet of het klopt wat ik gespiegeld zie in een raam, loop van een geweer of een regenplas.
Je betaalt de meerprijs niet voor RTX, maar omdat er geen concurrentie is. Nvidia kan de prijzen zo laten zakken, maar dat lijken ze pas te doen nu AMD eindelijk met een competitief alternatief lijkt te komen. Denk na over de implicaties als mensen nu massaal RTX2060's en RTX2070's gaan kopen en niet eens kijken naar de aankomende RX5700's. Doet iedereen dat, dan kan ik je nu al verklappen dan de volgende generatie van Nvidia kaarten gewoon weer zo duur gaat zijn. AMD gaat dit ook niet eindeloos volhouden en op een gegeven moment geven ze op en gaan ze Nvidia haar hoge prijzen gewoon matchen. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 20-12 23:22
DaniëlWW2 schreef op zondag 2 juni 2019 @ 13:21:
[...]


Je betaalt de meerprijs niet voor RTX, maar omdat er geen concurrentie is. Nvidia kan de prijzen zo laten zakken, maar dat lijken ze pas te doen nu AMD eindelijk met een competitief alternatief lijkt te komen. Denk na over de implicaties als mensen nu massaal RTX2060's en RTX2070's gaan kopen en niet eens kijken naar de aankomende RX5700's. Doet iedereen dat, dan kan ik je nu al verklappen dan de volgende generatie van Nvidia kaarten gewoon weer zo duur gaat zijn. AMD gaat dit ook niet eindeloos volhouden en op een gegeven moment geven ze op en gaan ze Nvidia haar hoge prijzen gewoon matchen. :/
Dat zal er vast wel deels mee te maken hebben en concurrentie is altijd goed, maar RTX heeft echt wel voor een meerprijs gezorgd. Al is het alleen al om een verklaring te hebben voor de meerprijs, maar het heeft ook echt een functie (voor mij nutteloos maar goed).

Als het enkel het gemis is van concurrentie dan snap ik heel het prijsbeleid niet. Had er €100-€200 opgezet tegenover de vorige generatie en mijn vrienden en ik hadden morrend en wel weer een nieuwe kaart in ons systeem gestopt (letterlijk 4 vrienden die max wilde gaan en het niet gedaan hebben).

De prijs is nu echt zo hoog dat je wel 3x nadenkt voor je tot aankoop overgaat en dat ik zodra AMD mij de kans geeft overstap. En ik vind dit altijd stom om te melden, maar het budget wat ik voor gaming over heb is echt niet het probleem. Het is voor mij een beetje zoals op een markt in Azie. Ja ik kan het betalen, maar ik weet dat het minder waard is en dat ik "opgelicht"word.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Beakzz schreef op zondag 2 juni 2019 @ 13:41:
[...]


Dat zal er vast wel deels mee te maken hebben en concurrentie is altijd goed, maar RTX heeft echt wel voor een meerprijs gezorgd. Al is het alleen al om een verklaring te hebben voor de meerprijs, maar het heeft ook echt een functie (voor mij nutteloos maar goed).

Als het enkel het gemis is van concurrentie dan snap ik heel het prijsbeleid niet. Had er €100-€200 opgezet tegenover de vorige generatie en mijn vrienden en ik hadden morrend en wel weer een nieuwe kaart in ons systeem gestopt (letterlijk 4 vrienden die max wilde gaan en het niet gedaan hebben).

De prijs is nu echt zo hoog dat je wel 3x nadenkt voor je tot aankoop overgaat en dat ik zodra AMD mij de kans geeft overstap. En ik vind dit altijd stom om te melden, maar het budget wat ik voor gaming over heb is echt niet het probleem. Het is voor mij een beetje zoals op een markt in Azie. Ja ik kan het betalen, maar ik weet dat het minder waard is en dat ik "opgelicht"word.
Ik denk dat je inderdaad het prijsbeleid van Nvidia dan niet begrijpt. ;)
Ze proberen namelijk om de uiterste grenzen te vinden wat mensen willen betalen. Verder zijn ze actief bezig om die grenzen alsmaar op te rekken...

Nvidia is nu al een aantal generaties, keer op keer de prijzen aan het verhogen. Ze komen er elke keer mee weg omdat elke keer AMD geen adequate reactie kan geven. Nvidia zal de prijzen blijven verhogen zo lang als mensen het kopen en AMD niet kan reageren. Nu AMD eindelijk eens met wat lijkt te komen, is het tijd voor de test. Blijkt dat Nvidia de prijzen een beetje kan laten dalen waarna weinig mensen een Radeon kopen, dan weet Nvidia dat ze nog veel verder omhoog kunnen met die prijzen. Immers wordt Nvidia voor vergelijkbare prijzen dan gezien als beduidend superieur. Die veronderstelde superioriteit die Nvidia ook al tijdenlang cultiveert, resulteert in de inmiddels beruchte "Nvidia tax".

Het enige dat mensen hoeven te doen is AMD kopen zodat AMD met iets competitiefs komt voor een vergelijkbare prijs. Gebeurd dat, dan kan Nvidia de prijzen niet meer blijven verhogen want nu kost het ze omzet en marktaandeel. Dat is wat er dus nu moet gebeuren. Is RX5700 echt competitief, dan moeten zo veel mogelijk mensen geen RTX2060/2070 kopen maar een RX5700. Idem voor de RX5600 en RX5800 die waarschijnlijk gaan volgen. Dan is het klaar met Nvidia hun geldklopperij. :)

[ Voor 3% gewijzigd door DaniëlWW2 op 02-06-2019 16:06 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • pino85
  • Registratie: Mei 2007
  • Laatst online: 28-11 17:38

pino85

Im just a Bird in the Sky

Het is misschien een beetje wat je ook bij Intel-Amd ziet ,ook al bied Amd concurrerende producten aan de naam van de concurrent zit zo diep ingeburgerd dat mensen het associëren met het ‘beste’ wat er is.
Heb een tijdje terug een klein onderzoek gedaan onder 200 personen , en viel me op dat een grote meerderheid de merknaam NVIDIA (en ook Intel)associeert als het ‘beste’ wat er is en AMD meer als 2e keus merk op gpu vlak.
Marketing doet erg veel en ook de snelste high end kaart in je gelederen hebben ook.
Moet ook zeggen dat mensen wel snel voor een merk gaan wat de buurjongen of een vriend of familielid heeft.
Ook werd aan gegeven dat ze NVIDIA/Intel meer terugzagen in de retail winkels.
Branding is erg sterk.. ben echt benieuwd of AMD dat de komende jaren weet om te buigen.
Het is ze gegund, en alleen maar goed voor ons want de huidige prijzen zijn gewoon te bizar.

[ Voor 9% gewijzigd door pino85 op 02-06-2019 15:49 ]

Liefhebber van Tweakers


  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

pino85 schreef op zondag 2 juni 2019 @ 15:46:
Het is misschien een beetje wat je ook bij Intel-Amd ziet ,ook al bied Amd concurrerende producten aan de naam van de concurrent zit zo diep ingeburgerd dat mensen het associëren met het ‘beste’ wat er is.
Misschien wel een beetje? dit is al jaren bekend. :+

Niet iedereen is een tweaker die de benchmarks uitpluist wat betreft prestaties en zich niet laten gekmaken door marketingstermen.
De prestatiekroon hebben scheelt ook. Wie de snelste kaart heeft is op dat moment de beste, Nvidia en ATI wrongen zich in het verleden in de gekste bochten om maar de snelste te hebben. Dat dat dan een kaart met een oplage van 1000 stuks gaat voor de jackpot maakt weinig uit.
Nvidia heeft nu eenmaal al weer een aantal jaar de meeste marketing en de snelste kaarten.
Onzinb natuurlijk, want die marketing betaalt de klant en de meeste consumenten gaan voor mid-range, waar een Radeon een prima (zo niet beter) alternatief is.

Met Zen 2 heeft AMD zich weer duidelijk terug in beeld gevochten, in de GPU markt word het een " uphill battle" voor ze.
Maar Navi lijkt zeker een prima alternatief in de (upper) mid range te worden en zal voor wat meere concurrentie zorgen.
En met Navi+Zen in de PS en vega kaarten voor google plus het succes van Zen(2) verwacht ik dat het Radeon R&D budget flink zal stijgen. En stiekum is AMD gewoon een uitermate creatief en capabel bedrijf. (dat helaas zuigt in marketing)

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Als je zelf een PC in elkaar zet mag ik toch hopen dat je even een benchmark erbij pakt. Dat is niet uitpluizen, maar meer 2 minuten werk. Als je wil weten hoe een kaart zich verhoudt tot jouw 7 jaar oude kaart, dat is lastig, omdat die vergelijking er niet meer is in benchmarks, dus dan wordt het wel zaken uitpluizen.

Voor low-mid end is AMD vast een prima keuze. Zelf heb ik momenteel meer interesse in high mid end / low high end (eg 2070 range). En daar is Nvidia gewoon imo de betere keuze. En helaas is dat door een gebrek aan concurrentie, waardoor de prijs te hoog is, en ik nog maar een paar maanden wacht, in de hoop dat er betere opties komen. Tegelijk weet ik ook dat de laatste jaren kaarten geen drol goedkoper zijn geworden, dus misschien wacht ik wel op niks. Hoewel ik het daarom jammer vind dat ik toch niet de 1080TI bij de Alternate aanbiedingen heb gekocht, ben ik ook nog steeds erg blij dat ik een R9 Fury heb gekocht, en niet de adviezen heb gevolgd van degene die een Vega aanraadde die echt heel snel eraan zou komen (wat uiteindelijk 9 maanden later bleek te zijn).

Ik ben dus benieuwd wat Nvidia gaat brengen bij de E3, maar nog meer wat AMD gaat brengen. Niet omdat ik een voorkeur voor de één of de ander heb, maar omdat die prijzen nooit omlaag gaan zolang Nvidia effectief een monopolie heeft op alles boven mid-end uit de fabriek (oftewel ik neem overclocking en undervolting niet mee). Dat is niet een geval van geweldige Nvidia marketing, maar gewoon AMD die achter blijft.

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

Sissors schreef op zondag 2 juni 2019 @ 19:25:
Als je zelf een PC in elkaar zet mag ik toch hopen dat je even een benchmark erbij pakt. Dat is niet uitpluizen, maar meer 2 minuten werk. Als je wil weten hoe een kaart zich verhoudt tot jouw 7 jaar oude kaart, dat is lastig, omdat die vergelijking er niet meer is in benchmarks, dus dan wordt het wel zaken uitpluizen.
En hoe komt het dan dat Nvidia altijd al de onbetwiste marktleider is? Ze hebben niet altijd de snelste kaartgehad, noch de beste, of de beste deal, en toch verkochten ze er meer van. En dan gaat het ook over losse kaarten, niet enkel kaarten in OEMs.
Wel hebben ze altijd de beste marketing gehad, en we weten allemaal dat marketing over het algemeen meer dan 80% slap geneuzel is en naamsbekendheid.
Ik geloof best dat merk X witter dan wit wast, beter dan Omo en nog goedkoper ook, maar omo kennen we en word in elke supermarkt verkocht.
Maar al meer dan een decennium kan ik geen AA titel openen of ik krijg een Nvidia splash screen voor m'n neus. Van Radeon kan ik me zelfs geen reclame meer heugen.

Enfin. Zelf heb ik altijd de beste bang voor buck kaarten gekocht, dat was tot 10 jaar geleden (mijn laatste radeon kaart en sindsdien laptops, dus 0 keus) om en om ATI/Nvidia. Geen groen/rood kamp voor mij.
Voor low-mid end is AMD vast een prima keuze. Zelf heb ik momenteel meer interesse in high mid end / low high end (eg 2070 range). En daar is Nvidia gewoon imo de betere keuze. En helaas is dat door een gebrek aan concurrentie, waardoor de prijs te hoog is, en ik nog maar een paar maanden wacht, in de hoop dat er betere opties komen. Tegelijk weet ik ook dat de laatste jaren kaarten geen drol goedkoper zijn geworden, dus misschien wacht ik wel op niks. Hoewel ik het daarom jammer vind dat ik toch niet de 1080TI bij de Alternate aanbiedingen heb gekocht, ben ik ook nog steeds erg blij dat ik een R9 Fury heb gekocht, en niet de adviezen heb gevolgd van degene die een Vega aanraadde die echt heel snel eraan zou komen (wat uiteindelijk 9 maanden later bleek te zijn).
Dat is altijd de gok die je maakt, wachten of...
Zo heb ik niet willen wachten op Zen en polaris/10xx serie en heb ik voor de hoofdprijs een 970 gekocht en daar weer spijt van.
Ik ben dus benieuwd wat Nvidia gaat brengen bij de E3, maar nog meer wat AMD gaat brengen. Niet omdat ik een voorkeur voor de één of de ander heb, maar omdat die prijzen nooit omlaag gaan zolang Nvidia effectief een monopolie heeft op alles boven mid-end uit de fabriek (oftewel ik neem overclocking en undervolting niet mee). Dat is niet een geval van geweldige Nvidia marketing, maar gewoon AMD die achter blijft.
Wie niet. Het is inmiddels zo erg dat iedereen behalve de meest verstokte Nvidia fans op een succesvolle Navi hopen, al was het enkel om Nvidia te forceren hun prijzen te laten zakken, want dat het een beetje de spuigaten uit loopt is overduidelijk.
Wat betreft de speculaties over Navi's "super" (sneller dan hun 20xx voorgangers en 100,- van de prijs af) moet ik zeggen dat ik ook even over een Nvidia ging denken.
(niet dat Nvidia dat ooit zou doen tenzij ze iets weten dat wij niet weten, er zal iig niets aan de prijzen gebeuren totdat AMD het eea bekend maakt.)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
pino85 schreef op zondag 2 juni 2019 @ 15:46:
Marketing doet erg veel en ook de snelste high end kaart in je gelederen hebben ook.
ZenTex schreef op zondag 2 juni 2019 @ 18:24:
De prestatiekroon hebben scheelt ook. Wie de snelste kaart heeft is op dat moment de beste, Nvidia en ATI wrongen zich in het verleden in de gekste bochten om maar de snelste te hebben.
ZenTex schreef op zondag 2 juni 2019 @ 22:34:
En hoe komt het dan dat Nvidia altijd al de onbetwiste marktleider is? Ze hebben niet altijd de snelste kaartgehad, noch de beste, of de beste deal, en toch verkochten ze er meer van. En dan gaat het ook over losse kaarten, niet enkel kaarten in OEMs.
Heeft allemaal geen moer te maken met wie nu de snelste is. Zelfs de marketing doet er tegenwoordig niet veel meer toe. Juist de gemiddelde consument weet dat toch niet, maar die "weten" wel dat Nvidia de snelste is.

Het is allemaal terug te leiden naar één enkele generatie: G80. Daarvoor lagen Nvidia en ATI altijd dicht bij elkaar (althans, vanaf pakweg 2000 ofzo, daarvóór was het 3DFX dat de baas was) en wisselden ze elke 2 jaar van koppositie. Met G80 produceerde Nvidia iets geniaals en zette ATI er niets tegenover. Vervolgens doen ze een nette refresh en een luie scale-up, en zet ATI in op het midden-segment (wat helaas niet mocht baten). Laat dit nou net de periode zijn waarin gaming veel meer mainstream begon te worden. Nvidia heeft van 2006 met G80/G92/GT200 tot 2010 dusdanig veel mindshare opgebouwd dat dat bleef hangen. Dus zelfs GF100 was niet slecht genoeg om dat te verliezen. En dat was niet alleen bij de "gewone" consument, ook hier en op andere forums waren er velen die niet toe wilden geven hoe slecht dat dat ding was, zeker als je naar AMD's Cypress keek. En toen kwam GF114, die wél goed genoeg was in dat middensegment. Dat is en blijft het belangrijkste segment. Dat heeft Nvidia's 2010-2011 gered.

De schade was toen al aangericht. Maxwell kwam vervolgens op precies het goede moment met de juiste prijs en pakte nog een groot deel van de markt. Het is de prijs van de 970 die doorslaggevend was. RTX is weer het eerste stukje marketing in jaren waarmee Nvidia aandacht trekt, dus hoewel ze nu niet zo veel verkopen, hebben ze uitgerekend nu wél de marketing om mindshare te houden.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Dat dus ja.
Ik hoop eigenlijk dat AMD haar strategie om het succes van Ryzen te koppelen aan Radeon gaat werken. Anders koopt iedereen gewoon een RTX. Dan is het denk ik ook wel afgelopen met AMD die het nog probeert. Nee, die zie ik ook gewoon gaan cashen. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • pino85
  • Registratie: Mei 2007
  • Laatst online: 28-11 17:38

pino85

Im just a Bird in the Sky

@Werelds

Mijn al dan klein onderzoek in de praktijk liet toch wel zien dat ook dit nog steeds uit maakt al wellicht minder dan langer geleden. De marketing machine heeft zijn werk vroeger al succesvol gedaan.
The seed has been planted.
Ben het verder wel met je eens,NVIDIA hoeft niet eens de beste producten meer te lanceren want ze verkopen toch wel omdat er een mindset is gecreëerd dat ze toch ‘het beste’ zijn.

Stel dat AMD ook mee gaat in deze prijzen wat echt kan gebeuren dan vraag ik me toch echt af of de situatie voor ze wel zal verbeteren.
Het gaat niets veranderen aan een mindset, dat heeft veel meer tijd nodig. De twijfelaars gaan dan nog eerder voor NVIDIA want waarom dit betalen voor een AMD kaart als je een NVIDIA kan halen die ‘beter’ ‘sneller’ en ‘zuiniger’ is.

Maar worden echt spannende tijden de komende jaren. :)

Liefhebber van Tweakers


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
DaniëlWW2 schreef op maandag 3 juni 2019 @ 11:01:
@Werelds Dat dus ja.
Ik hoop eigenlijk dat AMD haar strategie om het succes van Ryzen te koppelen aan Radeon gaat werken. Anders koopt iedereen gewoon een RTX. Dan is het denk ik ook wel afgelopen met AMD die het nog probeert. Nee, die zie ik ook gewoon gaan cashen. :/
Naar mijn mening heeft dat in veel situaties gewoon niet gewerkt omdat AMD gpu's ook sneller zijn op een intel gpu.
Misschien dat dat bij ryzen 3000 / navi anders word maar ik ben er bang voor aangezien er erg veel aanleiding is dat navi gewoon vega is met wat tweaks en dus niet drastisch anders.

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

computerjunky schreef op maandag 3 juni 2019 @ 12:59:
[...]


Naar mijn mening heeft dat in veel situaties gewoon niet gewerkt omdat AMD gpu's ook sneller zijn op een intel gpu.
Misschien dat dat bij ryzen 3000 / navi anders word maar ik ben er bang voor aangezien er erg veel aanleiding is dat navi gewoon vega is met wat tweaks en dus niet drastisch anders.
Ojee. Wacht maar tot @DaniëlWW2 dit leest.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

computerjunky schreef op maandag 3 juni 2019 @ 12:59:
[...]


Naar mijn mening heeft dat in veel situaties gewoon niet gewerkt omdat AMD gpu's ook sneller zijn op een intel gpu.
Misschien dat dat bij ryzen 3000 / navi anders word maar ik ben er bang voor aangezien er erg veel aanleiding is dat navi gewoon vega is met wat tweaks en dus niet drastisch anders.
Erg veel aanleiding voor de gemiddelde "tech journalist" die het verschil tussen een ISA en een architectuur niet begrijpt ja. Ik wacht gewoon op wat AMD zelf gaat zeggen en wat fatsoenlijke techmedia, Anandtech dus, er van gaat maken. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Werelds schreef op maandag 3 juni 2019 @ 10:13:
[...]


[...]
Nvidia heeft van 2006 met G80/G92/GT200 tot 2010 dusdanig veel mindshare opgebouwd dat dat bleef hangen. Dus zelfs GF100 was niet slecht genoeg om dat te verliezen. En dat was niet alleen bij de "gewone" consument, ook hier en op andere forums waren er velen die niet toe wilden geven hoe slecht dat dat ding was, zeker als je naar AMD's Cypress keek. En toen kwam GF114, die wél goed genoeg was in dat middensegment. Dat is en blijft het belangrijkste segment. Dat heeft Nvidia's 2010-2011 gered.
Ik zal me verder niet in de discussie mengen, het hoe en waarom radeon niet verkoopt heb ik immers jaren geleden al beredeneerd en voorspeld. Maar ik wil wel even toevoegen dat de GF104 uit de tijd van de GF100 (Fermi) tot heden de beste gpu aankoop is die ik ooit heb gedaan in de vorm van de MSI GTX 460 Hawk. Deze https://www.techpowerup.com/reviews/MSI/GTX_460_HAWK/31.html kwam met iets van 675 Mhz, MSI maakte daar 780Mhz van en met overclock kwam je op 900-920 Mhz dankzij de enorme overvolt die je kon toepassen. De kaart was daarnaast, voor die tijd en zonder overvolt, stil en had geinige v-check points. Voor die kaart heb ik bij cdromland 165 euro voor betaald, dus dat zal ergens halverwege 2011 geweest zijn: pricewatch: MSI N460GTX Hawk. In die tijd kon je nog leuke deals scoren op oudere modellen.

De grootste concurrent toen was op moment van aankoop de Ati HD 6870, welke ook in Hawk versie voor ongeveer dezelfde prijs te verkrijgen was. Ik ken een aantal gamers die voor de 6870 zijn gegaan en die hebben daar stuk voor stuk spijt van gekregen door de terugkerende driver problemen in tientallen games en uiteindelijk zelfs het volledig laten vallen van de videokaart wat driver support in 2015. Dat heeft kwaad bloed gezet bij kopers en die kopen nu blind Nvidia.

Als je in de steam survey kijkt van +1 jaar dan zie je wel wat ongeveer de verhouding is van midrange op high-end https://web.archive.org/w...d.com/hwsurvey/videocard/ Daar zie je ook dat de 5770 bijvoorbeeld wel een groot succes was. Zeker als je een paar maanden eerder kijkt, die stond een tijdje bovenaan.

Punt hiervan is dat er meer speelt dan de snelste kaart en hoe 'goed' die was. Persoonlijk twijfel ik sterk aan het nut van die 'snelste' kaart. Ik vrees dat zelfs wanneer de Radeon VII sneller was geweest dan de 2080 ti dat we dan niet ineens hele andere verhoudingen zouden zien dan nu.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
DaniëlWW2 schreef op maandag 3 juni 2019 @ 13:58:
[...]


Erg veel aanleiding voor de gemiddelde "tech journalist" die het verschil tussen een ISA en een architectuur niet begrijpt ja. Ik wacht gewoon op wat AMD zelf gaat zeggen en wat fatsoenlijke techmedia, Anandtech dus, er van gaat maken. ;)
Ach ik begrijp maar een aantal stats en fps en fpu dips zijn daar toch het belangrijkste van en de rest danst daar omheen.
Gewoon de reviews afwachten en kijken wat het doet.
Al die techy details op architectuur niveau is soms leuk om te lezen maar totaal niet relevant voor het eind resultaat want daar draait het om hoge stabiele fps.

En de concurrentie boeit me op dit moment ook al niks meer want amd laat gewoon zien dat ze evenveel voor minder durven te vragen dus als navi echt goed is verwacht ik niet dat ze het veel goedkoper in de markt zetten ondanks dat RTX zal missen.

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

computerjunky schreef op maandag 3 juni 2019 @ 19:57:
[...]

En de concurrentie boeit me op dit moment ook al niks meer want amd laat gewoon zien dat ze evenveel voor minder durven te vragen dus als navi echt goed is verwacht ik niet dat ze het veel goedkoper in de markt zetten ondanks dat RTX zal missen.
Bron? volgens de geruchtenmolen Gaat navi voor aanzienlijk minder dan hun tegenhangers verkocht worden. Nogmaals, geruchten, maar dat AMD Navi even hoog in gaat zetten dan Nvidia heb ik nog nergens gehoord.
Nvidia lijkt met hun "super" al aardig agressief te reageren op Navi, een direct gevolg van mogelijke concurrentie. Mooi toch?

En zonder concurrentie gaan we Intel toestanden krijgen of zelfs nog erger.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
ZenTex schreef op maandag 3 juni 2019 @ 22:22:
[...]


Bron? volgens de geruchtenmolen Gaat navi voor aanzienlijk minder dan hun tegenhangers verkocht worden. Nogmaals, geruchten, maar dat AMD Navi even hoog in gaat zetten dan Nvidia heb ik nog nergens gehoord.
Nvidia lijkt met hun "super" al aardig agressief te reageren op Navi, een direct gevolg van mogelijke concurrentie. Mooi toch?

En zonder concurrentie gaan we Intel toestanden krijgen of zelfs nog erger.
Ja dat zijden ze ook over de ryzen 3xxx die prijzen waren niks meer dan een natte droom van iemand die geen hoger budget had want ze vielen duurder uit met een fors lager verwachte frequentie. dus die geruchten zou ik met een eetlepel zout nemen.
Amd gaat zeer waarschijnlijk gewoon vragen wat ze kunnen vragen en echt niet die lage prijzen omdat een hype club dat verwacht. Kijk maar naar de launch prijzen van de vega's en de radeon 7. ondanks de toen belabbeterde prestatie een fors hogere launch prijs..

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 04:20

aex351

I am the one

Als dat het geval is dan kan je net zo goed bij Intel blijven. Er moet wel een reden zijn om over te stappen naar AMD.
Modbreak:Ga eens ergens anders trollen... :/

[ Voor 17% gewijzigd door dion_b op 13-06-2019 00:36 ]

< dit stukje webruimte is te huur >


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ZenTex schreef op maandag 3 juni 2019 @ 22:22:
[...]


Bron? volgens de geruchtenmolen Gaat navi voor aanzienlijk minder dan hun tegenhangers verkocht worden. Nogmaals, geruchten, maar dat AMD Navi even hoog in gaat zetten dan Nvidia heb ik nog nergens gehoord.
Nvidia lijkt met hun "super" al aardig agressief te reageren op Navi, een direct gevolg van mogelijke concurrentie. Mooi toch?

En zonder concurrentie gaan we Intel toestanden krijgen of zelfs nog erger.
Iemand van Sapphire heeft naar verluid $399 en $499 gezegd voor de Navi aankondiging. Daarna kwam afgelopen week $399 naar boven voor de RTX2070 concurrent en $379 als Nvidia de prijzen laat dalen. Ik denk dat het laatste potentieel het meest realistische is want ik zie Nvidia wel wat met prijzen doen nu ze waarschijnlijk moeten.

Verder gaan er voor Nvidia de geruchten dat de RTX2080Ti met snellere VRAM uitgerust gaat worden. Verder zou er een RTX2070Ti en RTX2060Ti in voorbereiding zijn voor later in het jaar. RTX2070Ti zal dan een verdere cut down Tu-104 zijn en de RTX2060Ti een mindere cut down van Tu-106. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

computerjunky schreef op maandag 3 juni 2019 @ 22:30:
[...]


Ja dat zijden ze ook over de ryzen 3xxx die prijzen waren niks meer dan een natte droom van iemand die geen hoger budget had want ze vielen duurder uit met een fors lager verwachte frequentie. dus die geruchten zou ik met een eetlepel zout nemen.
Amd gaat zeer waarschijnlijk gewoon vragen wat ze kunnen vragen en echt niet die lage prijzen omdat een hype club dat verwacht. Kijk maar naar de launch prijzen van de vega's en de radeon 7. ondanks de toen belabbeterde prestatie een fors hogere launch prijs..
Dus omdat iemand (belachelijke) geruchten verspreidt, is elk gerucht bij voorbaat fout, behalve die die je net zelf ter plekke verzonnen hebt?
En ondanks dat die belachelijke prijzen niet waar bleken te zijn, zijn de werkelijke prijzen op het randje van "te mooi om waar te wezen".

De vega's en RVII leveren echt geen belabberde prestaties, enkel een belachelijk stroomverbrijk. :+
Maar goed, dat zijn dan ook compute kaarten die als wanhoopsdaad tegenover de Nvidia kaarten werden neergezet.

Lateen we lekker wachten op de presentatie en de reviews van Navi als het zover is ipv ongefundeerde kletspraat te verspreiden. En mocht je wel een bron van deze geruchten hebben, geef dan een linkje AUB.
DaniëlWW2 schreef op maandag 3 juni 2019 @ 22:40:
[...]


Iemand van Sapphire heeft naar verluid $399 en $499 gezegd voor de Navi aankondiging. Daarna kwam afgelopen week $399 naar boven voor de RTX2070 concurrent en $379 als Nvidia de prijzen laat dalen. Ik denk dat het laatste potentieel het meest realistische is want ik zie Nvidia wel wat met prijzen doen nu ze waarschijnlijk moeten.

Verder gaan er voor Nvidia de geruchten dat de RTX2080Ti met snellere VRAM uitgerust gaat worden. Verder zou er een RTX2070Ti en RTX2060Ti in voorbereiding zijn voor later in het jaar. RTX2070Ti zal dan een verdere cut down Tu-104 zijn en de RTX2060Ti een mindere cut down van Tu-106. :)
Daar ben ik me van bewust,ik heb me ook in die discussie gemengd. Maar zelfs als de
sapphire bron klopt, is het geen "evenveel voor minder" zoals computerjunkie beweert, maar minder voor meer. (400 en 500 voor >2060 en >1070, met de caveat dat deze alweer bijna een jaar oud zijn en inmiddels voor minder dan MSRP weggaan)

[ Voor 28% gewijzigd door ZenTex op 03-06-2019 22:48 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
ZenTex schreef op maandag 3 juni 2019 @ 22:42:
[...]


Dus omdat iemand (belachelijke) geruchten verspreidt, is elk gerucht bij voorbaat fout, behalve die die je net zelf ter plekke verzonnen hebt?
En ondanks dat die belachelijke prijzen niet waar bleken te zijn, zijn de werkelijke prijzen op het randje van "te mooi om waar te wezen".

De vega's en RVII leveren echt geen belabberde prestaties, enkel een belachelijk stroomverbrijk. :+
Maar goed, dat zijn dan ook compute kaarten die als wanhoopsdaad tegenover de Nvidia kaarten werden neergezet.

Lateen we lekker wachten op de presentatie en de reviews van Navi als het zover is ipv ongefundeerde kletspraat te verspreiden. En mocht je wel een bron van deze geruchten hebben, geef dan een linkje AUB.
En die 'geruchten' over $250 voor RTX2070 performance zijn niet ongefundeerde kletspraat? Dat zijn net zo goed belachelijke geruchten geweest vanaf het begin, waar imo overduidelijk van was dat die nooit zouden gebeuren.

$399 lijkt me potentieel mogelijk voor RTX2070 performance. Waarbij Nvidia dan een prijsdaling naar iets daarboven doet, en het neerkomt op voorkeuren en bijvoorbeeld power consumption welke van de twee je wil.

Overigens is hun MSRP leuk natuurlijk, maar eerst zien bij webwinkels voor ik het geloof. Nu is de mining hype wel redelijk voorbij, maar er zijn wel meer kaarten geweest de afgelopen jaren voor leuke MSRPs, maar die je nooit voor dat bedrag kon krijgen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ZenTex schreef op maandag 3 juni 2019 @ 22:42:
Daar ben ik me van bewust,ik heb me ook in die discussie gemengd. Maar zelfs als de
sapphire bron klopt, is het geen "evenveel voor minder" zoals computerjunkie beweert, maar minder voor meer. (400 en 500 voor >2060 en >1070, met de caveat dat deze alweer bijna een jaar oud zijn en inmiddels voor minder dan MSRP weggaan)
Maar ik hou dan weer rekening mee met RTX2070 voor $399 en RTX2060 voor $299. Dan verschuift opeens alles.Ook is het zeer interessant om te zien welke van de twee "kampen" het laagst durft te gaan. Gaan ze eigenlijk wel omlaag qua prijs? Vermoedens en hoop zijn slechte raadgevers. :)

Ondertussen zit Nvidia zit op een zeer volwassen proces en zullen ze met relatief lage kosten per wafer zitten. De chips zijn alleen enorm wat in de marge zal hakken als ze in prijs gaan zakken. Verder lijken verkopen niet goed te gaan en zou AMD misschien zelfs eens wat mindshare kunnen winnen door het succes van Ryzen en door Nvidia die te ver is gegaan voor sommigen qua prijzen.

Aan de andere kant zit AMD waarschijnlijk op 7FF+ met Navi. Dat zijn EUV+DUV wafers. Dat zal de kosten wat drukken ten opzichte van 7FF voor de grotere chips. Het gaat kennelijk om een 255mm2 chip en dat zal heel wat kosten, zeker als yields minder dan perfect zijn. Daar is EUV voor. Extreem dure techniek, maar niet toepassen is waarschijnlijk nog duurder omdat yields slechter worden. Speelt ook nog eens mee dat het zeer vroeg in de productiecyclus van dit nieuwe proces is. Ik vraag me dus af hoe laag AMD kan gaan qua prijs zonder dat ze hun marges helemaal verliezen of dat andere bedrijfsonderdelen de verkoop van Navi aan gamers moet gaan subsidiëren. Ergens denk ik dat ze niet onder een MSRP van $250 zullen gaan voor de cut down RX5700.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

Sissors schreef op maandag 3 juni 2019 @ 22:57:
[...]

En die 'geruchten' over $250 voor RTX2070 performance zijn niet ongefundeerde kletspraat? Dat zijn net zo goed belachelijke geruchten geweest vanaf het begin, waar imo overduidelijk van was dat die nooit zouden gebeuren.
Yup, complete onzin. Men moet niet alles geloven hoe graag menook wil. Altijd selectief blijven, ook met geruchten.
$399 lijkt me potentieel mogelijk voor RTX2070 performance. Waarbij Nvidia dan een prijsdaling naar iets daarboven doet, en het neerkomt op voorkeuren en bijvoorbeeld power consumption welke van de twee je wil.
Dat lijkt dan het meest waarschijnlijke ja.
Overigens is hun MSRP leuk natuurlijk, maar eerst zien bij webwinkels voor ik het geloof. Nu is de mining hype wel redelijk voorbij, maar er zijn wel meer kaarten geweest de afgelopen jaren voor leuke MSRPs, maar die je nooit voor dat bedrag kon krijgen.
Dat is ook mijn grote vrees. Als Navi dusdanig presteert dat iedereen er warm voor loopt zou ik niet verrast zijn dat er weer een beschikbaarheidspremie op komt zoals met polaris. (anders had ik nu een 480 gehad)
Maar serieus, zonder mining gekte zie ik dergelijke uitwassen niet meer gebeuren.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
@ZenTex

De geruchten kwamen voornamelijk uit het AdoredTV kamp die zelfs hier op tweakers in de amd topic bijna als heilige gezien word en veelal gekopieerd.
Dar iedereen er verder mee vandoor gaat als zijnde feit is hem helaas niet aan te rekenen maar dat iedereen het blijkbaar gelooft en niet denkt dat AMD niet het maximale zal proberen te vragen is gewoon naïef.
Ze zijn een bedrijf en willen na 10 jaar ook wel eens cashen om te kunnen groeien.

En ja ELK gerucht is wat mij betreft fout tot het tegendeel bewezen is. Met die instelling blijft men nuchter en creert men geen hype met volslagen belachelijke verwachtingen.

En ik zeg duidelijk 'ondanks de TOEN belabberde prestatie' waar ik mee doel op de launch aangezien we het over launch prijzen hebben.
Het heeft AMD en game devs vele patches gekost om de prestaties op te krikken maar bij de launch was het gewoon een drama en waren ze peperduur (deels door de mining hype).

En zelfs als de nieuwe navi kaarten 100 euro goedkoper zijn voor gelijke prestaties dan nog moet je voor lief nemen dat er geen RTX features op zitten en daarom betaal je dan ook minder. Het is immers niet gek dat je voor meer solicon meer betaald.

Om het nog maar niet te hebben over advies prijs en de prijs die wij uiteindelijk betalen. 399 bij de release is gewoon 445 euro hier in veel gevallen. Zo was de 9900k ook een tijd 550+

En ik weet niet waarvan je een bron wil ik geef immers alleen aan dat een bedrijf niet goedkopere prijzen gaat hanteren puur omdat het kan. geld moet rollen en wel hun kant op.

En ja ik kan niet wachten op 10/6 en 7/7 Al is mijn verwachting matig omdat de computex keynote ook matig was na een hoop hype.
DaniëlWW2 schreef op maandag 3 juni 2019 @ 23:01:
[...]

Maar ik hou dan weer rekening mee met RTX2070 voor $399 en RTX2060 voor $299. Dan verschuift opeens alles.Ook is het zeer interessant om te zien welke van de twee "kampen" het laagst durft te gaan. Gaan ze eigenlijk wel omlaag qua prijs? Vermoedens en hoop zijn slechte raadgevers. :)
AMD heeft hier het voordeel dat ze lager kunnen gaan doordat ze met 7nm minder kwijt zijn dan nvidia met die enorme lap 12 nm silicon met RTX cores.
Maargoed je krijgt dan ook iets minder. 2 maanden geleden werd er nog geroepen dat er bijna geen support voor RTX was nu zijn er voor het eind van het jaar 19 games met de support. Dat is een veel snellere implementatie dan met Physx en hairworks.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

computerjunky schreef op maandag 3 juni 2019 @ 22:30:
[...]


Ja dat zijden ze ook over de ryzen 3xxx die prijzen waren niks meer dan een natte droom van iemand die geen hoger budget had want ze vielen duurder uit met een fors lager verwachte frequentie. dus die geruchten zou ik met een eetlepel zout nemen.
Amd gaat zeer waarschijnlijk gewoon vragen wat ze kunnen vragen en echt niet die lage prijzen omdat een hype club dat verwacht. Kijk maar naar de launch prijzen van de vega's en de radeon 7. ondanks de toen belabbeterde prestatie een fors hogere launch prijs..
Die prijzen zijn nog steeds erg mooi. De prijzen van Ryzen 1 waren een natte droom (of een of andere i5 zonder HT die niks meer waard is tegenwoordig of een 1700(x) met 4x zoveel threads _/-\o_ ), nu Intel toch niet kan concureren behalve op prijs kunnen ze beter wat marge pakken.
De geruchten klopten niet helemaal, alleen is het door een combinatie van frequentie en IPC dat de prestaties nog steeds wel overeen komen.

Waarom zouden ze de Radeon 7 weggeven? Ze kunnen ze aan datacenters voor een meerprijs verkopen omdat ze zoveel compute kracht hebben. Daarnaast kost HBM2 ook wat. Zolang Nvidia zulke hoge prijzen blijft vragen vind ik het alleen maar mooi dat AMD dat ook doet :P. Lagere prijs heeft weinig zien gezien er genoeg mensen met een groene bril (toch weer heel netjes verwoord) een GTX 1650 of 1050Ti kopen ipv een RX 570.

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 19-12 07:14

ZenTex

Doet maar wat.

AMD heeft idd de nodevoordelen en die size mee, Nvidia weer een volwassen proces (al vraag ik me af wat de meerkosten van de RTX hardware zijn) en Nvidia heeft diepe zakken

Maar 299 en 399 lijken me prima prijzen toch? Geen reden voor AMD om onder de 200 te gaan zitten.
En ik denk dat er stiekum heel wat gamers zijn die aan een upgrade toe zijn maar de prijzen te hoog vinden. Ik vond 350 voor upper mid range al het maximale, en een 2060 zit daar al boven en is met de beste wil van de wereld geen upper mid range te noemen.
computerjunky schreef op maandag 3 juni 2019 @ 23:08:
@ZenTex


En ja ELK gerucht is wat mij betreft fout tot het tegendeel bewezen is. Met die instelling blijft men nuchter en creert men geen hype met volslagen belachelijke verwachtingen.
Kijk, dit klinkt al weer heel anders
Dat hele adoredTV gebeuren is aan mij voorbij gegaan, ik wist wat er geclaimed werd, maar meer dan meewarig het hoofd schudden deed ik niet.

Edit: RTX kan me voorlopig aan m'n reet roesten. Over 3 jaar als het weer upgrade tijd is zal ik wel even kijken hoe het ermee staat. Een gamer met mid range spul gaat niet de "helft" van z'n FPS hiervoor inruilen, meer iets voor de huidige high end kaarten.

[ Voor 10% gewijzigd door ZenTex op 03-06-2019 23:18 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
ZenTex schreef op maandag 3 juni 2019 @ 23:15:
[...]

AMD heeft idd de nodevoordelen en die size mee, Nvidia weer een volwassen proces (al vraag ik me af wat de meerkosten van de RTX hardware zijn) en Nvidia heeft diepe zakken
De 1080TI is 471mm2 en de 2080TI is 754mm2 dus een behoorlijk grotere lap silicon mede dankzij tensor cores. En dan is de 1xxx nog op 16nm gemaakt en de 2xxx op 12nm anders had het verschil dus nog extremer geweest.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Volgens de doorgaans goed geïnformeerde DigiTimes zou Ampere dan toch bestaan:
Nvidia's Ampere GPUs slated for launch in 2020 will be manufactured using Samsung's 7nm EUV process technology, according to market sources.
Hoe verhoudt het Samsung 7nm EUV zich tegenover TSMC 7nm EUV? Maken beide gebruik van dezelfde ASML machines?

Dat Nvidia met Samsung in zee zou willen voor een high-end GPU horen we niet voor het eerst: oorspronkelijk zou Turing op Samsung's 10nm node gemaakt worden.

[edit]

Een aantal redenen waarom Nvidia misschien voor Samsung zou kiezen:

Samsung vs TSMC 7nm Update

[ Voor 32% gewijzigd door XWB op 05-06-2019 16:15 ]

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op woensdag 5 juni 2019 @ 14:55:
Volgens de doorgaans goed geïnformeerde DigiTimes zou Ampere dan toch bestaan:

Hoe verhoudt het Samsung 7nm EUV zich tegenover TSMC 7nm EUV? Maken beide gebruik van dezelfde ASML machines?
1) Geen flauw idee en niemand kan je hier echt een antwoord op geven. Het gaat om veel meer dan alleen transistorformaat. Het gaat bijvoorbeeld ook om zaken zoals chiparchitectuur, yields, clockspeedpotentieel etc.
2) Ja.
Dat Nvidia met Samsung in zee zou willen horen we niet voor het eerst: oorspronkelijk zou Turing op Samsung's 10nm node gemaakt worden.
Het zou goed kunnen dat Nvidia over wil stappen naar Samsung. Geen idee of het klopt voor 10nm, maar voor 7nm zou het goed kunnen. Het geeft waarschijnlijk wel aan dat we dit jaar geen nieuwe Nvidia lijn hoeven te verwachten. Ik denk ook niet begin 2020. Samsung haar eerste 7nm productieproces gaat deze maand ook pas in massaproductie. Dat is 7LPE, low power early. Ik denk niet dat Nvidia daar high end GPU's op zal laten produceren. Nvidia gaat verder eigenlijk nooit snel over naar een nieuw productieproces. Dat werkt niet samen met Nvidia dat altijd streeft naar de beste en dus grootste GPU's.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op woensdag 5 juni 2019 @ 15:15:
[...]

Samsung haar eerste 7nm productieproces gaat deze maand ook pas in massaproductie.
Bedoel je misschien TSMC, dat deze maand begint met 7nm EUV massaproductie? Samsung zou massaproductie al in oktober vorig jaar opgestart te hebben.

March of the Eagles


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Heel goed filmpje over Quake RTX door 2Klik Philip, hij kijkt naar nVidia's eigen DXR versie van Quake 2. Hij is, terecht, zeer onder de indruk van hoe ver nVidia is gekomen met first gen ray-tracing, met name dankzij de de-noiser die ze gebruiken. Hij had niet verwacht dat we NU al zo ver zouden zijn. In het tweede deel van het filmpje wordt het nog boeiender. Hij speculeert dat doordat AMD niet op ultra-high end kon concurreren, dat nVidia de balen had om een véélste grote/complexe/dure 2080Ti GPU durft uit te brengen met een groot stuk van de mega-chip dedicated aan RTX cores. (link naar juiste timestamp):



Op die manier duwt nVidia DXR vol naar de voorgrond zodat iedereen erop moet reageren, van Crytek tot Sony met zn Playstation 5. Op die manier is de 2080(Ti) eigenlijk een commerciële techdemo, waar nVidia op kan verdienen én waar de kopers toch nog iets aan hebben: de eerste kaart die de toekomst inluidde. Een beetje zoals de 3DFX Voodoo1 :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
XWB schreef op woensdag 5 juni 2019 @ 16:13:
[...]


Bedoel je misschien TSMC, dat deze maand begint met 7nm EUV massaproductie? Samsung zou massaproductie al in oktober vorig jaar opgestart te hebben.
sterker nog dat is samsungs second gen 7nm euv. LPE is de eerste en LPP is gen2. gen 3 word ook aan gewerkt maar is nog minder over bekend. Daarnaast start samsung in begin 2020 met 6nm en later met 5nm dat nu al in de test fase is en het voordeel daarvan is dat de huidige 7nm makkelijk 'geport'kan worden naar de 6 en 5 nm waardoor het sneller beschikbaar komt.

Tsmc loopt iets achter op samsung in de nm race maar realiseren een marginaal hogere dichtheid.
niet dat NM bij deze bedrijven veel waarde hebben want het blijft een waardeloos getalletje.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 02:06
Turns out, there is an RTX 2080 Ti SUPER variant and its a brand new chip. It’s not an old part and it’s not a repurposed Quadro part (trust me, I asked). Oh, and its completely unlocked, meaning the AIBs can have 300 watts TDP on this thing if they wanted to – and knowing the insane custom designs that come out of AIBs, I wouldn’t be surprised to see this. I don’t have the exact specifications of the chip or the exact pricing yet but I am fairly confident this will have a higher core count as well as faster GDDR6 memory.

This is not the PN-A for OC version chip or the non-OC chip, its a completely new chip as I mentioned earlier and will have a new PN. Since it’s unlocked and will have higher TDP as well as higher core count we expect this to be much faster than the existing RTX 2080 Ti card. Everything we know so far points to this slotting in at roughly the same price point as the existing RTX 2080 Ti or slightly above. In other words, you are going to get a card that is much more powerful but for roughly the same price or slightly more. Unfortunately, however, you are going to have to wait a bit for this card as per my info, it will have a delayed launch.
https://wccftech.com/excl...gpus-unleashing-monsters/
A teaser posted shortly before Computex has generated a lot of attention, but the timing for that teaser was simply wrong. The SUPER series is coming soon, but the exact date is unknown. According to Wccftech, we might hear more next week. It is worth mentioning that just 12 days ago Vonguru also reported that SUPER series is expected in June.

It is said that SUPER series will receive faster memory and a core count bump across the series. This time around NVIDIA is not launching a new GeForce series (RTX 3080 etc), but instead, existing SKUs will receive a SUPER postfix. That said new GeForce will simply be called RTX 2080 SUPER.

NVIDIA Turing Refresh is becoming a reality.

Disclaimer: we have independently confirmed the SUPER series.
https://videocardz.com/81...force-rtx-20-super-series

[ Voor 42% gewijzigd door Paprika op 12-06-2019 19:45 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus een "TU-101" met "Fermi" niveau power draw? De prijs van dat ding, mocht die bestaan, gaat laten we zeggen, interesant worden. :P
Er is makkelijk ruimte voor een RTX2060S, RTX2070S en zelfs een RTX2080S. RTX2060S kan makkelijk met een TU-106 met minder zaken uitgeschakeld. RTX2070S en RTX2080S kunnen beiden met TU-104. Het zou de line-up van Nvidia ook mooi nog verwarrender maken.

Nvidia moet waarschijnlijk ook wel omdat de RX5700, de RTX2060 makkelijk lijkt te kunnen verslaan. De RX5700XT lijkt ook net sneller te zijn dan de RTX2070. De RTX2080S is dan gewoon een refresh om de TU-104 chip eens volledig geactiveerd te verkopen.

Uiteraard zouden wat gunstigere prijzen door deze refresh ook erg welkom zijn. Zeker als ze dit al aankondigen voor 7 juli want dan zal AMD waarschijnlijk al reageren voor de Navi launch. Zou toch geweldig zijn als AMD een nieuwe lijn van Radeon's lanceert en Nvidia voor de verandering eens voor de betere prijzen gaat zorgen? oOo

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 02:30
Geen E3 RTX super nieuws ? of heb ik dat gemist ?

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Super? Kom aan. Moet er nu weer iets nieuws verzonnen worden? Wat is er mis met Ti of een 5je ertussen?
Daarbij ben ik benieuwd hoe ver je de 2080 Ti nog kan rekken qua clocks.

[ Voor 5% gewijzigd door XanderDrake op 13-06-2019 08:49 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
mmxmmx schreef op donderdag 13 juni 2019 @ 04:08:
Geen E3 RTX super nieuws ? of heb ik dat gemist ?
Dat heb je gemist.

TL;DR: "super" betekent gewoon een SKU verschuiving. 2070 -> 2060 Super, 2080 -> 2070 Super enzovoort. Allemaal top-binned chips. 2080 Ti Super wordt een "nieuwe" chip. Daar geloof ik niks van, dat wordt gewoon een volledige TU102.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 13 juni 2019 @ 09:40:
[...]

Dat heb je gemist.

TL;DR: "super" betekent gewoon een SKU verschuiving. 2070 -> 2060 Super, 2080 -> 2070 Super enzovoort. Allemaal top-binned chips. 2080 Ti Super wordt een "nieuwe" chip. Daar geloof ik niks van, dat wordt gewoon een volledige TU102.
Volgens wccftech (I know :P) zou het meer om "Ti's" gaan. RTX2060 en RTX2070 Super zouden geen volledige TU-106 en TU-104 zijn. RTX2080 Super wel, maar dat is eigenlijk een inkoppertje, geruchten of niet.
XanderDrake schreef op donderdag 13 juni 2019 @ 08:48:
Super? Kom aan. Moet er nu weer iets nieuws verzonnen worden? Wat is er mis met Ti of een 5je ertussen?
Daarbij ben ik benieuwd hoe ver je de 2080 Ti nog kan rekken qua clocks.
Nvidia wil de line-up duidelijk nog verwarrender maken. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 10:33

XanderDrake

Build the future!

Werelds schreef op donderdag 13 juni 2019 @ 09:40:
2080 Ti Super wordt een "nieuwe" chip. Daar geloof ik niks van, dat wordt gewoon een volledige TU102.
Dus euh... de Titan RTX for consumers, zoals destijds GTX 1080 Ti vs Titan X?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
XanderDrake schreef op donderdag 13 juni 2019 @ 10:03:
[...]

Dus euh... de Titan RTX for consumers, zoals destijds GTX 1080 Ti vs Titan X?
Dat vermoed ik wel ja. De kans dat Nvidia daadwerkelijk een nieuwe chip (dus geen TU104 of TU102) heeft is nihil. Het huidige gamma aan chips is precies hoe Nvidia het al jaren doet. Wat zo'n site als WCCF als "nieuw" bestempelt zegt mij niks.

  • hubhib
  • Registratie: December 2006
  • Laatst online: 14-12 13:31
Een nieuwe chip, waar we nog helemaal nooit leaks van hebben gezien, zou dan binnenkort uit moeten komen? Klinkt als een hoopje stieren peop, van de immer betrouwbare WCCFTech. Volgens mij geeft nVidia de huidige lijn een bump in geheugensnelheid en past de prijs een stapje naar beneden aan om Navi te counteren.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


  • -The_Mask-
  • Registratie: November 2007
  • Niet online

NVIDIA GeForce RTX 20 SUPER series to launch mid-July

We cannot confirm whether the date shared by Wccftech (June 21st) is true, but our sources have also referred to next week as a possible announcement of the new series. Nothing out of ordinary is happening on this date, so we are not sure why NVIDIA might have chosen it for the announcement.

What’s important, however, the GeForce RTX 20 Super series will not launch till mid-July. NVIDIA has only just started talking to AIBs about the new series, and the time for a Turing refresh preparation is obviously still required.

We do not expect significant changes to existing custom designs, as all SUPER SKUs will use existing GPUs (just different variants).
We have also confirmed the GPU variants that will launch with SUPER series.

The GeForce RTX 2080 SUPER will feature Turing TU104-450 GPU. This alone points towards 8GB GDDR6 memory, which for this very SKU will be faster (16 Gbps vs 14 Gbps) than the rest of the RTX stack. At this point, there is no doubt that this model will have all CUDA cores enabled (3072 to be exact).

Meanwhile, the RTX 2070, which was used by AMD during Radeon RX 5700 XT presentation, will receive a faster variant with an additional 256 CUDA cores. This card will be powered by TU104-410 GPU.

The RTX 2060 Super will basically be a cut-down version of RTX 2070 non-Super, featuring TU106-410 GPU with full 256-bit memory bus. This means 8GB GDDR6 memory, which is a 2GB more than RTX 2060 non-Super.

To give credit where it’s due, Igor Wallossek from Tom’s Hardware Germany was the first to report the correct variants:
https://videocardz.com/81...series-to-launch-mid-july

[ Voor 104% gewijzigd door -The_Mask- op 13-06-2019 16:33 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 20-12 23:22
Dat zou de 2080 weleens interessant kunnen maken voor mij. Of ze moeten de 2080TI flink laten zakken in prijs :+

Heb expres nog niet mijn VR bril geupgrade, want ik geloof niet in de combo Reverb met een 2080 en ik ga simpelweg het geld voor een 2080TI niet neerleggen. Al ben ik al meerdere keren in de verleiding geweest :o Het zal dus wel een 2080 super met een Oculus Rift S worden.

  • poing
  • Registratie: Juli 2001
  • Niet online
Ik overweeg de RTX2080 of de 2080TI. Die laatste neem ik denk ik best voor 4K gaming, maar het is veel geld. Nu lees ik in de pricewatch dat er voor beide A en B chips zijn. Ik heb echter niet gevonden hoe ik op voorhand kan weten of een bepaalde kaart een A chip heeft, het zou een loterij zijn...

Zijn er merken die ik best vermijd als ik op een A chip mik?


Ik wacht wel op de Supers

[ Voor 4% gewijzigd door poing op 14-06-2019 12:47 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Paprika schreef op woensdag 12 juni 2019 @ 19:43:
[...]

https://wccftech.com/excl...gpus-unleashing-monsters/

"Turns out, there is an RTX 2080 Ti SUPER variant and its a brand new chip."
Ik geloof niet in een nieuwe chip, maar laat mij graag verassen. Ik gok eerder dat RTX 2080 Ti Super een volwaardige TU102 met 4608 cores is, zoals in de duurste Quadro RTX variant, en niets meer dan dat.

De yields van Turing schijnen tegenwoordig heel goed te zijn. Mede daardoor levert Nvidia alleen nog maar 400A chips, en is het nu vast mogelijk om een volwaardige TU102 naar de desktop te brengen.

March of the Eagles


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Ik ben beniewd of Nvidia ooit nog een keer meer functies aan hun control panel toevoegen. Een fps limiet, raytracing slider en een tessellation slider zou leuk zijn. Het control panel oogt ook oud.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
Gekke Jantje schreef op maandag 17 juni 2019 @ 16:41:
Ik ben beniewd of Nvidia ooit nog een keer meer functies aan hun control panel toevoegen. Een fps limiet, raytracing slider en een tessellation slider zou leuk zijn. Het control panel oogt ook oud.
Volgens mij zijn dat op een fps limiter na dan die gewoon nodig is voor sync zaken toch echt zaken die in een game thuishoren niet in een driver menu.
Daarnaast vind ik de Nvidia drivers vele malen duidelijker dan die van AMD.
Ik moest vorige week ergens een rx 570 installeren en ik kon werkelijk niks vinden.
Trouwens eerste amd drivers sinds ik van mijn 7970 af ben en er was bij een totaal verse windows install meteen een probleem met settings die verkeerd stonden.
Al leken ze wel goed te staan moest ik verschillende vinkjes aan en uit zetten en het probleem was ineens verholpen.
Bij nvidia heb ik werkelijk nog nooit problemen met een driver gehad en ook nog nooit ddu gebruikt bij nieuwe versies (iets dat ik persoonlijk onzin vind en nog nooit iets heb zien oplossen. Het werkt gewoon altijd prima tenzij er in zeer zeldzame gevallen een bug in de driver zit. Maarja ik ben dan ook geen beta tester en loop weken zo niet maanden achter met driver updates.

Een nieuwe UI is niet altijd beter en veranderen om te veranderen word niemand beter van behalve de flaperd die de verandering maakt en er geld voor vangt.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

computerjunky schreef op maandag 17 juni 2019 @ 21:50:
[...]

Volgens mij zijn dat op een fps limiter na dan die gewoon nodig is voor sync zaken toch echt zaken die in een game thuishoren niet in een driver menu.
Niet elke gamedeveloper heeft het geld daarvoor of wil daar geld insteken. Het kan mits goed geimplementeerd goed werken, maar ergens kan je je ook afvragen of het wel slim is dat iedereen zijn eigen limiter gaat bouwen in tegenstelling tot een iemand. Met programmeren ga ik ook niet elke keer dezelfde code opnieuw schrijven. Die stop ik in een functie die ik kan hergebruiken.
Daarnaast vind ik de Nvidia drivers vele malen duidelijker dan die van AMD.
Ik moest vorige week ergens een rx 570 installeren en ik kon werkelijk niks vinden.
Trouwens eerste amd drivers sinds ik van mijn 7970 af ben en er was bij een totaal verse windows install meteen een probleem met settings die verkeerd stonden.
Al leken ze wel goed te staan moest ik verschillende vinkjes aan en uit zetten en het probleem was ineens verholpen.
Bij nvidia heb ik werkelijk nog nooit problemen met een driver gehad en ook nog nooit ddu gebruikt bij nieuwe versies (iets dat ik persoonlijk onzin vind en nog nooit iets heb zien oplossen. Het werkt gewoon altijd prima tenzij er in zeer zeldzame gevallen een bug in de driver zit. Maarja ik ben dan ook geen beta tester en loop weken zo niet maanden achter met driver updates.

Een nieuwe UI is niet altijd beter en veranderen om te veranderen word niemand beter van behalve de flaperd die de verandering maakt en er geld voor vangt.
Tjah, volgens mij ben jij dan de 1% die de nieuwe drivers niet aanstaat. Dat de Nvidia drivers eruitzien als Internet Explorer 6 is natuurlijk makkelijk als je dat gewend bent, maar het ziet er niet uit en werkt voor geen meter. Stilstaan is achteruitgaan in dit geval.
Het is hetzelfde als je van Windows XP naar Windows 10 zou gaan. Ik hoop voor je dat je de eerste maand zal klagen en daarna blij zal zijn met de nieuwe interface als je er aan gewend bent.

Maar dat is het mooie van jouw reactie (en de mijne) het zijn meningen en voegen werkelijk niks toe aan de discussie. De ellende die ik en anderen met Nvidia drivers heb gehad.... voegt ook niks toe aan de discussie.

Korte ontopic toevoeging, wat betreft het uiterlijk van de Nvidia drivers. Ik heb het gevoel dat dat nog een aantal jaar zo zal blijven. Ze stoppen al het geld in Nvidia experience en ik zie ze niet zo maar ineens dat veranderen.

[ Voor 4% gewijzigd door Sp3ci3s8472 op 17-06-2019 23:37 . Reden: toelichting ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
computerjunky schreef op maandag 17 juni 2019 @ 21:50:
Daarnaast vind ik de Nvidia drivers vele malen duidelijker dan die van AMD.
Ik moest vorige week ergens een rx 570 installeren en ik kon werkelijk niks vinden.
Het is even wennen, maar dan werkt het prima.

Van mij hoeft de nvidia control panel niet veranderd te worden, maar modern oogt het niet.
Sp3ci3s8472 schreef op maandag 17 juni 2019 @ 23:35:
Niet elke gamedeveloper heeft het geld daarvoor of wil daar geld insteken. Het kan mits goed geimplementeerd goed werken, maar ergens kan je je ook afvragen of het wel slim is dat iedereen zijn eigen limiter gaat bouwen in tegenstelling tot een iemand. Met programmeren ga ik ook niet elke keer dezelfde code opnieuw schrijven. Die stop ik in een functie die ik kan hergebruiken.
Ingame fps limiters geven merkbaar lagere latency dan driver level, dus ja, het is zeker wenselijk dat iedereen zijn eigen fps limiter inbouwt.

Volgens battlenonsense werkt de fps limiter van msi afterburner beter dan die van amd en nvidia (via nvidia inspector)

[ Voor 47% gewijzigd door haarbal op 18-06-2019 00:31 ]

Mechwarrior Online: Flapdrol


  • Blaat
  • Registratie: September 2007
  • Laatst online: 09:36

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

computerjunky schreef op maandag 17 juni 2019 @ 21:50:
[...]
Een nieuwe UI is niet altijd beter en veranderen om te veranderen word niemand beter van behalve de flaperd die de verandering maakt en er geld voor vangt.
Hoewel ik het in de regel eens ben met deze uitspraak, vind ik de rest van je post nogal ongenuanceerd.

Wat is er mis met de user die graag een globale limit op het aantal tesselation samples wil instellen?

En dat je het onoverzichtelijk voor jou is, is omdat je er niet aan gewend bent. Toen ik overstapte van touchwiz naar kale android kon ik ook niks meer vinden. Wil niet zeggen dat het minder goed is en een week later wist ik niet beter.

Objectief gezien heeft het nVidia control panel minder functionaliteit dan die van AMD. Bovendien duurt het toepassen van settings overdreven lang bij nVidia, wat imo met de modernste systemen niet te verantwoorden valt.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Blaat schreef op dinsdag 18 juni 2019 @ 07:21:
Bovendien duurt het toepassen van settings overdreven lang bij nVidia, wat imo met de modernste systemen niet te verantwoorden valt.
Het is dat ik NVCP maar zelden open, maar het is echt een achterhaald stuk software. Met alle zooi die Nvidia installeert, zou je wel mogen verwachten dat NVCP een beetje rap opent. Maar nee, je moet gewoon 5 seconden wachten, ongeacht hoe snel je systeem is. Elke pagina moet vervolgens ook weer laden en dan kom je inderdaad bij het toepassen van instellingen.

Nee, ik kan me niet vinden in enig argument dat NVCP niet toe aan een update is. De indeling is op veel plekken ook erg onlogisch. Waarom zitten resolutie en multi-monitor instellingen op verschillende pagina's? Waarom is er een aparte pagina voor HDCP status? En inderdaad, waarom kunnen we tessellation niet aan banden leggen (want de meeste devs zijn er simpelweg te lui voor, zeker als ze GameWorks blobs krijgen die standaard op 64x staan), maar wel AO, AF, AA en andere ongein?

En zo'n Electron app als GFE is ook niet de oplossing. Dat blijft traag.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
computerjunky schreef op maandag 17 juni 2019 @ 21:50:
[...]


Volgens mij zijn dat op een fps limiter na dan die gewoon nodig is voor sync zaken toch echt zaken die in een game thuishoren niet in een driver menu.
Daarnaast vind ik de Nvidia drivers vele malen duidelijker dan die van AMD.
Ik moest vorige week ergens een rx 570 installeren en ik kon werkelijk niks vinden.
Trouwens eerste amd drivers sinds ik van mijn 7970 af ben en er was bij een totaal verse windows install meteen een probleem met settings die verkeerd stonden.
Al leken ze wel goed te staan moest ik verschillende vinkjes aan en uit zetten en het probleem was ineens verholpen.
Bij nvidia heb ik werkelijk nog nooit problemen met een driver gehad en ook nog nooit ddu gebruikt bij nieuwe versies (iets dat ik persoonlijk onzin vind en nog nooit iets heb zien oplossen. Het werkt gewoon altijd prima tenzij er in zeer zeldzame gevallen een bug in de driver zit. Maarja ik ben dan ook geen beta tester en loop weken zo niet maanden achter met driver updates.

Een nieuwe UI is niet altijd beter en veranderen om te veranderen word niemand beter van behalve de flaperd die de verandering maakt en er geld voor vangt.
Tjah voor mij moet de UI ook niet aangepast worden (if it ain't broken ... ) AMD drivers zijn gewoon een horror als je bij mensen hun problemen (vaak driver gerelateerd) moet fixen en je er inderdaad niet gewoon mee bent te werken, nog erger dat dankzij de veranderende UI in combi met totaal verouderde drivers je maar verschillende UI's "moet kennen". Het ironische is dat ik uit scha en schande geleerde heb, indien je een ati/AMD kaart aantreft in een laptop: van de drivers af blijven of eerst enorm goed opzoeken welke driver compatibel is met die laptop.. sowieso de huidige driver versie opzoeken en maken dat je daarvan een installatie versie van hebt voor je eraan begint, het is vaak nodig maar een vreselijk karwei en soms lukt het me enkel de driver core te upgraden maar is het control panel van de AMD drivers niet meer werkende (niet erg voor de meesten met zo'n oude ati/amd laptop ermee gamen doen ze vaak toch niet meer, laat staan settings in de drivers aanpassen).

Soit qua drivers zonder problemen installeren .. ik zou je toch niet aanraden om momenteel nieuwe drivers onder win10 1903 te installeren/ (Ironisch genoeg juist drivers bedoeld voor 1903 ... de oude werken perfect de nieuwe ... not really).
let op bv Imperator Rome werkte gewoon niet totdat deze nieuwe drivers geïnstalleerd werden, dus het zal wellicht vroeg of laat nodig zijn als je games wilt spelen die gebruik maken van de 1903 functionaliteiten (geen idee waarom Imperator Rome dit doet.. onder een gepatched win7 werkt dit spel normaal gezien ook).

Oude drivers mee-migreren: np, maar nieuwe drivers installeren leidde bij mij en velen tot de error code dat de grafische kaart niet goed in het fysieke slot steekt (ironisch als je beeld nog steeds via dezelfde kaart verloopt en de standaard MS video drivers wél werken !!)

De fix (nergens gecommuniceerd, pas na meer dan een dag zoeken gevonden) indien je een "Sandy Bridge" cpu gebruikt er zijn nog andere fouten met andere hotfixes.. :
Announcing GeForce Hotfix Driver 430.97 (Released 5/31/19)
Ik hoop echt dat ze deze bug(s?)snel gaan corrigeren.
Het toont nog maar eens aan hoe slecht die whql certificatie wel is .. de hotfix krijg je amper geïnstalleerd of wordt bij velen zelf overschreven door een niet werkende "betere" whql driver die dus niet werkt :')
Dit is super in combinatie met automatische driver installaties door win10.

PS: indien je ddu wenst te gebruiken onder recente versies van win10: niet vergeten je internet totaal los te koppelen, ik kan inderdaad meebevestigen dat deïnstalleren van nVidia drivers windows10 nog voor het afsluiten nog snel snel een niet werkende whql driver zal installeren, blijkbaar wordt de setting "don't install driver updates" genegeerd indien er geen driver geïnstalleerd is voor een hardware component (ook logisch tis dus geen "update").
Maw voor de hotfix: downloaden van de driver
Internet disablen indien je een "recentere" driver hebt, deze dan deinstalleren
Zeker zijn dat automatische update van drivers uit staat (altijd een aanrader in mijn ogen!!)
Dan installeren en eventueel je internet weer inschakelen. Problemen solved.
DDU gebruiken zonder je internet te ontkoppelen is dus in praktijk dus compleet zinloos (De functionaliteit om automatisch updates/internet te blokkeren door ddu zelf is al meermaals aangetoond niet betrouwbaar ..). Maar wel een goede tool indien je nieuwere drivers wilt vervangen door oudere.

Specs


  • Blaat
  • Registratie: September 2007
  • Laatst online: 09:36

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

@lightdestroyer, met alle respect, je relaas is geen touw aan vast te knopen.

Wat probeer je te zeggen? Wat is de rode draad? :P

[ Voor 26% gewijzigd door Blaat op 18-06-2019 11:58 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 20-12 21:21
haarbal schreef op dinsdag 18 juni 2019 @ 00:27:

Van mij hoeft de nvidia control panel niet veranderd te worden, maar modern oogt het niet.
Dat het niet modern is ben ik helemaal met je eens.
Maarja over het algemeen hoef je als gamers toch al zo goed als nooit in een driver te klooien.
Het aantal games waar ik de afgelopen 10 aar een custom profiel voor heb moeten maken is op 1 hand te tellen. De rest gaat allemaal via ingame instellingen of afterburner omdat dat.
Of erger nog .ini files omdat dat de enige manier is om vaak de game settings te veranderen (in geval van motionblur effecten en dof).
Blaat schreef op dinsdag 18 juni 2019 @ 07:21:

Wat is er mis met de user die graag een globale limit op het aantal tesselation samples wil instellen?

En dat je het onoverzichtelijk voor jou is, is omdat je er niet aan gewend bent. Toen ik overstapte van touchwiz naar kale android kon ik ook niks meer vinden. Wil niet zeggen dat het minder goed is en een week later wist ik niet beter.

Objectief gezien heeft het nVidia control panel minder functionaliteit dan die van AMD. Bovendien duurt het toepassen van settings overdreven lang bij nVidia, wat imo met de modernste systemen niet te verantwoorden valt.
Wat er mis kan zijn is dat het in sommige games problemen gaat opleveren en ik denk dat Nvidia daar dus niet aan wil beginnen.
Ze zetten niet te wachten op mogelijke problemen door slecht developers die fouten maken waar nvidia voor aangesproken word.
Want laten we eerlijk zijn als jij in een tesselation setting zit te klooien in de global settings vervolgens start je een andere game op en die geeft conflicten waardoor je frame drops of iets dergelijks krijgt en je ben al lang vergeten dat je global tesselation settings veranderd heb dan ga je bij nvidia lopen klagen en je gal spuien over nvidia en zal je op fora nvidia daar de schuld van geven en niet de game maker of bij jezelf.
Zo gaat dat tegenwoordig bij de online community.
Ik snap dus heel goed dat Nvidia deze last elders neerlegt en hun naam beschermd want mensen zijn al anti nvidia zonder enige reden. (de enige reden was de prijs maar die kopieert amd nu al jaren of gaat er zelfs boven zitten).
Helaas leven we in een tijd waar je jezelf moet indekken en dat hebben we als consument grotendeels aan onszelf te danken.

Afbeeldingslocatie: https://cdn.lo4d.com/t/screenshot/nvidia-display-control-panel.png

En persoonlijk kan ik niet zien hoe dit niet overzichtelijk is.
in tegenstelling tot amd waar je niet alleen onder tabjes heb zonder overzicht wat er in die tabjes zit maar ook bovenin nog een keer tabjes heb en dan heb je settings naast en boven elkaar ipv 1 net rijtje.

Afbeeldingslocatie: https://images.anandtech.com/doci/9755/Radeon%20Software%20Crimson%20Slides_Final-page-021.jpg

Wat mij irriteert aan een setup als die van AMD is dat niks een vaste plaats heeft en dat verpest de workflow. klikken word een automatisme voor velen en als je dan bijvoorbeeld een ander scherm toevoegt akn alles ineens weer op een andere plek staan doordat er een functie wegvalt of bijkomt wat gewoon irritant is.
Als alles gewoon in een lijst staat maar 'grijs' word als het niet beschikbaar heeft heb je dus een fixed locatie voor alles.
Maargoed het inderdaad persoonlijk. Zo zullen er met iedere mening meerdere personen zijn maar het is in geen geval een reden om 1 van de 2 merken links te laten liggen want zoveel tijd besteden we nou ook weer niet in de drivers..

En wat mist er nog meer aan functies die amd wel heeft dan?
Ik kan me buiten een fps limiter die bij amd matig werkt in vergelijking met andere opties niets nuttigs bedenken tenzij we terugkomen op de tesselation slider die ik niet gezien heb in de game.
Misschien ook een stukje luxe probleem omdat al mijn games max settings min DOF en motion blur en CA draaien. Die laatste 3 maken het wazig en daar krijg ik koppijn van plus dat ik dof een belachelijke setting vind die je forceert naar 1 plek te kijken en 'dof' creëren je ogen l natuurlijk doordat we maar een dractie an het scherm scherp zien.
Maar als er andere settings zijn hoor ik het graag ik heb voor mezelf de drivers namelijk niet meer gebruik sinds mijn 7970 in 2017 en sinds dien hebben ze de nieuwe look gekregen.
Werelds schreef op dinsdag 18 juni 2019 @ 10:56:
[...]

Het is dat ik NVCP maar zelden open, maar het is echt een achterhaald stuk software. Met alle zooi die Nvidia installeert, zou je wel mogen verwachten dat NVCP een beetje rap opent. Maar nee, je moet gewoon 5 seconden wachten, ongeacht hoe snel je systeem is. Elke pagina moet vervolgens ook weer laden en dan kom je inderdaad bij het toepassen van instellingen.

Nee, ik kan me niet vinden in enig argument dat NVCP niet toe aan een update is. De indeling is op veel plekken ook erg onlogisch. Waarom zitten resolutie en multi-monitor instellingen op verschillende pagina's? Waarom is er een aparte pagina voor HDCP status? En inderdaad, waarom kunnen we tessellation niet aan banden leggen (want de meeste devs zijn er simpelweg te lui voor, zeker als ze GameWorks blobs krijgen die standaard op 64x staan), maar wel AO, AF, AA en andere ongein?
Als het stabiel alles doet wat het moet doen hoe is het dan achterhaald. Dat het er niet modern uit ziet tja doet dat er echt toe voor functionaliteit?
Daarnaast opent het bij mij INSTANT inclusief alle sub pagina's. Als dat bij jou iet het geval is dan is er met jou pc iets mis niet met de controll panel. Misschien tijd voor een ssd want in de tijd van HDD was het wel traag maarja daar zijn we ondertussen al 8 jaar voorbij en toen was alles traag met laden ook de amd drivers.
Waarom zou je resolutie en multi monitor op dezelfde pagina willen.
Nu kijk je naar de lijst en je selecteert welke van de 2 opties je nodig heb. zet je dit in 1 venster moet je maar net weten dat multi monitor onder resolutie zit of resolutie onder multi monitor. Dat maakt het in geen enkele manier overzichtelijker of sneller.
En aparte pagina voor DHCP status is zo gek nog niet jet stelt er niks in je kijkt alleen naar de status.
Dus als je dat wil bevestigen is het snel vindbaar en instant te zien.
Of heb je liever een windows 10 stijl indeling van settings waar je eerst nar 4 submenu's moet voordat je een relevante functie gevonden heb.
En je zegt zelf al dat devs er te lui voor zijn. Maar omdat zij er te lui voor zijn waarom moet nvidia dan ze zorg tot zich nemen ipv dat we deze games laten liggen en de devs bestraffen ipv Nvidia?
Is de hebzucht om games te hebben zo groot dat we maar een reden moeten zoeken om het goed te praten en het elders neer te leggen?
Game devs zijn wat mij betreft niet het grote probleem maar de EA's en bethesdas en zo voorts die te snel pushen en niet de tijd nemen om een game echt af te maken.

Moet wel zeggen dat er een behoorlijke bak meuk in de Nvidia drivers zit die optioneel zou moeten zijn (vinkjes).
De install word met de update groter door alle ingebakken software die ik achteraf weer verwijder maar dat zal voor amd niet veel anders zijn ben ik bang.
Daarnaast zouden ze de rechter panel full kunnen maken ipv een frame in een frame. Daardoor mis je echter de tooltips onderin maar het maken van een baloon tooltip daarvoor is dan weer relatief simpel.
Daarnaast lijkt ook alleen de 3d settings panel hiervan te profiteren en dan is het wel weer een hoop werk voor 1 venstertje.
lightdestroyer schreef op dinsdag 18 juni 2019 @ 11:48:

De fix (nergens gecommuniceerd, pas na meer dan een dag zoeken gevonden) indien je een "Sandy Bridge" cpu gebruikt er zijn nog andere fouten met andere hotfixes.. :
Announcing GeForce Hotfix Driver 430.97 (Released 5/31/19)
Ik hoop echt dat ze deze bug(s?)snel gaan corrigeren.
Het toont nog maar eens aan hoe slecht die whql certificatie wel is .. de hotfix krijg je amper geïnstalleerd of wordt bij velen zelf overschreven door een niet werkende "betere" whql driver die dus niet werkt :')
Dit is super in combinatie met automatische driver installaties door win10.
WHQL was ik id ook niet over te spreken bij mijn windows 10 install (is momenteel 1803 nog)
Hij verdomde het om gedownloade drivers te installeren tot ik het hele windows WHQL gebeuren uitgeschakeld had (bij nieuwere systemen heb je hier ook een bios instelling voor die ik adviseer UIT te laten anders kan je probleem nog wel eens erger worden.

Maar ik weet persoonlijk niet of dit nou een Microsoft probleem is met WHQL wat gewoon ruk is aangezien ik ook met andere software een probleem had van bijvoorbeeld geluidskaart of lan adapter of van de driver makers die het iet goed implementeren.
En een snelle zoektocht laat zien dat ook AMD problemen heeft met WHQL en drivers die niet willen installeren.
Ik denk dus dat WHQL het probleem is en niet perse de drivers maar goed ik heb dat dan ook meteen uitgezet (wat bij windows 10 lastiger was as bij windows 7) en het probleem was opgelost.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hoe kan iemand nu niet vinden dat het nv cp aan een massive overhaul toe is :?

Het is langzaam, ziet er gedateerd uit en ik moet in dat kleine schermpje beetje zitten scrollen in de settings omdat het venster niet meeschaalt.

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
computerjunky schreef op dinsdag 18 juni 2019 @ 12:12:
Daarnaast opent het bij mij INSTANT inclusief alle sub pagina's. Als dat bij jou iet het geval is dan is er met jou pc iets mis niet met de controll panel. Misschien tijd voor een ssd want in de tijd van HDD was het wel traag maarja daar zijn we ondertussen al 8 jaar voorbij en toen was alles traag met laden ook de amd drivers.
Wij hebben geloof ik een andere definitie van "instant". En maak asjeblieft geen aannames over mijn systeem (dat gewoon in m'n inventaris te zien is) of mijn kennis van PC's uit het niets :)

Zoals ik gisteren aangaf in het andere draadje, heb ik de afgelopen 15 jaar maar liefst 12,5 jaar op Nvidia gedraaid, dus ik ben vrij bekend met het control panel. Ik heb in die periode NVCP meegemaakt op een EE 955, E8400, i5-760, 4770K en een 1700X (hoop dat ik geen CPU vergeten ben :P). De laatste 3 in dat rijtje draai(d)en ook allemaal op 4 GHz of meer (de 955 was gewoon te monsterlijk voor 24/7 op die snelheid en de E8400 was een heel slecht sample). Tijd voor een SSD? Dat was het 9 jaar geleden al. Ik heb al sinds m'n Vertex 2 geen mechanische schijf meer in m'n primaire PC gehad. Geen één. Op dit moment is m'n primaire SSD een 960 Evo op m.2/pci-e.

En laat ik het verhaal dan maar even volledig maken, want niet alleen weet ik weldegelijk hoe ik een PC moet instellen, afstellen en onderhouden - ik weet ook hoe NVCP in elkaar steekt en waaróm het zo traag is. De gehele applicatie is gebouwd puur op Win32 API's en hoewel er permanent meerdere services draaien, is geen van die services verantwoordelijk voor het bijhouden of beheren van settings. Het gevolg is dat elke keer dat je NVCP opent, het programma een berg aan API calls moet maken om z'n initiële stand van zaken te herstellen. En omdat het zo'n ouderwetse applicatie is, gebeurt alles volledig synchroon: fetch first, render after - allemaal op één thread. Ik weet heel goed hoe traag dit alles kan zijn, want ik heb zelf bijvoorbeeld een tijd lang aan een hardware monitor tool gewerkt waar we noodgedwongen sommige dingen via Win32 moesten doen omdat het niet via i2c of iets dergelijks kon.

Hoewel er de afgelopen 15 jaar wel enige uiterlijke wijzigingen zijn geweest, is de kern van het programma nog steeds dezelfde als toen deze versie voor het eerst uit kwam voor Windows XP (wat je overigens ook goed kunt zien, alles is nog in de XP stijl; vooral de werkbalk is een eenvoudig voorbeeld). Ze hebben er gewoon telkens meer dingen aan toegevoegd. De kern van NVCP stamt uit 2002 of 2003. Dát is hoe oud dit stuk software is.

En zoals @Help!!!! en jijzelf aangeven is de UI nou niet bepaald toegespitst op de hoge resolutie monitors die we tegenwoordig hebben. Neem dit bijvoorbeeld. Zo veel ongebruikte oppervlakte. Een klein lullig framepje voor de instellingen. Daar kúnnen ze niet veel aan doen, want met de Win32 API zoals zij die gebruiken, is dat niet zo makkelijk op te lossen. Als het nou een moderne applicatie was (zelfs WPF zou al een verbetering zijn), was dat geen probleem. UI's zijn daar veel mooier in samen te stellen.
Waarom zou je resolutie en multi monitor op dezelfde pagina willen.
Nu kijk je naar de lijst en je selecteert welke van de 2 opties je nodig heb. zet je dit in 1 venster moet je maar net weten dat multi monitor onder resolutie zit of resolutie onder multi monitor. Dat maakt het in geen enkele manier overzichtelijker of sneller.
Omdat ik denk ik ook al bijna 15 jaar op twee monitor's draai en ik met elke herinstallatie van Windows (of schone installatie van de drivers) eerst naar resolutie instellingen moest gaan, monitor 1 goed instellen (wat met dat trage toepassen enkele seconden duurt), monitor 2 goed instellen en vervolgens een ander item moet openen om de multi-monitor instellingen goed moet zetten. Het is denk ik pas een jaar ofzo dat m'n FG2421 standaard op 1080p120 wordt gezet en m'n FS2333 op 1080p60 zodat ik dat eerste niet meer per se hoef te doen. Daarvoor stonden ze altijd allebei op "TV 1080p" in plaats van de correcte "PC 1080p" instelling.

Het is maar een klein dingetje, maar het zou zo prettig zijn als je gewoon in één keer al die instellingen toe kunt passen, in plaats van dat het 25 kliks en een hoop wachttijd vergt. Dat heet UX (User eXperience) en die van NVCP is gewoon hooguit matig.
En je zegt zelf al dat devs er te lui voor zijn. Maar omdat zij er te lui voor zijn waarom moet nvidia dan ze zorg tot zich nemen ipv dat we deze games laten liggen en de devs bestraffen ipv Nvidia?
Is de hebzucht om games te hebben zo groot dat we maar een reden moeten zoeken om het goed te praten en het elders neer te leggen?
Nee, maar het is een triviaal dingetje om toe te voegen voor Nvidia. Dat is waarom AMD dat heeft gedaan. Die hadden door dat Nvidia veel te hoge tessellation samples pushte en lieten gebruikers dat gewoon zelf aan banden leggen als zij nog geen profiel voor die games klaar hadden. En nogmaals: waarom wel AF, AA en zelfs AO maar geen Tessellation? ;)
Pagina: 1 ... 65 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.