[NVIDIA GeForce RTX 30XX] Ervaringen & Discussie Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 53 54 Laatste
Acties:

Onderwerpen

Alle 25 producten


Acties:
  • +2 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 10:46
OMD schreef op vrijdag 22 juli 2022 @ 19:32:

Waarom meer fps dan hz een voordeel KAN zijn:
https://blurbusters.com/f...-rate-above-refresh-rate/

@musback
Kan je niet tegen kritiek?
Zal nog even je blog hier plaatsen. Flauw dat je je Post hebt weggehaald.
Jouw blog wat dus niet klopt:
https://powrusr.com/keep-...ng-without-underclocking/


Als je geen feedback kan handelen kan je ook geen blogs plaatsen. Het is niet one-way he. Jammer dat het je laatste post was, je hebt namelijk erg leuke en interessante blogs er tussen zitten. Dat betekent niet dat alles correct is wat je schrijft ;)
Ik vind je kritiek niet helemaal duidelijk, terwijl je het vaak bij het recht eind hebt in mijn opinie dan.

Persoonlijk vind ik zijn blog zo gek nog niet. Ik zie dus geen verschil bij meer dan 100fps. Dus waarom dan niet de limit gebruiken die hij in zijn blog beschrijft? Dat jij dat nou wel ziet, ok. Maar dat geldt niet voor iedereen.

Plus: ik heb een hekel aan herrie, dus liever een kaart die op zijn sloffen 80fps haalt in alle games en redelijk stil is, dan eentje die dat maar net aan kan halen en waarbij de fans 100% draaien. Wat is daar dan mis mee, ik zie dat niet meteen als een kaart kreupel maken.

Acties:
  • +2 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 14:14

OMD

rachez schreef op donderdag 28 juli 2022 @ 20:41:
[...]


Ik vind je kritiek niet helemaal duidelijk, terwijl je het vaak bij het recht eind hebt in mijn opinie dan.

Persoonlijk vind ik zijn blog zo gek nog niet. Ik zie dus geen verschil bij meer dan 100fps. Dus waarom dan niet de limit gebruiken die hij in zijn blog beschrijft? Dat jij dat nou wel ziet, ok. Maar dat geldt niet voor iedereen.

Plus: ik heb een hekel aan herrie, dus liever een kaart die op zijn sloffen 80fps haalt in alle games en redelijk stil is, dan eentje die dat maar net aan kan halen en waarbij de fans 100% draaien. Wat is daar dan mis mee, ik zie dat niet meteen als een kaart kreupel maken.
Dank voor het compliment :)

Ik heb ook het gevoel dat de blog is aangepast. Ik heb ook een beetje dom gedaan door niet te quoten dus je ziet het originele bericht niet.
Er staan nu dingen in de blog die ik aangekaart heb zoals de responsivness boven de verversings frequentie van je monitor.

Het kwam er eigenlijk op neer dat alles boven de 60hz tussen de oren zit en je dat niet kan zien omdat je ogen dat niet kunnen.

Wat er nu staat zoals minecraft niet op 250 fps laten lopen is natuurlijk een goede reden.

Dit stond er eerst niet:
- At which framerate are you no longer able to tell the difference if it’s increased?
- To what framerate is your monitor limited to? (hz) You won’t even get to see extra frames, (although they will add to the ‘responsiveness’ of the game)
- In which situation or games do you really nééd more than (in my case) 60fps?
- When your kids play light games -like Roblox or Minecraft- on your PC, should it run at +250 fps?

Dit was eerst een andere tekst anders kan je mij afvoeren :o
Wat hierboven staat ben ik het uiteraard meer mee eens. Ik zie zelf en merk ook geen verschil tussen 144hz en 240hz. Zal er vast zijn maar ik zie het niet.

Sommige spellen hebben ook niet meer nodig dan 60fps naar mijn mening (zoals rpg games of adventure games zoals Last of us bijvoorbeeld)

Ik adviseer dan eerder de slider van de power target in afgerburner omlaag te doen. Weinig herrie, beperkte performance verlies. Probeer hem maar eens op 65% te zetten bijvoorbeeld. Scheet je misschien een paar fps. Kleine overclock voor een compensatie en je hebt een erg stille kaart.

Undervolt is de mooiste optie en haal je vaak nog meer performance dan stock. Iets wat in die blog dus niet werd verteld, er werd juist verteld dat het veel performance kost en dat is niet waar.
Plus: ik heb een hekel aan herrie, dus liever een kaart die op zijn sloffen 80fps haalt in alle games en redelijk stil is, dan eentje die dat maar net aan kan halen en waarbij de fans 100% draaien. Wat is daar dan mis mee, ik zie dat niet meteen als een kaart kreupel maken.
Precies dit. Maar dat is een ander verhaal dan alles op 60hz laten lopen omdat het toch geen zin heeft (dat was dus het originele bericht)
Ik heb mijn kaart ook undervolt omdat ik een lager verbruik wil en minder herrie. Ik verkies dat boven maximale performance.

Ik heb echter wel een 144hz scherm dus meer dan 60fps is absoluut welkom. Het is een beetje spelen

[ Voor 21% gewijzigd door OMD op 28-07-2022 21:05 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • stin00
  • Registratie: Mei 2013
  • Niet online
Evertt schreef op donderdag 28 juli 2022 @ 20:23:
Vandaag mij FE 3060TI binnen gekomen.

Maar hoe kan ik zien of deze LHR heeft. Er staat niks op de kaart dat deze is voorzien van LHR.
Een 3060 TI Founders Edition? Die is nooit LHR. Alleen de 3070 Ti en 3080 Ti FE zijn LHR.

Acties:
  • +1 Henk 'm!

  • musback
  • Registratie: April 2013
  • Laatst online: 22-01 22:07
Dank voor het compliment :)

Ik heb ook het gevoel dat de blog is aangepast. ...
Ik zal alsnog even reageren om dit wat op te klaren.
Het klopt dat ik hier en daar de blog naar jouw feedback heb aangepast (ik kan heus wel tegen feedback ;) ); Je hebt zeker gelijk dat bv. 60fps niet voor iedereen 'genoeg' is en dat meer fps zeker merkbaar is,... ik trok daar voor mezelf een grens als voorbeeld, maar dat was nog niet zo duidelijk/expliciet geformuleerd. De blog is verder hier en daar nog nog een beetje verder genuanceerd om duidelijk te stellen dat het een persoonlijke voorkeur is.

Intussen heb ik mijn kaart ook flink kunnen undervolten dankzij de video die je deelde, waarvoor dank (zeer duidelijk/eenvoudig) wat een serieus verschil maakt. Maar het blijft -zoals je stelt- silicon lottery, en is dus niet voor iedereen een gegarandeerde oplossing. Deze softwarematige fps-beperking is iets dat je ook perfect in combinatie kan doen met undervolten om bv. het onderste uit je batterij te halen.

Eerlijk, het was de toon die m'n motivatie om nog verder te reageren wegnam.
Ik wil (net als jij) mensen helpen met het delen van tips uit persoonlijke positieve ervaring, op een forum vol enthousiastelingen. Dan verwacht je niet binnen 10 minuten termen als "je blog is totale onzin" naar je hoofd geslingerd te krijgen. Men stelt namelijk exact hetzelfde voor op o.a. de site van AMD en het kan erg effectief zijn om zowel CPU als GPU wat ademruimte te geven.

Hopelijk kunnen we het zo wat uitklaren, of toch minstens op een "agree to disagree" akkoordje gooien :)

Ter info: laat dit nu net de spellen zijn die ik het meest speel:
Sommige spellen hebben ook niet meer nodig dan 60fps naar mijn mening (zoals rpg games of adventure games zoals Last of us bijvoorbeeld)

[ Voor 7% gewijzigd door musback op 29-07-2022 12:17 ]


Acties:
  • 0 Henk 'm!

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03:54
JDx schreef op zondag 27 februari 2022 @ 10:42:
[...]


Ik zie dit plaatje vaak, maar met 3 slots lever je dan toch alsnog niet genoeg? Wat is dan het nut van 3 slots.

Ik heb het wel op de juiste manier met 2 kabels (2 slots) overigens.

Maar bij 3 slots op 2 kabels kan je dus alsnog maar 300 leveren, gelijk aan 2 slots. Bij 3 slots zou je dus met 3 kabels moeten werken om 450 watt te kunnen leveren.

Maar goed het blijft een aanbeveling, maar gewoon maar het zekere voor het onzekere nemen als het kan, net zoals dat ik op m'n moederbord 2x 8-pins heb gebruikt PWR1 en PWR2, terwijl eentje vaak ook werkt.
Het werkt hier inderdaad met 1x CPU kabel ik ga ook niet overlokken dus denk dat het wel losloopt :)

Asus RTX 4090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Acties:
  • +7 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Voor de geïnteresseerden: mijn Nvidia Founders (3080 Ti) backplate wordt best heet tijdens het gamen, zoals bij de meesten lijkt me. Ik had al een repad/repaste gedaan eerder ook, waardoor het contact met de backplate beter is, maar deze dus ook heter wordt. Van de week een Infrarood thermometer gekocht, en de temps waren zo 68-73C op de backplate.

Setje heatsinks gekocht om te kijken of het helpt. Resultaat was beperkt: 1 - 3C minder op zowel de GPU, hotspot en memjunc temps. Maar goed, alle beetjes helpen :)

Backplate nu zo 68-69C, maar de vinnetjes worden ook 65-66C. Dus die zullen toch zeker wel wat warmte afvoeren.

Afbeeldingslocatie: https://tweakers.net/i/ilT3ezgQE30lUAIYyNOgOweknlU=/800x/filters:strip_icc():strip_exif()/f/image/lUkir5FrdYhJ17hE8WsHeqSg.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/ZoFJS4MZKKN6Z0He1XjxQ116eCA=/800x/filters:strip_icc():strip_exif()/f/image/sJXKV7MjliKZmuZqQFtKtDt4.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/paFQsgBz0LfLFpFMBBCtjmw8yyo=/800x/filters:strip_icc():strip_exif()/f/image/TKxWzKxS4TRoh89mxBVEx87Q.jpg?f=fotoalbum_large

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 11:30
Ik ben echt benieuwd welke oplossing ze gaan vinden voor de high end 40 serie kaarten als het echt richting 500 Watt gaat. Dan zit je toch aardig op de grens van wat je met lucht kunt koelen.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ParaWM schreef op zaterdag 30 juli 2022 @ 12:11:
Setje heatsinks gekocht om te kijken of het helpt. Resultaat was beperkt: 1 - 3C minder op zowel de GPU, hotspot en memjunc temps.
Het valt me op dat je nogal weinig airflow over de heatsinks hebt, met een AIO waarvan de fans onderin de kast zitten. Dus je hebt puur de airflow van de achterkant van je kast, maar ik verwacht dat dit grotendeels over de heatsinks heen gaat en er niet zo erg doorheen.

Wat je zou kunnen proberen is om een fan op de heatsinks te plaatsen, dan forceer je de lucht echt door de heatsinks heen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Ludewig schreef op zaterdag 30 juli 2022 @ 12:48:
[...]


Het valt me op dat je nogal weinig airflow over de heatsinks hebt, met een AIO waarvan de fans onderin de kast zitten. Dus je hebt puur de airflow van de achterkant van je kast, maar ik verwacht dat dit grotendeels over de heatsinks heen gaat en er niet zo erg doorheen.

Wat je zou kunnen proberen is om een fan op de heatsinks te plaatsen, dan forceer je de lucht echt door de heatsinks heen.
De AiO (met 4 fans erop) zit aan de voorkant. Onder de GPU zijn alleen extra intake fans. Maar een fan op de heatsinks is zeker iets wat ik aan het overwegen ben. Want de airflow door de heatsinks heen is niet optimaal inderdaad, ze zijn ook maar 10mm hoog. Heb er nog wel één liggen denk ik, misschien eens testen. Moet alleen wel "estetisch verantwoord" blijven :)

Afbeeldingslocatie: https://tweakers.net/i/ofEb0gS4hh_wQjG0Dk47jLLdvNU=/800x/filters:strip_icc():strip_exif()/f/image/vzIqABXvgfuVAkkoxNHtXDcJ.jpg?f=fotoalbum_large

[ Voor 3% gewijzigd door ParaWM op 30-07-2022 13:12 ]

Sinterklaas wil bier !


Acties:
  • +1 Henk 'm!

  • Snippertje
  • Registratie: December 2004
  • Laatst online: 10:26

Snippertje

Light up your life

ParaWM schreef op zaterdag 30 juli 2022 @ 12:11:
Voor de geïnteresseerden: mijn Nvidia Founders (3080 Ti) backplate wordt best heet tijdens het gamen, zoals bij de meesten lijkt me. Ik had al een repad/repaste gedaan eerder ook, waardoor het contact met de backplate beter is, maar deze dus ook heter wordt. Van de week een Infrarood thermometer gekocht, en de temps waren zo 68-73C op de backplate.

Setje heatsinks gekocht om te kijken of het helpt. Resultaat was beperkt: 1 - 3C minder op zowel de GPU, hotspot en memjunc temps. Maar goed, alle beetjes helpen :)

Backplate nu zo 68-69C, maar de vinnetjes worden ook 65-66C. Dus die zullen toch zeker wel wat warmte afvoeren.

[Afbeelding]

[Afbeelding]

[Afbeelding]
Ah nice. Heb ik heel lang geleden ook gedaan met mijn 3090, werkt echt goed :)

Afbeeldingslocatie: https://tweakers.net/i/XO5S_HV1kyHdDL0OPpU9yipqz0E=/800x/filters:strip_icc():strip_exif()/f/image/FF6x3rGO89yjim8BwmblmoQs.jpg?f=fotoalbum_large

Discord kanaal: https://discord.gg/X3CqdTKd


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Snippertje schreef op zaterdag 30 juli 2022 @ 23:28:
[...]
Ah nice. Heb ik heel lang geleden ook gedaan met mijn 3090, werkt echt goed :)
Jouw rear fan zit wat lager en trekt de lucht wel beter over de heatsinks heen, al heb je in elk geval de eerste rij van de heatsinks met de lange kant richting het glas zitten. Ik zou dat richting de achterkant van de kast doen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • RichD1011
  • Registratie: December 2017
  • Laatst online: 03-05 23:26
Cloggs schreef op zaterdag 30 juli 2022 @ 12:22:
Ik ben echt benieuwd welke oplossing ze gaan vinden voor de high end 40 serie kaarten als het echt richting 500 Watt gaat. Dan zit je toch aardig op de grens van wat je met lucht kunt koelen.
Nouja de komende generatie moet nog wel lukken, alhoewel ook je kast echt wel een goede airflow moet hebben.

ik vraag me alleen af m.b.t. 50, 60, 70... serie kaarten.. zowel vanuit praktische kant (het überhaupt kunnen koelen, de hoeveelheid stroom die een groep kan leveren zonder eruit te klappen) als vanuit de toekomst (kosten energie, milieu ect)... zal men echt manieren moeten verzinnen om met dezelfde powerdraw en warmte meer vermogen uit de kaarten te krijgen, een consumenten GPU met een powerdraw van 800-1000watt.. ja dat kan je echt niet meer maken naar m.i., en zo'n grote milieu freak ben ik niet.

[ Voor 4% gewijzigd door RichD1011 op 31-07-2022 00:51 ]


Acties:
  • 0 Henk 'm!

  • Humma Kavula
  • Registratie: Juni 2008
  • Niet online

Humma Kavula

Don't vote for stupid

Zitten de fins niet precies verkeerd om op de achterkant waar het juist het belangrijkst is?

Wacht, verkeerd gezien, leek zo :+

BTW, waar besteld?

[ Voor 4% gewijzigd door Humma Kavula op 31-07-2022 00:56 ]

Wear Sunscreen!


Acties:
  • 0 Henk 'm!

  • Maudima
  • Registratie: Juni 2013
  • Laatst online: 07-02 19:15
Cloggs schreef op zaterdag 30 juli 2022 @ 12:22:
Ik ben echt benieuwd welke oplossing ze gaan vinden voor de high end 40 serie kaarten als het echt richting 500 Watt gaat. Dan zit je toch aardig op de grens van wat je met lucht kunt koelen.
Airflow wordt belangrijker, dus alle cases met beperkte intake zullen meer moeite hebben om ze te koelen of iig om de boost clocks vast te houden. Indien je alleen de PCIe slot voor de GPU gebruikt (ik schat verreweg de meeste mensen) kan er prima een 3 of zelfs 4 slot koeler op een GPU. Dit geeft dan ruimte voor dikkere fans en grotere heatsinks. Voor kleinere cases/builds kan water cooling veel ruimte geven in thermals.

Acties:
  • 0 Henk 'm!

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 03:54
Hoi
Ik wil zo graag mijn 3090 undervolten maar ik krijg het niet voor elkaar met MSI afterburner.
Heb veel You Tube filmpjes bekeken en elke keer haak ik weer af.
Kan ook niks in het Nederlands vinden.

Ze laten ook zoveel info weg in die undrvolt filmpjes ze gaan er volgens mij van uit dat je dat dan wel weet of zo.

Is er iemand die een Nederlands uitleg kan geven en of een Nederlands You tube filmpje.
Ik baal hier telkens zo van als ik dan hun resultaten weer hoor.

Had liever gehad dat er ergens een programma is die een schuif bar heeft van hoog naar laag om je voltage aan te passen.

Een screenshot van die window die je opent met control-V in MSI Afterburner van een 3090 is ook al een goede hulp. Ik wil een kleine undervolt zodat ik zeker weet dat het stabiel is dus niet op het randje gewoon om te oefenen dus.

Asus RTX 4090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 02-05 23:58
mmxmmx schreef op zondag 14 augustus 2022 @ 23:44:
Hoi
Ik wil zo graag mijn 3090 undervolten maar ik krijg het niet voor elkaar met MSI afterburner.
Heb veel You Tube filmpjes bekeken en elke keer haak ik weer af.
Kan ook niks in het Nederlands vinden.

Ze laten ook zoveel info weg in die undrvolt filmpjes ze gaan er volgens mij van uit dat je dat dan wel weet of zo.

Is er iemand die een Nederlands uitleg kan geven en of een Nederlands You tube filmpje.
Ik baal hier telkens zo van als ik dan hun resultaten weer hoor.

Had liever gehad dat er ergens een programma is die een schuif bar heeft van hoog naar laag om je voltage aan te passen.

Een screenshot van die window die je opent met control-V in MSI Afterburner van een 3090 is ook al een goede hulp. Ik wil een kleine undervolt zodat ik zeker weet dat het stabiel is dus niet op het randje gewoon om te oefenen dus.
Het zou zo simpel moeten zijn als tandwieltje voor settings > halverwege - unlock voltage control> en dan kan je de slider gebruiken na opnieuw opstarten van afterburner.

Maar persoonlijk denk ik dat als je er geen kaas van gegeten heb je beter af ben met gewoon de frequentie van de kaart naar beneden te brengen met 100-200 mhz. Dit doet effectief bijna hetzelfde met geen impact op de stabiliteit met alle problemen van dien en kost zo goed als geen prestaties.
Zelf lock ik mijn 6900XT op 2250 mzh ipv 2505 wat hij stock draait en dat schaaft zon 33% power draw eraf voor minder als 3% fps loss.

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
Heb gisteren eens wat zitten testen met een kennis van me.

Mijn setup:
12900K stock, 32GB 6000MHz C36, RTX 3090Ti SUPRIM X, Z690 Aorus Master, 850W Gold PSU

Zijn setup:
5900X stock, 32GB 3800MHz C14 IF1900, RX6900XT ROG STRIX LC, X570 Dark hero, 850W Gold PSU, SAM ON

Tot mijn verbazing haalde hij in Apex Legends alles maxed out op 1440P constant zo'n 50FPS extra dan mij en in CoD Warzone alles maxed out en identiek dezelfde settings zo'n 25-45 FPS extra. Ik snapte dit niet zo goed, ondanks dat AMD recent een DX11 boost heeft gekregen met zijn recente driver (o.a. in Apex dus), en ondanks dat CoD wat meer AMD favored is zou je toch zeggen dat ik toch wel comfortabel meer FPS zou moeten kunnen halen. Iemand enig idee hoe dit zit?
3DMark TimeSpy GPU scores zijn nagenoeg identiek. Met een UV de 6900XT zelfs +1k

[ Voor 8% gewijzigd door Lekiame op 16-08-2022 20:41 ]


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Lekiame schreef op dinsdag 16 augustus 2022 @ 20:38:
Heb gisteren eens wat zitten testen met een kennis van me.

Mijn setup:
12900K stock, 32GB 6000MHz C36, RTX 3090Ti SUPRIM X, Z690 Aorus Master, 850W Gold PSU

Zijn setup:
5900X stock, 32GB 3800MHz C14 IF1900, RX6900XT ROG STRIX LC, X570 Dark hero, 850W Gold PSU, SAM ON

Tot mijn verbazing haalde hij in Apex Legends alles maxed out op 1440P constant zo'n 50FPS extra dan mij en in CoD Warzone alles maxed out en identiek dezelfde settings zo'n 25-45 FPS extra. Ik snapte dit niet zo goed, ondanks dat AMD recent een DX11 boost heeft gekregen met zijn recente driver (o.a. in Apex dus), en ondanks dat CoD wat meer AMD favored is zou je toch zeggen dat ik toch wel comfortabel meer FPS zou moeten kunnen halen. Iemand enig idee hoe dit zit?
3DMark TimeSpy GPU scores zijn nagenoeg identiek. Met een UV de 6900XT zelfs +1k
Er zijn genoeg games waar de AMD kaarten flink beter scoren qua raw fps power. Je zou specifieke benchmarks op moeten zoeken of dit verschil abnormaal is. In 3D Mark Firestrike scoorde mijn 6900XT zo'n 1.5 jaar terug 40% (!) hoger dan mijn 3080 (58000 versus 41500) in de graphics score. 275 fps vs 200fps bij test 1.

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
ParaWM schreef op dinsdag 16 augustus 2022 @ 22:05:
[...]


Er zijn genoeg games waar de AMD kaarten flink beter scoren qua raw fps power. Je zou specifieke benchmarks op moeten zoeken of dit verschil abnormaal is. In 3D Mark Firestrike scoorde mijn 6900XT zo'n 1.5 jaar terug 40% (!) hoger dan mijn 3080 (58000 versus 41500) in de graphics score. 275 fps vs 200fps bij test 1.
Ik ben me er zeker van bewust dat de 6900XT uiteraard ook in specifieke games goed kan scoren in raw FPS.
Echter lijken deze getallen (al helemaal tegen een dikke 3090Ti ) me erg onwaarschijnlijk. 8)7

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Ludewig schreef op zaterdag 30 juli 2022 @ 12:48:
[...]
Wat je zou kunnen proberen is om een fan op de heatsinks te plaatsen, dan forceer je de lucht echt door de heatsinks heen.
Tada :)

Afbeeldingslocatie: https://tweakers.net/i/Bk70v49l80hCI2PgTuK5t8HqTv8=/800x/filters:strip_icc():strip_exif()/f/image/XuOO6GL8jISEqt9EPNAFuFAj.jpg?f=fotoalbum_large

Mooie dunne 10mm hoogte 80mm fans gevonden. Verbonden via een Noctua fancontroller, die de RPM al wat knijpt, op de fancontroller van de kast. Nu draaien ze gewoon mee met de andere case fans naar gelang de knop stand op de kast (Low, Med, High) zonder dat ik ze hoor verder. Standaard waren ze wel wat luider dan de Arctic fans. Lijkt een graadje of 2 extra verlaging te geven op de 3080 Ti. Had iets meer gehoopt. Maar ben nog neurotisch aan het testen in drievoud op alle fan standen, met 2 benchmarks en een game. Houdt je bezig he :+

PS; vraag van de week (dit heb ik al getest): wat is de optimale oriëntatie van de 2 GPU fans? Case fans zijn duidelijk op de foto. Voor en onder = in. Boven en achter is out. Was één duidelijk betere optie. Winnaar krijgt een like :)

[ Voor 6% gewijzigd door ParaWM op 18-08-2022 20:22 ]

Sinterklaas wil bier !


  • stin00
  • Registratie: Mei 2013
  • Niet online
ParaWM schreef op donderdag 18 augustus 2022 @ 20:18:
[...]


Tada :)

[Afbeelding]

Mooie dunne 10mm hoogte 80mm fans gevonden. Verbonden via een Noctua fancontroller, die de RPM al wat knijpt, op de fancontroller van de kast. Nu draaien ze gewoon mee met de andere case fans naar gelang de knop stand op de kast (Low, Med, High) zonder dat ik ze hoor verder. Standaard waren ze wel wat luider dan de Arctic fans. Lijkt een graadje of 2 extra verlaging te geven op de 3080 Ti. Had iets meer gehoopt. Maar ben nog neurotisch aan het testen in drievoud op alle fan standen, met 2 benchmarks en een game. Houdt je bezig he :+

PS; vraag van de week (dit heb ik al getest): wat is de optimale oriëntatie van de 2 GPU fans? Case fans zijn duidelijk op de foto. Voor en onder = in. Boven en achter is out. Was één duidelijk betere optie. Winnaar krijgt een like :)
Ik zou verwachten dat de fans richting de GPU blazen, de luchtstroom wordt dus tegen de backplate geblazen.

Acties:
  • +1 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 10:46
Nah, dan zeg ik van de GPU naar boven blazen, dus zuigen de hitte uit de heatsinks :P.
Lijkt mij beter in de totale airflow passen.

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

rachez schreef op donderdag 18 augustus 2022 @ 20:37:
Nah, dan zeg ik van de GPU naar boven blazen, dus zuigen de hitte uit de heatsinks :P.
Lijkt mij beter in de totale airflow passen.
Yes :) Alle andere oriëntaties gaven zo goed als geen winst met de fans. Met beide omhoog blazen was het zo'n 2C verbetering. Was herhaalbaar. Zal inderdaad de samenwerking met de kast flow zijn. Totaal met heatsinks komt op zo'n 3C verbetering voor GPU en Hotspot en zo'n 4.5C voor Memjunction.

Sinterklaas wil bier !


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
computerjunky schreef op maandag 15 augustus 2022 @ 14:08:
[...]


Het zou zo simpel moeten zijn als tandwieltje voor settings > halverwege - unlock voltage control> en dan kan je de slider gebruiken na opnieuw opstarten van afterburner.
Zo werkt het niet (meer) met Nvidia videokaarten. Je kan alleen van 0 naar +100mv met de voltage slider.

Als je met Nvidia een undervolt wil moet je eerst de hele mhz/voltage curve naar beneden clocken, zeg maar -300mhz en dan moet je het voltage naar het aantal mhz slepen waar je de undervolt op wil laten werken. 850mv sleep je bijvoorbeeld naar 1800mhz en dat is dan ook gelijk de maximale boost clock.

Edit

@mmxmmx

Hier word alles haarfijn uitgelegd.
Een RTX 3090 undervolt met MSI afterburner.

[ Voor 15% gewijzigd door ItalianStyle op 19-08-2022 12:30 ]


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 02-05 23:58
ItalianStyle schreef op vrijdag 19 augustus 2022 @ 12:14:
[...]


Zo werkt het niet (meer) met Nvidia videokaarten. Je kan alleen van 0 naar +100mv met de voltage slider.

Als je met Nvidia een undervolt wil moet je eerst de hele mhz/voltage curve naar beneden clocken, zeg maar -300mhz en dan moet je het voltage naar het aantal mhz slepen waar je de undervolt op wil laten werken. 850mv sleep je bijvoorbeeld naar 1800mhz en dat is dan ook gelijk de maximale boost clock.

Edit

@mmxmmx

Hier word alles haarfijn uitgelegd.
Een RTX 3090 undervolt met MSI afterburner.

[YouTube: RTX 3090 Undervolted With No Performance Loss - Lower Power Consumption, Lower Temps, & Lower Noise]
Ok, interessant (en irritant) is dat veranderd sinds 3xxx of 2xxx? Mijn laatste kaart was een GTX 1070.

Dat is dan toch wel een voordeel bij AMD ondanks dat je het af en toe opnieuw moet doen.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 13:17
Vandaag voor het eerst een paar uur de campaign gespeeld van COD Modernwarfare 2019..... Deze game geneert wat coil whine bij mijn kaart, verder laat hij mijn kaart en cpu en gpu echt hard werken.

Volgens HWinfo tikte cpu en gpu af en toe een max aan van 80 graden. Het spel ziet er heel mooi uit en speelt vloeiend maar ik schrok hier toch wel even van. Uiteraard had ik hier al vaker dingen gelezen over die engine. Ik klop maar af dat ik geen crashes heb etc.

Settings: alles ultra, DLSS uit, 1440P
Configuratie: MSI 3080 Gaming Z, 32 GIG werkgeheugen en een i7 10700K

Ik ga die campaign een keer uitspelen en daarna gooi ik alles van dit spel weer eraf, geeft mij weer 150 gig ruimte terug op mijn SSD :)

Acties:
  • 0 Henk 'm!

  • Speedboot
  • Registratie: November 2014
  • Laatst online: 14-07-2024
Momenteel heb ik een zeer oude Quadro K2200 in mijn pc.
Doet het prima voor mijn huidige Full HD monitor.
Stel ik ga nu een 38GN950 LG breedbeeld aanschaffen, welke kaart is geschikt voor Office en een enkele game op zijn tijd?
Een 3060 of een 3060ti?

Acties:
  • 0 Henk 'm!

  • grote_oever
  • Registratie: Augustus 2002
  • Laatst online: 14:18
Speedboot schreef op maandag 22 augustus 2022 @ 09:05:
Momenteel heb ik een zeer oude Quadro K2200 in mijn pc.
Doet het prima voor mijn huidige Full HD monitor.
Stel ik ga nu een 38GN950 LG breedbeeld aanschaffen, welke kaart is geschikt voor Office en een enkele game op zijn tijd?
Een 3060 of een 3060ti?
Je stelt wel een hele open vraag. Dit is beetje in de trend van: Ik moet 3x per week naar mijn werk toe, welke auto heb ik hiervoor nodig?

Office heeft nauwelijks een goede videokaart nodig, dus voor die toepassing hoef je niet de portemonnee te trekken. Als je onder Games mijnenveger bedoelt, dan hoef je nog steeds de portemonnee niet te trekken. Wel je op 4k met flink wat FPS gamen, dan haal je het niet met een 3060TI.

Acties:
  • 0 Henk 'm!
Speedboot schreef op maandag 22 augustus 2022 @ 09:05:
Momenteel heb ik een zeer oude Quadro K2200 in mijn pc.
Doet het prima voor mijn huidige Full HD monitor.
Stel ik ga nu een 38GN950 LG breedbeeld aanschaffen, welke kaart is geschikt voor Office en een enkele game op zijn tijd?
Een 3060 of een 3060ti?
Wil je alles uit dat scherm halen tijdens het gamen zal een 3060 of 3060TI bij lange na niet voldoen.
Wil je genoegen nemen met lage instellingen en (flink) minder dan 144FPS mogelijk wel.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
grote_oever schreef op maandag 22 augustus 2022 @ 09:11:
[...]
Wil je op 4k met flink wat FPS gamen, dan haal je het niet met een 3060TI.
Het scherm dat hij noemt is 3840x1600, wat 6 miljoen pixels is, tegen 8 miljoen voor 4K. Dus dat scherm vereist wel iets minder dan 4k.

Maar als je in games een hoge FPS wil halen dan heb je alsnog veel power nodig. Mijn advies aan Speedboat is om nog even te wachten en te kijken wat de 4070 biedt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!
De K2200 valt tussen de GTX 750 en GTX 750 Ti, maar dan met wat meer geheugen. Als dat voldoende was om te werken en af en toe een spelletje te spelen op full hd, dan is een RTX 4070 toch wel het andere uiterste. Reken op een Firestrike graphics score van ± 4.000 waar een 3080 al ruim voorbij de 40.000 gaat :+.

Zonder de overige specs te weten zou ik huiverig zijn met het statement: koop een RTX 4070!

[ Voor 13% gewijzigd door Paprika op 22-08-2022 14:47 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Paprika schreef op maandag 22 augustus 2022 @ 14:44:
De K2200 valt tussen de GTX 750 en GTX 750 Ti, maar dan met wat meer geheugen. Als dat voldoende was om te werken en af en toe een spelletje te spelen op full hd, dan is een RTX 4070 toch wel het andere uiterste. Reken op een Firestrike graphics score van ± 4.000 waar een 3080 al ruim voorbij de 40.000 gaat :+.
Ik weet niet wat voor spellen hij nu speelt. Dat zullen niet de laatste spellen zijn op hoge grafische instellingen. Maar dan nog heeft zijn huidige monitor een derde van de pixels van de monitor die hij van plan is om te kopen. Die laatste heeft ook 160 Hz, terwijl zijn huidige monitor vermoedelijk slechts 60 Hz is.

Drie keer zoveel pixels maal potentieel 2,5 keer zoveel Hz, betekent dat je een 7,5 keer zo snelle videokaart nodig hebt om op de nieuwe hardware volledig te benutten voor spellen die 60Hz halen op zijn huidige systeem. En dan is zijn huidige kaart ook overduidelijk onvoldoende om moderne spellen op 60 Hz te spelen, dus is de echte factor nog hoger.

Als hij de laatste spellen richting de 160 Hz op 3840x1600 wil spelen op High/Ultra, dan is een 3060 Ti niet genoeg en is een 3070 ook te zwak. Nu kan hij altijd de instellingen verlagen, een lagere FPS accepteren, de monitor-resolutie beperken (wellicht door slechts een deel van de monitor te gebruiken) en zo. Maar ja, dan benut je die monitor dus niet volledig.

Uiteindelijk is de vraag nogal onmogelijk, want we weten volstrekt niet in hoeverre Speedboot wil opleveren op wat kan, om een budget te halen. Maar als er een budget was, had Speedboot dat moeten zeggen. Anders kun je ons niet kwalijk nemen dat we niet uitgaan van een beperkt budget.
Zonder de overige specs te weten zou ik huiverig zijn met het statement: koop een RTX 4070!
Als je mijn comment nog eens goed doorleest zul je zien dat ik dat nooit gezegd heb.

[ Voor 10% gewijzigd door Ludewig op 22-08-2022 15:53 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ik heb die monitor samen met een 3080 en je gaat ook daarmee de laatste games uiteraard zeker niet met 160fps spelen op ultra zonder DLSS.

Alhoewel het niet zo zwaar is als 4k zijn het toch wel een hele hoop pixels.

Wat wel helpt is dat door gSync etc het ook bij lagere FPS toch nog behoorlijk goed aanvoelt. Heb een tijdje met 1080Ti gedaan en dat viel niet tegen.

~3080 performance niveau is een mooie match voor deze monitor. Het kan natuurlijk altijd beter (met de komende generatie) maar dit voelt gewoon goed aan.

[ Voor 5% gewijzigd door Help!!!! op 22-08-2022 17:45 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Speedboot
  • Registratie: November 2014
  • Laatst online: 14-07-2024
Bedankt voor alle adviezen.
Ik denk dat ik dan eerst voor de monitor ga en kijk of deze met mijn huidige gpu geen problemen geeft met standaard browsen en Office werk.
Zoniet dan zal ik mijn lat moeten verleggen van een 3060 naar minimaal een 3080.
Of even wachten op de 40xx serie.

Bedankt!

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:11
Ludewig schreef op maandag 22 augustus 2022 @ 16:08:
@harold340

Je verhaal komt erop neer dat de AMD kaarten zuiniger zijn en een betere prijs/prestatie-verhouding bieden.

Een betere prijs/prestatie-verhouding is echter juist sterk bewijs dat de kwaliteit van het product in zijn geheel minder is, want anders zou men hogere prijzen kunnen vragen. En de markt lijkt vooralsnog weinig te geven om zuinigheid, al veranderd dit misschien met de volgende generatie.

Het punt met AMD is dat ze een bak nadelen hebben, waardoor heel veel mensen een argument hebben om voor Nvidia te kiezen. Nvidia heeft een betere encoder, DLSS, iets betere drivers, CUDA, betere ondersteuning in het algemeen en is makkelijker tweedehands te verkopen.

Er is relatief weinig reden om AMD te kiezen, tenzij de prijs een stuk lager is.

Mijn punt is dat ik hoop dat dit veranderd en dat AMD een keer de eerste keus wordt voor veel mensen.
Even uit het andere topic gequote omdat het meer thuis hoort in het ervaringen/discussie topic.

Ik ben het niet met je eens dat de prijs/kwaliteit verhouding een reflectie is voor de mate van kwaliteit van het product. Dat heeft hoofdzakelijk gewoon met het marktaandeel te maken en de bereidheid van de consument om de gevraagde prijs te betalen (wat dus meestal subjectief is).
Het feit is dat AMD met RNDA2 nu een Zen2 moment heeft, maar jammer genoeg nog niet echt marktaandeel wint door omstandigheden.

Globaal gezien zijn de drivers van Nvidia nog beter (ook niet gek na zolang dominant te zijn geweest, waardoor alles voor Nvidia werd geoptimaliseerd), maar ik moet zeggen dat het bij AMD nu redelijk volwassen aan het worden is.

Maar Nvidia heeft ook een bak met nadelen ;).
  • Prijs en beschikbaarheid
  • Geheugenchip temperatuur problemen
  • Stock slechte performance/watt.
  • Niet vloeiende multimonitor ondersteuning (film afspelen op 2e monitor bevat altijd microstutter alsof er een slechte 3:2 telecine pulldown plaats vindt).
  • Proprietary crap zoals G-sync (jeeej fan in monitor) en nu DSLL
  • Externe overclock programma nodig om de V/F curve c.q. boost aan te passen
  • Driver UI uit een Windows XP tijdperk en zo traag als maar wat
  • Geen overlay of telemetrie functie
  • Driver UI niet standaard meegeleverd, in plaats daarvan willen ze graag dat je de Geforce Experience crap gebruikt, waarvoor weer een accountregistratie & login nodig is.
  • Door meerdere hoepels springen om toch de driver UI te kunnen downloaden (zonder een of andere onnodige accountregistratie/login).
  • Naar verluid rampzalige linux drivers
Omgekeerd heeft AMD ook een lijst met nadelen, maar ook sterke pluspunten.
Daarnaast is FSR 2.0 flink verbeterd t.o.v. FRS 1.0 en kan zich redelijk meten met DLSS 2.0
Het grootste pluspunt is dat het gewoon een open standaard is, waar ook Nvidia dus gebruik van kan maken. Ik verwacht eenzelfde geschiedenis als G-sync v.s. Freesync.

De encoder van Nvidia is weliswaar nog beter op dit moment, maar is dat nou echt zo'n plus?
Wanneer je genoeg bandbreedte hebt kom je met ca. +25% bitrate op eenzelfde kwaliteit:
https://chipsandcheese.co...coders-how-good-are-they/
Het feit is ook dat Nvidia al een paar generaties meer tijd heeft gehad om hier aan te sleutelen.

Ik heb een lange tijd Nvidia gehad en bij mij hebben ze gewoon alle goodwill verpest.
Door:

A.) Anti-concurrentie geintjes uit te halen zoals de GPP (geforce partner program).
B.) Voortdurend met anti-concurrentie propriertary onzin aankomen
C.) Algemene F.U. houding t.o.v. consumenten/gamers.
D.) Met iedere generatie nog hogere exorbitante prijzen vragen (bedankt Jensen).

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik zou nu geen 3080 meer adviseren als wachten niet al te erg is, tenzij er nog hele goede deals komen. De volgende generatie wordt vermoedelijk relatief sterk en bij Nvidia krijgen we dan vermoedelijk ook veel betere VRAM hoeveelheden.

Overigens zou ik ook de AMD kaarten in de gaten houden. Die zouden wel eens heel aantrekkelijk kunnen zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op maandag 22 augustus 2022 @ 19:12:
[...]
Ik ben het niet met je eens dat de prijs/kwaliteit verhouding een reflectie is voor de mate van kwaliteit van het product. Dat heeft hoofdzakelijk gewoon met het marktaandeel te maken en de bereidheid van de consument om de gevraagde prijs te betalen (wat dus meestal subjectief is).
Vanuit economisch perspectief is de bereidheid van de consument om een hogere prijs te betalen hetzelfde als kwaliteit.

Dat jij het niet eens bent met hoe andere mensen de videokaarten beoordelen is net zo relevant als jouw mening over politieke partijen. Uiteindelijk is jouw stem dan wel aankoop slechts 1 van vele en de massa bepaald wie wint en wie verliest.
Het feit is dat AMD met RNDA2 nu een Zen2 moment heeft, maar jammer genoeg nog niet echt marktaandeel wint door omstandigheden.
Daar ben ik het zeker niet mee eens. Bij CPU's zie je dat AMD ervoor koos om de onderkant van de markt grotendeels links te laten liggen (hoge prijzen voor onaantrekkelijke producten) en zie je dat ze vaak hogere prijzen vragen dan Intel voor de modellen die wel aantrekkelijk zijn. Bij GPU's zien we juist dat Nvidia de onderkant van de markt heel erg liet liggen, terwijl AMD daar juist een relatief aantrekkelijk product neerzette. Daarnaast vroeg/vraagt AMD over de hele linie flink lagere prijzen voor dezelfde 'tier'.

Ik zie dus overduidelijk dat de CPU's van AMD veel hoger worden gewaardeerd dan hun GPU's, wat zich uit in waar men zijn beperkte productiecapaciteit op richtte.
Maar Nvidia heeft ook een bak met nadelen ;).

• Prijs en beschikbaarheid
Hmm, waarom zou de beschikbaarheid en prijs beter zijn...misschien omdat er minder vraag was omdat de kaarten minder hoog werden aangeslagen.
• Geheugenchip temperatuur problemen
De hoge VRAM temps zijn vooral een probleem voor miners. Heb geen verhalen gehoord dat het bij gamen een echt probleem is of dat de kaarten daardoor omvallen.
• Niet vloeiende multimonitor ondersteuning (film afspelen op 2e monitor bevat altijd microstutter alsof er een slechte 3:2 telecine pulldown plaats vindt).
Dit was niet alleen een probleem met de Nvidia config, maar ook met Windows, dus AMD gebruikers hebben er ook last van gehad. Dit is een specifiek probleem (geweest) voor een bepaalde doelgroep, maar bij AMD zijn er ook bepaalde doelgroepen waar de drivers slecht voor werken (zoals VR).
• Proprietary crap zoals G-sync (jeeej fan in monitor) en nu DLSS
Je bent niet verplicht die te gebruiken en het is dus altijd een voordeel als je die opties hebt. Met alle respect, maar als je DLSS als nadeel gaat noemen van de Nvidia kaarten geeft dat wel aan dat je een behoorlijk andere mening hebt dan de meeste mensen.
Allemaal marginale klachten over de software
Dat zijn allemaal kleine dingetjes.
• Naar verluid rampzalige linux drivers
AMD is inderdaad beter op Linux. Maar Linux wordt zelden gebruikt voor gamen e.d, dus daar schiet AMD niet zoveel mee op.
Omgekeerd heeft AMD ook een lijst met nadelen, maar ook sterke pluspunten.
Daarnaast is FSR 2.0 flink verbeterd t.o.v. FRS 1.0 en kan zich redelijk meten met DLSS 2.0
Dit is geen pluspunt van AMD, want FSR werkt net zo goed op Nvidia. FSR 2.0 verminderd de achterstand van AMD op Nvidia, al zijn er nog niet zoveel FSR 2.0 games, dus tegen de tijd dat dit een echt goed argument wordt is de volgende generatie al uit.
Het grootste pluspunt is dat het gewoon een open standaard is, waar ook Nvidia dus gebruik van kan maken. Ik verwacht eenzelfde geschiedenis als G-sync v.s. Freesync.
Kortom, je hebt hierdoor een afkeer van Nvidia, maar die afkeer zie ik in de markt niet als een significante factor in de koopbereidheid van Nvidia vs AMD.
De encoder van Nvidia is weliswaar nog beter op dit moment, maar is dat nou echt zo'n plus?
Dit betekent dat AMD voor streamers eigenlijk geen optie is (en steeds meer mensen hebben die ambitie), maar ook voor streamen naar de Quest 2 is AMD's encoder een probleem.

Bij AMD zijn er gewoon een bak van zulke use cases waar AMD een stuk slechter werkt. Daardoor is AMD voor mensen met 1 van die use cases vaak geen optie, maar ook voor mensen die nu nog niet zo'n use case hebben is het een voordeel als die opties er wel zijn.
Het feit is ook dat Nvidia al een paar generaties meer tijd heeft gehad om hier aan te sleutelen.
Dit is de tweede keer dat je dit vermeld, maar is typisch een fanboy opmerking die helemaal niet relevant is voor de vraag welk product momenteel beter is.

AMD lijkt nu hard te investeren in het inlopen van de achterstand op driver/software-gebied en lijkt een betere architectuur te hebben die veel sneller kan worden verbeterd. Hopelijk gaan beide zaken de komende generatie hun vruchten afwerpen. Maar dat moet echt wel gaan gebeuren voordat AMD zal worden gezien als gelijkwaardig of beter door een substantieel deel van de markt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Ludewig schreef op maandag 22 augustus 2022 @ 21:19:
[...]
Als beide platformen even aantrekkelijk zouden zijn, zou de prijs gelijk zijn voor een RTX en Radeon kaart die vergelijkbaar presteren.
Even een cross quote vanuit het Levertijden topic omdat je in beide met een stortvloed aan tekst te punt probeert te maken, maar het hier thuis hoort.

Ben het met meer zaken uit beide epistels niet eens, maar dit is eigenlijk de kern. Dit zou je denken in een normale markt, maar gaat hier niet op. Mensen zijn altijd al bereid geweest meer te betalen voor Nvidia producten, los van eventuele kwaliteit. Zelfs als ze minder waren. Stuk mindshear waar AMD tegen vecht. Ook al toen AMD duidelijk de betere generatie had moesten ze hard undercutten om te verkopen. 95% van de mensen encodeert niet en streamt niet en het siert AMD dat Freesynch en FSR voor iedereen werkt, dat kun je moeilijk tegen ze houden. Heb vele mensen de afgelopen 2 jaar naar tevredenheid een AMD kaart geadviseerd, vaak VRAM hoeveelheid als doorslag. Wat een hoop mensen betreft zijn ze er deze generatie al, in alle brackets behalve boven de 1500 euro. Goed die concurrentie, voor iedereen.

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:11
Phoe ik was er al een beetje bang voor.
Het is mijn doel niet om een Nvidia v.s. AMD discussie te gaan houden, dat hoort niet in dit draadje thuis en loopt toch op niets uit zolang ieder een bepaalde voorkeur heeft.

Ik wil nog wel reageren op een aantal quotes, omdat ze: a) dan wel je eigen stelling tegenspreken, b) mijn argumenten verkeerd geïnterpreteerd worden of verdraaid, c) of dingen erbij gehaald worden die ik niet heb gezegd.
Ludewig schreef op maandag 22 augustus 2022 @ 20:54:
Vanuit economisch perspectief is de bereidheid van de consument om een hogere prijs te betalen hetzelfde als kwaliteit.
Dat is iets anders dan wat je zegt in het levertijden topic:
Een betere prijs/prestatie-verhouding is echter juist sterk bewijs dat de kwaliteit van het product in zijn geheel minder is, want anders zou men hogere prijzen kunnen vragen.
Kwaliteit van het product en 'kwaliteit' vanuit een economisch perspectief zijn twee heel verschillende dingen.
Kwaliteit van een product is gewoon meetbaar met benchmarks en gebruikservaring.
Het tweede komt neer op stemmen met de portemonnee.
Maar hier kunnen ook andere factoren meespelen, o.a. schaarste (productieproblemen, logistieke problemen etc) die de prijs op kunnen drijven en marktaandeel. Is dat dan een maat van kwaliteit?

Daarbij is het met de cryptoboom ook helemaal scheef getrokken, omdat Nvidia kaarten voor dat doel meer geschikt & gewild waren dan AMD kaarten.
Dat jij het niet eens bent met hoe andere mensen de videokaarten beoordelen is net zo relevant als jouw mening over politieke partijen. Uiteindelijk is jouw stem dan wel aankoop slechts 1 van vele en de massa bepaald wie wint en wie verliest.
Ik ben een beetje flabbergasted door deze reactie. Ik ben het niet eens met jouw stelling dat de prijs/prestatie verhouding een reflectie is van de kwaliteit van een product.
Dat heeft verder niets te maken met een evt. mening over hoe andere mensen videokaarten beoordelen.
De tweede drogreden waarmee je komt is de analogie van het stemmen op een politieke partij en zoiets wordt meestal gebruikt om een 1e argument (in dit geval een drogreden) meer waarde toe te kennen.
[...]


Hmm, waarom zou de beschikbaarheid en prijs beter zijn...misschien omdat er minder vraag was omdat de kaarten minder hoog werden aangeslagen.
Nee, juist slechter. En daarom een nadeel.
Nvidia heeft in feite twee markten bediend, miners en gamers en daardoor relatief meer te kampen gehad met schaarste.
Dat de afzet richting miners niet mals is geweest kan je indirect ook zien aan de winstgevendheid van Ethereum v.s. de videokaart vraagprijs: https://www.3dcenter.org/...e-Trend-2021-2022-v12.png
De hoge VRAM temps zijn vooral een probleem voor miners. Heb geen verhalen gehoord dat het bij gamen een echt probleem is of dat de kaarten daardoor omvallen.
Er zijn anders genoeg voorbeelden te vinden / te lezen van gamers die thermal pads vervangen om de Tjunction van +100 °C weer richting 80°C te krijgen. Dan wel extra koellichamen op de backplate plakken of zelfs voor een aktieve (fan / waterblok) oplossing gaan.
Die 100 °C wordt gewoon met gaming gehaald en daarmee grens je aan de limiet.
Het is vanaf dat punt dan niet de vraag 'of', maar hoe lang het blijft werken.

Mocht het je interesseren lees dan dit even: https://www.igorslab.de/e...80-fe-im-chip-gemessen-2/
Je bent niet verplicht die te gebruiken en het is dus altijd een voordeel als je die opties hebt. Met alle respect, maar als je DLSS als nadeel gaat noemen van de Nvidia kaarten geeft dat wel aan dat je een behoorlijk andere mening hebt dan de meeste mensen.
Je begrijpt mij verkeerd, ik noem propriertary als nadeel met G-sync en DLSS als voorbeelden.
Propiertary heeft alleen maar als doel om consumenten aan een merk te binden en op den duur kan dat tot een monopolie leiden. Geen enkele consument is daarbij gebaat.
[...]


Dat zijn allemaal kleine dingetjes.
Ik weet niet hoe je erbij komt. Het staat ook niet in mijn post.
Dit is geen pluspunt van AMD, want FSR werkt net zo goed op Nvidia. FSR 2.0 verminderd de achterstand van AMD op Nvidia, al zijn er nog niet zoveel FSR 2.0 games, dus tegen de tijd dat dit een echt goed argument wordt is de volgende generatie al uit.
Wat betreft de hoeveelheid ondersteunde spellen is het geen plus, maar het blijkt relatief makkelijk te implementeren (zelf voor bestaande spellen). Er zijn verschillende games waarbij het onofficieel is geïmplementeerd. Het is ook een kwestie van welwillendheid van de developers.
Voor de rest blijft het speculatie, wie weet wat de komende generatie gaat betekenen.
Kortom, je hebt hierdoor een afkeer van Nvidia, maar die afkeer zie ik in de markt niet als een significante factor in de koopbereidheid van Nvidia vs AMD.
Hmm? Hoe komen we opeens bij koopbereidheid?
Dit betekent dat AMD voor streamers eigenlijk geen optie is (en steeds meer mensen hebben die ambitie), maar ook voor streamen naar de Quest 2 is AMD's encoder een probleem.
Ja, zo kan ik het ook wel. Quoten en het argument vervolgens lekker weglaten.

Even mijzelf quoten dan maar:
De encoder van Nvidia is weliswaar nog beter op dit moment, maar is dat nou echt zo'n plus?
Wanneer je genoeg bandbreedte hebt kom je met ca. +25% bitrate op eenzelfde kwaliteit:
https://chipsandcheese.co...coders-how-good-are-they/
Met hoge bitrate (> 40mbits), zijn de kwaliteitsverschillen bovendien onbeduidend. Ik neem aan dat voor VR je het liefst op maximale bitrate streamt? Kijk s.v.p. naar de link die ik gepost heb. Die jongens hebben daar een heel onderzoek naar gedaan en daarbij Netflix haar kwaliteits metriek gebruikt (VMAF).
Dit is de tweede keer dat je dit vermeld, maar is typisch een fanboy opmerking die helemaal niet relevant is voor de vraag welk product momenteel beter is.
Waar dan? Ik geef daarmee een argument waarom de AMD encoder op achterstand is. Die hardware encoders pas je niet even aan. Daar gaan iteraties overheen.
Verder een beetje flauw om het te degenereren tot een 'fanboy' opmerking. Laat dat liever maar op reddit, wccftech en andere toxische fora / gemeenschappen die geen fatsoenlijke discussie kunnen voeren.
Voor de rest inderdaad niet relevant op de vraag welke product uiteindelijke beter is.
Daar ging het niet om. Het ging erom of dat pluspunt van betere encoder nou wel zo sterk is, afhankelijk van wat je ermee doet / wilt doen. En dus voor sommigen misschien niet meeweegt.

[ Voor 5% gewijzigd door CMT op 23-08-2022 07:55 ]


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik heb een RTX 3080 maar mijn Vram blijft altijd rond de 86 graden, ook met dit warme weer als het in huis 26 graden word. Volgens mij heeft de RTX 3080 en hoger vooral last van hotspot temps van soms wel 102 graden wat ik wel ook met mijn RTX 3080 zie.

Acties:
  • 0 Henk 'm!

  • Aimussage
  • Registratie: December 2017
  • Laatst online: 18-03 14:24
ItalianStyle schreef op dinsdag 23 augustus 2022 @ 10:30:
Ik heb een RTX 3080 maar mijn Vram blijft altijd rond de 86 graden, ook met dit warme weer als het in huis 26 graden word. Volgens mij heeft de RTX 3080 en hoger vooral last van hotspot temps van soms wel 102 graden wat ik wel ook met mijn RTX 3080 zie.
Het verschilt ook sterk per kaart. Vooral bij de eerste serie 3080/90 kaarten zijn er veel meldingen van. Er werden door sommige partijen ontoereikende thermalpads voor de vram modules gebruikt. Ik heb dat zelf meegemaakt met mijn aorus 3080. Ik kreeg na een tijdje last van crashes tijdens gamen met de vram temps rond de ~100 graden. Ik heb toen zelf de thermal pads vervangen en sindsdien geen enkel probleem meer gehad. De kaart draait een stuk stiller en koeler dan de periode ervoor en de VRAM temps liggen 15-20 graden lager.

De problemen met hotspot herken ik ook niet, mijn 3080 hotspot is altijd max in de 80 graden en zit erg dicht bij de vram temps. Ook omdat de fancurve zo is afgesteld zodat de kaart stil blijft, als het aan gigabyte bios ligt blijft de kaart 60 graden en de hotspot net in de 70, maar ik heb liever iets minder fannoise.

Hoe groot is de delta van je hotspot en gewone core temp? Normaal is er ongeveer 10-15 graden verschil tussen de 2.

[ Voor 19% gewijzigd door Aimussage op 23-08-2022 11:28 ]


Acties:
  • +2 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 10:06
Proprietary standaarden zijn super logisch, zonder zou er geen winst mogelijk zijn.

AMD doet dit niet, hun standaarden zijn dan ook niet marktleidend. Volgende is een aanname maar kan je vanuit gaan, als AMD weet dat zij een betere implementatie hebben van een bepaalde techniek om onderscheidend te zijn, gaat die ook niet open zijn.

G-Sync, de beste editie, is echt vele male beter dan freesync. G-Sync kan bijvoorbeeld ook boven en onder de standaard range het toepassen. Freesync alleen bij een vast bereik.

FSR zijn ze veel later mee gekomen en is op het moment een mindere standaard.

Dan is het niet zo bijzonder om het open source uit te brengen.

Die encoder is voor VR super belangrijk, daarbuiten wat minder, want dan kan je het ook door je CPU laten doen, maar het heeft zijn use cases.

Voor de rest is Nvidia zeker niet heilig, maar ga geen haat/liefde hebben voor een merk. Dat is altijd onzin en onlogisch.
Als AMD in alles beter is, dan ga ik zo over. Alleen is dat voor mijn doelen nu zeker niet het geval. Volledig G-Sync is echt heel prettig en voor VR heb je alles nodig wat je kan krijgen.
Daarom is Nvidia mijn kaart op dit moment.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op dinsdag 23 augustus 2022 @ 06:42:
Kwaliteit van het product en 'kwaliteit' vanuit een economisch perspectief zijn twee heel verschillende dingen.
Kwaliteit van een product is gewoon meetbaar met benchmarks en gebruikservaring.
Dat is natuurlijk niet waar. Een snellere videokaart is natuurlijk ook meer waard, dus die twee dingen zijn sterk met elkaar verbonden.

Benchmarks en gebruikservaringen zijn nuttig om een product te evalueren nog voordat je het in bezit hebt, maar daar missen ook bepaalde aspecten, zoals verwachtingen voor de toekomst ('Fine wine?'). Daarnaast is ook geen enkele manier van testen objectief, net zomin als de beslissing van de consument objectief is. Iemand kan beweren dat een 3080 objectief beter is dan een 6800 XT, maar misschien heeft een consument net een use case waar de 6800 XT beter is. Welke is dan kwalitatief beter? Voor die consument is dat de 6800 XT, maar voor een ander de 3080.

Uiteraard zijn er ook mensen die de kwaliteit van producten verkeerd inschatten, maar over het algemeen is de keuze van de consument toch een goede indicatie van kwaliteit, in de ogen van de consument. En daarbij kan imago bijvoorbeeld ook een kwaliteit zijn. Wanneer mensen beweren dat anderen de kwaliteit verkeerd inschatten, is het volgens mij minimaal zo vaak het geval dat mensen de wensen van anderen weigeren te erkennen als legitiem, dan dat ze daadwerkelijk gelijk hebben.

Wat ik in elk geval zie is dat heel veel mensen die voor Nvidia kiezen redenen opnoemen die op zich valide zijn. Het verschil is er echt, in het nadeel van AMD. Daarom wil ik graag dat AMD die nadelen zoveel mogelijk wegneemt.
Maar hier kunnen ook andere factoren meespelen, o.a. schaarste (productieproblemen, logistieke problemen etc) die de prijs op kunnen drijven en marktaandeel. Is dat dan een maat van kwaliteit?
Wanneer mensen bij schaarste niet overstappen op de concurrent en liever hogere prijzen betalen voor Nvidia, dan voor een AMD kaart die puur in rendering-prestaties beter presteert, geeft dat aan dat ze Nvidia meer kwaliteit toedichten. Anders zouden ze namelijk massaal die AMD kaarten kopen, waardoor Nvidia de prijs moet verlagen en/of AMD de prijs omhoog gooit.
Daarbij is het met de cryptoboom ook helemaal scheef getrokken, omdat Nvidia kaarten voor dat doel meer geschikt & gewild waren dan AMD kaarten.
We zitten nu na de boom en de prijzen van AMD zijn nog steeds lager per FPS...
Dat heeft verder niets te maken met een evt. mening over hoe andere mensen videokaarten beoordelen.
De tweede drogreden waarmee je komt is de analogie van het stemmen op een politieke partij en zoiets wordt meestal gebruikt om een 1e argument (in dit geval een drogreden) meer waarde toe te kennen.
Mijn punt, dat je niet lijkt te begrijpen, is dat jouw mening weinig invloed heeft op de uitkomst, zowel bij verkiezingen als bij de markt voor GPU's. Het zijn miljoenen beslissingen van individuen die gezamenlijk bepalen welke partij de meeste stemmen krijgt en welke videokaarten het beste verkopen.

Jij hebt bepaalde voorkeuren, zowel politiek als voor videokaarten, maar beide meningen zijn niet erg relevant als je wilt dat AMD of jouw politieke partij meer marktaandeel gaat vergaren. In beide gevallen moet je juist verder kijken dan de mening van 1 persoon en kijken wat de redenen zijn waarom mensen iets anders doen dan je wil en wat daar aan te doen is.
Je begrijpt mij verkeerd, ik noem proprietary als nadeel met G-sync en DLSS als voorbeelden.
Proprietary heeft alleen maar als doel om consumenten aan een merk te binden en op den duur kan dat tot een monopolie leiden. Geen enkele consument is daarbij gebaat.
Nu bekritiseer je Nvidia als bedrijf, maar ik zie niet hoe dat betekent dat de Nvidia kaarten daardoor slechter zijn. Sterker nog, door de keuze om G-sync en DLSS proprietary te houden zijn de producten juist beter, maar wel ten koste van de consument door hogere prijzen en minder adoptie.

Maar als je daarom geen Nvidia koopt, dan kies je voor negatief marktgedrag (je doet jezelf pijn door een slechter product te kopen, omdat je Nvidia wilt straffen). Dat is een keuze, maar heel veel consumenten maken die keuze niet.
Ik weet niet hoe je erbij komt. Het staat ook niet in mijn post.
Ik had een aantal van je punten samengevat omdat ik ze niet allemaal wilde herhalen. Ik zie gewoon weinig mensen klagen over de Nvidia software en de AMD software lijkt hoogstens als een klein pluspunt te worden gezien. Ik heb gewoon niet het idee dat een substantieel aantal mensen dit als significante factor mee nemen in hun koopbeslissing.
Wat betreft de hoeveelheid ondersteunde spellen is het geen plus, maar het blijkt relatief makkelijk te implementeren (zelf voor bestaande spellen). Er zijn verschillende games waarbij het onofficieel is geïmplementeerd.
Dat zijn spellen die al DLSS hadden. Het is inderdaad relatief makkelijk te implementeren als de jitter en motion vectors al geïmplementeerd zijn. Maar niet alle spellen krijgen nog updates en niet alle spellen gebruiken een standaard game engine met een temporal upscaling plugin.

Feit is dat DLSS op korte termijn meer nut heeft dan FSR 2.0 en het nooit een nadeel is voor de consument wanneer een videokaart zowel DLSS als FSR 2.0 aan kan, wat dus alleen zo is bij Nvidia kaarten.
Quoten en het argument vervolgens lekker weglaten.
De link die je gaf, gaf mij gewoon gelijk door op te merken dat de AMD encoder veel meer artifacts geeft en problemen heeft met snelle bewegingen. Je beweert zelf over de AMD encoder dat: "wanneer je genoeg bandbreedte hebt kom je met ca. +25% bitrate op eenzelfde kwaliteit."

Het punt is dat je in elk geval bij de Quest 2 juist al een heel krappe bitrate hebt. Sowieso is het hele doel van encoding om een hoge kwaliteit per bitrate te krijgen en 25% slechter is echt heel veel. In de praktijk lijkt het overigens nog slechter te zijn als je kijkt naar snelle bewegingen, wat juist bij VR relevant is.

*knip* off topic
Daar ging het niet om. Het ging erom of dat pluspunt van betere encoder nou wel zo sterk is, afhankelijk van wat je ermee doet / wilt doen. En dus voor sommigen misschien niet meeweegt.
Er zijn ondertussen miljoenen VR-brillen verkocht en ook gigantisch veel streamers. En dan doen heel veel mensen ook aan online vergaderen, zeker sinds de opkomst van thuiswerken. Dus de encoder is belangrijker dan ooit tevoren. AMD moet er echt wat aan doen.

[ Voor 9% gewijzigd door br00ky op 23-08-2022 20:56 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

*knip* offtopic Gelukkig valt er deze generatie weer wat te kiezen. *knip* offtopic

[ Voor 65% gewijzigd door br00ky op 23-08-2022 20:59 ]

Sinterklaas wil bier !


Acties:
  • +1 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Ludewig schreef op dinsdag 23 augustus 2022 @ 16:33:
Daarnaast is ook geen enkele manier van testen objectief, net zomin als de beslissing van de consument objectief is.
Werkzaam in de R&D bij een grote multinational stuit met dit erg tegen de borst. (Goed opgezette) testen trachtten altijd objectief te zijn. (Goede) GPU reviewers proberen dit ook altijd na te streven. En waarom zou een consument niet objectief kiezen (binnen hun use-case)? Misschien heb je een andere definitie van objectief.
Welke is dan kwalitatief beter? Voor die consument is dat de 6800 XT, maar voor een ander de 3080. Uiteraard zijn er ook mensen die de kwaliteit van producten verkeerd inschatten, maar over het algemeen is de keuze van de consument toch een goede indicatie van kwaliteit, in de ogen van de consument. En daarbij kan imago bijvoorbeeld ook een kwaliteit zijn.
Imago is natuurlijk geen kwaliteit van een product. Je zou het hoogstens "vertrouwen" kunnen noemen. Maar het is gebaseerd op resultaten uit het verleden, en die geven geen garantie voor.... Het hoeft helemaal niets te maken te hebben met een nieuw/huidig product. De mindshear is groot en er kuddegedrag is een bekend fenomeen. Er zijn genoeg sociologische experimenten die vreemd groepsgedrag aantonen. Zoals bijvoorbeeld dat een groep toeschouwers een drenkeling veel langer laat spartelen, terwijl een enkeling veel sneller het water in springt om het slachtoffer te helpen. Maar deze quote was eigenlijk om aan te geven dat jouw definitie van kwaliteit mis is.
Wat ik in elk geval zie is dat heel veel mensen die voor Nvidia kiezen redenen opnoemen die op zich valide zijn. Het verschil is er echt, in het nadeel van AMD.
Er is zeker een deel die er voor kiest vanwege valide redenen vanwege een specifieke use-case. Er is ook veel mindshear en kuddegedrag.
Wanneer mensen bij schaarste niet overstappen op de concurrent en liever hogere prijzen betalen voor Nvidia, dan voor een AMD kaart die puur in rendering-prestaties beter presteert, geeft dat aan dat ze Nvidia meer kwaliteit toedichten.
Of het is gevoelsmatig (=subjectief) de veilige keuze, vanwege het verleden. Mindshear en kuddegedrag. Onbekend met iets nieuws.
Jij hebt bepaalde voorkeuren, zowel politiek als voor videokaarten, maar beide meningen zijn niet erg relevant als je wilt dat AMD of jouw politieke partij meer marktaandeel gaat vergaren. In beide gevallen moet je juist verder kijken dan de mening van 1 persoon en kijken wat de redenen zijn waarom mensen iets anders doen dan je wil en wat daar aan te doen is.
Meer marketing budget op de mindshear om te gooien zou kunnen helpen. Maar de verschillen in budget zijn zo immens, dat valt nooit te winnen. AMD CPU's waren recent een ruim jaar lang de betere, maar drie keer raden wie nog steeds ruim markleider was. Waarom?
Sterker nog, door de keuze om G-sync en DLSS proprietary te houden zijn de producten juist beter, maar wel ten koste van de consument door hogere prijzen en minder adoptie.
Ongelofelijk dat je dat als plus blijft herhalen, terwijl het open source alleen maar valt te waarderen. Dure monitoren en dure hardware. Rare definitie van "beter".
Maar als je daarom geen Nvidia koopt, dan kies je voor negatief marktgedrag (je doet jezelf pijn door een slechter product te kopen, omdat je Nvidia wilt straffen). Dat is een keuze, maar heel veel consumenten maken die keuze niet.
Hier hang je even een waarde oordeel aan een keuze van iemand anders en plakt er een lelijk stickertje op zonder enig idee te hebben van beweegredenen en topt het af met dat jij wel weet wat consumenten doen. Als diegene nu geen DLSS nodig heeft en dure Gsynch monitor heeft, maar lekker op 1080p of 1440p high FPS rasterization games speelt en graag veel VRAM wilde? Of is dat niet een keuze die consumenten zouden maken...
Ik had een aantal van je punten samengevat omdat ik ze niet allemaal wilde herhalen. Ik zie gewoon weinig mensen klagen over de Nvidia software en de AMD software lijkt hoogstens als een klein pluspunt te worden gezien. Ik heb gewoon niet het idee dat een substantieel aantal mensen dit als significante factor mee nemen in hun koopbeslissing.
"Klein plus puntje laat ik even weg"
Feit is dat DLSS op korte termijn meer nut heeft dan FSR 2.0 en het nooit een nadeel is voor de consument wanneer een videokaart zowel DLSS als FSR 2.0 aan kan, wat dus alleen zo is bij Nvidia kaarten.
En weer gooi je iets in het gezicht van het bedrijf met de consument-vriendelijke oplossing.....
En dan doen heel veel mensen ook aan online vergaderen, zeker sinds de opkomst van thuiswerken. Dus de encoder is belangrijker dan ooit tevoren. AMD moet er echt wat aan doen.
Want je kan niet vergaderen met een AMD kaart? Maanden lang gedaan. Geen klachten. Nu trouwens een Nvidia kaart.

Heb echt geen voorkeur voor AMD of Nvidia, heb kaarten van beide in het systeem gehad de laatste 2 jaar en zigzag geüpgraded. Koop wat het beste is op het moment en verkoop als ik een mooi prijsje kan krijgen. Kan alleen slecht tegen de, mijns inziens (ik geef hier aan dat het een mening is en niet dat ik alle wijsheid in pacht heb) veel te gekleurde positieve berichtgeving voor één van de kampen. Beetje balans en relativering in de tent.

Sinterklaas wil bier !


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:11
Ludewig schreef op dinsdag 23 augustus 2022 @ 16:33:
[...]


Dat is natuurlijk niet waar. Een snellere videokaart is natuurlijk ook meer waard, dus die twee dingen zijn sterk met elkaar verbonden.

Benchmarks en gebruikservaringen zijn nuttig om een product te evalueren nog voordat je het in bezit hebt, maar daar missen ook bepaalde aspecten, zoals verwachtingen voor de toekomst ('Fine wine?'). Daarnaast is ook geen enkele manier van testen objectief, net zomin als de beslissing van de consument objectief is. Iemand kan beweren dat een 3080 objectief beter is dan een 6800 XT, maar misschien heeft een consument net een use case waar de 6800 XT beter is. Welke is dan kwalitatief beter? Voor die consument is dat de 6800 XT, maar voor een ander de 3080.

Uiteraard zijn er ook mensen die de kwaliteit van producten verkeerd inschatten, maar over het algemeen is de keuze van de consument toch een goede indicatie van kwaliteit, in de ogen van de consument. En daarbij kan imago bijvoorbeeld ook een kwaliteit zijn. Wanneer mensen beweren dat anderen de kwaliteit verkeerd inschatten, is het volgens mij minimaal zo vaak het geval dat mensen de wensen van anderen weigeren te erkennen als legitiem, dan dat ze daadwerkelijk gelijk hebben.

Wat ik in elk geval zie is dat heel veel mensen die voor Nvidia kiezen redenen opnoemen die op zich valide zijn. Het verschil is er echt, in het nadeel van AMD. Daarom wil ik graag dat AMD die nadelen zoveel mogelijk wegneemt.
Hiermee weerleg je je eigen stelling, want je geeft verschillende kwaliteit criteria. M.a.w. prijs/prestatie-verhouding is niet de enige factor die volgens jouw de 'kwaliteit' bepalen.

Anandtech, Hardware Nexus, IgorsLab, Techpowerup, Tweakers.net, Computerbase, Extremerigs en noem maar op, doen allemaal uitgebreide tot zeer uitgebreide metingen met laboratorium apparatuur.
Als de meetapparatuur niet objectief is, dan is het kapot ;).
De conclusies die er uit volgen zijn vaak (enigszins) subjectief, maar als goede reviewer zal je zoveel mogelijk je best doen om geen vooroordeel te hebben. De metingen zelf liegen niet, dus daar kan je zelf ook conclusies uit trekken en vergelijken met het oordeel van anderen.

Wat betreft het weigeren te erkennen van andermans wensen als legitiem.
Dat is wel een beetje pessimistisch om te denken. Volgens mij zal het vaker gaan om het wegnemen van een bias of een vooroordeel.
Wanneer mensen bij schaarste niet overstappen op de concurrent en liever hogere prijzen betalen voor Nvidia, dan voor een AMD kaart die puur in rendering-prestaties beter presteert, geeft dat aan dat ze Nvidia meer kwaliteit toedichten. Anders zouden ze namelijk massaal die AMD kaarten kopen, waardoor Nvidia de prijs moet verlagen en/of AMD de prijs omhoog gooit.
Wie zegt dat het niet gebeurt? Lees https://gathering.tweakers.net/forum/list_messages/2034546 maar door. Je gaat er verder ook vanuit dat iedereen merk agnostisch is. Ik ben dat zelf niet in ieder geval. Ik denk ook dat je erg onderschat wat mensen er voor over hebben om iets te kiezen dat ze vertrouwen (mijn 1e keus moederbord zal bijv. automatisch een MSI zijn, omdat ik daar hele goede ervaring mee heb opgedaan).
We zitten nu na de boom en de prijzen van AMD zijn nog steeds lager per FPS...
Heeft wederom met marktaandeel te maken. AMD zou zich direct uit de markt prijzen door hetzelfde of meer te vragen dan Nvidia. Wanneer je de gemiddelde vraagprijs van Nvidia en AMD kaarten bekijkt, dan zie je dat ze dezelfde tendens volgen.
Wat ik eerder probeerde aan te geven is dat een groot deel van de Nvidia kaarten richting miners verdwenen is en daardoor in de 1e helft van 2021 de vraagprijs geëxplodeerd is.
Pas je jouw redenering toe, dan zou dit betekenen dat de kwaliteit van Nvidia kaarten beter is, want de prijs/prestatie verhouding is slechter. Dat is natuurlijk kul, want die kaarten worden niet voor gaming gebruikt, maar stuwen wel de vraagprijs op voor de feitelijke doelgroep.
Mijn punt, dat je niet lijkt te begrijpen, is dat jouw mening weinig invloed heeft op de uitkomst, zowel bij verkiezingen als bij de markt voor GPU's. Het zijn miljoenen beslissingen van individuen die gezamenlijk bepalen welke partij de meeste stemmen krijgt en welke videokaarten het beste verkopen.

Jij hebt bepaalde voorkeuren, zowel politiek als voor videokaarten, maar beide meningen zijn niet erg relevant als je wilt dat AMD of jouw politieke partij meer marktaandeel gaat vergaren. In beide gevallen moet je juist verder kijken dan de mening van 1 persoon en kijken wat de redenen zijn waarom mensen iets anders doen dan je wil en wat daar aan te doen is.
Verder je punt proberen te maken met de drogredenen heeft geen zin. Het blijven drogredenen die niets te maken hebben met jouw stelling: "Een betere prijs/prestatie-verhouding is echter juist sterk bewijs dat de kwaliteit van het product in zijn geheel minder is, want anders zou men hogere prijzen kunnen vragen"
Nu bekritiseer je Nvidia als bedrijf, maar ik zie niet hoe dat betekent dat de Nvidia kaarten daardoor slechter zijn. Sterker nog, door de keuze om G-sync en DLSS proprietary te houden zijn de producten juist beter, maar wel ten koste van de consument door hogere prijzen en minder adoptie.

Maar als je daarom geen Nvidia koopt, dan kies je voor negatief marktgedrag (je doet jezelf pijn door een slechter product te kopen, omdat je Nvidia wilt straffen). Dat is een keuze, maar heel veel consumenten maken die keuze niet.
Ik hoop serieus dat je dit niet meent. Proprietary is nergens goed voor, behalve het bedrijf in kwestie. Wanneer AMD daar gebruik van maakt, dan zou het ik het net zo goed als nadeel noemen.
Het siert je ook niet door steeds zo stellig te reageren. Je weet helemaal niet wat mijn beweegredenen zijn om voor merk X of Y te kiezen. Nee, ik wil niet Nvidia 'straffen' en nee AMD is voor mijn doeleinden geen slechter product (Raytracing, DLSS gebruik ik niet, drivers zijn volkomen stabiel met de spellen die ik speel).
Een generalisatie is ook een zwak argument. Alsof groepsgedrag leidend moet zijn voor iemands persoonlijke keuze?
Ik had een aantal van je punten samengevat omdat ik ze niet allemaal wilde herhalen. Ik zie gewoon weinig mensen klagen over de Nvidia software en de AMD software lijkt hoogstens als een klein pluspunt te worden gezien. Ik heb gewoon niet het idee dat een substantieel aantal mensen dit als significante factor mee nemen in hun koopbeslissing.
Nee, waar ik naar refereerde is dat je een quote neerzet die niet van mij is. Maar vervolgens wel op reageert.

Verder bagatelliseer je hier een pluspunt. Het kan zijn dat een groot aantal gebruikers content zijn met de Windows XP control panel van Nvidia. Dat is helemaal prima. Ik heb er zelf ook heel lang gebruik van gemaakt.
Maar als je eenmaal Adrenaline hebt gebruikt is dat wel echt een verademing (en ja, ik heb zo ook mijn ergernissen daarmee).
Vraag het anders aan gebruikers die ook ervaring hebben met beide ui's.
Bij de volgende videokaartkeuze zal dit pluspunt voor mij persoonlijk zeker meewegen (o.a. de ingebouwde sRGB clamp is onmisbaar).
De link die je gaf, gaf mij gewoon gelijk door op te merken dat de AMD encoder veel meer artifacts geeft en problemen heeft met snelle bewegingen. Je beweert zelf over de AMD encoder dat: "wanneer je genoeg bandbreedte hebt kom je met ca. +25% bitrate op eenzelfde kwaliteit."

Het punt is dat je in elk geval bij de Quest 2 juist al een heel krappe bitrate hebt. Sowieso is het hele doel van encoding om een hoge kwaliteit per bitrate te krijgen en 25% slechter is echt heel veel. In de praktijk lijkt het overigens nog slechter te zijn als je kijkt naar snelle bewegingen, wat juist bij VR relevant is.

[mbr]*knip* off topic[/]
Welk gelijk? Dat de AMD encoder minder efficiënt / kwalitatief minder is, betwist ik helemaal niet.
Ik gaf aan dat afhankelijk van hoeveel bandbreedte (lees upload) je beschikbaar hebt, de encoder van Nvidia niet perse een pluspunt / koopargument hoeft te zijn.
De kwaliteit verschillen worden steeds kleiner met toenemende bitrate tot een punt dat je geen verschil meer kan waarnemen. Daarnaast is er ook zoiets als goed genoeg = goed genoeg.

Nota bene heb ik je een link gegeven van een vergelijkend onderzoek.
Wanneer je dat had gelezen, dan zie je ook dat vanaf 40mbits de kwaliteit verschillen klein zijn en vanaf 60mbits erg klein.

Ik heb zelf geen ervaring met VR, maar wat ik via google kan vinden is dat het aanbevolen wordt om voor 4k 60Hz, 60mbits of meer te gebruiken. En dat doorgaans voor dat doel nog meer bitrate wordt gebruikt.
De Quest 2 kan nota bene in theorie 500mbits streamen, dus hoezo krappe bitrate.

Het doel van (hardware) encoding is om je cpu te ontlasten en realtime opname/streaming mogelijk te maken. Softwarematig is dat bijna niet te doen, tenzij je een hele dikke >16 cores cpu hebt.
Het liefst stream je verliesvrij, maar dat gaat simpelweg niet vanwege de bandbreedte beperking.
Er zijn ondertussen miljoenen VR-brillen verkocht en ook gigantisch veel streamers. En dan doen heel veel mensen ook aan online vergaderen, zeker sinds de opkomst van thuiswerken. Dus de encoder is belangrijker dan ooit tevoren. AMD moet er echt wat aan doen.
Voor VR gebruik betwistbaar. Zie boven. Voor online vergaderen ook betwistbaar. Hoewel wenselijk, hoef je daar niet de beste kwaliteit/bitrate verhouding voor te hebben. Of vergader je soms in 4K HDR op een adsl lijn?
Verder ben ik er wel mee eens dat AMD er flink werk van moet maken om het gat te dichten.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Is DLSS open source of closed source? Want als een game DLSS 2.0 ondersteund kun je FSR 2 op een of andere manier ook gebruiken in die game via een file of zo? En kun je DLSS wel closed course noemen vanwege dat er AI of DL cores voor nodig is, stel dat AMD ook AI of DL cores heeft werkt DLSS daar misschien ook wel op?

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 02-05 23:58
ItalianStyle schreef op woensdag 24 augustus 2022 @ 11:53:
Is DLSS open source of closed source? Want als een game DLSS 2.0 ondersteund kun je FSR 2 op een of andere manier ook gebruiken in die game via een file of zo? En kun je DLSS wel closed course noemen vanwege dat er AI of DL cores voor nodig is, stel dat AMD ook AI of DL cores heeft werkt DLSS daar misschien ook wel op?
DLSS kan niet open source zijn aangezien het ontwikkeld is specifiek voor Nvidia hardware. De gebruikte techniek is overigens wel redelijk bekend dus niet heel bijzonder meer te noemen.
Dat een game met DLSS ook FSR kan gebruiken heeft volgens mij meer te maken met de manier waarop FSR geïmplementeerd word in een game.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ParaWM schreef op dinsdag 23 augustus 2022 @ 22:28:
[...]
Werkzaam in de R&D bij een grote multinational stuit met dit erg tegen de borst. (Goed opgezette) testen trachtten altijd objectief te zijn. (Goede) GPU reviewers proberen dit ook altijd na te streven.
Zowel jij als CMT verwarren herhaalbaarheid en betrouwbaarheid met objectiviteit. De keuze van wat en hoe je test is behoorlijk subjectief. Zo kan het veel uitmaken welke games je test. Elke tester gebruikt een andere set van games om mee te testen en kunnen daardoor andere uitkomsten vinden. Zodra de geteste games en de weging van de games niet overkomt met de games die je zelf speelt en hoe vaak je die speelt, komt de uitkomst van de test niet overeen met wat jouw ervaring gaat zijn.

Daarnaast zijn er ook andere test-methodes mogelijk. Zo kiezen de meeste reviewers ervoor om alle kaarten te testen met een extreme CPU, om de invloed van de CPU zoveel mogelijk uit te sluiten, maar er zijn ook verschillen in hoe GPU's de CPU belasten, wat je op deze manier niet goed test. Sowieso zijn deze tests met name voor de lower/mid end kaarten vaak niet representatief voor de gebruikerservaring, want die worden zelden gecombineerd met een 12900k of 5900X.

En ik volg ook een reviewer die op een hele andere manier test en de instellingen aanpast om een prettige game-ervaring te krijgen op een kaart, ipv alle kaarten met dezelfde instellingen te testen. Deze test-manier komt misschien wel beter overeen met de meeste gebruikservaringen, want mensen verhogen/verlagen vaak de instellingen (en gebruiken features als DLSS of raytracing) totdat ze de FPS hebben die ze acceptabel vinden en beoordelen dan de kwaliteit.

Overigens adviseren de reviewers die ik het hoogst aansla allemaal om ook reviewers van anderen te bekijken.
Imago is natuurlijk geen kwaliteit van een product. Je zou het hoogstens "vertrouwen" kunnen noemen. Maar het is gebaseerd op resultaten uit het verleden, en die geven geen garantie voor....
Uiteraard zijn resultaten uit het verleden wel een goede indicatie voor de toekomst. Het is volstrekt rationeel om beslissingen te nemen op basis van een kansberekening. Als bijvoorbeeld de kans dat fabrikant A een RMA netjes afhandelt groter is dan dat fabrikant B dat doet, dan voegt dat waarde toe aan het product.
Het hoeft helemaal niets te maken te hebben met een nieuw/huidig product. De mindshear is groot en er kuddegedrag is een bekend fenomeen.
Het is 'mindshare'. En bij hardware en software is kuddegedrag vaak rationeel. Zo zal elke game-maker het meest belang hechten aan het correct werken van het spel op Nvidia kaarten, omdat nu eenmaal de meeste gamers een kaart van Nvidia hebben.
Er zijn genoeg sociologische experimenten die vreemd groepsgedrag aantonen. Zoals bijvoorbeeld dat een groep toeschouwers een drenkeling veel langer laat spartelen, terwijl een enkeling veel sneller het water in springt om het slachtoffer te helpen.
De meeste experimenten vonden dat de kans dat een specifiek individu ingreep kleiner is wanneer er meer omstanders zijn, maar dat is volstrekt logisch. Meestal is het zo dat het juist negatief is wanneer teveel mensen zich ermee bemoeien, dus als er meer mensen zijn, wil je normaliter dat slechts 1 of een paar mensen uit die groep ingrijpen.

Uiteindelijk gaat het er natuurlijk niet om dat elke persoon zich zonodig wil bewijzen, maar dat er wordt ingegrepen wanneer dat een goede optie is (soms is het juist het beste wanneer niemand probeert te helpen).

Bij analyses van praktijksituaties (zoals video van bewakingscamera's buiten nachtclubs) bleek dat de kans juist iets hoger was dat iemand ingreep, wanneer er meer omstanders waren. Vanuit het perspectief van de hulpbehoevende was er dan ook geen bystander effect.

Ik vind het zelf vooral interessant waarom zoveel mensen willen geloven dat het bystander effect heel sterk is.
Of het is gevoelsmatig (=subjectief) de veilige keuze, vanwege het verleden. Mindshear en kuddegedrag. Onbekend met iets nieuws.
Het is ook gewoon rationeel om bij gebrekkig aan kennis, de keuze te maken die anderen ook maken. Zeker wanneer mensen die keuze keer op keer blijven maken, kun je concluderen dat ze tevreden zijn met de keuze.
Ongelofelijk dat je dat als plus blijft herhalen, terwijl het open source alleen maar valt te waarderen. Dure monitoren en dure hardware. Rare definitie van "beter".
Nogmaals, G-sync is een optie. Je hoeft geen monitor met G-sync te kopen, maar bij Nvidia heb je die optie wel.

Ik vind het nogal ongelofelijk dat je minder features als voordeel blijft noemen.
Als diegene nu geen DLSS nodig heeft en dure Gsynch monitor heeft, maar lekker op 1080p of 1440p high FPS rasterization games speelt en graag veel VRAM wilde? Of is dat niet een keuze die consumenten zouden maken...
Voor die persoon is het feit dat een Nvidia kaart wel DLSS en G-sync heeft ook geen nadeel. Dus wat betreft die features is Nvidia gewoon altijd gelijkwaardig of beter, nooit slechter.
"Klein plus puntje laat ik even weg"
Ik had het niet weggelaten, maar samengevat en er wel degelijk op gereageerd. Je blijft beweren dat ik je onrecht aandoe, terwijl ik dat zeker niet zo zie.
En weer gooi je iets in het gezicht van het bedrijf met de consument-vriendelijke oplossing.....
Volgens mij ben je het bedrijf nu weer aan het beoordelen ipv het product. Is het goed dat FSR 2.0 opensource is en op alle kaarten werkt? Ja, daarvoor is AMD te prijzen. Betekent dit dat een AMD kaart nu een voordeel heeft boven een Nvidia kaart die FSR 2.0 ook draait? Nee.
Want je kan niet vergaderen met een AMD kaart? Maanden lang gedaan. Geen klachten. Nu trouwens een Nvidia kaart.
Tuurlijk kan dit, maar ik heb graag een goede encoding zodat ik veel detail heb. Overigens zijn het je gesprekscollega's die profiteren als jouw encoding beter is, dus dat jij geen verschil ziet is logisch.
Heb echt geen voorkeur voor AMD of Nvidia, heb kaarten van beide in het systeem gehad de laatste 2 jaar en zigzag geüpgraded. Koop wat het beste is op het moment
Dat doe ik ook, maar ik vind het vervelend wanneer veel mensen terecht AMD afwijzen omdat hun kaarten (veel) minder goed werken voor bepaalde toepassingen, zeker omdat de markt daardoor veel minder goed werkt en Nvidia kan wegkomen met vervelend gedrag. Maar dit wordt niet opgelost door net te doen alsof al die mensen gek zijn. Uiteindelijk moet AMD de achterstand verder inhalen en hopelijk op bepaalde vlakken een voorsprong nemen. Het zou heel goed zijn als we straks kunnen zeggen: AMD is beter voor X en Nvidia voor Y. En dan niet beter relatief tot de prijs, maar gewoon beter, punt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
computerjunky schreef op woensdag 24 augustus 2022 @ 12:56:
[...]
DLSS kan niet open source zijn aangezien het ontwikkeld is specifiek voor Nvidia hardware.
Zo werkt het niet. Open source betekent puur dat je de broncode kunt inzien en aanpassen. Dat heeft verder niets te maken met de hardware waarop het draait.

De AMD drivers zijn ook open source, maar werken alleen op AMD kaarten.
Dat een game met DLSS ook FSR kan gebruiken heeft volgens mij meer te maken met de manier waarop FSR geïmplementeerd word in een game.
Ze doen beide eigenlijk hetzelfde trucje, op basis van dezelfde brongegevens. Dat die manier waarop ze het trucje geïmplementeerd hebben wat verschilt, maakt eigenlijk geen verschil voor spelontwikkelaars.

Je kunt het vergelijken met een benzinemotor, die doen ook allemaal hetzelfde trucje. De ene auto heeft een V8 zonder turbo die het trucje op een brute manier doet, en de andere auto heeft een V4 met een gigantische turbo om het trucje op een andere manier te doen. Maar je kunt de motor van het ene type gewoon vervangen door het andere type en dan rijdt de auto ook.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 01-05 17:50

ParaWM

Pro Prutser

Letterlijk elk stukje commentaar ben ik het mee oneens. Vreemde definities, woorden omdraaien en argumenten die helemaal niet relevant zijn. Ik ga er niet verder op in. Ik hoop dat de neutrale lezer die ervaringen en discussie zoekt om een opinie te vormen over video kaarten in ieder geval wat context heeft tegenover de vele lappen tekst die het groene kamp alleen maar promoten. Er is weer voldoende keuze voor mensen die wat leuks zoeken in ieder geval !

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op woensdag 24 augustus 2022 @ 05:24:
[...]
Hiermee weerleg je je eigen stelling, want je geeft verschillende kwaliteit criteria. M.a.w. prijs/prestatie-verhouding is niet de enige factor die volgens jouw de 'kwaliteit' bepalen.
Heb ik ook nooit beweerd...
Je gaat er verder ook vanuit dat iedereen merk agnostisch is.
Heb ik ook niet beweerd...
Heeft wederom met marktaandeel te maken. AMD zou zich direct uit de markt prijzen door hetzelfde of meer te vragen dan Nvidia.
Je draait de werkelijkheid precies om. Nvidia heeft ondanks hogere prijzen een groter marktaandeel omdat ze aantrekkelijkere producten maken.

Het is wel zo dat mensen liever een populair product willen, maar als dat effect heel sterk was, dan zouden we voor alle productcategorieën alleen maar monopolisten hebben, wat duidelijk niet zo is. Uiteindelijk komt je argument ook neer op een cirkelredenering: Nvidia is populair omdat ze populair zijn. Maar die redenering verklaart niet waarom marktleiders ook regelmatig hun voorsprong verliezen.
Wanneer je de gemiddelde vraagprijs van Nvidia en AMD kaarten bekijkt, dan zie je dat ze dezelfde tendens volgen.
Hoe is dat relevant?
Wat ik eerder probeerde aan te geven is dat een groot deel van de Nvidia kaarten richting miners verdwenen is en daardoor in de 1e helft van 2021 de vraagprijs geëxplodeerd is.
Ik heb het ook niet over de prijzen van toen, maar over de prijzen van nu, waar de kaarten grotendeels naar gamers lijken te gaan. Gezien de stabiele hashrate van Ethereum, lijkt er (netto) hoogstens sprake van een vervangingsmarkt bij miners.
Pas je jouw redenering toe, dan zou dit betekenen dat de kwaliteit van Nvidia kaarten beter is, want de prijs/prestatie verhouding is slechter.
De Nvidia-kaarten hebben idd een hogere kwaliteit voor minen, vanwege de bredere bus. Maar nogmaals, de prijzen lopen ook uiteen nu de hashrate gestabiliseerd is en er dus geen groei meer is van het aantal kaarten dat mined.
Ik hoop serieus dat je dit niet meent. Proprietary is nergens goed voor, behalve het bedrijf in kwestie.
Het is al eeuwen door vrijwel alle landen geaccepteerd dat exclusiviteit een bron van innovatie kan zijn, doordat bedrijven extra inkomsten kunnen vergaren en zo beloond worden voor hun innovatie. Zie bijvoorbeeld patenten. Als de concurrent een uitvinding gewoon kan kopiëren, wat veel makkelijker is dan innovatie, is er in veel gevallen weinig reden om die moeite te doen.

De prijs van exclusiviteit is wel dat de adoptie lager zal zijn, dus een exclusieve feature zal minder snel geadopteerd worden en sneller volledig falen in de markt. Dat geldt nog sterker voor een fabrikant met een laag marktaandeel, want dan is de adoptie sowieso al lager. Dus AMD kan überhaupt niet zo makkelijk een proprietary feature uitbrengen die ook succesvol is.

Het is ook niet voor niets dat Nvidia zowel DLSS als G-sync heeft ontwikkeld, en AMD vervolgens in beide gevallen iets vergelijkbaars moest ontwikkelen. Wanneer AMD iets ontwikkelt, maken ze het meestal direct vrij beschikbaar omdat het anders toch niet succesvol zal worden. En op deze manier voorkomen ze dat Nvidia op dat vlak een exclusieve feature kan uitbrengen, al zorgt dat slechts voor een gelijk speelveld, en heeft AMD dan geen exclusief voordeel.

Bekijk het gewoon eens vanuit de gebruiker, de ene kaart heeft een knop waarmee je in spel X, Y en Z extra FPS kunt krijgen tegen weinig kwaliteitsverlies. De andere kaart heeft die knop niet, dus in spel X, Y en Z heb je minder FPS of veel lagere kwaliteit. Dan heeft de kaart met die knop toch een meerwaarde?

Met jouw opmerking dat propriety nergens goed voor is, lijk je een vergelijking te maken tussen DLSS zoals het nu is, en een open source DLSS die AMD ook zou kunnen gebruiken. Maar de consument heeft die keuze helemaal niet! Die heeft de keuze tussen proprietary DLSS of niks.
Je weet helemaal niet wat mijn beweegredenen zijn om voor merk X of Y te kiezen.
Het is overduidelijk dat je de producten niet an sich beoordeelt, want dat zou je de waarheid accepteren dat een extra feature met bepaalde voordelen beter is dan het ontbreken van die feature. Je blijft steeds kritiek hebben op de keuze van Nvidia om DLSS proprietary te maken, wat neerkomt op kritiek op de keuzes van het bedrijf, ipv kritiek op de kwaliteit van het product.
Verder bagatelliseer je hier een pluspunt. Het kan zijn dat een groot aantal gebruikers content zijn met de Windows XP control panel van Nvidia. Dat is helemaal prima. Ik heb er zelf ook heel lang gebruik van gemaakt.
Bagatelliseer ik of is het daadwerkelijk een vrij klein pluspunt? Ik heb letterlijk nog nooit iemand zien beweren dat ze een AMD kaart gekocht hebben puur vanwege de betere software en tot jou ook nooit dat het hun koopbeslissing beïnvloed. Wel dat ze de software iets prettiger vinden, maar er is een verschil tussen een prettige meevaller of iets dat daadwerkelijk de koopbereidheid significant beïnvloed. Ik heb daarentegen wel veel mensen zien beweren dat ze Nvidia kopen vanwege de betere drivers.

Ik denk dus zelf dat (bijvoorbeeld) een verschil in driver-kwaliteit een veel grotere invloed op de koopbeslissing heeft dan de overige software.

Overigens schijnt Adrenaline een probleem te hebben waarbij de instellingen bij sommige mensen vaak gereset worden. Ik heb zelfs gezien dat mensen daarom Adrenaline verwijderen en Afterburner gebruiken.
Ik heb zelf geen ervaring met VR, maar wat ik via google kan vinden is dat het aanbevolen wordt om voor 4k 60Hz, 60mbits of meer te gebruiken.
Het scherm op de Quest 2 kan 120 Hz aan. Een hogere FPS maakt ook een groter verschil in VR, zo wordt je bij een hogere FPS minder snel 'wagenziekte.'
En dat doorgaans voor dat doel nog meer bitrate wordt gebruikt.
De Quest 2 kan nota bene in theorie 500mbits streamen, dus hoezo krappe bitrate.
Het probleem met de AMD encoder kan wellicht ook komen doordat de latencies toenemen bij hogere bitrates. En latency is nogal belangrijk bij VR voor een prettige ervaring, zeker bij simmen e.d.

Dus dan hebben mensen de keuze tussen hoge latencies of artifacts.

Zie bijvoorbeeld: https://forums.guru3d.com...r-vr.443275/#post-6029206

Commenter Clai is duidelijk behoorlijk technisch onderlegd en probeert een flink aantal instellingen, maar kan het niet acceptabel krijgen. Sowieso staan de VR forums vol met mensen die een slechte ervaring hebben met AMD kaarten, wat ze niet goed krijgen, maar waar een switch naar een Nvidia kaart het in 1 keer oplost.

Dus vergeef me als ik jouw bewering dat het in theorie goed zou moeten werken niet zo vertrouw, maar wel de vele verhalen van mensen die tegen problemen aanlopen. Ik heb weliswaar nergens hard bewijs gezien wat nu echt het probleem is met de AMD encoder, maar het grote aantal klachten geven wel aan dat er iets goed mis is.
Verder ben ik er wel mee eens dat AMD er flink werk van moet maken om het gat te dichten.
AMD heeft recent een update uitgebracht van de encoder waarbij ze de achterstand op Nvidia voor de helft hebben ingelopen: https://codecalamity.com/amd-re-introduces-the-b-frame/

Dus mijn verwachting is dat we minimaal die verbetering gaan zien en hopelijk meer. Het schijnt dat ze sowieso ook AV1-support gaan introduceren. De AV1 encoder van de Intel-kaarten werd extreem goed beoordeeld door een expert en werkt veel beter dan de h.264 encoder, met dezelfde kwaliteit op de helft van de bandbreedte. Voor de huidige VR headsets is dat niet relevant omdat die AV1 niet ondersteunen, maar YouTube ondersteunt het al en Twitch lijkt van plan om het te gaan ondersteunen en dan richting 2024/25 volledig over te stappen op AV1 (wanneer vrijwel iedereen een telefoon heeft met een AV1 hardware decoder).

Dus als AMD een beetje nette encoder maakt voor AV1, kan het voor streamers weer een interessante keuze worden. Al gaat het gerucht dat Nvidia ook een AV1 encoder gaat toevoegen en Nvidia is nogal goed in het maken van encoders, dus ik ben benieuwd wat de reviewers gaan melden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:11
Ludewig schreef op woensdag 24 augustus 2022 @ 16:43:
[...]


Zowel jij als CMT verwarren herhaalbaarheid en betrouwbaarheid met objectiviteit. De keuze van wat en hoe je test is behoorlijk subjectief. Zo kan het veel uitmaken welke games je test. Elke tester gebruikt een andere set van games om mee te testen en kunnen daardoor andere uitkomsten vinden. Zodra de geteste games en de weging van de games niet overkomt met de games die je zelf speelt en hoe vaak je die speelt, komt de uitkomst van de test niet overeen met wat jouw ervaring gaat zijn.

Daarnaast zijn er ook andere test-methodes mogelijk. Zo kiezen de meeste reviewers ervoor om alle kaarten te testen met een extreme CPU, om de invloed van de CPU zoveel mogelijk uit te sluiten, maar er zijn ook verschillen in hoe GPU's de CPU belasten, wat je op deze manier niet goed test. Sowieso zijn deze tests met name voor de lower/mid end kaarten vaak niet representatief voor de gebruikerservaring, want die worden zelden gecombineerd met een 12900k of 5900X.

En ik volg ook een reviewer die op een hele andere manier test en de instellingen aanpast om een prettige game-ervaring te krijgen op een kaart, ipv alle kaarten met dezelfde instellingen te testen. Deze test-manier komt misschien wel beter overeen met de meeste gebruikservaringen, want mensen verhogen/verlagen vaak de instellingen (en gebruiken features als DLSS of raytracing) totdat ze de FPS hebben die ze acceptabel vinden en beoordelen dan de kwaliteit.

Overigens adviseren de reviewers die ik het hoogst aansla allemaal om ook reviewers van anderen te bekijken.
Herhaalbaarheid = consistentie
Betrouwbaarheid (subjectieve term!) = herhaalbaarheid, meet(on)zekerheid, nauwkeurigheid, tolerantie, etc.

Bovenstaande is alleen mogelijk wanneer er objectief gemeten wordt.
We hebben het in dit geval over wetenschappelijk objectiviteit (oordelen zonder externe invloed) niet over filosofische objectiviteit (het zoeken naar waarheid). Prestaties zijn meetbaar en te correleren met praktijk ervaring.
Je beweert eerst keihard dat geen enkele manier van testen objectief is..wat gewoon niet waar is.
Nu stel je weer de objectiviteit van de reviewer ter discussie, wat filosofische objectiviteit is.

Trouwens, er zijn genoeg reviewers die een waslijst aan games testen. Juist om een eventuele bias uit te sluiten. En het is maar goed dat ze zich beperken tot bepaalde instellingen of profielen. Dat stelt je namelijk instaat om de resultaten te verifiëren met dat van anderen (die uiteraard dezelfde instellingen of profielen gebruiken i.c.m. vergelijkbare hardware). Het wordt anders onbegonnen werk.

Het testen van individuele instellingen om een optimale game ervaring te krijgen is zeker interessant, maar daarmee vergelijk je geen kaarten (en zal zeer waarschijnlijk ook niets aan de rangorde veranderen).
Met een beetje inzicht, kan je a.d.h.v. de vele testen inschatten wat je qua rekenkracht nodig hebt.
Ludewig schreef op woensdag 24 augustus 2022 @ 23:03:
[...]


Heb ik ook nooit beweerd...
Is het nou zo moeilijk om toe te geven dat jouw stelling geen stand houdt? Je kan niet met twee maten geen meten als je de prijs/prestatie verhouding linkt aan de 'mate' van product kwaliteit.
Dan is er gewoon geen sprake van sterk bewijs (want andere factoren spelen mee die deze 'kwaliteit' bepalen).
[...]


Heb ik ook niet beweerd...
Excuses, dat was vooringenomen van mij. Je gooit wel alles op één hoop door iedere keer met de term kwaliteit te komen. Dat mensen niet massaal overstappen naar product A dat beter presteert, kan ook gewoon een kwestie van vertrouwen zijn of veiligheid (geen risico durven nemen, kuddegedrag). Dat noem ik zelf geen kwaliteit.
Je draait de werkelijkheid precies om. Nvidia heeft ondanks hogere prijzen een groter marktaandeel omdat ze aantrekkelijkere producten maken.

Het is wel zo dat mensen liever een populair product willen, maar als dat effect heel sterk was, dan zouden we voor alle productcategorieën alleen maar monopolisten hebben, wat duidelijk niet zo is. Uiteindelijk komt je argument ook neer op een cirkelredenering: Nvidia is populair omdat ze populair zijn. Maar die redenering verklaart niet waarom marktleiders ook regelmatig hun voorsprong verliezen.
Wat draai ik om? Ik impliceer toch dat AMD een minder aantrekkelijk product heeft (of dat terecht is, is een tweede). Ditto Nvidia heeft een meer aantrekkelijke product, dus kan meer vragen.
Je gaat ook niet dezelfde prijs/prestatie verhouding vragen als je een klein marktaandeel hebt.

Nu presenteer je de aantrekkelijkheid als enkel argument waarom Nvidia een groter marktaandeel heeft. Doe dat nou niet a.u.b. Er spelen ook andere factoren zoals: geen risico durven nemen, anti-concurrentie maatregelen en hearsay.
Sinds 2016 is ca. 80% van de GPU markt in handen van Nvidia en dat is ongeveer gelijk gebleven.
Die verhouding kan niet magisch in één keer omgegooid worden, wanneer de concurrent een meer aantrekkelijke product heeft. Deze moet ook de capaciteit hebben om de markt te bedienen en evt. groei kost jaren tijd.
Hoe is dat relevant?
Inzicht geven in marktwerking? Bewijs dat AMD zich niet uit de markt wil prijzen? Indicatie dat de verkoopverhouding tussen beide merken stabiel is (nu er geen sprake meer is van schaarste)?
Ik heb het ook niet over de prijzen van toen, maar over de prijzen van nu, waar de kaarten grotendeels naar gamers lijken te gaan. Gezien de stabiele hashrate van Ethereum, lijkt er (netto) hoogstens sprake van een vervangingsmarkt bij miners.
Had relatie tot je stelling. Niet het nu.
Het is al eeuwen door vrijwel alle landen geaccepteerd dat exclusiviteit een bron van innovatie kan zijn, doordat bedrijven extra inkomsten kunnen vergaren en zo beloond worden voor hun innovatie. Zie bijvoorbeeld patenten. Als de concurrent een uitvinding gewoon kan kopiëren, wat veel makkelijker is dan innovatie, is er in veel gevallen weinig reden om die moeite te doen.

De prijs van exclusiviteit is wel dat de adoptie lager zal zijn, dus een exclusieve feature zal minder snel geadopteerd worden en sneller volledig falen in de markt. Dat geldt nog sterker voor een fabrikant met een laag marktaandeel, want dan is de adoptie sowieso al lager. Dus AMD kan überhaupt niet zo makkelijk een proprietary feature uitbrengen die ook succesvol is.

Het is ook niet voor niets dat Nvidia zowel DLSS als G-sync heeft ontwikkeld, en AMD vervolgens in beide gevallen iets vergelijkbaars moest ontwikkelen. Wanneer AMD iets ontwikkelt, maken ze het meestal direct vrij beschikbaar omdat het anders toch niet succesvol zal worden. En op deze manier voorkomen ze dat Nvidia op dat vlak een exclusieve feature kan uitbrengen, al zorgt dat slechts voor een gelijk speelveld, en heeft AMD dan geen exclusief voordeel.

Bekijk het gewoon eens vanuit de gebruiker, de ene kaart heeft een knop waarmee je in spel X, Y en Z extra FPS kunt krijgen tegen weinig kwaliteitsverlies. De andere kaart heeft die knop niet, dus in spel X, Y en Z heb je minder FPS of veel lagere kwaliteit. Dan heeft de kaart met die knop toch een meerwaarde?

Met jouw opmerking dat propriety nergens goed voor is, lijk je een vergelijking te maken tussen DLSS zoals het nu is, en een open source DLSS die AMD ook zou kunnen gebruiken. Maar de consument heeft die keuze helemaal niet! Die heeft de keuze tussen proprietary DLSS of niks.
Waarom hammer je toch iedere keer weer op DLSS als ik het over proprietary heb?
Eerder heb ik gezegd dat proprietary kan leiden tot een monopolie, doordat het de keuzevrijheid kan inperken. Dan zijn alle consumenten de sjaak (stagnatie, hoge prijzen).
Ik heb zojuist ook genoemd dat Nvidia ca. 80% van de markt in handen heeft. Dus reken maar uit.

Er bestaat ook zoiets als principiële consumenten, die hun keuze/steun laten afhangen van hoe een bedrijf is / zich gedraagt.
Overigens staat Raytracing hoog op mijn verlanglijstje voor de komende generatie, dus mocht blijken dat Nvidia flink beter is op dat punt, dan overweeg ik ook Nvidia.
Het is overduidelijk dat je de producten niet an sich beoordeelt, want dat zou je de waarheid accepteren dat een extra feature met bepaalde voordelen beter is dan het ontbreken van die feature. Je blijft steeds kritiek hebben op de keuze van Nvidia om DLSS proprietary te maken, wat neerkomt op kritiek op de keuzes van het bedrijf, ipv kritiek op de kwaliteit van het product.
Het is overduidelijk dat je mij niet kent en dat je totaal niet inziet dat voor sommigen proprietary een nadeel is. Ik heb dat toch ook als nadeel van Nvidia genoemd in de 1e post? Dus waarom moet dat volgens jouw kritiek op de kwaliteit van het product worden.
Ik heb verder ook niet ontkent dat het hebben van een extra feature beter is dan het ontbreken daarvan.
Bagatelliseer ik of is het daadwerkelijk een vrij klein pluspunt? Ik heb letterlijk nog nooit iemand zien beweren dat ze een AMD kaart gekocht hebben puur vanwege de betere software en tot jou ook nooit dat het hun koopbeslissing beïnvloed. Wel dat ze de software iets prettiger vinden, maar er is een verschil tussen een prettige meevaller of iets dat daadwerkelijk de koopbereidheid significant beïnvloed. Ik heb daarentegen wel veel mensen zien beweren dat ze Nvidia kopen vanwege de betere drivers.

Ik denk dus zelf dat (bijvoorbeeld) een verschil in driver-kwaliteit een veel grotere invloed op de koopbeslissing heeft dan de overige software.

Overigens schijnt Adrenaline een probleem te hebben waarbij de instellingen bij sommige mensen vaak gereset worden. Ik heb zelfs gezien dat mensen daarom Adrenaline verwijderen en Afterburner gebruiken.
Je bent ook wel een meester in het verdraaien.
Nu moet de software enkel en alleen het argument zijn geweest voor een videokaartkeuze om een pluspunt genoemd te mogen worden? Het is een pluspunt. Basta.
Stel je vraag anders in het Radeon ervaringen topic, zodra de nieuwe kaarten gelanceerd zijn.

Wat betreft de stabiliteit van de drivers, dat snap ik heel goed.
Het was voor mij ook een heikelpunt, maar ik heb een vertrouwenssprong genomen en gelukkig bleek alle vrees onterecht. Voor mij werken de drivers net zo stabiel als Nvidia.

De voornaamste reden dat Andrenaline zich reset is dat er ergens in het systeem sprake is van onstabiliteit. Vaak merk je dat niet eens (kleine haper bijvoorbeeld). Dan gaat de driver automatisch terug naar standaard instellingen.
In de meeste gevallen komt dat simpelweg vanwege een onstabiele overclock of undervolt.
Ook door een onstabiele CPU, RAM of verkeerde / abrupte OS afsluiting kan dat getriggerd worden.
Het wil dus niet perse zeggen dat de drivers onstabiel zijn.

Ik heb dat zelf ondervonden, omdat ik met de curve optimizer de CPU helemaal had afgesteld en dacht dat deze stabiel was. Daarvoor heb ik corecycler gebruikt en een veelvoud van verschillende stresstests (single, core, multi core, AVX, SSE, diverse stressprogramma's noem maar op).
Bij elkaar tientallen uren getest voor zowel frequentie stabiliteit als voltage stabiliteit.
Nou mooi niet dus, eens in de zoveel tijd WHEA met een driver reset tot gevolg.
Ook de undervolt van de videokaart bleek toch niet stabiel te zijn.
Sinds ik beide terug op stock heb gezet, is het niet meer voorgekomen.
Het scherm op de Quest 2 kan 120 Hz aan. Een hogere FPS maakt ook een groter verschil in VR, zo wordt je bij een hogere FPS minder snel 'wagenziekte.'
Wat heeft dit te maken met de bandbreedte v.s. kwaliteit argument?
Ik gaf daarmee aan dat er voor VR in ieder geval gebruik wordt gemaakt van 60mbits bitrate of hoger.
Kwaliteitsverschillen tussen beide encoders is vanaf dat punt of hoger nihil.
Het probleem met de AMD encoder kan wellicht ook komen doordat de latencies toenemen bij hogere bitrates. En latency is nogal belangrijk bij VR voor een prettige ervaring, zeker bij simmen e.d.

Dus dan hebben mensen de keuze tussen hoge latencies of artifacts.

Zie bijvoorbeeld: https://forums.guru3d.com...r-vr.443275/#post-6029206

Commenter Clai is duidelijk behoorlijk technisch onderlegd en probeert een flink aantal instellingen, maar kan het niet acceptabel krijgen. Sowieso staan de VR forums vol met mensen die een slechte ervaring hebben met AMD kaarten, wat ze niet goed krijgen, maar waar een switch naar een Nvidia kaart het in 1 keer oplost
Ik heb de link bekeken en Clai vergelijkt de latency tussen twee bitrates: 90mbits en 500mbits.
Als op 60mbits er al nauwelijks verschil is, dan is dat met 90mbits nog minder.
Ik weet verder niet hoe stabiel de stream/link is, dus daar kan je gelijk in hebben.
Dus vergeef me als ik jouw bewering dat het in theorie goed zou moeten werken niet zo vertrouw, maar wel de vele verhalen van mensen die tegen problemen aanlopen. Ik heb weliswaar nergens hard bewijs gezien wat nu echt het probleem is met de AMD encoder, maar het grote aantal klachten geven wel aan dat er iets goed mis is.
Nou, je mag het gewoon zeggen hoor ;). Ik neem daar geen aanstoot aan.
Maar wat je verder verteld, illustreert precies waar ik tegenaan vecht.
Iets wordt niet eens een kans gegeven vanwege verhalen van anderen.
AMD heeft recent een update uitgebracht van de encoder waarbij ze de achterstand op Nvidia voor de helft hebben ingelopen: https://codecalamity.com/amd-re-introduces-the-b-frame/

Dus mijn verwachting is dat we minimaal die verbetering gaan zien en hopelijk meer. Het schijnt dat ze sowieso ook AV1-support gaan introduceren. De AV1 encoder van de Intel-kaarten werd extreem goed beoordeeld door een expert en werkt veel beter dan de h.264 encoder, met dezelfde kwaliteit op de helft van de bandbreedte. Voor de huidige VR headsets is dat niet relevant omdat die AV1 niet ondersteunen, maar YouTube ondersteunt het al en Twitch lijkt van plan om het te gaan ondersteunen en dan richting 2024/25 volledig over te stappen op AV1 (wanneer vrijwel iedereen een telefoon heeft met een AV1 hardware decoder).

Dus als AMD een beetje nette encoder maakt voor AV1, kan het voor streamers weer een interessante keuze worden. Al gaat het gerucht dat Nvidia ook een AV1 encoder gaat toevoegen en Nvidia is nogal goed in het maken van encoders, dus ik ben benieuwd wat de reviewers gaan melden.
Dat is interessant, bedankt!

Ik brei wat betreft de uitgebreide discussie voor mijzelf hier ook een eind aan.
Meer discussiëren leidt toch tot niets dan ergernis.
Mocht je van mij aanstoot gekregen hebben, dan neem het mij niet kwalijk.

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
computerjunky schreef op woensdag 24 augustus 2022 @ 12:56:
[...]


DLSS kan niet open source zijn aangezien het ontwikkeld is specifiek voor Nvidia hardware. De gebruikte techniek is overigens wel redelijk bekend dus niet heel bijzonder meer te noemen.
Dat een game met DLSS ook FSR kan gebruiken heeft volgens mij meer te maken met de manier waarop FSR geïmplementeerd word in een game.
Dat maat een hoop duidelijk. Ik wou je tumbs geven maar de knop werkt niet.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op donderdag 25 augustus 2022 @ 05:47:
[...]
We hebben het in dit geval over wetenschappelijk objectiviteit (oordelen zonder externe invloed)
Nee, daar hebben 'we' het niet over. Ik heb het over een objectiviteit in de brede zin van het woord, niet 1 deel-aspect dat ik op een voetstuk plaats en dan net doe alsof andere belangrijke aspecten niet bestaan.

Overigens werd mij op de universiteit verteld dat de wetenschap helemaal niet volledig objectief is of kan zijn. Helaas zijn er veel mensen die dat ontkennen en de wetenschap behandelen als een religie, ipv wetenschap te zien voor wat het echt is, een manier van onderzoek doen die de mate van subjectiviteit relatief laag maakt, maar daarmee zeker niet objectief is.
Je beweert eerst keihard dat geen enkele manier van testen objectief is..wat gewoon niet waar is.
Er zijn aspecten van reviews die redelijk objectief (kunnen) zijn en aspecten die gewoon niet objectief kunnen zijn, omdat er oneindig veel valide manieren zijn om videokaarten te beoordelen, die zorgen voor andere uitkomsten.

Wat jij doet, is beweren dat de subjectieve elementen geen onderdeel zijn van het testen, maar dat is onzin. De keuze van wat je test en hoe, is onlosmakelijk verbonden met de validiteit van de conclusies die je kunt trekken uit de test.

Niemand leest een review die drie spellen test op Ultra settings om dan slechts de conclusie te trekken dat de kaart alleen geschikt is voor het spelen van die drie spellen, op Ultra settings. Mensen extrapoleren de resultaten naar andere spellen en andere instellingen. Aangezien het vrijwel nooit het geval is dat mensen de kaart precies zo gebruiken als de reviewer, is er altijd sprake van extrapolatie.

Reviewers hebben meestal als doel om hun resultaten zo goed mogelijk extrapoleerbaar te maken, zodat de extrapolaties die mensen maken relatief goed kloppen. Maar we zien dat elke reviewer iets anders test, wat overduidelijk aangeeft dat er geen manier van testen is die optimaal is. Met andere woorden, elke reviewer maakt een subjectieve inschatting van welke manier van testen het beste is. Daarvoor is geen objectieve maatstaf.
Trouwens, er zijn genoeg reviewers die een waslijst aan games testen. Juist om een eventuele bias uit te sluiten.
Maar dat sluit een bias helemaal niet uit. Bij hardware unboxed testen ze heel veel games en bepalen vervolgens een gemiddelde, maar daarbij wordt niet gewogen. Dus telt Total War: Three Kingdoms even zwaar mee als een veel populairder spel zoals PUBG. Dus dan is er al een mismatch met de gemiddelde gamer, die veel vaker PUBG speelt dan Total War.

Maar de meeste gamers zijn natuurlijk niet gemiddeld, dus een test waarin alleen de spellen die ik graag speel zitten, is ook gewoon valide en voor mijzelf veel nuttiger. Uiteindelijk hebben reviewers echter beperkte tijd en kunnen ze niet voor elke gamer een individueel geoptimaliseerde test doen. Het gevolg is dan dat verschillende testers beter aansluiten op verschillende doelgroepen. Zo testen de meeste mainstream reviewers niet in VR, terwijl dat voor een bepaalde doelgroep juist heel belangrijk is.

Zo heb je deze twee reviews die de 6800 XT met de 3080 vergelijken:
https://babeltechreviews....-performance-benchmarked/
YouTube: Finewine? Radeon RX 6800 XT vs GeForce RTX 3080 10GB, 50 Game Benchmark

Geen van deze reviews is objectief beter of slechter, in de zin dat je de ene altijd zou moeten geloven boven de ander. Ze testen gewoon heel andere use cases voor deze videokaarten en beide use cases zijn valide.
Je kan niet met twee maten geen meten als je de prijs/prestatie verhouding linkt aan de 'mate' van product kwaliteit.
Dat kan natuurlijk wel, want 'prestatie' is niet objectief te meten. Daarnaast is het gewoon zo dat andere aspecten dan prestatie ook de productkwaliteit bepalen. Een videokaart die zo slecht gebouwd is dat hij in de fik vliegt kan heel goed presteren, maar die prijs/kwaliteit verhouding zal ik dan desondanks nogal laag beoordelen.

Uiteindelijk kopen we producten op basis van een prijs/kwaliteit verhouding. Prestaties zijn een deel-aspect van kwaliteit. Maar dan komen we weer op de kritiek die ik hierboven heb geuit, dat jij een deel-aspect op een voetstuk plaatst en dan doet alsof dat ene aspect voor iedereen in dezelfde mate de kwaliteit bepaald.

Dat is echter gewoon niet zo. De ene persoon ziet G-Sync ondersteuning als een grote kwaliteit, terwijl een andere consument dit totaal niet meetelt bij het beoordelen van de kwaliteit. Beide subjectieve definities van kwaliteit zijn valide voor die persoon zelf, maar niet voor de andere persoon. Dat is dus subjectiviteit, waar op zich niks mis mee is, maar wat wel betekent dat we niet moeten doen alsof er een objectieve maatstaf is voor kwaliteit.
Dat mensen niet massaal overstappen naar product A dat beter presteert, kan ook gewoon een kwestie van vertrouwen zijn of veiligheid (geen risico durven nemen, kuddegedrag). Dat noem ik zelf geen kwaliteit.
Veiligheid is uiteraard wel een kwaliteit. Mensen zijn bereid om flink te betalen voor het verminderen van risico's. Daarom zijn er verzekeringen.

Je blijft maar beweren dat dat het mogelijk is om objectief vast te stellen wat de kwaliteit is, waarbij je mensen die andere aspecten belangrijk vinden dan FPS diskwalificeert. Daarbij diskwalificeer je niet alleen de mensen die videokaarten beoordelen op een andere manier dan hoe jij dat doet, maar diskwalificeer je de maatschappij als geheel, als je tenminste consistent zou zijn. Eerder had je al beweerd dat er geen meerwaarde zit in proprietary uitvindingen en nu diskwalificeer je het verminderen van risico's, terwijl je in een maatschappij leeft waar beide zaken behoorlijk hoog worden aangeslagen en gefaciliteerd.
Sinds 2016 is ca. 80% van de GPU markt in handen van Nvidia en dat is ongeveer gelijk gebleven.
Die verhouding kan niet magisch in één keer omgegooid worden, wanneer de concurrent een meer aantrekkelijke product heeft. Deze moet ook de capaciteit hebben om de markt te bedienen
Uiteraard, maar als de vraag groter is dan de capaciteit verwacht je natuurlijk dat de prijs relatief hoog wordt. Dat is dus precies het omgekeerde van wat we zien.
Waarom hammer je toch iedere keer weer op DLSS als ik het over proprietary heb?
Jij bracht dit onderwerp ter sprake waarbij je Nvidia bekritiseerde vanwege hun proprietary technologie, waarbij je G-Sync en DLSS noemde. Ik reageer gewoon op jouw argumenten en vind het nogal bizar dat je mij bekritiseert omdat ik jouw voorbeelden bespreek.
Eerder heb ik gezegd dat proprietary kan leiden tot een monopolie, doordat het de keuzevrijheid kan inperken. Dan zijn alle consumenten de sjaak (stagnatie, hoge prijzen).
Dat klopt, maar daarmee is dit nog steeds geen valide argument om te beweren dat Nvidia kaarten minder waard zouden moeten zijn doordat ze deze extra proprietary features hebben.

Je lijkt nog steeds een globaal oordeel (is het toevoegen van deze feature op termijn goed voor alle consumenten) te verwarren met een individueel oordeel (biedt het toevoegen van deze feature een meerwaarde). Dat laatste oordeel bepaalt de koopbereidheid.

Nogmaals, er is door economen uitgebreid onderzoek gedaan naar het uit elkaar lopen van deze oordelen, waarbij mensen een keuze maken die op korte termijn voor henzelf beter is, die negatief uitpakken als iedereen die keuze maakt, of op termijn negatief uitpakken. De welbekende prisoner's dilemma is een voorbeeld hiervan, net zoals de 'tragedy of the commons.' Een voorbeeld daarvan is wanneer vissers teveel vissen en daardoor op korte termijn meer inkomen hebben, maar op lange termijn de visserij de nek omdraaien omdat de vissen uitsterven.
Er bestaat ook zoiets als principiële consumenten, die hun keuze/steun laten afhangen van hoe een bedrijf is / zich gedraagt.
Dat klopt, maar zoveel zijn dat er niet. Ik zie continu mensen beweren dat DLSS een belangrijk voordeel is dat hun beslissing sterk beïnvloed, maar zelden dat mensen vanwege DLSS juist een voorkeur hebben voor AMD. Dus ik ben er vrij zeker van dat het toevoegen van deze proprietary technologie ervoor heeft gezorgd dat de vraag naar Nvidia meer toegenomen is dan afgenomen.

Overigens hebben de mensen over het algemeen veel minder principes dan ze denken te hebben. Ik zie continu dat mensen oprecht beweren dat ze bepaalde principes hebben, maar dat ze het principe opeens totaal niet meer belangrijk vinden wanneer het toepassen van die principes tot ongewenste conclusies leidt. Bijvoorbeeld dat iemand anders hun zin krijgt, ten koste van henzelf.
Het is overduidelijk dat je mij niet kent en dat je totaal niet inziet dat voor sommigen proprietary een nadeel is.
Ik zie dat wel in, maar dat betekent nog niet dat je gelijk hebt dat bijvoorbeeld DLSS een nadeel is. Als meer mensen een Nvidia kaart prefereren vanwege DLSS dan dat er mensen zijn die daarom juist liever een AMD kaart kopen, dan is DLSS globaal gezien een voordeel voor Nvidia.

Ik heb het over de voorkeur van de gemiddelde consument, niet over de voorkeur van CMT. Jouw individuele keuze is vrijwel irrelevant voor welke kaart door de markt als geheel beter wordt gewaardeerd en waar dus meer vraag naar is.
Nu moet de software enkel en alleen het argument zijn geweest voor een videokaartkeuze om een pluspunt genoemd te mogen worden? Het is een pluspunt. Basta.
Dat heb ik niet gezegd. Ik heb enkel beweerd dat ik het niet als een groot pluspunt zie. Jij doet net alsof elk voordeel en nadeel even zwaar weegt, maar dat is natuurlijk niet zo.

Als ik kan kiezen uit twee auto's, waarbij de ene een iets hogere maximumsnelheid heeft, maar geen stoelen heeft, dan kun je dat voor- en nadeel niet tegen elkaar wegstrepen en beweren dat die auto's even aantrekkelijk zijn. Mensen zullen de ontbrekende stoelen meestal als een veel groter nadeel zien dan het voordeel van de iets hogere snelheid.
De voornaamste reden dat Andrenaline zich reset is dat er ergens in het systeem sprake is van onstabiliteit. Vaak merk je dat niet eens (kleine haper bijvoorbeeld). Dan gaat de driver automatisch terug naar standaard instellingen.
Opvallend is wel dat mensen die instabiliteit blijkbaar vaak niet opmerken, dus dan lijkt er toch iets niet goed te gaan, waarbij de Andrenaline veel te sterk reageert op die kleine hapering.
Wat heeft dit te maken met de bandbreedte v.s. kwaliteit argument?
Jij rekende met 60 Hz, maar ik gaf aan dat dit onvoldoende is om de mogelijkheden van een Quest 2 volledig te benutten.
Maar wat je verder verteld, illustreert precies waar ik tegenaan vecht.
Iets wordt niet eens een kans gegeven vanwege verhalen van anderen.
Het geld groeit mij niet op de rug en ik heb ook beperkte tijd. Waarom zou ik keuzes maken waarbij de kans heel groot is dat ik tegen problemen aanloop, ipv van een veiligere keuze te maken?

Overigens geef ik ze wel degelijk een kans bij een volgend product. Als reviewers en early adopters aangeven dat bepaalde punten voldoende verbeterd zijn, dan gaat mijn koopbereidheid navenant omhoog. Maar uiteraard geef ik ze niet het voordeel van de twijfel wanneer ze in het verleden iets niet waargemaakt hebben. Er moet dan eerst bewijs komen dat het nu beter is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +6 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:11
@Ludewig
Wij gaan het nooit met elkaar eens worden. Weer een lap tekst met verbuigingen, dingen die uit het verband worden getrokken (naar gelieve zinnen quoten, die een relatie hebben met het voorgaande om daar dan een discussie over te starten, helpt echt niet), woorden in andermans mond leggen, verwijten, drogredenen. Zint een argument je niet dan negeer je het of begin je randzaken op randzaken ter discussie te stellen (dat is ook een manier om een discussie te winnen).
De discussie over de encoder kwaliteit is wel een toppunt.

Maargoed, ik hoop dat de discussies voor anderen ook wat goeds heeft gebracht door inzicht te geven met een andere point of view / standpunt. Uiteindelijk is het allemaal gewoon hobby en moet ieder voor zichzelf uitmaken wat het beste voor hem of haar is.
Ik ga in ieder geval lekker uitkijken naar wat beide kampen zo meteen te bieden hebben.
En zal, als de beschikbaarheid meezit, waarschijnlijk ook van beide iets aan de tand voelen.

[ Voor 3% gewijzigd door CMT op 26-08-2022 20:55 ]


Acties:
  • 0 Henk 'm!

  • Furrr
  • Registratie: Mei 2008
  • Laatst online: 24-03 13:15
Bezitter van een Asus Strix OC 3080ti en dus LHR.
Nu alles mbt crypto een beetje gaat liggen en proof of stake een ding gaat worden.
Is het dan mogelijk dat we binnenkort een LHR vrije bios kunnen verwachten van de fabrikanten, in dit geval Asus?
Of zijn mijn verwachtingen te hoog gegrepen?

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 30-04 03:11
Furrr schreef op dinsdag 6 september 2022 @ 22:14:
Bezitter van een Asus Strix OC 3080ti en dus LHR.
Nu alles mbt crypto een beetje gaat liggen en proof of stake een ding gaat worden.
Is het dan mogelijk dat we binnenkort een LHR vrije bios kunnen verwachten van de fabrikanten, in dit geval Asus?
Of zijn mijn verwachtingen te hoog gegrepen?
Dat zouden ze alleen met medewerking/toestemming van Nvidia kunnen doen. Ik zie geen enkele reden waarom NV zoiets zou doen -- welk voordeel hebben ze erbij? Dat bestaande eigenaars van LHR-kaarten die nog interesse hebben in crypto ze lief gaan vinden? Dat levert geen geld op. Hooguit een klein beetje goodwill, maar die heeft NV niet nodig (zeker als er weer boze mensen tegenover staan die crypto nog steeds als de grote satan van de gamingmarkt zien). Als LHR verdwijnt dan met de 4xxx generatie.

Ik denk dat je verwachtingen niet zozeer te hoog als wel volledig uit de lucht gegrepen zijn. Sorry. :P

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Furrr
  • Registratie: Mei 2008
  • Laatst online: 24-03 13:15
👍🏽

Is natuurlijk niet een compleet onlogische gedachten gang. Uit de lucht gegrepen is denk ik alles behalve passend gezien de context en onderbouwing.

Verder is de bios afkomstig van de fabrikant (mits je geen Founders Edition kaart hebt) en niet van Nvidia zelf naar mijn weten. Verder is een onbeperkte Hash Rate niet alleen van belang bij crypto’s.

Overigens heeft de Founders Edition 3080ti geen LHR beperking.

https://www.pcgamer.com/n...ards-no-founders-edition/

(Edit: FE 3080 ti is ook LHR en is het nieuwsbericht van PCgamer achterhaald)

Wellicht valse hoop maar stiekem blijf ik goede hoop houden. Maar uit de lucht gegrepen, dat gaat te ver. 😉

Bedankt voor de snelle reply iig! 👍🏽👍🏽

[ Voor 9% gewijzigd door Furrr op 07-09-2022 12:54 ]


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 30-04 03:11
Furrr schreef op woensdag 7 september 2022 @ 12:51:
Verder is de bios afkomstig van de fabrikant (mits je geen Founders Edition kaart hebt) en niet van Nvidia zelf naar mijn weten.
Natuurlijk, maar als een AIB ineens het idee zou hebben om eventjes een bios uit te gaan brengen waarbij een feature die NV erin gestopt heeft voor marktsegmentatie omzeild wordt... dan gaan ze een stevige discussie krijgen. Zonder toestemming van NV gebeurt dat echt niet, en die hebben er dus geen (commercieel) belang bij.

Ik zeg "uit de lucht gegrepen" niet omdat het niet kan (kan heel makkelijk zelfs) maar dat ik geen reden kan bedenken waarom het zou gebeuren. Als jij die wel hebt (anders dan "zou leuk voor een groep gebruikers zijn, waaronder ik") ben ik een en al oor. :P

[ Voor 19% gewijzigd door MneoreJ op 07-09-2022 13:05 ]

Het is "bagatelliseren", van "bagatel". A, a, e, twee keer l, één keer s.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Furrr schreef op woensdag 7 september 2022 @ 12:51:
Verder is de bios afkomstig van de fabrikant (mits je geen Founders Edition kaart hebt) en niet van Nvidia zelf naar mijn weten.
Het lijkt mij uiterst waarschijnlijk de board partners zelf een BIOS in elkaar flansen. Volgens mij krijgen ze gewoon een BIOS van Nvidia en is het dan vooral een kwestie van configureren. Instellen van de fan curve, power limiet, etc.
Verder is een onbeperkte Hash Rate niet alleen van belang bij crypto’s.
Waarvoor dan?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Furrr
  • Registratie: Mei 2008
  • Laatst online: 24-03 13:15
Ludewig schreef op woensdag 7 september 2022 @ 13:22:
[...]


Het lijkt mij uiterst waarschijnlijk de board partners zelf een BIOS in elkaar flansen. Volgens mij krijgen ze gewoon een BIOS van Nvidia en is het dan vooral een kwestie van configureren. Instellen van de fan curve, power limiet, etc.


[...]
Dat bedoel ik, de uiteindelijke bios komt niet van Nvidia zelf. Had wat specifieker kunnen zijn.


Ik begreep dat zaken als folding@home ook gelimiteerd werden door Hash restricties. Ik zag laatst nog een lijstje voorbij komen.
Kom er straks op terug.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Furrr schreef op woensdag 7 september 2022 @ 13:37:
[...]
Ik begreep dat zaken als folding@home ook gelimiteerd werden door Hash restricties. Ik zag laatst nog een lijstje voorbij komen.
Volgens mij detecteert LHR echt vrij specifiek het algoritme dat voor Ethereum-mining wordt gebruikt. Ik hoor van miners dat alternatieve munten zoals Ravencoin op volledige snelheid gemined kunnen worden.

En als ik even google zie ik mensen melden dat folding@home volstrekt niet gelimiteerd wordt:
https://www.reddit.com/r/...ted_hashrate_lhr/h8z6gn1/
https://linustechtips.com...ds-work-well-for-folding/

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Furrr
  • Registratie: Mei 2008
  • Laatst online: 24-03 13:15
Ludewig schreef op woensdag 7 september 2022 @ 15:30:
[...]


Volgens mij detecteert LHR echt vrij specifiek het algoritme dat voor Ethereum-mining wordt gebruikt. Ik hoor van miners dat alternatieve munten zoals Ravencoin op volledige snelheid gemined kunnen worden.

En als ik even google zie ik mensen melden dat folding@home volstrekt niet gelimiteerd wordt:
https://www.reddit.com/r/...ted_hashrate_lhr/h8z6gn1/
https://linustechtips.com...ds-work-well-for-folding/
Helder! Bedankt voor je reply!

Echter, en ik zou er heus niet wakker van liggen, zou het alsnog fijn zijn wanneer de kaart zonder restricties in m’n case zou zou liggen.
Ik denk dat het gevoel, want dat is het voornamelijk heus wel, te vergelijk is met het bezitten van een supersport motor welke 350 km/u weet te aan tikken maar in de praktijk dat nooit zou rijden.

Any way, was vooral nieuwsgierig!

Thanks again!

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Furrr schreef op woensdag 7 september 2022 @ 17:26:
[...]
Ik denk dat het gevoel, want dat is het voornamelijk heus wel, te vergelijk is met het bezitten van een supersport motor welke 350 km/u weet te aan tikken maar in de praktijk dat nooit zou rijden.
Ik denk dat dit geen goede vergelijking is, omdat je videokaart wel degelijk de maximale snelheid kan halen, alleen niet tijdens het minen van Ethereum. Als je dat nooit gaat doen, merk je er nooit iets van.

Om nog iets verder erin te duiken: Het lijkt erop dat LHR langere tijd in de gaten houdt of de Ethereum-specifieke berekeningen heel veel worden gedaan en dan gaat throttelen. Als diezelfde berekeningen tijdens een spel gedaan worden, worden er altijd zoveel andere berekeningen gedaan dat je nooit boven die grens uitkomt.

Een truc om LHR gedeeltelijk te omzeilen is dan om een tijdje Ethereum te minen tot vlak voordat de LHR triggert, dan even wat nutteloze berekeningen te doen of een andere crypto te minen, en dan weer Ethereum te minen. De efficientie van die methode lijkt op 70% te zitten, dus lijkt het erop dat LHR triggert als je meer dan 70% van de tijd de Ethereum-specifieke berekeningen doet. Dat is heel erg hoog en ik kan me moeilijk voorstellen dat je dat ooit in een spel kan triggeren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Furrr
  • Registratie: Mei 2008
  • Laatst online: 24-03 13:15
Ludewig schreef op donderdag 8 september 2022 @ 01:13:
[...]

Om nog iets verder erin te duiken: Het lijkt erop dat LHR langere tijd in de gaten houdt of de Ethereum-specifieke berekeningen heel veel worden gedaan en dan gaat throttelen. Als diezelfde berekeningen tijdens een spel gedaan worden, worden er altijd zoveel andere berekeningen gedaan dat je nooit boven die grens uitkomt.

Een truc om LHR gedeeltelijk te omzeilen is dan om een tijdje Ethereum te minen tot vlak voordat de LHR triggert, dan even wat nutteloze berekeningen te doen of een andere crypto te minen, en dan weer Ethereum te minen. De efficientie van die methode lijkt op 70% te zitten, dus lijkt het erop dat LHR triggert als je meer dan 70% van de tijd de Ethereum-specifieke berekeningen doet. Dat is heel erg hoog en ik kan me moeilijk voorstellen dat je dat ooit in een spel kan triggeren.
👍🏽
Hartelijk dank voor de uitgebreide reply!
Ben er zelf ook nog even ingedoken en je lijkt gelijk te hebben.

Desalniettemin, blijk ik bij mn gevoelsbeleving en metafoor van een snelle motor 😁
Maar daar ging het niet om.

Wederom dank Ludewig! 👍🏽

Acties:
  • 0 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
Ik heb een vraag: ik heb een RTX 3090 en een AOC 2k monitor. Het komt met regelmaat voor dat ik geen beeld heb bij het opstarten van mijn computer. Ik zie het lampje van mijn monitor dan wel wit branden (dus niet oranje), maar dan heb ik geen beeld. De optie is om de monitor even opnieuw aan en uit te zetten en dan werkt het wel.

Wat houdt dit precies in en waar kan dit door komen?

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-05 21:36
turkeyhakan schreef op vrijdag 14 oktober 2022 @ 07:37:
Ik heb een vraag: ik heb een RTX 3090 en een AOC 2k monitor. Het komt met regelmaat voor dat ik geen beeld heb bij het opstarten van mijn computer. Ik zie het lampje van mijn monitor dan wel wit branden (dus niet oranje), maar dan heb ik geen beeld. De optie is om de monitor even opnieuw aan en uit te zetten en dan werkt het wel.

Wat houdt dit precies in en waar kan dit door komen?
Probeer eens een betere hdmi of DisplayPort kabel.
Misschien dat het daar aan ligt?

Acties:
  • +1 Henk 'm!

  • Brad Pitt
  • Registratie: Oktober 2005
  • Laatst online: 03-05 08:38
Furrr schreef op dinsdag 6 september 2022 @ 22:14:
Bezitter van een Asus Strix OC 3080ti en dus LHR.
Nu alles mbt crypto een beetje gaat liggen en proof of stake een ding gaat worden.
Is het dan mogelijk dat we binnenkort een LHR vrije bios kunnen verwachten van de fabrikanten, in dit geval Asus?
Of zijn mijn verwachtingen te hoog gegrepen?
nieuws: Nvidia lijkt hashratebeperking RTX 30-serie opgeheven te hebben

Nickname does not reflect reality


Acties:
  • 0 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
meljor schreef op vrijdag 14 oktober 2022 @ 21:01:
[...]


Probeer eens een betere hdmi of DisplayPort kabel.
Misschien dat het daar aan ligt?
Ik heb al een nogal dure DP kabel. Als het maar niet aan mijn videokaart ligt. Bedankt voor de tip!

Acties:
  • +1 Henk 'm!

  • Playa del C.
  • Registratie: September 2010
  • Laatst online: 14:38
turkeyhakan schreef op vrijdag 14 oktober 2022 @ 07:37:
Ik heb een vraag: ik heb een RTX 3090 en een AOC 2k monitor. Het komt met regelmaat voor dat ik geen beeld heb bij het opstarten van mijn computer. Ik zie het lampje van mijn monitor dan wel wit branden (dus niet oranje), maar dan heb ik geen beeld. De optie is om de monitor even opnieuw aan en uit te zetten en dan werkt het wel.

Wat houdt dit precies in en waar kan dit door komen?
Vervelend. Als het wel altijd werkt na opnieuw het scherm aan te doen, dan lijkt het een software probleem.
Kan iets in de BIOS zijn met slaapstand of iets dergelijks. Ook in Windows kan het een instelling zijn, waardoor de pc niet goed 'ontwaakt', maar dat lijkt mij vergezocht. Of misschien een firmware-probleem van je scherm.

Is verder offtopic hier, voor problemen kun je beter een eigen topic maken.

Acties:
  • 0 Henk 'm!

  • lapino
  • Registratie: Juni 2002
  • Laatst online: 29-04 14:06
Voorbije dagen heel regelmatig dat scherm uitvalt, wordt zwart en dan terug actief. Soms meerdere keren na elkaar. Volgens event viewer probleem met nvlddmkm, dus vermoed videodriver die crasht. Drives nvidia geupdatet, pc herstart maar blijft terugkomen van tijd tot tijd.

Enig idee wat ik nog kan nakijken? Pc heeft tot voor kort zonder enig probleem gewerkt.

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 08:47
Kan iemand mij een beetje advies geven?

Hiervoor had ik een aus 3080 tuf 10g .
Deze kaart is naar een bekende gegaan

Ik heb afgelopen week 2x een 6900xt tuf gehad.
Deze had in bf2024 en call of duty heel veel coilwhine...(in overwatch 2 weer niet) (met de 3080 tuf had ik helemaal geen coilwhine)

Nu wil ik nog steeds een andere videokaart...

Asus 3090 tuf 24gb 1149 euro
Gigabyte 3090TI gaming 1239 euro

Of eventueel een andere 6900xt...of hebben ze allemaal coilwhine?

De 3090ti kost 90 meer dan de 3090...
Is dit het waard?
De 3090ti vebruikt wel meer stroom dan de 4090...hier schrik ik wel van..

Ik heb een 12700k 32gb ddr4, 860 watt platinum
En ik speel op een 34 inch 3440 x 14

Ik kan ook wachten op de 4080, maar ze worden wel 1600 euro? Beetje te ..

Iemand tips?

Ik wil gewoon een beetje future proof zijn en het liefst een kaart die stil en goed koelt...en het liefst zo weinig mogelijk clolwhine.

Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 10:13

Phntm

Tlingelingeling

Aggressor schreef op dinsdag 25 oktober 2022 @ 07:41:
Kan iemand mij een beetje advies geven?

Hiervoor had ik een aus 3080 tuf 10g .
Deze kaart is naar een bekende gegaan

Ik heb afgelopen week 2x een 6900xt tuf gehad.
Deze had in bf2024 en call of duty heel veel coilwhine...(in overwatch 2 weer niet) (met de 3080 tuf had ik helemaal geen coilwhine)

Nu wil ik nog steeds een andere videokaart...

Asus 3090 tuf 24gb 1149 euro
Gigabyte 3090TI gaming 1239 euro

Of eventueel een andere 6900xt...of hebben ze allemaal coilwhine?

De 3090ti kost 90 meer dan de 3090...
Is dit het waard?
De 3090ti vebruikt wel meer stroom dan de 4090...hier schrik ik wel van..

Ik heb een 12700k 32gb ddr4, 860 watt platinum
En ik speel op een 34 inch 3440 x 14

Ik kan ook wachten op de 4080, maar ze worden wel 1600 euro? Beetje te ..

Iemand tips?

Ik wil gewoon een beetje future proof zijn en het liefst een kaart die stil en goed koelt...en het liefst zo weinig mogelijk clolwhine.
Er zal altijd wat beters en snellers uit komen. Als je je het kan permitteren zou ik gewoon voor de 3090Ti gaan. Zal lachend 3440x1440 voor je draaien. Nog beter is uiteindelijk wachten op de 4080 tot het wat zakt in prijs, is wel verder in de toekomst maar in de tussentijd kun je meer opzij leggen in je "GPU allowance" ;) wellicht dat je plots eindigt met een 4090. De 4xxx series ondersteunen wel DLSS3.0 en misschien vind jij dat wel een must have feature

Acties:
  • 0 Henk 'm!

  • kneusteun
  • Registratie: September 2008
  • Laatst online: 03-05 20:20
Aggressor schreef op dinsdag 25 oktober 2022 @ 07:41:
Kan iemand mij een beetje advies geven?

Hiervoor had ik een aus 3080 tuf 10g .
Deze kaart is naar een bekende gegaan

Ik heb afgelopen week 2x een 6900xt tuf gehad.
Deze had in bf2024 en call of duty heel veel coilwhine...(in overwatch 2 weer niet) (met de 3080 tuf had ik helemaal geen coilwhine)

Nu wil ik nog steeds een andere videokaart...

Asus 3090 tuf 24gb 1149 euro
Gigabyte 3090TI gaming 1239 euro

Of eventueel een andere 6900xt...of hebben ze allemaal coilwhine?

De 3090ti kost 90 meer dan de 3090...
Is dit het waard?
De 3090ti vebruikt wel meer stroom dan de 4090...hier schrik ik wel van..

Ik heb een 12700k 32gb ddr4, 860 watt platinum
En ik speel op een 34 inch 3440 x 14

Ik kan ook wachten op de 4080, maar ze worden wel 1600 euro? Beetje te ..

Iemand tips?

Ik wil gewoon een beetje future proof zijn en het liefst een kaart die stil en goed koelt...en het liefst zo weinig mogelijk clolwhine.
Van wat ik begreep hebben veel 6900's wel een vorm van coilwhine.
Maar dit gaat volgens mij in iets mindere mate ook wel op voor nvidia varianten.

Dus de keuze zal niet uitsluiten of je een kaart met coilwhine krijgt.

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 08:47
Phntm schreef op dinsdag 25 oktober 2022 @ 09:00:
[...]


Er zal altijd wat beters en snellers uit komen. Als je je het kan permitteren zou ik gewoon voor de 3090Ti gaan. Zal lachend 3440x1440 voor je draaien. Nog beter is uiteindelijk wachten op de 4080 tot het wat zakt in prijs, is wel verder in de toekomst maar in de tussentijd kun je meer opzij leggen in je "GPU allowance" ;) wellicht dat je plots eindigt met een 4090. De 4xxx series ondersteunen wel DLSS3.0 en misschien vind jij dat wel een must have feature
Ja ik had bijna een 3090 ti besteld..
Maar deze gebruikt wel veel stroom...of valt het opzich wel mee qua energie kosten in vergelijking met een 3090 of 6900 xt?

Acties:
  • +1 Henk 'm!
Aggressor schreef op dinsdag 25 oktober 2022 @ 11:36:
[...]


Ja ik had bijna een 3090 ti besteld..
Maar deze gebruikt wel veel stroom...of valt het opzich wel mee qua energie kosten in vergelijking met een 3090 of 6900 xt?
Afbeeldingslocatie: https://tweakers.net/i/FktIqVCdsZQ3pZ9teSxWjg7AtWg=/x800/filters:strip_exif()/f/image/lxbLbemNUobKRbbUyqVB9van.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 08:47
Ja daar komt de 3090ti toch niet heel goed uit.
Twijfel

Acties:
  • 0 Henk 'm!

  • RichD1011
  • Registratie: December 2017
  • Laatst online: 03-05 23:26
Aggressor schreef op dinsdag 25 oktober 2022 @ 11:36:
[...]


Ja ik had bijna een 3090 ti besteld..
Maar deze gebruikt wel veel stroom...of valt het opzich wel mee qua energie kosten in vergelijking met een 3090 of 6900 xt?
Hoe meer high-end de kaart, hoe hoger het stroomverbruik.. dat is vrij logisch :)
Wat dat betreft kan je beter een 1080p monitor halen met een 1660 super.

Verbuik is ook zwaar afhankelijk van het gebruik.
Sta je een beetje te idle'en of 24/7 4K te gamen.
Zelfs van applicatie tot applicatie / game tot game kan het verbruik erg verschillen.

High-end gaming en minimaal stroom verbruik gaan niet echt samen zegmaar, tuurlijk kan je kijken of je ergens wat op kan besparen maar het verschil tussen een 3090 of 3090 TI zal je geen vliegvakantie per jaar opbrengen.

[ Voor 14% gewijzigd door RichD1011 op 25-10-2022 15:53 ]


Acties:
  • 0 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
turkeyhakan schreef op donderdag 27 oktober 2022 @ 09:35:
[...]


Ik zou zeggen Zotac. Gigabyte was ik niet tevreden over
Toch wel erg nieuwsgierig wat je niet fijn vond aan de Gaming OC 8)7
Die heb ik zelf namelijk en is by far de beste 3090Ti die ik om handen heb gehad.
Zowel qua koeling, geluid, undervolt (0.925mv - 2070MHz - +1000mem), bouwmateriaal.
De SUPRIM kon daar bijvoorbeeld absoluut niet aan tippen.
Waar de SUPRIM op stock ruim 2100rpm nodig was om rond 72C te settelen kan de Gigabyte Gaming OC dit met 1650 RPM rond de 63C. Beide kaarten gemiddeld rond de 2040mhz boost out of the box.

Als enig "minpunt" van de Gaming OC zou ik zeggen: je kunt horen dat de fans echt static pressure based zijn.

[ Voor 8% gewijzigd door Lekiame op 27-10-2022 09:47 ]


Acties:
  • 0 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
Lekiame schreef op donderdag 27 oktober 2022 @ 09:46:
[...]


Toch wel erg nieuwsgierig wat je niet fijn vond aan de Gaming OC 8)7
Die heb ik zelf namelijk en is by far de beste 3090Ti die ik om handen heb gehad.
Zowel qua koeling, geluid, undervolt (0.925mv - 2070MHz - +1000mem), bouwmateriaal.
De SUPRIM kon daar bijvoorbeeld absoluut niet aan tippen.
Waar de SUPRIM op stock ruim 2100rpm nodig was om rond 72C te settelen kan de Gigabyte Gaming OC dit met 1650 RPM rond de 63C. Beide kaarten gemiddeld rond de 2040mhz boost out of the box.

Als enig "minpunt" van de Gaming OC zou ik zeggen: je kunt horen dat de fans echt static pressure based zijn.
Qua koeling zeg je het zelf al: undervolten. Voor iemand die z'n kaart op stock settings laat lopen heb je al gelijk temperatuur issues. Ik heb verschillende Gigabyte kaarten gehad, ook de Aorus versie. Maar door de thermal pads die men daar gebruikt heeft een grotere koeler geen effect.

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
turkeyhakan schreef op donderdag 27 oktober 2022 @ 09:49:
[...]


Qua koeling zeg je het zelf al: undervolten. Voor iemand die z'n kaart op stock settings laat lopen heb je al gelijk temperatuur issues. Ik heb verschillende Gigabyte kaarten gehad, ook de Aorus versie. Maar door de thermal pads die men daar gebruikt heeft een grotere koeler geen effect.
Maar welke temperatuur issues???? Op stock (zonder undervolt) 100% load draait de Gaming OC met 1650 RPM slechts rond de 63C 8)7 en dat is op 450-480Watt

Acties:
  • 0 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
Lekiame schreef op donderdag 27 oktober 2022 @ 09:57:
[...]


Maar welke temperatuur issues???? Op stock (zonder undervolt) 100% load draait de Gaming OC met 1650 RPM slechts rond de 63C 8)7 en dat is op 450-480Watt
Een RTX 1650, daar heb je het al.

Probeer maar eens een RTX 3080 of RTX 3090 van Gigabyte. Je geheugen temperatuur loopt dan al gauw richting de 110 graden bij het gamen. En dan gaat je kaart throttelen.

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
turkeyhakan schreef op donderdag 27 oktober 2022 @ 09:59:
[...]


Een RTX 1650, daar heb je het al.

Probeer maar eens een RTX 3080 of RTX 3090 van Gigabyte. Je geheugen temperatuur loopt dan al gauw richting de 110 graden bij het gamen. En dan gaat je kaart throttelen.
Je leest het verkeerd haha! Ik heb het over de 3090Ti Gaming OC die op 1650RPM draait @ 100% GPU load. Die maxed dan rond de 62-65c O+ terwijl hij 475W verstookt.
Geen thermal throttling dus.

[ Voor 5% gewijzigd door Lekiame op 27-10-2022 10:03 ]


Acties:
  • 0 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
Lekiame schreef op donderdag 27 oktober 2022 @ 10:03:
[...]


Je leest het verkeerd haha! Ik heb het over de 3090Ti Gaming OC die op 1650RPM draait @ 100% GPU load. Die maxed dan rond de 62-65c O+ terwijl hij 475W verstookt.
Geen thermal throttling dus.
Excuses, ik zie het haha. De GPU temperatuur is ook niet het probleem. Heb je wel eens naar de temperatuur van het geheugen (memory in HWmonitor) gekeken?

Ik heb namelijk de volgende Gigabyte kaarten gehad en beide hadden hetzelfde probleem:

- Gigabyte GeForce RTX 3080 VISION OC
- Gigabyte Aorus GeForce RTX 3080 Master

[ Voor 15% gewijzigd door turkeyhakan op 27-10-2022 10:06 ]


Acties:
  • +1 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
turkeyhakan schreef op donderdag 27 oktober 2022 @ 10:04:
[...]


Excuses, ik zie het haha. De GPU temperatuur is ook niet het probleem. Heb je wel eens naar de temperatuur van het geheugen (memory in HWmonitor) gekeken?
Uiteraard! zit rond de 70C op max load...

[ Voor 24% gewijzigd door Lekiame op 27-10-2022 10:07 ]


Acties:
  • +1 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
Lekiame schreef op donderdag 27 oktober 2022 @ 10:05:
[...]


Uiteraard! zit rond de 70C op max load...
Je weet dat de memory chips specifiek op de 3090Ti op een andere plek zitten he ;-)?
Hoe dan? Zelfs mijn FE 3090 zit rond de 100 graden.

Edit: is dat zo?? Dat wist ik niet! Dat verklaart dan een hoop...

[ Voor 27% gewijzigd door turkeyhakan op 27-10-2022 10:07 ]


Acties:
  • +2 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
turkeyhakan schreef op donderdag 27 oktober 2022 @ 10:06:
[...]


Hoe dan? Zelfs mijn FE zit rond de 100 graden.
Je weet dat de memory chips specifiek op de 3090Ti op een andere plek zitten he ;-)?

Acties:
  • +2 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
turkeyhakan schreef op donderdag 27 oktober 2022 @ 10:06:
[...]


Hoe dan? Zelfs mijn FE 3090 zit rond de 100 graden.

Edit: is dat zo?? Dat wist ik niet! Dat verklaart dan een hoop...
Ja de memory chips zitten ergens anders op de kaart waardoor het véél makkelijker te koelen valt.
Best goed gedaan van NVIDIA. Dit zie je ook terugkomen op de 4000 serie kaarten :-)
De 3090Ti Gaming OC heeft ook niet voor niets een Excellent Award gekregen O+

Acties:
  • +1 Henk 'm!

  • turkeyhakan
  • Registratie: Februari 2009
  • Laatst online: 13:45
Lekiame schreef op donderdag 27 oktober 2022 @ 10:10:
[...]


Ja de memory chips zitten ergens anders op de kaart waardoor het véél makkelijker te koelen valt.
Best goed gedaan van NVIDIA. Dit zie je ook terugkomen op de 4000 serie kaarten :-)
De 3090Ti Gaming OC heeft ook niet voor niets een Excellent Award gekregen O+
Goed om te weten. In de toekomst valt Gigabyte zeker aan te raden dus!

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 08:47
Kijk deze review maar en die van twewkers ..gigabyte 3090ti.

https://www.techpowerup.c...-rtx-3090-ti-amp-extreme/

Dan is de gigabyte toch beter..koelt beter en stiller? Of wat denken jullie?

En hoeveel watt voeding hebben jullie? @Lekiame
En de gigabyte 3090ti heeft heel andere cooler dan de 3080 3090 ....

Zit et ook veel verschil in tussen de 3090ti gaming oc en de gewone variant ..
Is 860 watt fractal platinum voeding wel genoeg denken jullie?

[ Voor 29% gewijzigd door Aggressor op 27-10-2022 13:45 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
turkeyhakan schreef op donderdag 27 oktober 2022 @ 10:06:
[...]
Hoe dan? Zelfs mijn FE 3090 zit rond de 100 graden.
Er zit eigenlijk een ontwerp-fout in de 3090, waarbij de geheugenchips aan weerszijden zitten. Daardoor kunnen ze hun hitte niet goed kwijt.

De reden hiervoor was dat ze nog geen GDDR6X geheugen hadden met 2 GB per chip tijdens het maken van de 3090. Er was te weinig ruimte aan 1 kant van de PCB voor alle geheugenchips.

Bij de 3090 Ti was dat geheugen wel beschikbaar, waardoor ze nog maar de helft van de geheugenchips nodig hebben en hebben ze dit probleem opgelost.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
Aggressor schreef op donderdag 27 oktober 2022 @ 10:36:
Kijk deze review maar en die van twewkers ..gigabyte 3090ti.

https://www.techpowerup.c...-rtx-3090-ti-amp-extreme/

Dan is de gigabyte toch beter..koelt beter en stiller? Of wat denken jullie?

En hoeveel watt voeding hebben jullie? @Lekiame
En de gigabyte 3090ti heeft heel andere cooler dan de 3080 3090 ....

Zit et ook veel verschil in tussen de 3090ti gaming oc en de gewone variant ..
Is 860 watt fractal platinum voeding wel genoeg denken jullie?
850W Gold Seasonic, maar draaide voorheen ook prima op een RM750X Gold van Corsair O-)

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 08:47
Lekiame schreef op donderdag 27 oktober 2022 @ 13:49:
[...]


850W Gold Seasonic, maar draaide voorheen ook prima op een RM750X Gold van Corsair O-)
Top. Welke processor?
Jij hebt de 3090TI gaming OC variant?

Gister had ik de 3090TI NON OC variant bij Megekko ... hiervan was de gele seal beschadigd en zat wat los.
Tevens was 1 zo'n aluminum fin een beetje ingedeukt? (niet echt ingedeukt.... maar heel lichtjes anders dan de andere)

Nu hebben ze alleen maar de gewone Gaming OC op vooraad....
Of ik twijfel voor de zotac te gaan ..

[ Voor 4% gewijzigd door Aggressor op 27-10-2022 13:58 ]


Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
Aggressor schreef op donderdag 27 oktober 2022 @ 13:57:
[...]


Top. Welke processor?
Jij hebt de 3090TI gaming OC variant?

Gister had ik de 3090TI NON OC variant bij Megekko ... hiervan was de gele seal beschadigd en zat wat los.
Tevens was 1 zo'n aluminum fin een beetje ingedeukt? (niet echt ingedeukt.... maar heel lichtjes anders dan de andere)

Nu hebben ze alleen maar de gewone Gaming OC op vooraad....
Of ik twijfel voor de zotac te gaan ..
Ik heb de RTX 3090Ti Gigabyte Gaming OC variant. Gebruik een 12900K CPU (niet overgeklokt).
In dat geval zou ik de kaart absoluut terug sturen. Was vast een retourtje dan, want nu niet meer beschikbaar 8)7 Tip voor de volgende keer: kijk even hoeveel kaarten je in je mandje kunt doen. Dan weet je direct als er nog 1 beschikbaar is dat de kans groot is dat het een retourtje betreft.
Ik zou verder zelf altijd de Gaming OC boven een Zotac kiezen. :X

Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 08:47
Lekiame schreef op donderdag 27 oktober 2022 @ 14:01:
[...]


Ik heb de RTX 3090Ti Gigabyte Gaming OC variant. Gebruik een 12900K CPU (niet overgeklokt).
In dat geval zou ik de kaart absoluut terug sturen. Was vast een retourtje dan, want nu niet meer beschikbaar 8)7 Tip voor de volgende keer: kijk even hoeveel kaarten je in je mandje kunt doen. Dan weet je direct als er nog 1 beschikbaar is dat de kans groot is dat het een retourtje betreft.
Ik zou verder zelf altijd de Gaming OC boven een Zotac kiezen. :X
Beiden hebben ook goeie garantie.
Zotac in totaal 5 en Gigabyte 4.

Hoeveel heb jij er voor betaald als ik vragen mag?

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 00:21
Aggressor schreef op donderdag 27 oktober 2022 @ 14:11:
[...]


Beiden hebben ook goeie garantie.
Zotac in totaal 5 en Gigabyte 4.

Hoeveel heb jij er voor betaald als ik vragen mag?
1269
Pagina: 1 ... 53 54 Laatste

Let op:
Dit topic is ervaringen over de nieuwe nVidia RTX 3xxx kaarten uit te wisselen en om de kaarten zelf te bediscussieren. Dit topic is niet bedoeld voor aankoopadvies zoals:

• Is mijn voeding krachtig genoeg voor de nieuwe kaarten?
• Is mijn processor snel genoeg voor de nieuwe kaarten?
en ook niet voor levertijden en prijzen!

Als je er niet uit komt, maak dan een topic aan in Componenten Aankoopadvies.