Ludewig schreef op woensdag 24 augustus 2022 @ 16:43:
[...]
Zowel jij als CMT verwarren herhaalbaarheid en betrouwbaarheid met objectiviteit. De keuze van wat en hoe je test is behoorlijk subjectief. Zo kan het veel uitmaken welke games je test. Elke tester gebruikt een andere set van games om mee te testen en kunnen daardoor andere uitkomsten vinden. Zodra de geteste games en de weging van de games niet overkomt met de games die je zelf speelt en hoe vaak je die speelt, komt de uitkomst van de test niet overeen met wat jouw ervaring gaat zijn.
Daarnaast zijn er ook andere test-methodes mogelijk. Zo kiezen de meeste reviewers ervoor om alle kaarten te testen met een extreme CPU, om de invloed van de CPU zoveel mogelijk uit te sluiten, maar er zijn ook verschillen in hoe GPU's de CPU belasten, wat je op deze manier niet goed test. Sowieso zijn deze tests met name voor de lower/mid end kaarten vaak niet representatief voor de gebruikerservaring, want die worden zelden gecombineerd met een 12900k of 5900X.
En ik volg ook een reviewer die op een hele andere manier test en de instellingen aanpast om een prettige game-ervaring te krijgen op een kaart, ipv alle kaarten met dezelfde instellingen te testen. Deze test-manier komt misschien wel beter overeen met de meeste gebruikservaringen, want mensen verhogen/verlagen vaak de instellingen (en gebruiken features als DLSS of raytracing) totdat ze de FPS hebben die ze acceptabel vinden en beoordelen dan de kwaliteit.
Overigens adviseren de reviewers die ik het hoogst aansla allemaal om ook reviewers van anderen te bekijken.
Herhaalbaarheid = consistentie
Betrouwbaarheid (subjectieve term!) = herhaalbaarheid, meet(on)zekerheid, nauwkeurigheid, tolerantie, etc.
Bovenstaande is alleen mogelijk wanneer er objectief gemeten wordt.
We hebben het in dit geval over wetenschappelijk objectiviteit (oordelen zonder externe invloed) niet over filosofische objectiviteit (het zoeken naar waarheid). Prestaties zijn meetbaar en te correleren met praktijk ervaring.
Je beweert eerst keihard dat geen enkele manier van testen objectief is..wat gewoon niet waar is.
Nu stel je weer de objectiviteit van de reviewer ter discussie, wat filosofische objectiviteit is.
Trouwens, er zijn genoeg reviewers die een waslijst aan games testen. Juist om een eventuele bias uit te sluiten. En het is maar goed dat ze zich beperken tot bepaalde instellingen of profielen. Dat stelt je namelijk instaat om de resultaten te verifiëren met dat van anderen (die uiteraard dezelfde instellingen of profielen gebruiken i.c.m. vergelijkbare hardware). Het wordt anders onbegonnen werk.
Het testen van individuele instellingen om een optimale game ervaring te krijgen is zeker interessant, maar daarmee vergelijk je geen kaarten (en zal zeer waarschijnlijk ook niets aan de rangorde veranderen).
Met een beetje inzicht, kan je a.d.h.v. de vele testen inschatten wat je qua rekenkracht nodig hebt.
Is het nou zo moeilijk om toe te geven dat jouw stelling geen stand houdt? Je kan niet met twee maten geen meten als je de prijs/prestatie verhouding linkt aan de 'mate' van product kwaliteit.
Dan is er gewoon geen sprake van sterk bewijs (want andere factoren spelen mee die deze 'kwaliteit' bepalen).
[...]
Heb ik ook niet beweerd...
Excuses, dat was vooringenomen van mij. Je gooit wel alles op één hoop door iedere keer met de term kwaliteit te komen. Dat mensen niet massaal overstappen naar product A dat beter presteert, kan ook gewoon een kwestie van vertrouwen zijn of veiligheid (geen risico durven nemen, kuddegedrag). Dat noem ik zelf geen kwaliteit.
Je draait de werkelijkheid precies om. Nvidia heeft ondanks hogere prijzen een groter marktaandeel omdat ze aantrekkelijkere producten maken.
Het is wel zo dat mensen liever een populair product willen, maar als dat effect heel sterk was, dan zouden we voor alle productcategorieën alleen maar monopolisten hebben, wat duidelijk niet zo is. Uiteindelijk komt je argument ook neer op een cirkelredenering: Nvidia is populair omdat ze populair zijn. Maar die redenering verklaart niet waarom marktleiders ook regelmatig hun voorsprong verliezen.
Wat draai ik om? Ik impliceer toch dat AMD een minder aantrekkelijk product heeft (of dat terecht is, is een tweede). Ditto Nvidia heeft een meer aantrekkelijke product, dus kan meer vragen.
Je gaat ook niet dezelfde prijs/prestatie verhouding vragen als je een klein marktaandeel hebt.
Nu presenteer je de aantrekkelijkheid als enkel argument waarom Nvidia een groter marktaandeel heeft. Doe dat nou niet a.u.b. Er spelen ook andere factoren zoals: geen risico durven nemen, anti-concurrentie maatregelen en hearsay.
Sinds 2016 is ca. 80% van de GPU markt in handen van Nvidia en dat is ongeveer gelijk gebleven.
Die verhouding kan niet magisch in één keer omgegooid worden, wanneer de concurrent een meer aantrekkelijke product heeft. Deze moet ook de capaciteit hebben om de markt te bedienen en evt. groei kost jaren tijd.
Hoe is dat relevant?
Inzicht geven in marktwerking? Bewijs dat AMD zich niet uit de markt wil prijzen? Indicatie dat de verkoopverhouding tussen beide merken stabiel is (nu er geen sprake meer is van schaarste)?
Ik heb het ook niet over de prijzen van toen, maar over de prijzen van nu, waar de kaarten grotendeels naar gamers lijken te gaan. Gezien de stabiele hashrate van Ethereum, lijkt er (netto) hoogstens sprake van een vervangingsmarkt bij miners.
Had relatie tot je stelling. Niet het nu.
Het is al eeuwen door vrijwel alle landen geaccepteerd dat exclusiviteit een bron van innovatie kan zijn, doordat bedrijven extra inkomsten kunnen vergaren en zo beloond worden voor hun innovatie. Zie bijvoorbeeld patenten. Als de concurrent een uitvinding gewoon kan kopiëren, wat veel makkelijker is dan innovatie, is er in veel gevallen weinig reden om die moeite te doen.
De prijs van exclusiviteit is wel dat de adoptie lager zal zijn, dus een exclusieve feature zal minder snel geadopteerd worden en sneller volledig falen in de markt. Dat geldt nog sterker voor een fabrikant met een laag marktaandeel, want dan is de adoptie sowieso al lager. Dus AMD kan überhaupt niet zo makkelijk een proprietary feature uitbrengen die ook succesvol is.
Het is ook niet voor niets dat Nvidia zowel DLSS als G-sync heeft ontwikkeld, en AMD vervolgens in beide gevallen iets vergelijkbaars moest ontwikkelen. Wanneer AMD iets ontwikkelt, maken ze het meestal direct vrij beschikbaar omdat het anders toch niet succesvol zal worden. En op deze manier voorkomen ze dat Nvidia op dat vlak een exclusieve feature kan uitbrengen, al zorgt dat slechts voor een gelijk speelveld, en heeft AMD dan geen exclusief voordeel.
Bekijk het gewoon eens vanuit de gebruiker, de ene kaart heeft een knop waarmee je in spel X, Y en Z extra FPS kunt krijgen tegen weinig kwaliteitsverlies. De andere kaart heeft die knop niet, dus in spel X, Y en Z heb je minder FPS of veel lagere kwaliteit. Dan heeft de kaart met die knop toch een meerwaarde?
Met jouw opmerking dat propriety nergens goed voor is, lijk je een vergelijking te maken tussen DLSS zoals het nu is, en een open source DLSS die AMD ook zou kunnen gebruiken. Maar de consument heeft die keuze helemaal niet! Die heeft de keuze tussen proprietary DLSS of niks.
Waarom hammer je toch iedere keer weer op DLSS als ik het over proprietary heb?
Eerder heb ik gezegd dat proprietary kan leiden tot een monopolie, doordat het de keuzevrijheid kan inperken. Dan zijn alle consumenten de sjaak (stagnatie, hoge prijzen).
Ik heb zojuist ook genoemd dat Nvidia ca. 80% van de markt in handen heeft. Dus reken maar uit.
Er bestaat ook zoiets als principiële consumenten, die hun keuze/steun laten afhangen van hoe een bedrijf is / zich gedraagt.
Overigens staat Raytracing hoog op mijn verlanglijstje voor de komende generatie, dus mocht blijken dat Nvidia flink beter is op dat punt, dan overweeg ik ook Nvidia.
Het is overduidelijk dat je de producten niet an sich beoordeelt, want dat zou je de waarheid accepteren dat een extra feature met bepaalde voordelen beter is dan het ontbreken van die feature. Je blijft steeds kritiek hebben op de keuze van Nvidia om DLSS proprietary te maken, wat neerkomt op kritiek op de keuzes van het bedrijf, ipv kritiek op de kwaliteit van het product.
Het is overduidelijk dat je mij niet kent en dat je totaal niet inziet dat voor sommigen proprietary een nadeel is. Ik heb dat toch ook als nadeel van Nvidia genoemd in de 1e post? Dus waarom moet dat volgens jouw kritiek op de kwaliteit van het product worden.
Ik heb verder ook niet ontkent dat het hebben van een extra feature beter is dan het ontbreken daarvan.
Bagatelliseer ik of is het daadwerkelijk een vrij klein pluspunt? Ik heb letterlijk nog nooit iemand zien beweren dat ze een AMD kaart gekocht hebben puur vanwege de betere software en tot jou ook nooit dat het hun koopbeslissing beïnvloed. Wel dat ze de software iets prettiger vinden, maar er is een verschil tussen een prettige meevaller of iets dat daadwerkelijk de koopbereidheid significant beïnvloed. Ik heb daarentegen wel veel mensen zien beweren dat ze Nvidia kopen vanwege de betere drivers.
Ik denk dus zelf dat (bijvoorbeeld) een verschil in driver-kwaliteit een veel grotere invloed op de koopbeslissing heeft dan de overige software.
Overigens schijnt Adrenaline een probleem te hebben waarbij de instellingen bij sommige mensen vaak gereset worden. Ik heb zelfs gezien dat mensen daarom Adrenaline verwijderen en Afterburner gebruiken.
Je bent ook wel een meester in het verdraaien.
Nu moet de software enkel en alleen het argument zijn geweest voor een videokaartkeuze om een pluspunt genoemd te mogen worden? Het is een pluspunt. Basta.
Stel je vraag anders in het Radeon ervaringen topic, zodra de nieuwe kaarten gelanceerd zijn.
Wat betreft de stabiliteit van de drivers, dat snap ik heel goed.
Het was voor mij ook een heikelpunt, maar ik heb een vertrouwenssprong genomen en gelukkig bleek alle vrees onterecht. Voor mij werken de drivers net zo stabiel als Nvidia.
De voornaamste reden dat Andrenaline zich reset is dat er ergens in het systeem sprake is van onstabiliteit. Vaak merk je dat niet eens (kleine haper bijvoorbeeld). Dan gaat de driver automatisch terug naar standaard instellingen.
In de meeste gevallen komt dat simpelweg vanwege een onstabiele overclock of undervolt.
Ook door een onstabiele CPU, RAM of verkeerde / abrupte OS afsluiting kan dat getriggerd worden.
Het wil dus niet perse zeggen dat de drivers onstabiel zijn.
Ik heb dat zelf ondervonden, omdat ik met de curve optimizer de CPU helemaal had afgesteld en dacht dat deze stabiel was. Daarvoor heb ik corecycler gebruikt en een veelvoud van verschillende stresstests (single, core, multi core, AVX, SSE, diverse stressprogramma's noem maar op).
Bij elkaar tientallen uren getest voor zowel frequentie stabiliteit als voltage stabiliteit.
Nou mooi niet dus, eens in de zoveel tijd WHEA met een driver reset tot gevolg.
Ook de undervolt van de videokaart bleek toch niet stabiel te zijn.
Sinds ik beide terug op stock heb gezet, is het niet meer voorgekomen.
Het scherm op de Quest 2 kan 120 Hz aan. Een hogere FPS maakt ook een groter verschil in VR, zo wordt je bij een hogere FPS minder snel 'wagenziekte.'
Wat heeft dit te maken met de bandbreedte v.s. kwaliteit argument?
Ik gaf daarmee aan dat er voor VR in ieder geval gebruik wordt gemaakt van 60mbits bitrate of hoger.
Kwaliteitsverschillen tussen beide encoders is vanaf dat punt of hoger nihil.
Het probleem met de AMD encoder kan wellicht ook komen doordat de latencies toenemen bij hogere bitrates. En latency is nogal belangrijk bij VR voor een prettige ervaring, zeker bij simmen e.d.
Dus dan hebben mensen de keuze tussen hoge latencies of artifacts.
Zie bijvoorbeeld:
https://forums.guru3d.com...r-vr.443275/#post-6029206
Commenter Clai is duidelijk behoorlijk technisch onderlegd en probeert een flink aantal instellingen, maar kan het niet acceptabel krijgen. Sowieso staan de VR forums vol met mensen die een slechte ervaring hebben met AMD kaarten, wat ze niet goed krijgen, maar waar een switch naar een Nvidia kaart het in 1 keer oplost
Ik heb de link bekeken en Clai vergelijkt de latency tussen twee bitrates: 90mbits en 500mbits.
Als op 60mbits er al nauwelijks verschil is, dan is dat met 90mbits nog minder.
Ik weet verder niet hoe stabiel de stream/link is, dus daar kan je gelijk in hebben.
Dus vergeef me als ik jouw bewering dat het in theorie goed zou moeten werken niet zo vertrouw, maar wel de vele verhalen van mensen die tegen problemen aanlopen. Ik heb weliswaar nergens hard bewijs gezien wat nu echt het probleem is met de AMD encoder, maar het grote aantal klachten geven wel aan dat er iets goed mis is.
Nou, je mag het gewoon zeggen hoor

. Ik neem daar geen aanstoot aan.
Maar wat je verder verteld, illustreert precies waar ik tegenaan vecht.
Iets wordt niet eens een kans gegeven vanwege verhalen van anderen.
AMD heeft recent een update uitgebracht van de encoder waarbij ze de achterstand op Nvidia voor de helft hebben ingelopen:
https://codecalamity.com/amd-re-introduces-the-b-frame/
Dus mijn verwachting is dat we minimaal die verbetering gaan zien en hopelijk meer. Het schijnt dat ze sowieso ook AV1-support gaan introduceren. De AV1 encoder van de Intel-kaarten werd extreem goed beoordeeld door een expert en werkt veel beter dan de h.264 encoder, met dezelfde kwaliteit op de helft van de bandbreedte. Voor de huidige VR headsets is dat niet relevant omdat die AV1 niet ondersteunen, maar YouTube ondersteunt het al en Twitch lijkt van plan om het te gaan ondersteunen en dan richting 2024/25 volledig over te stappen op AV1 (wanneer vrijwel iedereen een telefoon heeft met een AV1 hardware decoder).
Dus als AMD een beetje nette encoder maakt voor AV1, kan het voor streamers weer een interessante keuze worden. Al gaat het gerucht dat Nvidia ook een AV1 encoder gaat toevoegen en Nvidia is nogal goed in het maken van encoders, dus ik ben benieuwd wat de reviewers gaan melden.
Dat is interessant, bedankt!
Ik brei wat betreft de uitgebreide discussie voor mijzelf hier ook een eind aan.
Meer discussiëren leidt toch tot niets dan ergernis.
Mocht je van mij aanstoot gekregen hebben, dan neem het mij niet kwalijk.