Of misschien dat een laptop met i3/i5 met een GTX1050/60 minder dan de helft kost en dat dit meer een chip is voor dunne/lichte/kleine high-end producten als Apple etc.Gekke Jantje schreef op zondag 7 januari 2018 @ 15:29:
[...]
Ik ben het er mee eens dat er een kans is dat Nvidia misschien niet meer heeft in te brengen voor in de oem en laptop markt tot en met mid end maar Nvidia zit ook niet stil en kan ook weer snellere mobiele GPU's gaan maken in de toekomst. Dat Nvidia word buitengesloten is wel een voorbarige conclusie.
Verwijderd
Er wordt inderdaad gespeculeerd dat Apple de opdrachtgever is die Intel en AMD bij elkaar hebben gebracht, Koduri (hij werkte voor Apple) die naar Intel verhuisde zou hier ook een aanwijzing voor kunnen zijn. Ik denk echter dat jij je verkijkt op de prijs. Het is goedkoper om die graphics te integreren dan om met een aparte CPU en een aparte GPU te werken. Ja, de CPU zal duurder kosten dan een vergelijkbare i5 maar zolang het niet meer extra kost dan de prijs van de discrete grafische kaart die dezelfde performance levert...Nature schreef op zondag 7 januari 2018 @ 16:49:
[...]
Of misschien dat een laptop met i3/i5 met een GTX1050/60 minder dan de helft kost en dat dit meer een chip is voor dunne/lichte/kleine high-end producten als Apple etc.
Op de lange termijn voorzie ik sowieso problemen voor Nvidia in de laptopmarkt. Niets houdt AMD en Intel tegen om samen te blijven werken, de beide bedrijven hebben hier baat bij aangezien Intel die graphics niet goed aankan en AMD de extra omzet kan gebruiken, hierbij gaat het voor AMD niet enkel om de winst, bij een grotere omzet kan je sowieso de vaste lasten verdelen over een groter aantal stuk of meer geld in de R&D-pot stoppen. Zolang de OEM's liever een Intel-CPU in de laptop stoppen of de klanten liever een laptop met een Intel-CPU kopen maakt het weinig verschil voor hun keuze of dat die graphics al dan niet zwakker zijn, Nvidia biedt toch wel een simpel grafisch kaartje met een laag vermogen aan. Tegelijkertijd kan AMD hun eigen APU's verkopen, met alles wat we weten over de GF 7 nm. node ziet het er erg goed uit voor de kans van AMD om met hun CPU voor het eerst sinds mid jaren '0 weer competitief te zijn qua single core performance, iets wat OEM's erg belangrijk vinden aangezien dat voor de meeste gebruikers bepaalt hoe zij de performance van hun computer ervaren (browser, Office, compressie, extraction...).
https://fuse.wikichip.org...7nm-process-cobalt-euv/2/
Nvidia kan het best hebben maar het maakt AMD t.o.v. Nvidia competitiever.
De vraag is natuurlijk of dat AMD en Intel ook deze CPU's gaan verkopen aan andere klanten dan Apple maar er liggen zeker interessante mogelijkheden voor AMD. Zoals AMD zelf terecht aangeeft, wij zijn het enige bedrijf in de desktopmarkt die CPU's en GPU's ontwikkelen. Nvidia kan geen CPU's ontwikkelen (in ieder geval niet totdat ze een X86-licentie krijgen en dan gaat het nog wel even duren voordat ze op hetzelfde niveau als Intel en AMD zitten), Intel kan geen fatsoenlijke graphics ontwikkelen en heeft hierbij vooral een probleem aan de softwarekant.
[ Voor 14% gewijzigd door Verwijderd op 07-01-2018 18:20 ]
Alleen al het HBM geheugen is relatief duur, maar we zullen het gaan zien alleen zou het me niet verbazen als een acerbak o.i.d met i7 en GTX1070 even duur of goedkoper zal zijn dan devices met genoemde Intel-AMD oplossing, want kleine en krachtige compacte oplossingen zijn meestal erg duur.Verwijderd schreef op zondag 7 januari 2018 @ 18:15:
[...]
Er wordt inderdaad gespeculeerd dat Apple de opdrachtgever is die Intel en AMD bij elkaar hebben gebracht, Koduri (hij werkte voor Apple) die naar Intel verhuisde zou hier ook een aanwijzing voor kunnen zijn. Ik denk echter dat jij je verkijkt op de prijs. Het is goedkoper om die graphics te integreren dan om met een aparte CPU en een aparte GPU te werken. Ja, de CPU zal duurder kosten dan een vergelijkbare i5 maar zolang het niet meer extra kost dan de prijs van de discrete grafische kaart die dezelfde performance levert...
Dat is al bekend, dit kwartaal komt Dell, HP en Intel (NUC) met producten op basis van deze CPU/GPU. Dus voorlopig nog geen Apple, maar die zal ongetwijfeld ook deze producten afnemen aangezien ze nu ook al Radeon GPUs gebruiken.Verwijderd schreef op zondag 7 januari 2018 @ 18:15:
[...]
De vraag is natuurlijk of dat AMD en Intel ook deze CPU's gaan verkopen aan andere klanten dan Apple maar er liggen zeker interessante mogelijkheden voor AMD.
Verwijderd
Dat gaat dan lekker, als Dell en HP het al hebben aangekondigd dan moet het gek lopen als andere grote OEM's het niet eveneens gaan gebruiken. Met de trend naar kleinere, lichtere en dunnere laptops zie ik goede mogelijkheden voor AMD in deze markt.FortyOne schreef op zondag 7 januari 2018 @ 20:16:
[...]
Dat is al bekend, dit kwartaal komt Dell, HP en Intel (NUC) met producten op basis van deze CPU/GPU. Dus voorlopig nog geen Apple, maar die zal ongetwijfeld ook deze producten afnemen aangezien ze nu ook al Radeon GPUs gebruiken.
Dat valt mee, er werd berekend dat 8 GB HBM2 enkele tientjes extra zou kosten in vergelijking met 8 GB GDDR5 en dat was met de prijzen zoals ze toen waren, inmiddels gaat het beter met de productie van HBM2. Niet echt een probleem op de kosten van deze CPU, zeker niet voor deze formfactor waarvoor mensen toch al bereid zijn om meer te betalen.Nature schreef op zondag 7 januari 2018 @ 20:07:
[...]
Alleen al het HBM geheugen is relatief duur, maar we zullen het gaan zien alleen zou het me niet verbazen als een acerbak o.i.d met i7 en GTX1070 even duur of goedkoper zal zijn dan devices met genoemde Intel-AMD oplossing, want kleine en krachtige compacte oplossingen zijn meestal erg duur.
Bovendien duurt het niet lang meer (2019-2020) voordat HBM3 op de markt komt, dit zal ongeveer dezelfde performance leveren voor een fors lagere prijs in vergelijking met HBM2 en veel meer geheugen (64 GB als ik me niet vergis) per package wat het eveneens goedkoper maakt.
Ik denk overigens niet dat het voor Nvidia echt een probleem is als ze hun grip op de laptopmarkt verliezen, ze hebben genoeg andere inkomsten.
[ Voor 49% gewijzigd door Verwijderd op 07-01-2018 21:05 ]
Als ik het me goed herinner waren er laatst berichten dat 8GB HBM2 $75 duurder is aan inkoopsprijs dan 8GB GDDRX5 wat erg problematisch zou zijn voor de winstmarge van Vega t.o.v Nvidia die sowieso al een kleinere chip heeft wat de kosten drukt.Verwijderd schreef op zondag 7 januari 2018 @ 20:58:
[...]
Dat gaat dan lekker, als Dell en HP het al hebben aangekondigd dan moet het gek lopen als andere grote OEM's het niet eveneens gaan gebruiken. Met de trend naar kleinere, lichtere en dunnere laptops zie ik goede mogelijkheden voor AMD in deze markt.
[...]
Dat valt mee, er werd berekend dat 8 GB HBM2 enkele tientjes extra zou kosten in vergelijking met 8 GB GDDR5 en dat was met de prijzen zoals ze toen waren, inmiddels gaat het beter met de productie van HBM2. Niet echt een probleem op de kosten van deze CPU, zeker niet voor deze formfactor waarvoor mensen toch al bereid zijn om meer te betalen.
Bovendien duurt het niet lang meer (2019-2020) voordat HBM3 op de markt komt, dit zal ongeveer dezelfde performance leveren voor een fors lagere prijs in vergelijking met HBM2 en veel meer geheugen (64 GB als ik me niet vergis) per package wat het eveneens goedkoper maakt.
Ik denk overigens niet dat het voor Nvidia echt een probleem is als ze hun grip op de laptopmarkt verliezen, ze hebben genoeg andere inkomsten.
Nvidia vindt wel een weg, we dachten dat Nvidia uit de console markt was maar ze maken nu ineens chips voor zo'n beetje de best verkopende console ooit.
Early adopters zullen veel betalen voor de Intel-AMD oplossing maar later zoals je zegt als HBM goedkoper wordt over een paar jaar dan zal het meer verspreiden maar als je geen kleine laptop nodig hebt zou het me niet verbazen als de gangbare methode voorlopig goedkoper zal zijn.
Best verkopende console ooit? Best verkopende Nintendo console sinds lange tijd, maar zeker niet de best verkopende ooit. Niet eens de best verkopende huidige generatie console.Nature schreef op zondag 7 januari 2018 @ 21:28:
Nvidia vindt wel een weg, we dachten dat Nvidia uit de console markt was maar ze maken nu ineens chips voor zo'n beetje de best verkopende console ooit.
De teller voor de Switch staat op "over 10 million". Voor de Xbox weten we het nooit zeker omdat MS er stil over is (vreemd hoor

En dan is er Sony. De teller stond daar al op 18-19 miljoen een jaar (!) na release. Vorige maand kregen we te horen dat de teller op "over 70 million" staat. Dat is waarschijnlijk wel inclusief de PS4 Pro. Dan nog is dat een gemiddelde van 17,5 miljoen PS4 units per jaar.
Nintendo gaat lekker, maar niet zo lekker. Holiday season is achter de rug, ik betwijfel of Nintendo in de komende 3 maanden nog eens 8-9 miljoen stuks verkoopt om Sony's cijfers bij te benen
Wat omzet en winst uit de betrokken producten betreft moet je niet overschatten wat Nvidia uit die deal haalt. AMD heeft nagenoeg geen R&D in hun semi-custom SoCs hoeven stoppen. De CPU en GPU kant zijn allebei vooraf ontwikkeld voor andere markten en zijn nauwelijks gewijzigd voor de consoles, dus de betrokken kosten zijn verspreid over zeer veel producten (en evenveel markten). Tegra X1 daarentegen is voor de helft een volledig los staand product. Daarnaast zit er dan wel "Maxwell" in, het is geen Maxwell zoals we die op de desktop kennen. Er zitten wat nieuwe truukjes in, dus daar is toch wat R&D in gaan zitten.
Belangrijker is echter de afzet markt. Tegra zie je nagenoeg nergens meer. Nvidia's eigen Shield, Drive en de Switch zijn de enige producten waar je nog Tegra in vindt. En ja, Nvidia's automotive tak draait lekker, maar daar zit ook vooral veel software in. Qua hardware verkopen is dat nog geen vetpot, aangezien er eigenlijk pas vanaf dit jaar echt Tegra in auto's is te vinden. De uitzondering daarop is Tesla (
Edit: best verkopende (non-handheld) consoles zijn overigens nog steeds de PS2 en PS. Daarna de Wii (~100m), dan de Xbox 360 en PS3 (ongeveer gelijk tussen de ~80m en ~85m) en dan volgt de PS4 al. Om maar even in perspectief te zetten hoe idioot goed de PS4 heeft verkocht op slechts 4 jaar tijd. De PS2 gaan ze denk ik niet meer evenaren, althans niet voordat ze met een PS5 komen.
[ Voor 7% gewijzigd door Werelds op 07-01-2018 22:43 ]
Hoe je het moet zien is dat de Switch meer is verkocht in het eerste jaar dan de PS2 die daarvoor het record had .Werelds schreef op zondag 7 januari 2018 @ 22:36:
[...]
Best verkopende console ooit? Best verkopende Nintendo console sinds lange tijd, maar zeker niet de best verkopende ooit. Niet eens de best verkopende huidige generatie console.
Nintendo Switch has had a huge December over in Japan, with nearly 900,000 systems sold by Dec. 24. Based on the most recent cumulative sales data from Famitsu, the country’s biggest gaming publication, Nintendo has now sold just under 3.3 million Switch consoles in its homeland — both edging out PlayStation 2’s first-year sales numbers and matching Wii U’s lifetime sales to date.
https://www.polygon.com/2...n-fastest-selling-console
Best verkopend is ook een momentopname, op dit moment verkoopt de Switch beter dan PS4 en Xbone, alleen levert AMD natuurlijk aan beide dus in absolute aantallen zal AMD wel meer chips leveren denk ik.
In 10 maanden? De Switch gaat behoorlijk hard in vergelijking tot andere consoles. De 10 miljoen die we al weten was na ~8 maanden, zónder de decembermaanden. Pas na 1 jaar kan je hier een sluitend antwoord op geven, maar persoonlijk zou ik echt niet zo hard tegenin gaan.Werelds schreef op zondag 7 januari 2018 @ 22:36:
Best verkopende console ooit?
De Wii en DS verkochten zeer goed. De 3DS verkocht ook prima. De Switch lijkt wel beter te lopen dan die andere twee.Best verkopende Nintendo console sinds lange tijd
Je kan onmogelijk de 70 miljoen PS4's waar Sony >4 jaar voor heeft gehad, vergelijken met de 10 miljoen van Nintendo waar ze nog geen jaar voor hebben gehad.Niet eens de best verkopende huidige generatie console.
Nvidia ook niet. Het is zo-goed-als een Tegra X1 zonder bijzondere modificaties. Die R&D is eigenlijk allang afgeschreven op andere Tegra-producten. Dat zijn er inderdaad niet veel, maar dat hoeft ook niet per se toch?Wat omzet en winst uit de betrokken producten betreft moet je niet overschatten wat Nvidia uit die deal haalt. AMD heeft nagenoeg geen R&D in hun semi-custom SoCs hoeven stoppen.
Wel zijn er tijdenlang geruchten geweest dat Nvidia zijn chips zeer goedkoop verkoopt om ook marktaandeel te verkrijgen in de consolemarkt.
Dat is inderdaad onmogelijk. De PS2 was eveneens een zeer goedkope DVD speler, wat je terug ziet in de softwareverkopen. Er waren erg veel non-gamers die wel een PS2 hebben gehad (evt met Eyetoy en Singstar). Die markt kan je met een console niet meer aantrekken; die is naar Android/iOS vertrokken.De PS2 gaan ze denk ik niet meer evenaren, althans niet voordat ze met een PS5 komen.
☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW
Verwijderd
Wat jij over het hoofd ziet is dat dit slechts voor een deel de kosten van het geheugen bepaalt, de memorycontroller en de PCB kosten juist minder bij HBM doordat het geheugen zo kort op de GPU zit. Streep dat tegen elkaar weg en je komt uit op een verschil van €35-40 (uit mijn hoofd) met de kostprijs van HBM2 toen Vega net werd verkocht. Inmiddels is de productie aanzienlijk toegenomen en is er meer dan 1 bedrijf wat die HBM2 levert, de extra kosten zijn dus gedaald, t.o.v. de prijs van GDDR5 althans. Ook niet onbelangrijk, GDDR5 is ondertussen duurder geworden, zoveel duurder dat de grafische kaarten enkel daardoor binnenkort (als het niet al is) $10-20 duurder worden, het gaat dan dus puur om de prijs die de AIB-partners en AIC-partners rekenen aan de distributeurs en winkels (winkels die groot genoeg zijn kunnen direct bij hen de kaarten kopen en de distributeurs omzeilen).Nature schreef op zondag 7 januari 2018 @ 21:28:
[...]
Als ik het me goed herinner waren er laatst berichten dat 8GB HBM2 $75 duurder is aan inkoopsprijs dan 8GB GDDRX5
HBM3 wordt dan nog eens fors minder duur dan HBM2 terwijl de performance nauwelijks daalt. Het valt heel erg mee, zeker in vergelijking met de totale kostprijs van een APU of CPU + discrete grafische kaart. Het zal m.i. zeker geen beslissende factor zijn, zeker niet bij de small form factor!
Het kan best dat early adopters veel gaan betalen maar dat heeft dan andere oorzaken dan de HBM (hogere winstmarges, kosten om de GPU en de CPU op elkaar te integreren...).
Ik overwoog bij mijn vorige reactie om het aan te snijden aangezien de Switch erg goed verkoopt, ik deed het niet omdat die ene console nu toch ook weer niet zo belangrijk is. Nu dan alsnog. Nvidia mag ervan genieten zolang het duurt, de kans is groot dat Nvidia voor de volgende iteratie omwille van het vermogen liever een Zen-CPU gebruikt aangezien dat vermogen dan weer competitief gaat zijn, voor de Switch kwam Zen te laat en moest Nvidia wel uitwijken naar een andere partner omdat Bulldozer duidelijk geen optie is voor een portable console. Neemt Nintendo weer de CPU van Nintendo dan komen er ook al snel de graphics van AMD bij aangezien het voordelen heeft om die graphics geïntegreerd te laten zijn (lager vermogen). Vega heeft best een laag vermogen zolang je het niet belachelijk hoog klokt zoals AMD deed voor de Vega64 en Vega56. Ik heb geen glazen bol maar ik durf wel te voorspellen dat de kans redelijk groot is (minstens 50/50) dat Nintendo de volgende keer weer voor AMD kiest. Vanzelfsprekend is een belangrijke factor welk bedrijf de laagste prijs rekent, we zullen moeten afwachten hoe graag Nvidia dat verkoopt aan Nintendo wanneer de winstmarge lager is.Nvidia vindt wel een weg, we dachten dat Nvidia uit de console markt was maar ze maken nu ineens chips voor zo'n beetje de best verkopende console ooit.
@Verwijderd wil je je antwoord onder de 2de quote eens nalezen, volgens mij staan er een aantal dingen in die niet kloppen.

[ Voor 4% gewijzigd door Damic op 11-01-2018 19:50 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Selectief quoten FTW.Werelds schreef op zondag 7 januari 2018 @ 22:36:
Belangrijker is echter de afzet markt. Tegra zie je nagenoeg nergens meer. Nvidia's eigen Shield, Drive en de Switch zijn de enige producten waar je nog Tegra in vindt. En ja, Nvidia's automotive tak draait lekker, maar daar zit ook vooral veel software in. Qua hardware verkopen is dat nog geen vetpot, aangezien er eigenlijk pas vanaf dit jaar echt Tegra in auto's is te vinden. De uitzondering daarop is Tesla (), daar zit al langer Tegra in. Overige merken hebben pas in hun 2016-2017 modellen/facelifts de nieuwe hardware geïntroduceerd. Dat is waar Nvidia hun R&D terug moet verdienen en wat ze uit hun software halen (qua omzet en winst) wordt vaak onderschat. Het is in elk geval een heel ander verhaal dan AMD, die de R&D kosten voor het grootste deel min of meer over al hun afzetmarkten spreiden.
Tesla stapt over naar een door AMD ontworpen SoC die ze dan waarschijnlijk zelf kunnen laten bakken. Nvidia snijden ze er bij Tesla ook uit.
Maar AMD gaat het toch anders doen met de grafische kaarten dan ik verwachte. Ik verwachte Navi in de late zomer/herfst zou komen, maar het lijkt toch 2019 te zijn. Wel is 12nm Vega dood, zoals ik al vermoede. Vega 20 op 7nm lijkt er wel te komen als HPC kaart, terwijl Vega 10 voorlopig het beste voor gamers blijft. Gaat dus een pijnlijk jaar worden voor gamers die een Radeon willen. AMD zet meer in op mobiele chips voor hun "the future is fusion 2.0", deze keer met een fatsoenlijke CPU.
[ Voor 18% gewijzigd door DaniëlWW2 op 08-01-2018 10:07 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Even goed lezen, dat geldt alleen voor Japan. Wereldwijd is het een ander verhaal, dat is waar mijn cijfers over gaanNature schreef op zondag 7 januari 2018 @ 22:52:
Hoe je het moet zien is dat de Switch meer is verkocht in het eerste jaar dan de PS2 die daarvoor het record had .
Nintendo Switch has had a huge December over in Japan, with nearly 900,000 systems sold by Dec. 24. Based on the most recent cumulative sales data from Famitsu, the country’s biggest gaming publication, Nintendo has now sold just under 3.3 million Switch consoles in its homeland — both edging out PlayStation 2’s first-year sales numbers and matching Wii U’s lifetime sales to date.
https://www.polygon.com/2...n-fastest-selling-console
Best verkopend is ook een momentopname, op dit moment verkoopt de Switch beter dan PS4 en Xbone, alleen levert AMD natuurlijk aan beide dus in absolute aantallen zal AMD wel meer chips leveren denk ik.
Wereldwijd verkoopt Sony nog steeds meer stuks, ook in hun eerste jaar.
https://www.nintendo.com/...ells-10-million-worldwideRichh schreef op maandag 8 januari 2018 @ 00:19:
In 10 maanden? De Switch gaat behoorlijk hard in vergelijking tot andere consoles. De 10 miljoen die we al weten was na ~8 maanden, zónder de decembermaanden. Pas na 1 jaar kan je hier een sluitend antwoord op geven, maar persoonlijk zou ik echt niet zo hard tegenin gaan.
Die 10 miljoen waren op 2017-12-12, na 10 maanden. Vlak voor kerst, maar zo kort voor de kerst worden er geen miljoenen meer verkocht.
De Wii verkocht best goed inderdaad, maar de N64 en GameCube verkochten een stuk minder (onterecht bij de N64 naar mijn meningDe Wii en DS verkochten zeer goed. De 3DS verkocht ook prima. De Switch lijkt wel beter te lopen dan die andere twee.
Wat wel mooi aan de Wii verkoopcijfers is, is dat er letterlijk tot het einde groei in zat. Volgens mij werden er elk kwartaal iets meer verkocht dan daarvoor.
Lees mijn post eens helemaalJe kan onmogelijk de 70 miljoen PS4's waar Sony >4 jaar voor heeft gehad, vergelijken met de 10 miljoen van Nintendo waar ze nog geen jaar voor hebben gehad.
Nogmaals: eerste jaar voor PS4 betrof 18-19 miljoen verkochte stuks.
Nogmaals, even verder lezen. Het is dan wel een "standaard" X1, X1 zelf is niet standaard. Dat is waar Nvidia meer R&D in heeft moeten stoppen dan AMD in hun semi-custom SoCs.Nvidia ook niet. Het is zo-goed-als een Tegra X1 zonder bijzondere modificaties. Die R&D is eigenlijk allang afgeschreven op andere Tegra-producten. Dat zijn er inderdaad niet veel, maar dat hoeft ook niet per se toch?
Wel zijn er tijdenlang geruchten geweest dat Nvidia zijn chips zeer goedkoop verkoopt om ook marktaandeel te verkrijgen in de consolemarkt.
Verwijderd
5 modellen van Intel met Radeon, allemaal gericht op dunne laptops. Nu ook de populaire Dell XPS. Ik denk dat we rustig mogen verwachten dat meer OEM's ze gaan gebruiken dan dat nu is aangekondigd.Yep, Nvidia heeft een probleempje, ik durf te voorspellen dat Intel en AMD er de volgende generatie een schep bovenop doen en het niet meer enkel op de dunne laptops is gericht, los daarvan worden dunne laptops steeds populairder.
[ Voor 15% gewijzigd door Verwijderd op 10-01-2018 23:38 ]
Meer AMD betekent ook meer aandacht van de devs dus meer optimalisaties
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Maar AMD lijkt weer minder te gaan focussen op desktop, dus dat meer word uiteindelijk ook weer recht getrokken door minder misschien? Men vergeet hier ok even al die modellen waar Nvidia nog in komt en in zit als het gaat om laptops, dan hebben we het niet tover 5 modellen, dus hoe komt men er nu al bij dat Nvidia de markt word uitgedrukt. Ik zeg eerst maar eens zien en dan geloven, ook wat AMD desktop GPU's aan gaat.winwiz schreef op donderdag 11 januari 2018 @ 05:46:
Meer AMD betekent ook meer aandacht van de devs dus meer optimalisaties
Edit
Voor AMD word er al volledig geoptimaliseerd lijkt me gezien de meeste game regelrechte console ports zijn wat al een aantal jaren zo is. Het optimaliseren verhaal van AMD hoor ik eigenlijk al vanaf de hd 7000 series en ik zie niet echt grote veranderingen behalve op DX12 en Vulcan gebied maar die games waar AMD zo veel voordeel heeft heb ik nog niet echt gezien, ik verwacht dan vanwege de rouwe rekenkracht dat bijvoorbeeld de RX 56 over de GTX 1080 Ti heen walst.
[ Voor 60% gewijzigd door Gekke Jantje op 11-01-2018 09:53 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Spellen zullen toch verkocht blijven worden en als AMD meer aandeel heeft zal er toch meer geoptimaliseerd gaan worden
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Al die jaren aan AMD-only consoles was nog niet genoeg om ervoor te optimaliseren...winwiz schreef op donderdag 11 januari 2018 @ 09:35:
Spellen zullen toch verkocht blijven worden en als AMD meer aandeel heeft zal er toch meer geoptimaliseerd gaan worden
En in consoles zitten ook Vega's? Ik denk dat als ze het onderste uit de kan willen halen ze voor Vega toch wel meer kunnen doen.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Ik zou niet te snel die conclusie trekken. Ze proberen ook meer te verkopen in andere markten, uiteraard.Gekke Jantje schreef op donderdag 11 januari 2018 @ 09:26:
[...]
Maar AMD lijkt weer minder te gaan focussen op desktop
Voor de desktop graphics is het wachten op het voldoende betaalbaar worden van de GF 7 nm. node. Ondertussen wennen komen meer mensen erachter dat AMD-GPU's best wel goed zijn doordat ze nu veel meer in laptops worden gebruikt.
Wat betreft Nvidia, Nvidia kan geen APU's maken en het is onwaarschijnlijk dat Intel met Nvidia wil samenwerken na wat Nvidi Intel heeft geflikt.
Niet dat Intel het niet verdient gezien wat Intel vele andere bedrijven flikte maar dat is een ander verhaal.
Nvidia kan met nog zulke leuke grafische kaartjes komen, een APU levert voordelen op voor zowel het vermogen als de prijs.
Dan heb jij de afgelopen 2 jaar flink geslapen.maar die games waar AMD zo veel voordeel heeft heb ik nog niet echt gezien
Niet dat AMD domineert maar er waren toch echt wel een aantal spellen waarvoor AMD-GPU's opvallend beter presteren. Doom (Vulkan bij AMD vs. Vulkan en OpenGL bij Nvidia), Ashes of Singularity, Deus Ex Mankind Divided, Dirt4, Total War...
Opvallend was dat AMD bij veel spellen die DX11 gebruiken die in 2016/2017 uitkwamen, en die geen Gimpworks-molestatie hadden ondergaan, aanvankelijk een hogere FPS haalden.
Ik denk dat je wel enig effect merkt van optimalisatie voor AMD dankzij de consoles, zeker als je in ogenschouw neemt dat AMD een aanzienlijk grotere single core load op de CPU veroorzaakt (Nvidia dan weer een grotere totale load!) en dat AMD slechts 20% marktaandeel heeft. Nu zie je dat het ongeveer 50/50 ligt: spellen die voor AMD-GPU's beter presteren en spellen die voor Nvidia-GPU's beter presteren en dit terwijl helaas nog steeds veel spellen Gimpworks gebruiken. Hoe zou die verhouding zijn als de XB en de PS een Nvidia-GPU zouden gebruiken?
[ Voor 37% gewijzigd door Verwijderd op 11-01-2018 19:46 ]
De markt uitdrukken verwacht ik ook nog niet direct, maar zeker in het lagere tot middensegment en ultrabooks kan dit wel pijn gaan doen voor Nvidia daar het vrijwel zeker is dat zo'n intel / vega combo (bijvoorbeeld) goedkoper gaat zijn dan dan een Intel / Nvidia "combo". Pak daar ook nog eens de AMD APU's bij die ook aandeel zullen afsnoepen. Even als voorbeeld, bedragen kloppen vast niet 100%Gekke Jantje schreef op donderdag 11 januari 2018 @ 09:26:
[...]
Maar AMD lijkt weer minder te gaan focussen op desktop, dus dat meer word uiteindelijk ook weer recht getrokken door minder misschien? Men vergeet hier ok even al die modellen waar Nvidia nog in komt en in zit als het gaat om laptops, dan hebben we het niet tover 5 modellen, dus hoe komt men er nu al bij dat Nvidia de markt word uitgedrukt. Ik zeg eerst maar eens zien en dan geloven, ook wat AMD desktop GPU's aan gaat.
Stel dat een OEM nu $200 betaald voor een Intel Mobile i7, en $200 voor een Nvidia mobile GPU.
Intel heeft dan $200, Nvidia $200 en AMD $0
Pak je nu zo'n Intel / Vega combo gaat deze misschien wel $350 kosten.
Stel dat AMD $100 pakt, Intel $250 is de OEM nog steeds $50 goedkoper uit, kan ie in zijn zak steken als extra marge, of het product voordeliger op de markt zetten en via mee verkopen extra marge pakken.
AMD blij, want die gaan van $0 naar $100 omzet, Intel blij want die gaan van $200 naar $250 omzet, OEM blij want die heeft $50 speling of extra marge.
Niet blij Nvidia, want die gaan van $200 naar $0.
Nvidia zal naar verwachting echter in het hogere segment met bijv, GTX 1070 / 1080 mobile GPU's nog wel koning blijven en ook op de desktop zie ik Nvidia eigenlijk alleen maar uitlopen op AMD, met Navi geef ik AMD nog een kleine kans, maar dan moet het echt wel een klapper van een product worden op de desktop en niet een jaar, 1,5 jaar te laat product als Vega.
Verwijderd
Ik ben het hier volledig mee eens op "kleine kans" na (voorlopig zal Nvidia echter wel nog blijven uitlopen bij de desktop; cryptoshit en marketinggezever), OEM's kijken erg naar de prijs en het vermogen en voor dat is die APU gewoon een uitstekende oplossing terwijl je er ook nog eens best goed mee kan gamen. AMD heeft de troef dat die graphics zowel op Intel- als op AMD-CPU's zitten. Met de kanttekening dat dit hogere segment dan wel enkel bestaat uit laptops die erg veel GPU-'power' nodig hebben en die bijna altijd aangesloten zijn op het lichtnet. Immers doet het vermogen er veel toe voor laptops en dan worden die APU's toch hoe langer hoe meer aantrekkelijk. Nu haal je ongeveer RX 580 + quadcore Intel CPU met 100 W, bij GF 7 nm. kan je dit met ongeveer 50 W halen? Op een gegeven moment ga je met een APU genoeg hebben, ook voor gaming. Natuurlijk willen mensen altijd meer en beter maar zolang we niet veel betere batterijtjes ontwikkelen zullen we een compromis moeten sluiten.Dennism schreef op donderdag 11 januari 2018 @ 19:42:
[...]
De markt uitdrukken verwacht ik ook nog niet direct, maar zeker in het lagere tot middensegment en ultrabooks kan dit wel pijn gaan doen voor Nvidia daar het vrijwel zeker is dat zo'n intel / vega combo (bijvoorbeeld) goedkoper gaat zijn dan dan een Intel / Nvidia "combo". Pak daar ook nog eens de AMD APU's bij die ook aandeel zullen afsnoepen. Even als voorbeeld, bedragen kloppen vast niet 100%
Stel dat een OEM nu $200 betaald voor een Intel Mobile i7, en $200 voor een Nvidia mobile GPU.
Intel heeft dan $200, Nvidia $200 en AMD $0
Pak je nu zo'n Intel / Vega combo gaat deze misschien wel $350 kosten.
Stel dat AMD $100 pakt, Intel $250 is de OEM nog steeds $50 goedkoper uit, kan ie in zijn zak steken als extra marge, of het product voordeliger op de markt zetten en via mee verkopen extra marge pakken.
AMD blij, want die gaan van $0 naar $100 omzet, Intel blij want die gaan van $200 naar $250 omzet, OEM blij want die heeft $50 speling of marge.
Niet blij Nvidia, want die gaan van $200 naar $0.
Nvidia zal naar verwachting echter in het hogere segment met bijv, GTX 1070 / 1080 mobile GPU's nog wel koning blijven en ook op de desktop zie ik Nvidia eigenlijk alleen maar uitlopen op AMD, met Navi geef ik AMD nog een kleine kans, maar dan moet het echt wel een klapper van een product worden op de desktop en niet een jaar, 1,5 jaar te laat product als Vega.
Ik denk dat AMD goede mogelijkheden heeft met Navi, we zullen moeten afwachten of dat AMD in staat/bereid is om Navi voor de desktop volledig af te stemmen op gaming. Dat hangt m.i. samen met hoe modulair Navi wordt. Als het voldoende modulair wordt dan kan je het beter tweaken voor specifiek gaming (naast een kaart die je juist tweakt voor andere applicaties die veel compute nodig hebben) en het vermogen zou lager moeten liggen. De vraag wordt dan hoe snel Nvidia in staat is om dit te implementeren voor hun GPU's, Intel blijkt het nog niet te willen doen voor hun CPU's, ik geef het maximaal een paar jaar voordat zij het ook gaan proberen.
[ Voor 4% gewijzigd door Verwijderd op 11-01-2018 20:00 ]
Nee, dat zijn min of meer 78xx serie chips. De PS4 Pro heeft min of meer een gedownclockte RX480. De nieuwe XBOX One X heeft een "super polaris" met 40CU's actief. Op het moment doet Vega bijzonder weinig dingen beter dan Polaris dus dat maakt echt niks uit.winwiz schreef op donderdag 11 januari 2018 @ 19:26:
En in consoles zitten ook Vega's? Ik denk dat als ze het onderste uit de kan willen halen ze voor Vega toch wel meer kunnen doen.
Maar dit is allemaal weinig relevant. Beide consoles draaien al jaren op custom, low level API's die veel meer uit een GPU kunnen halen dan je op de PC kan met weet ik veel hoeveel verschillende combinaties.
Ondertussen is de RTG mij behoorlijk aan het verwarren. Ik ben eigenlijk een beetje teleurgesteld in het Radeon aanbod voor 2018, zoals het er nu bij lijkt te liggen. Ik begrijp niet wat er nu met Navi gaat gebeuren. De Vega APU en mobile chips zijn natuurlijk hartstikke mooi voor AMD. Zo kunnen ze het totale pakket gaan aanbieden aan OEM's. Ze geven een korting en sluiten Nvidia in ieder geval uit die verkopen. Dat zal weer omzet opleveren.
Navi blijft vreemd. Aan de ene kant lijkt het naar 2019 te zijn gepushed, maar aan de andere kant duiken er steeds weer berichten op dat Navi ondersteuning is geïmplementeerd. Nu is HWMonitor kennelijk ook zover. Natuurlijk kan het de oude AMD strategie zijn van absoluut niks zeggen tot vlak voor de launch, maar ik wil weten.
Ondertussen is de mining waanzin weer begonnen. Kaarten verdwijnen weer heel snel, zelfs de GTX1080Ti is niet meer veilig. Ben blij dat ik mijn RX Vega heb, maar leuk is anders voor iedereen die wil upgraden. Nog een reden dat ik hoop dat Navi er toch gaat komen. Is dat een heterogene chip die schaalbaar is, dan kan AMD volume gaan produceren, en zowel de miners als gamers beter voorzien.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Ik interpreteerde dit blijkbaar anders dan Daniël, ik dacht dat jij retorisch stelde dat er geen Vega's in consoles zitten en dat AMD Vega's in consoles zou moeten stoppen. Welke interpretatie is correct?winwiz schreef op donderdag 11 januari 2018 @ 19:26:
En in consoles zitten ook Vega's? Ik denk dat als ze het onderste uit de kan willen halen ze voor Vega toch wel meer kunnen doen.
Tja, ik weet niet of dat het realistisch is om op dit moment Vega in consoles te stoppen. Van Sony en MS ga je niet veel meer krijgen dan de kostprijs en zelfs die kostprijs is mogelijk te hoog voor hen.
+ dat je bij die consoles nog zit met het probleem dat MS en Sony erop staan dat alle spellen die op de PS4P en X1X uitkomen ook gespeeld kunnen worden op de antieke PS4 en X1 wat volgens mij een voorname reden is waarom ze zelfs voor de X1X geen Ryzen gebruikten, Ryzen zou iets duurder zijn geweest en voor hen overwegend overkill zijn geweest want de CPU-load is moeilijker aan te passen tussen de X1 en X1X (en de PS4 en de PS4P) dan de grafische instellingen.
Voorspelling: de PS5 komt eerder uit dan de X2 (en MS gaat weer een andere naam gebruiken, alsof ze ons aan het trollen zijn

Navi leent zich waarschijnlijk beter dan Vega als Navi inderdaad het equivalent van Ryzen is bij de GPU's ("scalability"). Ik heb de indruk dat Vega enkel is uitgebracht om de achterstand op Nvidia te beperken zodat je ook in de high-end nog voor AMD kan kiezen maar dat Navi het masterplan is waarmee AMD terug probeert te komen in de GPU-markt. Dat "scalability"-commentaar werd op die slides ook vergezeld door een diagram wat suggereert dat Navi weer van lowend t/m highend gaat bedienen waar Polaris enkel voor lowend was (t/m midend als je het zo wil zien) en Vega enkel voor highend was. Ook dat wijst erop dat er iets grondig gaat veranderen waardoor de performance van de GPU beter gaat schalen meqt de grootte van de GPU en daarmee denk je snel aan Ryzen wat bijna lineair schaalt.
Vega was ontworpen voor andere toepassingen en gamers krijgen een kaart waarvoor gaming slechts een bijzaak is. De 'mining'bubble heeft een spaak in het wiel gestoken. AMD levert bewust weinig GPU's om te voorkomen dat bij het knappen van die bubble de tweedehandsmarkt overspoeld wordt door Vega-kaarten en Polaris-kaarten, ondertussen verhoogt AMD de prijs dusdanig dat de gedaalde afzet meer dan wordt gecompenseerd door de extra marge per kaart. Het nadeel is natuurlijk dat gamers ondertussen een Nvidia-kaart kopen en dat het lang kan duren voordat je die gamers bereid vindt om een AMD-kaart te proberen. Navi zal dan ook goed moeten presteren om mensen te overtuigen. Anderzijds, Ryzen liet zien hoe snel je weer het vertrouwen krijgt als je een goed product en een goede prijs hiervoor hebt.
Wellicht houdt AMD zich op de vlakte omdat het afhangt van de ontwikkelingen voor die 'mining'-zeepbel. Navi uitbrengen terwijl die zeepbel nog niet is geknapt lijkt me niet handig.DaniëlWW2 schreef op vrijdag 12 januari 2018 @ 10:00:
[...]
Nee, dat zijn min of meer 78xx serie chips. De PS4 Pro heeft min of meer een gedownclockte RX480. De nieuwe XBOX One X heeft een "super polaris" met 40CU's actief. Op het moment doet Vega bijzonder weinig dingen beter dan Polaris dus dat maakt echt niks uit.
Maar dit is allemaal weinig relevant. Beide consoles draaien al jaren op custom, low level API's die veel meer uit een GPU kunnen halen dan je op de PC kan met weet ik veel hoeveel verschillende combinaties.
Ondertussen is de RTG mij behoorlijk aan het verwarren. Ik ben eigenlijk een beetje teleurgesteld in het Radeon aanbod voor 2018, zoals het er nu bij lijkt te liggen. Ik begrijp niet wat er nu met Navi gaat gebeuren.
- knip -
Ondertussen is de mining waanzin weer begonnen. Kaarten verdwijnen weer heel snel, zelfs de GTX1080Ti is niet meer veilig. Ben blij dat ik mijn RX Vega heb, maar leuk is anders voor iedereen die wil upgraden. Nog een reden dat ik hoop dat Navi er toch gaat komen. Is dat een heterogene chip die schaalbaar is, dan kan AMD volume gaan produceren, en zowel de miners als gamers beter voorzien.
Gamers die pissed zijn omdat AMD weer weinig GPU's levert i.v.m. 'mining', AMD kan nu nog Vega-GPU's voor de hoofdprijs verkopen.
Laat eerst die zeepbel maar knappen. Het is knap hoe ze elke keer een nieuwe zeepbel maken maar vroeg of laat stort het kaartenhuis in elkaar, hopelijk voor ons gebeurt het zo snel mogelijk.
Ondertussen ben ik er een beetje bang voor geworden dat deze zeepbel heel erg laat gaat knappen doordat de 'miners' snel veel hebben geleerd van de laatste bust. Aanvankelijk werd gedacht dat het 3-6 maanden zou duren, ondertussen zitten we al op minstens 8 maanden.
Ja, maar dat wil natuurlijk niet zeggen dat AMD er geen voordeel uit kan halen voor de PC doordat het optimaliseren van de drivers gemakkelijker is. AMD heeft een veel kleiner softwareteam dan Nvidia, ze kunnen elk voordeel gebruiken. Vulkan is een mooie illustratie hoeveel performance ze op de PC laten liggen bij games. Geen wonder dat AMD Vulkan pusht en dat zelfs Nvidia het prima vindt, ondanks dat dit relatief gezien meer voordeel biedt aan AMD. Terzijde, de baas van de Khronos Group is een werknemer van Nvidia.Maar dit is allemaal weinig relevant. Beide consoles draaien al jaren op custom, low level API's die veel meer uit een GPU kunnen halen dan je op de PC kan met weet ik veel hoeveel verschillende combinaties.
[ Voor 77% gewijzigd door Verwijderd op 12-01-2018 15:50 ]
Vega laat wel even zien wat kan bij de buren in Wolfenstein 2.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Verwijderd
Onder de juiste omstandigheden en zelfs daarbij wint de 1080 Ti nog gemakkelijk van Vega ondanks dat Vega de 1080 Ti ruim verslaat bij tal van andere taken dan gaming.
In het artikel van HWI waar winwiz op doelt is de Vega 64 sneller dan de 1080Ti op Full HD en WQHD, en op 4K Ultra is het verschil ook erg klein. Is wel een best case voor AMD, zoals je al zegt.
Ook interessant dat de Ryzen 1800X (op 4ghz weliswaar) in alle gevallen wat FPS betreft sneller is dan de Intel varianten die 6c/12t en 10c/20t hebben.
Alleen de kleintjes van Intel lijken sneller te zijn, maar dat kan komen door een hogere turbo waarde omdat de CPU meer belast wordt.
Met de aankomende Ryzen refresh heeft Intel voorlopig niks om er tegen te plaatsen.
Alleen de kleintjes van Intel lijken sneller te zijn, maar dat kan komen door een hogere turbo waarde omdat de CPU meer belast wordt.
Met de aankomende Ryzen refresh heeft Intel voorlopig niks om er tegen te plaatsen.
How do you save a random generator ?
Je bedoeld de GTX 1080 non ti neem ik aan want de Ti is zo'n 20% sneller dan Vega 64 en de GTX 1080r100 schreef op zaterdag 13 januari 2018 @ 09:20:
In het artikel van HWI waar winwiz op doelt is de Vega 64 sneller dan de 1080Ti op Full HD en WQHD, en op 4K Ultra is het verschil ook erg klein. Is wel een best case voor AMD, zoals je al zegt.
Edit
Het gaat om een specifiek spel. Ik zou die test van HWI met en korrel zout nemen want er gaat zo veel fout. GTX 980 die sneller is dan de de Ti variant, extreem verschil tussen de RX 570 en RX 580 en dat soort gekkigheid. Ik vind de review van Comutebase wel wat hebben die gaat ook in op AMD's nieuwe features als HBCC.
[ Voor 31% gewijzigd door Gekke Jantje op 13-01-2018 11:22 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Nee, AMD werkt gewoon veel beter met vulkan en DX12, ligt ook zeker niet aan 1 game dus er is niets mis met de benchmark.Gekke Jantje schreef op zaterdag 13 januari 2018 @ 11:03:
[...]
Je bedoeld de GTX 1080 non ti neem ik aan want de Ti is zo'n 20% sneller dan Vega 64 en de GTX 1080
Edit
Het gaat om een specifiek spel. Ik zou die test van HWI met en korrel zout nemen want er gaat zo veel fout. GTX 980 die sneller is dan de de Ti variant, extreem verschil tussen de RX 570 en RX 580 en dat soort gekkigheid. Ik vind de review van Comutebase wel wat hebben die gaat ook in op AMD's nieuwe features als HBCC.
Veel meer reviewers laten hetzelfde zien, dit zijn de feiten!
Wolfenstein 2:
PurePC:
Mein lieben.
1080P
https://www.purepc.pl/kar..._was_das_ist_gut?page=0,6
1440p
https://www.purepc.pl/kar..._was_das_ist_gut?page=0,7
4k
https://www.purepc.pl/kar..._was_das_ist_gut?page=0,8
PCLAB:
http://pclab.pl/zdjecia/a...0x1080%20Mein%20Leben.png
http://pclab.pl/zdjecia/a...0x1440%20Mein%20Leben.png
DOOM vulkan
Dirt: 4 DX12
Quake Champions Vulkan
Forza Motorsport 7 DX12
Battlefield 1 DX12
enz enz
Hier zie je ook een mooi verschil tussen de GTX 980 en R9 390x DX11 vs DX12, GTX 980 gaat er bijna niets op vooruit terwijl de R9 390X er heel veel op vooruit gaat.
https://www.pcper.com/rev...y-Benchmark/Results-Avera
Dit gaan we veel meer zien met de nieuwe games, Dat is ook niet zo gek DX12 kwam met Windows 10 in 2015.
Een game maken doe je niet in 2 maanden maar gemiddeld 2 jaar. Daar komt ook nog eens bij dat AMD in de playstation en xbox zit.
Niet voor niets ben ik voor AMD gegaan ipv NVIDIA. en ik ben niet de enige, https://www.techpowerup.c...tx-1060-or-rx-480.224303/
GTX 1060 Votes 13,198
RX 480 Votes 17,938
Ik denk dan ook dat NVIDIA alleen meer verkoopt door OEM en Laptops, maar goed dat is een ander verhaal.
[ Voor 5% gewijzigd door Enchantress op 13-01-2018 18:41 ]
Drie dingen. 
1) Een DX12 of Vulkan titel moet geoptimaliseerd worden door de developer. Een luie of minder capabele dev, of het zoveelste wanproduct van EA/Ubisoft/Activision, zal dus niet zo snel overschakelen omdat ze zelf moeten optimaliseren voor zowel Nvidia Maxwell/Pascal als alle iteraties van GCN. Natuurlijk is de AMD kant makkelijker vanwege consoles en de redelijk grote mate van uniformiteit van GCN, maar het is niet zonder moeite. Veel games hebben dan ook nog eens een duale DX11/DX112 functie, waar DX12 meer een latere toevoeging is. Echt van de grond af DX12 games, ik ken ze niet. Vulkan zijn er een paar.
2) Wolfenstein II is speciaal geoptimaliseerd voor RX Vega. Hier speelt heel wat meer mee dan het gebruik van een low level API. Het belangrijkste hier zal zijn dat veel primitives (dus polygons) met FP16, niet met FP32 zullen zijn opgebouwd. Vervolgens vermoed ik dat dit een substantiële vermindering van belasting geeft aan de ROPS van Vega. Ik vermoed dat die ook een bottleneck vormen. Het probleem lijkt te zijn dat al die lijnen die uitgerekend kunnen worden door de CU's, niet allemaal omgezet kunnen worden naar 3D beelden. Dat doen ROPS namelijk. Het gebruik van FP16 lijkt dit probleem te verminderen.
3) Niet elke ROP is gelijkwaardig. Ik vermoed dat een AMD, GCN ROP tot meer in staat is dan een Nvidia tegenhanger. Was dit niet zo, dan zou je bij DX12/Vulkan titels nauwelijks een verschil zien. Dat komt er helaas alleen uit als de code die de GPU moet draaien, ook enigszins toegespitst is op GCN. Dat is in de regel niet zo. Hier speelt ook mee dat DX12/Vulkan veel meer drawcalls produceren voor de GPU wat een andere barrière weg zal halen. Zie:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Nee, ik ga dit niet nog een keertje typen zeg.
1) Een DX12 of Vulkan titel moet geoptimaliseerd worden door de developer. Een luie of minder capabele dev, of het zoveelste wanproduct van EA/Ubisoft/Activision, zal dus niet zo snel overschakelen omdat ze zelf moeten optimaliseren voor zowel Nvidia Maxwell/Pascal als alle iteraties van GCN. Natuurlijk is de AMD kant makkelijker vanwege consoles en de redelijk grote mate van uniformiteit van GCN, maar het is niet zonder moeite. Veel games hebben dan ook nog eens een duale DX11/DX112 functie, waar DX12 meer een latere toevoeging is. Echt van de grond af DX12 games, ik ken ze niet. Vulkan zijn er een paar.
2) Wolfenstein II is speciaal geoptimaliseerd voor RX Vega. Hier speelt heel wat meer mee dan het gebruik van een low level API. Het belangrijkste hier zal zijn dat veel primitives (dus polygons) met FP16, niet met FP32 zullen zijn opgebouwd. Vervolgens vermoed ik dat dit een substantiële vermindering van belasting geeft aan de ROPS van Vega. Ik vermoed dat die ook een bottleneck vormen. Het probleem lijkt te zijn dat al die lijnen die uitgerekend kunnen worden door de CU's, niet allemaal omgezet kunnen worden naar 3D beelden. Dat doen ROPS namelijk. Het gebruik van FP16 lijkt dit probleem te verminderen.
3) Niet elke ROP is gelijkwaardig. Ik vermoed dat een AMD, GCN ROP tot meer in staat is dan een Nvidia tegenhanger. Was dit niet zo, dan zou je bij DX12/Vulkan titels nauwelijks een verschil zien. Dat komt er helaas alleen uit als de code die de GPU moet draaien, ook enigszins toegespitst is op GCN. Dat is in de regel niet zo. Hier speelt ook mee dat DX12/Vulkan veel meer drawcalls produceren voor de GPU wat een andere barrière weg zal halen. Zie:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Nee, ik ga dit niet nog een keertje typen zeg.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
(1): Ligt natuurlijk ook aan de game engine, maar DX12 en Vulkan werken toch bij iedere game hetzelfde? of maak ik nu een grootte fout?DaniëlWW2 schreef op zaterdag 13 januari 2018 @ 19:26:
Drie dingen.
1) Een DX12 of Vulkan titel moet geoptimaliseerd worden door de developer. Een luie of minder capabele dev, of het zoveelste wanproduct van EA/Ubisoft/Activision, zal dus niet zo snel overschakelen omdat ze zelf moeten optimaliseren voor zowel Nvidia Maxwell/Pascal als alle iteraties van GCN. Natuurlijk is de AMD kant makkelijker vanwege consoles en de redelijk grote mate van uniformiteit van GCN, maar het is niet zonder moeite. Veel games hebben dan ook nog eens een duale DX11/DX112 functie, waar DX12 meer een latere toevoeging is. Echt van de grond af DX12 games, ik ken ze niet. Vulkan zijn er een paar.
2) Wolfenstein II is speciaal geoptimaliseerd voor RX Vega. Hier speelt heel wat meer mee dan het gebruik van een low level API. Het belangrijkste hier zal zijn dat veel primitives (dus polygons) met FP16, niet met FP32 zullen zijn opgebouwd. Vervolgens vermoed ik dat dit een substantiële vermindering van belasting geeft aan de ROPS van Vega. Ik vermoed dat die ook een bottleneck vormen. Het probleem lijkt te zijn dat al die lijnen die uitgerekend kunnen worden door de CU's, niet allemaal omgezet kunnen worden naar 3D beelden. Dat doen ROPS namelijk. Het gebruik van FP16 lijkt dit probleem te verminderen.
3) Niet elke ROP is gelijkwaardig. Ik vermoed dat een AMD, GCN ROP tot meer in staat is dan een Nvidia tegenhanger. Was dit niet zo, dan zou je bij DX12/Vulkan titels nauwelijks een verschil zien. Dat komt er helaas alleen uit als de code die de GPU moet draaien, ook enigszins toegespitst is op GCN. Dat is in de regel niet zo. Hier speelt ook mee dat DX12/Vulkan veel meer drawcalls produceren voor de GPU wat een andere barrière weg zal halen. Zie:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Nee, ik ga dit niet nog een keertje typen zeg.
(2) Dat klopt ook deels, staat ook op hun site. https://bethesda.net/en/a...sus-pc-specs-and-features
Maar Nvidia heeft ook gewoon tijd gehad om daarvoor te optimaliseren, dus waar het bij hun fout gegaan is...
En ben ook zeer benieuwd naar Far Cry 5, ''Wolfenstein 2 & Far Cry 5 will support AMD’s RX Vega exclusive feature, Rapid Packed Math'' http://www.dsogaming.com/...eature-rapid-packed-math/
Ja.Enchantress schreef op zaterdag 13 januari 2018 @ 20:23:
[...]
(1): Ligt natuurlijk ook aan de game engine, maar DX12 en Vulkan werken toch bij iedere game hetzelfde? of maak ik nu een grootte fout?
Een API, een application programming interface is een verzameling van definities waarmee een computerprogramma kan communiceren met een ander programma. In het geval van gaming zorgt de API voor de communicatie tussen de game en de driver van de GPU. De API is een gestandaardiseerd doorgeefluik tussen weet ik veel hoeveel game engines aan de ene kant, en Nvidia en AMD drivers aan de andere kant.
Ja, de API is hetzelfde, maar de API zorgt niet voor plaatjes op je scherm.
Je kan een DX12/Vulkan titel dus niet optimaliseren vanuit de driver. Bij DX12/Vulkan moet de developer zijn eigen command lists en buffers implementeren en uit laten voeren door de GPU. Dit wordt niet meer gedaan door de GPU driver. Je kan dus ook niet meer door de code heengaan van de game, en onnodig complexe onzin commands repareren met "driver hacks".(2) Dat klopt ook deels, staat ook op hun site. https://bethesda.net/en/a...sus-pc-specs-and-features
Maar Nvidia heeft ook gewoon tijd gehad om daarvoor te optimaliseren, dus waar het bij hun fout gegaan is...
En ben ook zeer benieuwd naar Far Cry 5, ''Wolfenstein 2 & Far Cry 5 will support AMD’s RX Vega exclusive feature, Rapid Packed Math'' http://www.dsogaming.com/...eature-rapid-packed-math/
Nvidia kan dus niks optimaliseren. Nvidia is extreem goed in hun DX11 games optimaliseren met hun drivers. Ze krijgen veel totale baggergames draaiende. Dat ze hier nu vaak genoeg eerst met de code kwamen die de game bagger laat draaien, tja.

AMD kan het zich niet veroorloven om elke game maar te gaan fixen. Ze blijven bij met een brute force methodiek naast wat simpele optimalisaties. Verder hebben ze uberhaupt minder flexibiliteit met hun drivers dan Nvidia heeft ingebouwd. Nvidia scheduled instructies voor de GPU softwarematig, dus op de CPU. AMD scheduled hardwarematig op de GPU. Daarom hebben Nvidia drivers ook een hogere driver overhead. Het voordeel is dat ze minder last hebben van de limitaties van DX11 en lager. Die zitten allemaal nog steeds vast in het 1 CPU kern tijdperk. Die API's gebruiken maar een core voor instructies naar de GPU, en dat is gewoon niet genoeg meer. Nvidia kan hier omheen met hun drivers, AMD niet. Daarom missen AMD kaarten in de regel draw calls.
Bij DX12/Vulkan maakt AMD, Nvidia af omdat er veel meer fysieke hardware op de meeste AMD chips zit. Daar vallen de voordelen van draw calls en driver optimalisatie helemaal weg.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Dat is dan ook wat ik bedoel met "zelfs daar wint de 1080 Ti nog". Dirt 4 met CMAA is ook zo'n voorbeeld, daarin verslaat zelfs Vega56 de 1080 Ti, echter zet MSAA op x8 en de rollen zijn weer omgedraaid. Zo ook bij W2, zet het op 4k en alle instellingen op maximaal en de 1080 Ti wint. "De juiste omstandigheden" verwijst inderdaad naar die specifieke instellingen die het gunstigst zijn, in dit specifieke geval een spel wat gebruik maakt van Vulkan en RPM (in essentie 2 16-bit-instructies in 1 32-bit datawoord stoppen). Met "dan nog wint de 1080 ti" doelde ik niet op W2 maar op Vulkan/DX12 als je naar alle spellen die dit gebruiken samen kijkt. Ook in Doom zie je de 1080 Ti wel nog winnen. Hier moet je natuurlijk wel een forse kanttekening plaatsen bij DX12 (herschreven code die voor DX11 was ontworpen, code die niet alle functionaliteit van DX12 gebruikt omdat Nvidia wat achterloopt en inderdaad de luie developers die prutsen zoals Daniël aangeeft).r100 schreef op zaterdag 13 januari 2018 @ 09:20:
In het artikel van HWI waar winwiz op doelt is de Vega 64 sneller dan de 1080Ti op Full HD en WQHD, en op 4K Ultra is het verschil ook erg klein. Is wel een best case voor AMD, zoals je al zegt.
Vega is een hartstikke goede kaart maar het is helaas niet geoptimaliseerd voor gaming; teveel compute en daarmee ook een te hoog vermogen voor iets wat toch niet volledig wordt benut en te weinig geometrische processing. Hopelijk is Navi voor de GPU's wat Zen is voor de CPU's, daarmee zou AMD een goede comeback kunnen maken. Het ligt m.i. voor de hand dat dit zo gaat zijn.
- 1. "scalability"
- 2. Dit gesprek met Koduri bij PCPerspective:
Toen der tijd dacht elke luisteraar (ook Ryan) dat hij het had over meerdere grafische kaarten, wij wisten immers nog weinig over Zen. In retrospectie heb ik het sterke vermoeden dat Koduri het had over meerdere dies op 1 GPU. Ik kan je geen tijdstip geven aangezien het 1,5 jaar geleden is dat ik dit zag en ik zelf opnieuws zou moeten luisteren om te weten waar hij het precies zei maar hij ging er uitgebreid op in. Zet dit in de context dat ongeveer in dezelfde tijd SLI en CF werd afgebouwd, AMD had het nog niet aangekondigd voor CF (1 jaar later), Nvidia wel al voor SLI (buiten de benchmarks want daar wil Nvidia natuurlijk wel bovenaan staan).
- Het ligt volstrekt voor de hand tenzij er een technische reden is waarom een multidie-CPU wel werkt maar een multidie-GPU niet werkt.
- geen geld voor aparte ontwerpen voor aparte segmenten, dus ze hadden dit nodig om met 1 architectuur alle segmenten te bedienen.
- hoge yields
- laag vermogen
- lage productiekostprijs
Daarnaast zijn ze bij AMD nooit bang geweest voor het pushen van innovatie.
[ Voor 41% gewijzigd door Verwijderd op 14-01-2018 14:28 ]
Verwijderd
Ja, maar Intel moet zich echt zorgen maken om Zen2. Dat zou wel eens billenkoek kunnen worden voor Intel. De GF 7 nm. node staat er erg goed voor en de 10 nm. node van Intel is nog steeds problematisch. Belangrijker dan dat, als de beide nodes af zijn en goed werken dan zijn ze gelijkwaardig aan elkaar met enkele troeven voor Intel en enkel Troeven voor AMD. Het komt dus aan op wie de betere architectuur heeft. No offense t.o.v. Intel maar ik heb wat meer vertrouwen in AMD op dit moment. AMD is met Ryzen duidelijk de goede weg ingeslagen en is net begonnen aan een nieuwe architectuur die vermoedelijk nog op veel punten verfijnd kan worden. Intel moet nog de omslag maken naar een andere architectuur. Mogelijk was Skylake X een voorzichtige eerste stap met dat mesh-netwerk?enchion schreef op zaterdag 13 januari 2018 @ 10:58:
Ook interessant dat de Ryzen 1800X (op 4ghz weliswaar) in alle gevallen wat FPS betreft sneller is dan de Intel varianten die 6c/12t en 10c/20t hebben.
Alleen de kleintjes van Intel lijken sneller te zijn, maar dat kan komen door een hogere turbo waarde omdat de CPU meer belast wordt.
Met de aankomende Ryzen refresh heeft Intel voorlopig niks om er tegen te plaatsen.
Voorzichtig Jantje. Hoewel ook ik mijn twijfels heb bij de benchmarks van HWI (wel kudos voor hun Gigabyte moederbord revisie artikel) is dit niet een uniek incident. Zie Dirt4 met CMAA bij HardwareUnboxed en Techspot (dezelfde bron). Daar werd toch echt zorgvuldig getest. Hoewel de details ingewikkelder zijn is het principe eenvoudig: op sommige punten is Vega 'sterker' dan de 1080 Ti (compute) en op andere punten zwakker. Afhankelijk van hoe het spel die verschillende onderdelen (compute, geometrie, data throughput, latency...) belast kan de ene kaart of de andere kaart winnen. Meestal valt dit in het voordeel van de 1080 Ti uit, maar niet altijd.Gekke Jantje schreef op zaterdag 13 januari 2018 @ 11:03:
[...]
Je bedoeld de GTX 1080 non ti neem ik aan want de Ti is zo'n 20% sneller dan Vega 64 en de GTX 1080
Edit
Het gaat om een specifiek spel. Ik zou die test van HWI met en korrel zout nemen want er gaat zo veel fout. GTX 980 die sneller is dan de de Ti variant, extreem verschil tussen de RX 570 en RX 580 en dat soort gekkigheid. Ik vind de review van Comutebase wel wat hebben die gaat ook in op AMD's nieuwe features als HBCC.
Een typisch beeld. AdoredTV wees er X maanden geleden op dat je op fora van hardware-enthusiasts vaak ziet dat AMD aanzienlijk populairder is dan bij het brede publiek wat meer beïnvloed wordt door marketing. Denk bijv. ook aan de 7000-serie. Ik twijfel er niet aan dat de 480/580 de betere keuze is dan de 1060 maar helaas is het met de huidige prijzen lastig om de aankoop van de 580 te rechtvaardigen. Ik zal blij zijn als de crypto-bubble weer knapt. De 1060 kreeg een aanzienlijk betere behandeling kreeg van de AIC-partners dan de 480 van de AIB-partners. Er was geen stille 480-kaart te vinden op XFX na die 3 maanden later pas met een kaart kwam. Verschillende AIB-partners gebruikten zelfs doodleuk de shrouth met hittepijpjes die voor Pascal was ontwikkeld.Enchantress schreef op zaterdag 13 januari 2018 @ 18:31:
Niet voor niets ben ik voor AMD gegaan ipv NVIDIA. en ik ben niet de enige, https://www.techpowerup.c...tx-1060-or-rx-480.224303/

Gelukkig ging het bij de 580 beter en ook voor Vega zijn er goede AIB-kaarten gekomen, alleen gingen ze weer net zo snel weg en werd de crytpo-zeepbel weer flink opgeblazen net nadat ze uitkwamen.
Wat betreft Far Cry 5, die RPM gaat helpen maar het is wel een Ubisoft-spel. Ik ben al blij als de RPM voor een gelijkspel zorgt en ik hoop dat Ubisoft bedankt voor de Gameworks-malware van Nvidia.
Voor wie "malware" overdreven vindt, het doel van de code is om via een leuke functionaliteit - die vaak ook nog eens slecht is uitgewerkt - de developer te verleiden om code te gebruiken die alle grafische kaarten flink aan het werk zet maar kaarten van de concurrent en oudere generaties kaarten van hen zelf meer aan het werk zetten dan hun nieuwste en beste grafische kaarten. Een beetje betere visuals (soms) in ruil voor een flinke performancedaling en het gimpen van de benchmarks. Als de code open zou zijn en AMD zou ervoor kunnen optimaliseren dan zou ik er niets van zeggen, met die gesloten code en dit doeleinde mag je het m.i. rustig malware noemen.
@Enchantress (voor het geval je deze reactie al had gelezen voor de edit)
Ik weet niet of dit duidelijk was, Daniël doelt hier op het feit dat Nvidia bij DX11 een hogere totale CPU-load heeft, Nvidia ontlast via het softwarematig shedulen die ene kern die door DX11 zelf zo zwaar wordt belast, het verdeelt die load over andere CPU-kernen maar het uitvoeren van het verdelen kost ook CPU-bewerken en dat zorgt voor het verhogen van de totale CPU-load.Daarom hebben Nvidia drivers ook een hogere driver overhead.
Zie hier voor meer informatie hierover.
[videohttps://www.youtube.com/watch?v=nIoZB-cnjc0[/video]
[ Voor 34% gewijzigd door Verwijderd op 14-01-2018 01:51 ]
Daarom denk ik zelf dus ook dat zoals ik al zei het meerendeels komt door de verkoop van OEM’s en laptops, daar is/was AMD nergens. Maar inderdaad de prijzen zijn helaas hoog en de beschikbaarheid is laag...Verwijderd schreef op zondag 14 januari 2018 @ 01:22:
Een typisch beeld. AdoredTV wees er X maanden geleden op dat je op fora van hardware-enthusiasts vaak ziet dat AMD aanzienlijk populairder is dan bij het brede publiek wat meer beïnvloed wordt door marketing. Denk bijv. ook aan de 7000-serie. Ik twijfel er niet aan dat de 480/580 de betere keuze is dan de 1060 maar helaas is het met de huidige prijzen lastig om de aankoop van de 580 te rechtvaardigen. Ik zal blij zijn als de crypto-bubble weer knapt. De 1060 kreeg een aanzienlijk betere behandeling kreeg van de AIC-partners dan de 480 van de AIB-partners. Er was geen stille 480-kaart te vinden op XFX na die 3 maanden later pas met een kaart kwam. Verschillende AIB-partners gebruikten zelfs doodleuk de shrouth met hittepijpjes die voor Pascal was ontwikkeld.![]()
Gelukkig ging het bij de 580 beter en ook voor Vega zijn er goede AIB-kaarten gekomen, alleen gingen ze weer net zo snel weg en werd de crytpo-zeepbel weer flink opgeblazen net nadat ze uitkwamen.
Wat betreft Far Cry 5, die RPM gaat helpen maar het is wel een Ubisoft-spel. Ik ben al blij als de RPM voor een gelijkspel zorgt en ik hoop dat Ubisoft bedankt voor de Gameworks-malware van Nvidia.
Voor wie "malware" overdreven vindt, het doel van de code is om via een leuke functionaliteit - die vaak ook nog eens slecht is uitgewerkt - de developer te verleiden om code te gebruiken die alle grafische kaarten flink aan het werk zet maar kaarten van de concurrent en oudere generaties kaarten van hen zelf meer aan het werk zetten dan hun nieuwste en beste grafische kaarten. Een beetje betere visuals (soms) in ruil voor een flinke performancedaling en het gimpen van de benchmarks. Als de code open zou zijn en AMD zou ervoor kunnen optimaliseren dan zou ik er niets van zeggen, met die gesloten code en dit doeleinde mag je het m.i. rustig malware noemen.
@Enchantress (voor het geval je deze reactie al had gelezen voor de edit)
[...]
Ik weet niet of dit duidelijk was, Daniël doelt hier op het feit dat Nvidia bij DX11 een hogere totale CPU-load heeft, Nvidia ontlast via het softwarematig shedulen die ene kern die door DX11 zelf zo zwaar wordt belast, het verdeelt die load over andere CPU-kernen maar het uitvoeren van het verdelen kost ook CPU-bewerken en dat zorgt voor het verhogen van de totale CPU-load.
Zie hier voor meer informatie hierover.
[videohttps://www.youtube.com/watch?v=nIoZB-cnjc0[/video]
Gameworks......


Ja, dus bij DX11 verdeeld NVIDIA softwarematig de CPU load, daar AMD dat dus niet kon of niet voor elkaar kreeg bij DX11 en nu bij DX12 en vulkan wel doet als het ware? Heel kort gezegd.
Je mist mijn punt dat er veel misgaat in de benchmark. Daar naast worden er dingen uitgeschakeld waar zo wel Nvidia als AMD meer performance door krijgen bij de HWI review. Het is ook onzin dat AMD zo veel beter werkt met Vulkan en Direct Disater 12 het is vaak nog om en om weke videokaart beter presteert en de winsten zijn minimaal voor een specifiek merk.Enchantress schreef op zaterdag 13 januari 2018 @ 18:31:
[...]
Nee, AMD werkt gewoon veel beter met vulkan en DX12, ligt ook zeker niet aan 1 game dus er is niets mis met de benchmark.
Veel meer reviewers laten hetzelfde zien, dit zijn de feiten!
Wolfenstein 2:
PurePC:
Mein lieben.
1080P
https://www.purepc.pl/kar..._was_das_ist_gut?page=0,6
1440p
https://www.purepc.pl/kar..._was_das_ist_gut?page=0,7
4k
https://www.purepc.pl/kar..._was_das_ist_gut?page=0,8
PCLAB:
http://pclab.pl/zdjecia/a...0x1080%20Mein%20Leben.png
http://pclab.pl/zdjecia/a...0x1440%20Mein%20Leben.png
DOOM vulkan
Dirt: 4 DX12
Quake Champions Vulkan
Forza Motorsport 7 DX12
Battlefield 1 DX12
enz enz
Hier zie je ook een mooi verschil tussen de GTX 980 en R9 390x DX11 vs DX12, GTX 980 gaat er bijna niets op vooruit terwijl de R9 390X er heel veel op vooruit gaat.
https://www.pcper.com/rev...y-Benchmark/Results-Avera
Dit gaan we veel meer zien met de nieuwe games, Dat is ook niet zo gek DX12 kwam met Windows 10 in 2015.
Een game maken doe je niet in 2 maanden maar gemiddeld 2 jaar. Daar komt ook nog eens bij dat AMD in de playstation en xbox zit.
Niet voor niets ben ik voor AMD gegaan ipv NVIDIA. en ik ben niet de enige, https://www.techpowerup.c...tx-1060-or-rx-480.224303/
GTX 1060 Votes 13,198
RX 480 Votes 17,938
Ik denk dan ook dat NVIDIA alleen meer verkoopt door OEM en Laptops, maar goed dat is een ander verhaal.
[ Voor 6% gewijzigd door Gekke Jantje op 14-01-2018 10:02 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Je moet ook helemaal niet naar Hardware.info gaan voor accurate benchmarks...Gekke Jantje schreef op zondag 14 januari 2018 @ 09:57:
[...]
Je mist mijn punt dat er veel misgaat in de benchmark.
Je moet naar sites zoals Anandtech, Toms Hardware, Computerbase.de, Techspot/Hardware Unboxed. Computerbase.de heeft Wolfenstein II ook gedaan, en daar was het ook dat RX Vega wint van GP104, en bij 1080P zit RX Vega 64 dicht op de GTX1080Ti.
DX12/Vulkan beschikken gewoon over uitzonderlijk revolutionaire technologie. Ze zijn namelijk in staat om meer dan een CPU core te benutten voor instructies naar de GPU. Uiterst revolutionair dit.Enchantress schreef op zondag 14 januari 2018 @ 03:15:
Ja, dus bij DX11 verdeeld NVIDIA softwarematig de CPU load, daar AMD dat dus niet kon of niet voor elkaar kreeg bij DX11 en nu bij DX12 en vulkan wel doet als het ware? Heel kort gezegd.
Nvidia hun softwarematig voordeel valt zo helemaal weg, want AMD kaarten kunnen opeens miljoenen extra draw calls verwerken. Wederom zie linkje.
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
[ Voor 42% gewijzigd door DaniëlWW2 op 14-01-2018 10:04 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja je zou ondertussen dan ook wel verwachten dat AMD RX Vega in DX12 en Vulkan door zijn rauwe kracht de GTX 1080 Ti ver achter zou laten, in principe is Vega 64 bijna de helft sneller op papier. Doet Nvidia dan helemaal niets hardwarematig in low level API's of halen ze bij Nvidia al alles uit wat mogelijk is met DX12 en Vulkan?
Ik zie dit nog helemaal niet echt terug in games

Ik zie dit nog helemaal niet echt terug in games


[ Voor 23% gewijzigd door Gekke Jantje op 14-01-2018 10:23 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Ja, ik denk dat dat zowel zowel door het hogere vermogen als door branding komt. De meeste mensen die een laptop kopen weten niets van hardware maar ze kennen wel de merken Nvidia en Intel beter dan het merk AMD. Vergelijk het maar met dat mensen die niets over headphones weten (no offense) Beats kopen omdat Beats topsporters, popartiesten en acteurs/actrices betaalde om Beats te dragen terwijl je voor hetzelfde bedrag veel modellen kan kiezen die beter zijn.Enchantress schreef op zondag 14 januari 2018 @ 03:15:
[...]
Daarom denk ik zelf dus ook dat zoals ik al zei het meerendeels komt door de verkoop van OEM’s en laptops, daar is/was AMD nergens.
Zelfs de jongens van de Nederlandse nationale voetbalploeg droegen die in 2008. Hint, dat doen ze niet voor een paar duizend € per persoon.
In dit specifieke geval moet je er ook nog eens bij sitlstaan welk deel van de prijs gebruikt wordt om die marketing te betalen.
Het feit dat AMD nu graphics kan aanbieden in combinatie met een sterke CPU, zowel via Intel (ik noem het voor het gemak ook maar een APU) als hun eigen APU's, zal zeker helpen om AMD-graphics in veel meer laptops te krijgen.
Ik heb het eerder aangegeven, ik vermoed dat AMD met opzet de voorraad beperkt om te voorkomen dat bij het knappen van de 'mining'-zeepbel de tweedehandsmarkt wordt overspoeld en nieuwe kaarten veel minder worden verkocht. Precies op het moment dat het leek dat de zeepbel ging knappen, wat volgens mij ook te maken had met een aantal politieke kwesties (China wat die virtuele munten aan banden zou willen leggen, beslissingen die in die gemeenschap van 'miners' worden genomen), werden de AIB-versies van Vega geïntroduceerd en ze lagen ook direct op de winkelschappen in Duitsland en Engeland. Binnen een paar weken werd de zeepbel weer flink opgeblazen en als sneeuw voor de zon verdwenen de AIB-kaarten en elk nieuws erover. Toeval? Ik denk het niet.Maar inderdaad de prijzen zijn helaas hoog en de beschikbaarheid is laag...
Zoiets. Nvidia verdeelt bij DX11 de load over alle CPU-kernen ten koste van de extra CPU-belasting die dit verdelen zelf geeft. Dit werkt omdat jarenlang de meeste spellen niet 4 kernen volledig belastten, als ze al meer dan 1 kern gebruikten. Nu het gebruik van 4 kernen fors is toegenomen breekt de tijd aan dat spellen met DX11 voor Nvidia niet meer goed zullen gaan draaien op een quadcore maar de betaalbare hexacore en het heel erg ver achterlopen van de consoles zal dit fors beperken.Ja, dus bij DX11 verdeeld NVIDIA softwarematig de CPU load, daar AMD dat dus niet kon of niet voor elkaar kreeg bij DX11 en nu bij DX12 en vulkan wel doet als het ware? Heel kort gezegd.
De architectuur van de AMD-kaarten geeft om tal van redenen een voordeel voor Vulkan en goed gebruikt DX12, een van de redenen is dat de hardware beter is in het uitvoeren van meerdere takene tegelijkertijd met een minimum aan overhead maar ook op andere punten is AMD verder voor Vulkan en DX12. Tot nu toe lijkt Vulkan nog veel beter te werken dan DX12 maar dat zou wel eens meer te maken kunnen hebben met de uitvoering dan met de API.
PS
Ik was even aan het googlen met "DX12", raad eens welke webpagina bovenaan stond in Google, nog wel op plaats 1 en 2.
spoiler:
Nvidia. Ondanks dat ze zuigen in DX12, in vergelijking met AMD, staan ze nog bovenaan in de zoekmachine, waarschijnlijnk door een combinatie van het hebben van een veel grotere website en doordat veel meer mensen verwijzen naar die website. Het is wellicht illustratief voor hoe groot de mindshare van Nvidia is. Daar zijn tal van redenen voor zoals ik het zie: de This Is The Way It Is Meant To Be Played, Gameworks en voorgangers (zoals het rookeffect wat sommige spellen onspeelbaar maakte voor AMD-kaarten), PhysX en later dat bij AMD het vermogen wel erg hoog werd bij stock settings.
[ Voor 9% gewijzigd door Verwijderd op 14-01-2018 14:56 ]
Een RX Vega 64 is nauwelijks krachtiger dan een GTX1080Ti. Wegblazen gaat ook niet gebeuren, gelijk komen, of tenminste flink inlopen kan wel gaan gebeuren de komende tijd. De Ti heeft een aantal voordelen als het om gaming loads gaat, wat compenseert als een RX Vega echt kan laten zien wat ze kunnen, goede DX12/Vulkan implementaties dus. Het blijft de vraag wanneer dit de standaard gaat worden. Het werden er steeds meer het afgelopen jaar, maar het is zeker niet de standaard voor grote releases.Gekke Jantje schreef op zondag 14 januari 2018 @ 10:12:
Ja je zou ondertussen dan ook wel verwachten dat AMD RX Vega in DX12 en Vulkan door zijn rauwe kracht de GTX 1080 Ti ver achter zou laten, in principe is Vega 64 bijna de helft sneller op papier. Doet Nvidia dan helemaal niets hardwarematig in low level API's of halen ze bij Nvidia al alles uit wat mogelijk is met DX12 en Vulkan?
Ik zie dit nog helemaal niet echt terug in games
[afbeelding]
[afbeelding]
Verder is er geen low level acces bij welke Nvidia Geforce kaart dan ook. Low level API acces kan alleen als je vanuit je programma directe toegang hebt tot de hardware zonder dat er een driver tussen zit die alle instructies moet omzetten naar commands voor de GPU. De GPU driver bij DX12/Vulkan zorgt hier alleen voor doorgifte van commands. Een hardware scheduler op de GPU is hiervoor noodzakelijk omdat deze alle commands moet verdelen. Die hebben Nvidia kaarten niet. Bij Nvidia blijft het altijd high level acces omdat de driver voor de scheduling zorgt. Dat is ook waarom Nvidia kaarten nauwelijks winnen bij DX12/Vulkan, en soms zelfs prestaties verliezen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nvidia wint zeker wel wat in DX12 AOTS en vulkan DOOM. Nvidia boekt wel midner winsten dan AMD en het ligt aan de game ontwikkelaar. Zie ook de extra draw calls van de GTX 1060. Nivida doet het wat beter met Vulkan games dan met DX 12 games.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Ik denk dat het aantal drawcalls voor de komende generaties niet meer uitmaakt na de 20 miljoenGekke Jantje schreef op zondag 14 januari 2018 @ 15:24:
Nvidia wint zeker wel wat in DX12 AOTS en vulkan DOOM. Nvidia boekt wel midner winsten dan AMD en het ligt aan de game ontwikkelaar. Zie ook de extra draw calls van de GTX 1060. Nivida doet het wat beter met Vulkan games dan met DX 12 games.
Het verschil is dat met Vulkan en DX12 bij AMD in feite de cpu handrem er vanaf wordt gehaalt en ze daar geen last meer van hebben.
Pas als games echt meer gebruik gaan maken van het aantal draw calls wat ze echt kunnen maken dan zal die grens een keer mee gaan spelen; maar ga er maar vanuit dat die grens de traagste console van het moment wordt, de Xbox One dus. Voor pc met een hogere kwaliteits poort zal de grens wellicht hoger liggen.
Edit 2:
Wat je vooral kan verwachten is minder generieke dingen in een spel. Veel dingen zoals bomen worden middels instancing geplaatst, daardoor is een tweede boom dat exact hetzelfde model gebruikt eigenlijk gratis om te plaatsen als het om een draw call gaat. Met meer draw calls tot je beschikking kunnen developers meer variatie toepassen.
[ Voor 32% gewijzigd door Sp3ci3s8472 op 14-01-2018 15:38 ]
Verwijderd
@Enchantress
Wat betreft Gimpworks, een mooi voorbeeld vind ik Assassin's Creed 2 Revelations. Ik heb dit spel gespeeld met een HD 7850 (1050 MHz), overal in het spel krijg je frequent microstutter door het rookeffect wat Nvidia gebruikt. Het ergeste is nog dat het er bepaald niet goed uitziet, voor zo ver je er al iets van ziet met een AMD-kaart (geen idee hoe het er uitziet met een Nvidia-kaart). Een mooi voorbeeld van performance gimpen, de eigen kaarten gaan er ook slechter door presteren maar de kaarten van de concurrent worden nog meer gebottleneckt. AC3 en AC4 waren zelfs onspeelbaar op de beste AMD kaarten tot maanden na de release, dat had uiteraard niets met de hardware maar alles met Gimpworks te maken.
De dummie-uitleg, de architectuur die Radeon gebruikt is meer verfijnd dan die van Nvidia, een verdere evolutie. Nvidia ging die kant op met Fermi maar stopte er vervolgens mee omdat het vermogen van Fermi nog veel meer uit de hand liep dan dat later het geval was bij AMD. De eenvoudigere en oudere architectuur van Nvidia leent zich goed voor een oudere API zoals DX11, AMD koos ervoor om ondertussen Mantle => Vulkan te pushen omdat de combinatie van dit en de meer moderne architectuur betere performance geeft. Nvidia heeft ongeveer 2,5 keer zoveel te besteden aan graphics als AMD aan graphics en CPU. Nvidia kan het betalen om een groot softwareteam te hebben wat voor elk spel de driver dusdanig tweakt dat alles uit de hardware wordt gehaald.
Dan kan je het hebben over de vraag waarom Nvidia zoveel meer te besteden heeft, dat is voor een andere keer, alles wat ik er nu over zeg is dat dit voor een deel komt doordat Nvidia proprietary hardware (PhysX, gekocht van een ander bedrijf en verkrijgbaar als aparte kaart totdat Nvidia het kocht) en software (Gimpworks en voorgangers) heeft misbruikt om de performance van de concurrenten te bottlenecken en op die manier kunstmatig een voordeel te krijgen.
Zoals Daniël aangeeft valt dit voordeel van Nvidia - veel meer geld => veel groter softwareteam voor optimalisatie drivers - weg bij Vulkan en DX12, het gaat dan enkel nog om wie de beste hardware ontwerpt. Nvidia kan dan moeilijk nog het grotere budget benutten om meer performance uit de kaarten te halen, hooguit kunnen ze meer besteden aan de ontwikkeling van de hardware.
Wat betreft Gimpworks, een mooi voorbeeld vind ik Assassin's Creed 2 Revelations. Ik heb dit spel gespeeld met een HD 7850 (1050 MHz), overal in het spel krijg je frequent microstutter door het rookeffect wat Nvidia gebruikt. Het ergeste is nog dat het er bepaald niet goed uitziet, voor zo ver je er al iets van ziet met een AMD-kaart (geen idee hoe het er uitziet met een Nvidia-kaart). Een mooi voorbeeld van performance gimpen, de eigen kaarten gaan er ook slechter door presteren maar de kaarten van de concurrent worden nog meer gebottleneckt. AC3 en AC4 waren zelfs onspeelbaar op de beste AMD kaarten tot maanden na de release, dat had uiteraard niets met de hardware maar alles met Gimpworks te maken.
Onzin, doe alsjeblieft geen stellige uitspraken alvorens je ergens voldoende in verdiept te hebben, er wordt al genoeg onzin verspreid via het internet. Meestal reageer ik niet op die manier maar dit is geen subjectieve kwestie. Nog los van de benchmarks, als je even opzoekt welke functies van DX12 en Vulkan wel en niet worden ondersteund door welke grafische kaarten en hoe de architectuur verschilt dan zou je weten dat AMD bij DX12 en Vulkan een voordeel heeft t.o.v. Nvidia. De benchmarks wijzen het echter ook uit.Gekke Jantje schreef op zondag 14 januari 2018 @ 09:57:
Het is ook onzin dat AMD zo veel beter werkt met Vulkan en Direct Disater 12
De dummie-uitleg, de architectuur die Radeon gebruikt is meer verfijnd dan die van Nvidia, een verdere evolutie. Nvidia ging die kant op met Fermi maar stopte er vervolgens mee omdat het vermogen van Fermi nog veel meer uit de hand liep dan dat later het geval was bij AMD. De eenvoudigere en oudere architectuur van Nvidia leent zich goed voor een oudere API zoals DX11, AMD koos ervoor om ondertussen Mantle => Vulkan te pushen omdat de combinatie van dit en de meer moderne architectuur betere performance geeft. Nvidia heeft ongeveer 2,5 keer zoveel te besteden aan graphics als AMD aan graphics en CPU. Nvidia kan het betalen om een groot softwareteam te hebben wat voor elk spel de driver dusdanig tweakt dat alles uit de hardware wordt gehaald.
Dan kan je het hebben over de vraag waarom Nvidia zoveel meer te besteden heeft, dat is voor een andere keer, alles wat ik er nu over zeg is dat dit voor een deel komt doordat Nvidia proprietary hardware (PhysX, gekocht van een ander bedrijf en verkrijgbaar als aparte kaart totdat Nvidia het kocht) en software (Gimpworks en voorgangers) heeft misbruikt om de performance van de concurrenten te bottlenecken en op die manier kunstmatig een voordeel te krijgen.
Zoals Daniël aangeeft valt dit voordeel van Nvidia - veel meer geld => veel groter softwareteam voor optimalisatie drivers - weg bij Vulkan en DX12, het gaat dan enkel nog om wie de beste hardware ontwerpt. Nvidia kan dan moeilijk nog het grotere budget benutten om meer performance uit de kaarten te halen, hooguit kunnen ze meer besteden aan de ontwikkeling van de hardware.
[ Voor 106% gewijzigd door Verwijderd op 14-01-2018 18:34 ]
Ik blijf er gewoon bij dat het onzin is en dat is het ook. De winsten van AMD tegenover Nvidia is niet zo extreem groot door low level API's Het komt namelijk op mij over dat de verschillen extreem groot zijn vandaar mijn opmerking. Ik heb me er ook goed ik verdiept en spreek uit ervaring en het zien van reviews. Dat AMD wat meer voordeel heeft met low level API's ontken ik verder ook niet maar hier word er zoals gewoonlijk weer overdreven gebracht. De rest van de speculatie wil ik niet eens op in gaan want daar zijn geen feiten van hoe en waarom, het typisch vingertje wijzen. Gameworks (troll woord gimpworks ga ik niet gebruiken) word trouwens ook steeds meer opensource.
[ Voor 53% gewijzigd door Gekke Jantje op 14-01-2018 18:12 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Dat is toch ook het hele punt niet? Bv de Vega 64 presteert helemaal niet veel beter dan de GTX 1080TI. Wat je ziet is dat als er DX11 gebruikt wordt de Vega 64 rond de GTX 1080 zit en met gameworks (gimpworks sorryGekke Jantje schreef op zondag 14 januari 2018 @ 18:00:
Ik blijf er gewoon bij dat het onzin is en dat is het ook. De winsten van AMD tegenover Nvidia is niet zo extreem groot in low level API's Het komt namelijk op mij over dat de verschillen extreem groot zijn vandaar mijn opmerking. Ik heb me er ook goed ik verdiept en spreek uit ervaring en het zien van reviews.
Kijk eens de verschillen tussen AMD en NVIDIA van DX11, DX12, Vulkan.
Wat je ziet is dat NVIDIA geen tot weinig performance “erbij” krijgt bij DX12 of Vulkan ten opzichte van DX11.
AMD gaat er wel degelijk veel op vooruit met DX12 en vulkan ten opzichte van DX11, of terwijl zoals iemand hierboven al zei, de handrem gaat eraf bij AMD.
Daar zit het enorme verschil.
Dit zie je heel goed bij de RX 580 vs GTX 1060.
Zo zie ik het tenminste als ik naar de benchmarks kijk van vele verschilende sites. ik kan er technisch gesproken niet veel over zeggen, ben me eigen nog veel aan het inlezen op dit gebied, dan moet je eerder bij de mannen/vrouwen hierboven zijn.
Verwijderd
Twijfelachtig en voor zo ver Nvidia daar net zo'n hoge of een hogere FPS haalt is dit met belangrijke kanttekeningen.Gekke Jantje schreef op zondag 14 januari 2018 @ 15:24:
Nvidia wint zeker wel wat in DX12 AOTS
Met zeer sterk verfijnde drivers heeft Nvidia de FPS verhoogt nadat Nvidia meer dan een jaar lang achterliep, wat minder bekend is dat Nvidia niet de juiste textures weergeeft, Nvidia rendert minder complexe textures. Dit viel op bij een Ryzen benchmark. Als iemand anders de link heeft opgeslagen, be my guest, het is te lang geleden om te graven met de zoekmachines.
In welke benchmark?en vulkan DOOM.




De 580 zit veel dichter in de buurt van de 1070 dan van de 1060 en zelfs de 480 versloeg de 980 Ti.
Ik zie toch echt overal de 580 boven de 1060 staan, hoe leidt Nvidia daar?
+ dit probleem, wederom de textures.
Deze jongen heeft geen enkele voorkeur voor welk merk dan ook, veel objectiever dan hem vind je niet bij dit soort Youtubers.
Of dat het is omdat Nvidia valsspeelt of omdat de hardware van Nvidia in combinatie met hun drivers moeite heeft om het juist te renderen weet ik niet maar het is een gegeven dat er van alles mis gaat met de textures bij Nvidia in combinatie met de beide spellen waarbij AMD lang zeer dominant leidde en Nvidia later wat terugkwam.
[ Voor 3% gewijzigd door Verwijderd op 14-01-2018 18:20 ]
Bij DOOM moet ik er bij zeggen dat het vooral om de minimale fps gaat en dat het denk ik meer aan de CPU ligt. Ik heb zelf vaak zat gezien dat DOOM op bepaalde plekken in de game door Vulkan soms wel 30 fps verschil is te zien in de min, van bijvoorbeeld 80 FPS naar 110 fps.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Laat maar zo'n benchmark zien. Ik kijk altijd aandachtig naar minima, bij elke benchmark die ik van Doom zag was mijn gedachte dat de performance bij AMD beter is als je die twee samen neemt. Je moet een minimum ook altijd in de juiste context zien, je weet nog best weinig als je slechts het minimum (of minimum 1%) en het gemiddelde hebt, dan is er nog steeds van alles mogelijk. Zo kan het bijvoorbeeld dat Nvidia 20% van de tijd op het 2% minimum of lager zit terwijl AMD 10% van de tijd op het 2% minimum of lager zit waarbij de 1% wel lager is. Wat speelt dan beter? Dat hangt af van hoe hoog die 1% is. Bij GTAV zie je dat Intel-CPU's altijd een hogere gemiddelde FPS en 1% FPS halen dan Ryzen-CPU's, toch speelt het spel minder lekker op sommige van die Intel-CPU's doordat ze meer last hebben van microstutter met in 2 minuten tijd 3 keer een framerendertijd van >0,1 seconde, bij Ryzen was dit 1 keer bij hetzelfde stuk. De inputlag was trouwens maximaal 1/180 seconde verschillend, veel minder dan wat het verschil in de FPS suggereert. De inputlag is belangrijker dan de FPS.Gekke Jantje schreef op zondag 14 januari 2018 @ 18:21:
Bij DOOM moet ik er bij zeggen dat het vooral om de minimale fps gaat en dat het denk ik meer aan de CPU ligt. Ik heb zelf vaak zat gezien dat DOOM op bepaalde plekken in de game door Vulkan soms wel 30 fps verschil is te zien in de min, van bijvoorbeeld 80 FPS naar 110 fps.
Een nog simpeler voorbeeld, in de USA is het gemiddelde inkomen fors hoger dan in Nederland, toch hebben de meeste Americanen minder te besteden dan hun evenknieën in Nederland omdat de spreiding tussen de lage en hoge inkomens zoveel groter is. Dit om aan te geven dat je voorzichtig moet zijn met de interpretatie van cijfers.
De benchmarks die ik als richtlijn gebruik: gewoon het zien van gameplay waarbij je de beide kaarten in beeld ziet en je de gameplaybeelden ziet, waarbij de speler zoveel mogelijk op dezelfde manier speelt. Dat is de enige betrouwbare FPS-benchmark en dan nog weet je niets over de inputlag maar dat is een ander verhaal. Dat heeft echter niet veel meer met AMD te maken dus laten we terug ontopic gaan door er een concrete benchmark met minima bij te pakken, een die uit een betrouwbare bron komt.
[ Voor 91% gewijzigd door Verwijderd op 14-01-2018 18:40 ]
Die lowlevel api's is leuk en aardig, maar waarom zou je als ontwikkelaar die extra moeite doen? De consoles hebben zulke trage cpu's dat het op de gemiddelde pc het ook met de extra overhead goed kan draaien.
Ook is het percentage amd gpu's in game pc's ondertussen dramatisch laag. Vlak na de launch van de 480 begonnen de cryptocurrencies te stijgen en amd geeft voor mining een betere bang/buck. Dus als je de moeite neemt heeft de overgrote meerderheid van je klanten er ook nog eens weinig aan.
Ook is het percentage amd gpu's in game pc's ondertussen dramatisch laag. Vlak na de launch van de 480 begonnen de cryptocurrencies te stijgen en amd geeft voor mining een betere bang/buck. Dus als je de moeite neemt heeft de overgrote meerderheid van je klanten er ook nog eens weinig aan.
Mechwarrior Online: Flapdrol
Deze generatie is het verschil kleiner geworden. De vorige generatie was het verschil een stuk groter. Ik ga deze discussie hier niet voeren want dit is al vaker gedaan. Ga zelf eens wat reviews opzoeken.Gekke Jantje schreef op zondag 14 januari 2018 @ 18:00:
Ik blijf er gewoon bij dat het onzin is en dat is het ook. De winsten van AMD tegenover Nvidia is niet zo extreem groot door low level API's Het komt namelijk op mij over dat de verschillen extreem groot zijn vandaar mijn opmerking. Ik heb me er ook goed ik verdiept en spreek uit ervaring en het zien van reviews. Dat AMD wat meer voordeel heeft met low level API's ontken ik verder ook niet maar hier word er zoals gewoonlijk weer overdreven gebracht. De rest van de speculatie wil ik niet eens op in gaan want daar zijn geen feiten van hoe en waarom, het typisch vingertje wijzen. Gameworks (troll woord gimpworks ga ik niet gebruiken) word trouwens ook steeds meer opensource.
Ga hier geen GameWorks zitten verdedigen, het was(is) gewoon bagger eerste klas. Nu het opensource is zal het wellicht verbeteren.
Vulkan kan je bij alles gebruiken.haarbal schreef op zondag 14 januari 2018 @ 18:29:
Die lowlevel api's is leuk en aardig, maar waarom zou je als ontwikkelaar die extra moeite doen? De consoles hebben zulke trage cpu's dat het op de gemiddelde pc het ook met de extra overhead goed kan draaien.
Ook is het percentage amd gpu's in game pc's ondertussen dramatisch laag. Vlak na de launch van de 480 begonnen de cryptocurrencies te stijgen en amd geeft voor mining een betere bang/buck. Dus als je de moeite neemt heeft de overgrote meerderheid van je klanten er ook nog eens weinig aan.
“Vulkan is a new generation graphics and compute API that provides high-efficiency, cross-platform access to modern GPUs used in a wide variety of devices from PCs and consoles to mobile phones and embedded platforms”
https://www.khronos.org/vulkan/
DX12 bv is alleen te gebruiken op pc’s met Windows 10.
Ik wil het verschil best laten zien, ik heb het vaker gepost op fora maar daar voor zal ik DOOM weer opnieuw moeten installeren. Je hebt op bepaalde punten in game waar je ver weg kunt kijken die grote verschillen tussen Vulkan en OGL waarschijnlijk komen die punten in de game niet genoeg voor om tijdens een benchmark de gemiddelde framerate ver omhoog te krijgen.Verwijderd schreef op zondag 14 januari 2018 @ 18:29:
[...]
Laat maar zo'n benchmark zien. Ik kijk altijd aandachtig naar minima, bij elke benchmark die ik van Doom zag was mijn gedachte dat de performance bij AMD beter is als je die twee samen neemt. Je moet een minimum ook altijd in de juiste context zien, je weet nog best weinig als je slechts het minimum (of minimum 1%) en het gemiddelde hebt, dan is er nog steeds van alles mogelijk. Zo kan het bijvoorbeeld dat Nvidia 20% van de tijd op het 2% minimum of lager zit terwijl AMD 10% van de tijd op het 2% minimum of lager zit waarbij de 1% wel lager is. Wat speelt dan beter? Dat hangt af van hoe hoog die 1% is. Bij GTAV zie je dat Intel-CPU's altijd een hogere gemiddelde FPS en 1% FPS halen dan Ryzen-CPU's, toch speelt het spel minder lekker op sommige van die Intel-CPU's doordat ze meer last hebben van microstutter met in 2 minuten tijd 3 keer een framerendertijd van >0,1 seconde, bij Ryzen was dit 1 keer bij hetzelfde stuk. De inputlag was trouwens maximaal 1/180 seconde verschillend, veel minder dan wat het verschil in de FPS suggereert. De inputlag is belangrijker dan de FPS.
Een nog simpeler voorbeeld, in de USA is het gemiddelde inkomen fors hoger dan in Nederland, toch hebben de meeste Americanen minder te besteden dan hun evenknieën in Nederland omdat de spreiding tussen de lage en hoge inkomens zoveel groter is. Dit om aan te geven dat je voorzichtig moet zijn met de interpretatie van cijfers.
De benchmarks die ik als richtlijn gebruik: gewoon het zien van gameplay waarbij je de beide kaarten in beeld ziet en je de gameplaybeelden ziet, waarbij de speler zoveel mogelijk op dezelfde manier speelt. Dat is de enige betrouwbare FPS-benchmark en dan nog weet je niets over de inputlag maar dat is een ander verhaal. Dat heeft echter niet veel meer met AMD te maken dus laten we terug ontopic gaan door er een concrete benchmark met minima bij te pakken, een die uit een betrouwbare bron komt.
Edit
Dit is bijvoorbeeld zo'n stukje in DOOM.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Dat jij het niet kan volgen omdat jij geen kennis van de hardware hebt omdat jij je daar niet in hebt verdiept (dat maakt verder niet uit maar neem het dan voor kennisgeving aan of ga je er alsnog in verdiepen) wil niet zeggen dat het speculatie is. Als jij van mening bent speuclatie te hebben gezien in die reactie, citeer dan maar het volgens jou speculatieve stuk.Gekke Jantje schreef op zondag 14 januari 2018 @ 18:00:
De rest van de speculatie
Voor het gemak van de lezer zal ik het stuk tekst citeren wat volgens jou speculatief is:
Nee, Gimpworks is geen trolwoord, het is letterlijk wat Gameworks doet, de performance gimpen. Ook dat is een feit, dat is namelijk het directe effect van proprietary code gebruiken die de performance van de concurrent meer bottleneckt dan die van je eigen kaarten terwijl het visuele effect in het beste geval matig is, zeker t.o.v. het performanceverlies (hairworks is nog wel aardig maar TressFX krijgt het voor elkaar met aanzienlijk minder performanceverlies en dat is open code waar Nvidia voor kan optimaliseren, Nvidia gunt AMD niet hetzelfde).Verwijderd schreef op zondag 14 januari 2018 @ 17:31:
@Enchantress
De dummie-uitleg, de architectuur die Radeon gebruikt is meer verfijnd dan die van Nvidia, een verdere evolutie. Nvidia ging die kant op met Fermi maar stopte er vervolgens mee omdat het vermogen van Fermi nog veel meer uit de hand liep dan dat later het geval was bij AMD. De eenvoudigere en oudere architectuur van Nvidia leent zich goed voor een oudere API zoals DX11, AMD koos ervoor om ondertussen Mantle => Vulkan te pushen omdat de combinatie van dit en de meer moderne architectuur betere performance geeft. Nvidia heeft ongeveer 2,5 keer zoveel te besteden aan graphics als AMD aan graphics en CPU. Nvidia kan het betalen om een groot softwareteam te hebben wat voor elk spel de driver dusdanig tweakt dat alles uit de hardware wordt gehaald.
Dan kan je het hebben over de vraag waarom Nvidia zoveel meer te besteden heeft, dat is voor een andere keer, alles wat ik er nu over zeg is dat dit voor een deel komt doordat Nvidia proprietary hardware (PhysX, gekocht van een ander bedrijf en verkrijgbaar als aparte kaart totdat Nvidia het kocht) en software (Gimpworks en voorgangers) heeft misbruikt om de performance van de concurrenten te bottlenecken en op die manier kunstmatig een voordeel te krijgen.
Zoals Daniël aangeeft valt dit voordeel van Nvidia - veel meer geld => veel groter softwareteam voor optimalisatie drivers - weg bij Vulkan en DX12, het gaat dan enkel nog om wie de beste hardware ontwerpt. Nvidia kan dan moeilijk nog het grotere budget benutten om meer performance uit de kaarten te halen, hooguit kunnen ze meer besteden aan de ontwikkeling van de hardware.
Dat is het wel.Verwijderd schreef op zondag 14 januari 2018 @ 18:39:
Gimpworks is geen trolwoord
Mechwarrior Online: Flapdrol
Ik stopte al weer met lezen omdat je begint over dat ik geen kenis hebt over hardware, da lekker bij een ander op zo'n manier op de man in met vooroordelen, het is onzin dat ik geen kennis hebt en op die manier reageren lokt alleen maar flamewars uit.Verwijderd schreef op zondag 14 januari 2018 @ 18:39:
[...]
Dat jij het niet kan volgen omdat jij geen kennis van de hardware hebt omdat jij je daar niet in hebt verdiept (dat maakt verder niet uit maar neem het dan voor kennisgeving aan of ga je er alsnog in verdiepen) wil niet zeggen dat het speculatie is. Als jij van mening bent speuclatie te hebben gezien in die reactie, citeer dan maar het volgens jou speculatieve stuk.
Voor het gemak van de lezer zal ik het stuk tekst citeren wat volgens jou speculatief is:
[...]
Nee, Gimpworks is geen trolwoord, het is letterlijk wat Gameworks doet, de performance gimpen. Ook dat is een feit, dat is namelijk het directe effect van proprietary code gebruiken die de performance van de concurrent meer bottleneckt dan die van je eigen kaarten terwijl het visuele effect in het beste geval matig is, zeker t.o.v. het performanceverlies (hairworks is nog wel aardig maar TressFX krijgt het voor elkaar met aanzienlijk minder performanceverlies en dat is open code waar Nvidia voor kan optimaliseren, Nvidia gunt AMD niet hetzelfde).
Dat Gameworks met bepaalde effect zwaar is weet ik maar waarom dat het zo zwaar is kun je over speculeren, ik ga niet zo maar met mijn vingertje wijzen zonder de echte feiten te kennen want die zijn er niet en weet Nvida alleen zelf. Dit maakt het nog niet dat ik geen kennis over hardware hebt integendeel. We verschillen alleen van mening en ik geef niet snel zo maar een bedrijf ergens de schuld van.
[ Voor 15% gewijzigd door Gekke Jantje op 14-01-2018 18:52 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Echter is het helaas geen open source, Nvidia open sourcet oudere features terwijl het nieuwe features blijft introduceren die eerst jarenlang proprietary zijn. Op die manier is de schade al geleden (benchmarks voor spellen tot een paar maanden na het debuut blijven herhaald worden). Zie het haareffect in TW3 en dat lichteffect bij RotTR. Dat valt trouwens ook de developers te verwijten, CDPR had er ook voor kunnen kiezen om TressFX te gebruiken. Verder een prima bedrijf maar wel een mooi voorbeeld, uiteindelijk blijkt het haareffect ook voor Nvidia-kaarten zeer slecht te werken. Met een 1080 en 1080p kan je het eventueel nog overwegen...Sp3ci3s8472 schreef op zondag 14 januari 2018 @ 18:29:
[...]
Deze generatie is het verschil kleiner geworden. De vorige generatie was het verschil een stuk groter. Ik ga deze discussie hier niet voeren want dit is al vaker gedaan. Ga zelf eens wat reviews opzoeken.
Ga hier geen GameWorks zitten verdedigen, het was(is) gewoon bagger eerste klas. Nu het opensource is zal het wellicht verbeteren.
Ik vind tressFX er ook mooier uit zien, Hairworks is net touw. Ik weet alleen niet of je TressFX ook overal voor kunt gebruiken zoals dikkere vachten en veren?Verwijderd schreef op zondag 14 januari 2018 @ 18:52:
[...]
Echter is het helaas geen open source, Nvidia open sourcet oudere features terwijl het nieuwe features blijft introduceren die eerst jarenlang proprietary zijn. Op die manier is de schade al geleden (benchmarks voor spellen tot een paar maanden na het debuut blijven herhaald worden). Zie het haareffect in TW3 en dat lichteffect bij RotTR. Dat valt trouwens ook de developers te verwijten, CDPR had er ook voor kunnen kiezen om TressFX te gebruiken. Verder een prima bedrijf maar wel een mooi voorbeeld, uiteindelijk blijkt het haareffect ook voor Nvidia-kaarten zeer slecht te werken. Met een 1080 en 1080p kan je het eventueel nog overwegen...
The following repositories are available on GitHub for GameWorks:
•AnselSDK (EULA)
•Flow (EULA)
•FleX (EULA)
•Blast (EULA)
• Vulkan/OpenGL Samples (public)
•NvCloth (EULA)
•Blast (EULA)
•HairWorks ( EULA )
•HBAO+ ( EULA )
•FaceWorks (public)
•PhysX SDK ( EULA )
•Volumetric Lighting ( EULA )
• D3D Samples (public)
[ Voor 18% gewijzigd door Gekke Jantje op 14-01-2018 18:58 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Dindingdingdingding, u gaat door naar de volgende ronde.Enchantress schreef op zondag 14 januari 2018 @ 18:35:
[...]
Vulkan kan je bij alles gebruiken.
“Vulkan is a new generation graphics and compute API that provides high-efficiency, cross-platform access to modern GPUs used in a wide variety of devices from PCs and consoles to mobile phones and embedded platforms”
https://www.khronos.org/vulkan/
DX12 bv is alleen te gebruiken op pc’s met Windows 10.
Het is niet de enige reden om Vulkan te gebruiken maar inderdaad, het feit dat je met 1 keer werken direct alle Apple-klanten, Linux-gebruikers, de consoles en de Windows-gebruikers het spel kan aanbieden en enkel nog wat hoeft te spelen met de settings (bij consoles) maakt het zeer aantrekkelijk om Vulkan te gebruiken. Daarnaast is de performance veel beter, indien juist geïmplementeerd, waardoor je zoals @Sp3ci3s8472 uitlegde rijkere gamewerelden (meer variatie) kan aanbieden en dit ook nog met een hogere FPS. Het wordt mogelijk om meerdere GPU's, zelfs van verschillende merken, te gebruiken en het wordt mogelijk om alle CPU-kernen nuttig te gebruiken waardoor je veel meer verwerkings'kracht' van de CPU beschikbaar hebt voor het spel. Dit zorgt ervoor dat je serieuze AI, goede botsingsdetectie (zeer sterk onderschat probleem!) en hitboxes, echte fysica (zij het versimpelt maar de wetten van Newton kan je dan gemakkelijk gebruiken) etc. in spellen krijgt.
Dit alles weet iedereen die de moeite neemt om zich eerst een beetje te verdiepen in Vulkan en pas dan een stelling in te nemen. For crying out loud, de Khronos Group plaatst al hun lezingen, vaak gericht op software-developers, op Youtube, het is gemakkelijk om je erin te verdiepen.
Dit is Nvidia Open GL vs. Vulkan, dat kan je niet extrapoleren naar AMD OpenGL vs. Vulkan. Verder zou ik stellen dat ook voor Nvidia Doom beter draait met Vulkan dan met OpenGL.Gekke Jantje schreef op zondag 14 januari 2018 @ 18:38:Dit is bijvoorbeeld zo'n stukje in DOOM.
[afbeelding]
Dat is wat jij hier zelf aangeeft. Als je de hardware begrijpt dan weet je dat AMD-kaarten een redelijk groot voordeel hebben bij Vulkan en DX12 indien deze API's goed worden gebruikt. Het voordeel is wat verkleind maar het is nog steeds zeer relevant. Dat volgt 1 op 1 uit de hardwarearchitectuur. Dat is niet iets wat ik uit mijn duim zuig, mensen die zich in de hardware-architectuur hebben verdiept - ik heb dat zelf ook tot op zekere hoogte gedaan - geven dit aan. Dit is totaal niet op de persoon gericht hoor. Ik denk dat jij in staat bent om je erin te verdiepen, ik geef jou de suggestie mee om dat meer te doen. Zoek eens op wat het verschil in de pipelines is tussen de twee architecturen.Gekke Jantje schreef op zondag 14 januari 2018 @ 18:44:
[...]
Ik stopte al weer met lezen omdat je begint over dat ik geen kenis hebt over hardware
Dat weet ik ook niet maar ik ben er wel van overtuigd dat je hetzelfde visuele resultaat kan krijgen met aanzienlijk betere performance indien je de code opensourcet zodat talloze professionals en vrijwilligers mee kunnen denken. Het is in het belang van alle gamers dat dit soort code en API's open source zijn. Het is leuk dat je misschien jaren later nog het spel kan spelen met die effecten indien iemand het optimaliseert maar de motivatie om dat te doen is fors minder als die code pas 1-2 jaar later open source wordt, dat moet echt al gebeuren voordat het spel uitkomt, op dat moment zijn veel nerds en professionals gemotiveerd om eraan te werken.Gekke Jantje schreef op zondag 14 januari 2018 @ 18:55:
[...]
Ik vind tressFX er ook mooier uit zien, Hairworks is net touw. Ik weet alleen niet of je TressFX ook overal voor kunt gebruiken zoals dikkere vachten en veren?
[ Voor 41% gewijzigd door Verwijderd op 14-01-2018 19:16 ]
Maar ik ontken ook niet dat AMD voordeel heeft het is alleen niet zo heel extreem als men wil laten denken.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Hier wordt niet gesuggereerd dat het extreem groot is, hier wordt aangegeven dat het substantieel is, genoeg om de AMD-kaarten in die spellen ruim boven de equivalente - voor zo ver dat bestaat - Nvidia-kaarten te tillen. Nu zal Nvidia heus wel beetje bij beetje betere hardwaresupport hiervoor regelen maar als je nu een kaart koopt dan zijn DX12 en Vulkan zeker een argument voor Polaris en Vega, in ieder geval wanneer de prijzen normaal zijn.Gekke Jantje schreef op zondag 14 januari 2018 @ 19:13:
Maar ik ontken ook niet dat AMD geen voordeel heeft het is alleen niet zo heel extreem als men wil laten denken.
Maar wat is een equivalente kaart? De chip van de 580 is 16% groter dan de 1060, de memorybus is 33% breder en het verbruik is veel hoger.Verwijderd schreef op zondag 14 januari 2018 @ 19:18:
Hier wordt niet gesuggereerd dat het extreem groot is, hier wordt aangegeven dat het substantieel is, genoeg om de AMD-kaarten in die spellen ruim boven de equivalente - voor zo ver dat bestaat - Nvidia-kaarten te tillen.
In de benchmark een aantal posts naar boven is de 580 17% sneller, maar moet je dat dan als winst zien of hooguit gelijkspel?
Mechwarrior Online: Flapdrol
Chipgrootte/memorybus is totaal oninteressant voor de gebruiker/consument. Ik denk dat deze alleen kijken naar prijs/prestatie en als deze gelijk zijn dat dan verbruik mogelijk meespeelt.haarbal schreef op zondag 14 januari 2018 @ 19:46:
[...]
Maar wat is een equivalente kaart? De chip van de 580 is 16% groter dan de 1060, de memorybus is 33% breder en het verbruik is veel hoger.
In de benchmark een aantal posts naar boven is de 580 17% sneller, maar moet je dat dan als winst zien of hooguit gelijkspel?
Verwijderd
Dain heeft het al beantwoord. De consument kijkt vooral naar de prijs en de performance, soms ook naar het vermogen afhankelijk van de situatie en het kennisniveau van die persoon. Zo weten gebruikers die zich er een beetje in verdiept hebben dat het reuze meevalt met het vermogen wanneer je ondervolt en dat AMD de referentiekaarten in zekere zin overklokt opstuurt om in de DX11-benchmarks niet al te veel achter te lopen bij het net uitkomen (later lopen ze dan weer in en vervolgens uit, bij de HD 7850, 290, 390 en 580 zag je dat duidelijk). Het is ook niet zo gek dat het nog wel meevalt met het extra vermogen als je niet overklokt aangezien tegenwoordig de power-gating best goed is.haarbal schreef op zondag 14 januari 2018 @ 19:46:
[...]
Maar wat is een equivalente kaart? De chip van de 580 is 16% groter dan de 1060, de memorybus is 33% breder en het verbruik is veel hoger.
In de benchmark een aantal posts naar boven is de 580 17% sneller, maar moet je dat dan als winst zien of hooguit gelijkspel?
De RX 580 van Sapphire/Asus//XFX/Gigabyte en de Vega56 van Sapphire/Asus zijn prima kaarten die van harte aan te bevelen zijn als je ze voor de normale prijs kan kopen.
Met de kanttekening dat Polaris 1,5 jaar oud is, dat maakt het iets anders, dan moet de prijs al een stuk onder de aanvankelijke MRSP liggen, zelfs al duurt het nog een jaar voordat Navi uitkomt.
[ Voor 15% gewijzigd door Verwijderd op 14-01-2018 20:17 ]
Waarom zet je die tegen elkaar? De RX 580 is in dezelfde prijsklasse als de GTX 1070, niet de GTX 1060.[b]Enchantress schreef op zondag 14 januari 2018 @ 18:16:
Dit zie je heel goed bij de RX 580 vs GTX 1060.
Verwijderd
Ben jij nu flauw aan het doen of ben jij serieus?Nature schreef op zondag 14 januari 2018 @ 20:16:
[...]
Waarom zet je die tegen elkaar? De RX 580 is in dezelfde prijsklasse als de GTX 1070, niet de GTX 1060.
Ja, we weten dat er een 'mining'-zeepbel is een dat AMD-kaarten 2 keer zo duur zijn zolang die zeepbel duurt omdat ze beter zijn in 'mining'. Nou, dan wacht je toch met het kopen van een kaart totdat die zeepbel eindelijk eens knapt. Ondertussen zijn overigens de Nvidia-kaarten ook fors duurder aan het worden maar het is minder dramatisch dan bij AMD. Zullen we ajb weer ontopic verder gaan? Aan die 'mining'-zeepbel valt helaas niets te doen, afwachten totdat die onzin weer voorbij is en gamers weer enkel jaren normaal kaarten kunnen kopen.
Kijk naar de normale prijs en de RX 580 kost minder dan de GTX 1060, je hebt ze ook voor die prijs kunnen kopen in mei. Idem voor de RX 480 en de GTX 1060. Daarom vergelijken wij de RX 580 met de GTX 1060, net zoals elke professionele (en amateuristische) hardwarereviewer dat doet.
By the way, veel plezier met al die tears, of met het betalen van €200 extra voor G-Sync. Als je toch flauw de huidige door 'mining' gedreven prijs wil vergelijken, doe het dan consistent en neem G-Sync vs. FreeSync dan ook mee.
[ Voor 74% gewijzigd door Verwijderd op 14-01-2018 20:30 ]
In de pricewatch staan geen RX 580 8GB kaarten voor minder dan 450 euro, dus als je nu een kaart koopt zijn dat elkaars concurrenten, toch?Verwijderd schreef op zondag 14 januari 2018 @ 20:18:
[...]
Ben jij nu heel erg flauw aan het doen of ben jij serieus?
Ja, we weten dat er een 'mining'-zeepbel is een dat AMD-kaarten 2 keer zo duur zijn zolang die zeepbel duurt omdat ze beter zijn in 'mining'. Nou, dan wacht je toch met het kopen van een kaart totdat die zeepbel eindelijk eens knapt. Ondertussen zijn overigens de Nvidia-kaarten ook fors duurder aan het worden maar het is minder dramatisch dan bij AMD. Zullen we ajb weer ontopic verder gaan? Aan die 'mining'-zeepbel valt helaas niets te doen, afwachten totdat die onzin weer voorbij is en gamers weer enkel jaren normaal kaarten kunnen kopen.
Kijk naar de normale prijs en de RX 580 kost minder dan de GTX 1060, je hebt ze ook voor die prijs kunnen kopen in mei. Idem voor de RX 480 en de GTX 1060. Daarom vergelijken wij de RX 580 met de GTX 1060, net zoals elke professionele (en amateuristische) hardwarereviewer dat doet.
By the way, veel plezier met al die tears, of met het betalen van €200 extra voor G-Sync. Als je toch flauw de huidige door 'mining' gedreven prijs wil vergelijken, doe het dna consistent en neem G-Sync vs. FreeSync dan ook mee.
Ik heb geen tears ik ben blij met mijn downgrade van GTX1070 naar R9 290 en upgrade naar free sync scherm.
[ Voor 72% gewijzigd door Nature op 14-01-2018 20:27 ]
Verwijderd
In de Nederlandse markt op dit moment wel maar het is flauw om op basis daarvan voor de performance niet de 580 met de 1060 te vergelijken gezien de prijs waarvoor de beide kaarten verkrijgbaar waren voordat die asociale en hebberige 'miners' weer hun slag sloegen.Nature schreef op zondag 14 januari 2018 @ 20:24:
[...]
In de pricewatch staan geen RX 580 8GB kaarten voor minder dan 450 euro, dus als je nu een kaart koopt zijn dat elkaars concurrenten, toch?
Geen respect van mij en echt niet alleen omdat ik graag een nieuwe grafische kaart zou kopen, ook omdat het idioot is in verband met het milieu
deze heb ik net even snel opgenomen. Komt niet boven de 140watt uit voor alleen de kaart..Verwijderd schreef op zondag 14 januari 2018 @ 20:15:
[...]
Dain heeft het al beantwoord. De consument kijkt vooral naar de prijs en de performance, soms ook naar het vermogen afhankelijk van de situatie en het kennisniveau van die persoon. Zo weten gebruikers die zich er een beetje in verdiept hebben dat het reuze meevalt met het vermogen wanneer je ondervolt en dat AMD de referentiekaarten in zekere zin overklokt opstuurt om in de DX11-benchmarks niet al te veel achter te lopen bij het net uitkomen (later lopen ze dan weer in en vervolgens uit, bij de HD 7850, 290, 390 en 580 zag je dat duidelijk). Het is ook niet zo gek dat het nog wel meevalt met het extra vermogen als je niet overklokt aangezien tegenwoordig de power-gating best goed is.
De RX 580 van Sapphire/Asus//XFX/Gigabyte en de Vega56 van Sapphire/Asus zijn prima kaarten die van harte aan te bevelen zijn als je ze voor de normale prijs kan kopen.
Met de kanttekening dat Polaris 1,5 jaar oud is, dat maakt het iets anders, dan moet de prijs al een stuk onder de aanvankelijke MRSP liggen, zelfs al duurt het nog een jaar voordat Navi uitkomt.
YouTube: Rise of the Tomb Raider benchmark AMD 1600x/RX 580=
terwijl als je hier ziet http://www.tomshardware.c...eview,review-33865-6.html
alleen de kaart 210 tot 225 watt verbruikt.
(Stotteringen komt denk door Youtube (?) want als ik de video direct via relive kijk stottert hij niet..)
Verwijderd
Heb jij live naar Youtube gestreamd? Dan krijg je typisch deze framedrops. AMD had hier ook veel last van bij een demonstratie van Ryzen, op de stream zag het er verschrikkelijk uit maar dat kwam louter doordat er veel gedropte frames waren, blijkbaar zie je dat veel meer bij gameplay dan bij mensen die bewegen.Enchantress schreef op zondag 14 januari 2018 @ 21:10:
[...]
deze heb ik net even snel opgenomen. Komt niet boven de 140watt uit voor alleen de kaart..
YouTube: Rise of the Tomb Raider benchmark AMD 1600x/RX 580=
terwijl als je hier ziet http://www.tomshardware.c...eview,review-33865-6.html
alleen de kaart 210 tot 225 watt verbruikt.
(Stotteringen komt denk door Youtube (?) want als ik de video direct via relive kijk stottert hij niet..)
Ja, dat vermogen valt reuze mee als je geen gekke dingen doet. Heb jij ondervolt? Zo nee, probeer eens 01 V eraf te halen. Als dat niet lukt 0,9, waarschijnlijk lukt dat wel. Vervolgens kan je nog wat finetunen als je dat wil. Leuk om mee te experimenteren.
Nee niet direct gestreamd maar geupload.Verwijderd schreef op zondag 14 januari 2018 @ 21:18:
[...]
Heb jij live naar Youtube gestreamd? Dan krijg je typisch deze framedrops. AMD had hier ook veel last van bij een demonstratie van Ryzen, op de stream zag het er verschrikkelijk uit maar dat kwam louter doordat er veel gedropte frames waren, blijkbaar zie je dat veel meer bij gameplay dan bij mensen die bewegen.
Ja, dat vermogen valt reuze mee als je geen gekke dingen doet. Heb jij ondervolt? Zo nee, probeer eens 01 V eraf te halen. Als dat niet lukt 0,9, waarschijnlijk lukt dat wel. Vervolgens kan je nog wat finetunen als je dat wil. Leuk om mee te experimenteren.
GPU: Sapphire RX 580 8GB Pulse (core 1400MHz 1050mv, MEM 2200MHz 1000mv)
Ik kom niet onder de 1,050v (standaard 1,150v) dan crasht hij, vreemd genoeg niet in Firestrike, RotTR, TR. tot nu to alleen nog maar in mirror`s edge catalyst steeds, dus vandaar van 1,030 naar 1,040 en uiteindelijk 1,050.
Ok, vraag.
Ik heb een Sapphire Nitro RX 480 4GB. Mijn monitor is via DVI aangesloten en ik heb een Vive.
Elke keer als ik de pc herstart en de Vive ingeplugd is (DP/HDMI maakt niet uit) dan blijft mijn monitor zwart. Alsof de AMD drivers niet weten dat dat de primary monitor is. De schermen van de Vive blijven trouwens zwart. Er is geen enkel probleem als ik de HDMI kabel in mijn TV stop.
Ik zie dat ik nog op driver versie 17.12.2 zit, met 18.1.1 nu uit. Maar ik verwacht daar geen verbetering van. Is er misschien een manier om mijn DVI aansluiting als hoofd monitor in te stellen (aangenomen dat dat het probleem is)?
Over het algemeen hibernate ik mijn PC, dus het is geen groot probleem. Alleen irritant als ik bij een reboot de Vive vergeet uit te pluggen.
Ik heb een Sapphire Nitro RX 480 4GB. Mijn monitor is via DVI aangesloten en ik heb een Vive.
Elke keer als ik de pc herstart en de Vive ingeplugd is (DP/HDMI maakt niet uit) dan blijft mijn monitor zwart. Alsof de AMD drivers niet weten dat dat de primary monitor is. De schermen van de Vive blijven trouwens zwart. Er is geen enkel probleem als ik de HDMI kabel in mijn TV stop.
Ik zie dat ik nog op driver versie 17.12.2 zit, met 18.1.1 nu uit. Maar ik verwacht daar geen verbetering van. Is er misschien een manier om mijn DVI aansluiting als hoofd monitor in te stellen (aangenomen dat dat het probleem is)?
Over het algemeen hibernate ik mijn PC, dus het is geen groot probleem. Alleen irritant als ik bij een reboot de Vive vergeet uit te pluggen.
@ArmEagle daar had je beter een topic voor aangemaakt. Maar euhm windows regelt toch wat je eerste monitor is.
Sorry @ArcticWolf verkeerde gepinned
Sorry @ArcticWolf verkeerde gepinned
[ Voor 21% gewijzigd door Damic op 18-01-2018 21:59 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Damic schreef op donderdag 18 januari 2018 @ 21:32:
@ArcticWolf daar had je beter een topic voor aangemaakt. Maar euhm windows regelt toch wat je eerste monitor is.
Nieuwe driver 18.1.1
http://support.amd.com/en...esktop?os=Windows+10+-+64
Release Notes
Download Full Release Notes
Resolved Issues
A small number of DirectX®9 games may experience crashes or instability.
Radeon FreeSync enabled system configurations may experience stuttering when using the performance metrics feature in Radeon Overlay.
Protected video content may intermittently experience a freeze or hang during playback.
A blank screen may be experienced while playing back videos when using Movies & TV player.
Starcraft™2 may experience corruption in multi GPU enabled system configurations.
Bezel compensation controls when creating display groups may be misaligned or have no functionality.
Blank videos may be experienced when playing back videos in edge browser after the system resumes from sleep.
Color corruption may intermittently be observed in Radeon overlay with multiple gaming applications and performance metrics running.
The Radeon WattMan fan slider may intermittently fail to change after loading profiles.
Enhanced Sync may not enable for game profiles in Radeon Settings when using Vulkan™ API.
On multi GPU enabled system configurations Player Unknowns Battlegrounds™ may experience menu item flickering.
CLINFO may report incorrect values in multi GPU system configurations.
http://support.amd.com/en...esktop?os=Windows+10+-+64
Release Notes
Download Full Release Notes
Resolved Issues
A small number of DirectX®9 games may experience crashes or instability.
Radeon FreeSync enabled system configurations may experience stuttering when using the performance metrics feature in Radeon Overlay.
Protected video content may intermittently experience a freeze or hang during playback.
A blank screen may be experienced while playing back videos when using Movies & TV player.
Starcraft™2 may experience corruption in multi GPU enabled system configurations.
Bezel compensation controls when creating display groups may be misaligned or have no functionality.
Blank videos may be experienced when playing back videos in edge browser after the system resumes from sleep.
Color corruption may intermittently be observed in Radeon overlay with multiple gaming applications and performance metrics running.
The Radeon WattMan fan slider may intermittently fail to change after loading profiles.
Enhanced Sync may not enable for game profiles in Radeon Settings when using Vulkan™ API.
On multi GPU enabled system configurations Player Unknowns Battlegrounds™ may experience menu item flickering.
CLINFO may report incorrect values in multi GPU system configurations.
[ Voor 156% gewijzigd door Enchantress op 18-01-2018 22:19 ]
AMD cancels the driver path for Primitive Shaders:
https://www.reddit.com/r/...th_for_primitive_shaders/
Zou het echt waar zijn
?
https://www.reddit.com/r/...th_for_primitive_shaders/
Zou het echt waar zijn
[ Voor 19% gewijzigd door edward2 op 23-01-2018 17:48 ]
Niet op voorraad.
Houdt er rekening mee dat de waarde voor vermogen die via de AMD driver uitgelezen wordt niet representatief is voor het werkelijke verbruik van de hele kaart. In het geval van Vega is het +/- de uitgelezen waarde + 35W.Enchantress schreef op zondag 14 januari 2018 @ 21:10:
[...]
deze heb ik net even snel opgenomen. Komt niet boven de 140watt uit voor alleen de kaart..
YouTube: Rise of the Tomb Raider benchmark AMD 1600x/RX 580=
terwijl als je hier ziet http://www.tomshardware.c...eview,review-33865-6.html
alleen de kaart 210 tot 225 watt verbruikt.
(Stotteringen komt denk door Youtube (?) want als ik de video direct via relive kijk stottert hij niet..)
Bron?Razkin schreef op dinsdag 23 januari 2018 @ 18:23:
[...]
Houdt er rekening mee dat de waarde voor vermogen die via de AMD driver uitgelezen wordt niet representatief is voor het werkelijke verbruik van de hele kaart. In het geval van Vega is het +/- de uitgelezen waarde + 35W.
Als je dit leest, heb je teveel tijd.
Er zit geen sensor bij de PEG connector en het PCI Express slot. Ik heb ook nog nooit een videokaart gezien welke het verbruik kon weergeven. Alles wat je ziet is altijd maar een deel van de videokaart.
Dus "bron?" Is meer van toepassing op een bron die laat zien dat zoiets wel zou kunnen.
[ Voor 11% gewijzigd door -The_Mask- op 23-01-2018 18:35 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nvidia gebruikt shunts voor de afzonderlijke voedingspunten en is accurater dan AMD. Voor wat meer info zie onderstaand filmpje.
YouTube: The differences in AMD's and Nvidia power monitoring
YouTube: The differences in AMD's and Nvidia power monitoring
Ehm, nee, bron is van toepassing op de bewering van Razkin-The_Mask- schreef op dinsdag 23 januari 2018 @ 18:32:
[...]
Er zit geen sensor bij de PEG connector en het PCI Express slot. Ik heb ook nog nooit een videokaart gezien welke het verbruik kon weergeven. Alles wat je ziet is altijd maar een deel van de videokaart.
Dus "bron?" Is meer van toepassing op een bron die laat zien dat zoiets wel zou kunnen.
Als je dit leest, heb je teveel tijd.
To explain the delay, some people were speculating that the Primitive Shader feature was broken unfixable in hardware, which doesn't seem to be the case, now that we are hearing about upcoming API support for it, so this can also be interpreted as good news for Vega owners.edward2 schreef op dinsdag 23 januari 2018 @ 17:47:
AMD cancels the driver path for Primitive Shaders:
https://www.reddit.com/r/...th_for_primitive_shaders/
Zou het echt waar zijn?
https://www.techpowerup.c...ive-shader-driver-support
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Het komt in de praktijk deels op hetzelfde neer. De bestaande games zullen hier niet meer van profiteren en het is nog maar de vraag of er überhaupt een dev. van gebruik gaat maken? Even los van het feit wat welke perf. impact dit theoretisch zou hebben, vind ik het een (enorme?) domper mocht het waar zijn.Apoca schreef op dinsdag 23 januari 2018 @ 18:51:
[...]
To explain the delay, some people were speculating that the Primitive Shader feature was broken unfixable in hardware, which doesn't seem to be the case, now that we are hearing about upcoming API support for it, so this can also be interpreted as good news for Vega owners.
https://www.techpowerup.c...ive-shader-driver-support
Werken FP16, DSBR en NGG fast path al (optimaal)? De laatste is nog steeds niet actief in Wolfenstein II The New Colossus?
Niet op voorraad.
Verwijderd
Slecht nieuws, kind of (niet echt nieuws maar toch), AMD heeft het officiëel opgegeven om op driver niveau implicit primitve shader te ondersteunen, het lukt niet om het goed uitgewerkt te krijgen dus voorlopig zal het slechts voor een enkel spel worden gebruikt als de developer zo aardig is om het te ondersteunen.
Edit
Ik zie nu dat het al was geplaatst.
Edit
Ik zie nu dat het al was geplaatst.
[ Voor 7% gewijzigd door Verwijderd op 23-01-2018 22:26 ]
Verwijderd
Ondertussen heeft de Radeon Technologies Group nieuw leiderschap gekregen.
AnandTech gaat er wat dieper op in.AMD taps new leaders for its Radeon Technologies Group
Ever since the departure of Raja Koduri as honcho of the Radeon Technologies Group, AMD CEO Lisa Su has been leading the division as it dusts itself off. Today, AMD appears to have found the new graphics leadership that it's been looking for. The company has tapped Mike Rayfield as the senior vice president and general manager and David Wang as senior vice president of engineering for the Radeon Technologies Group. Both men will report to Su.
[...]
[...]
Finally, speaking of finances, it’s worth noting that AMD is calling this an increase in the company’s investment in RTG. The company isn’t throwing around any hard numbers right now, but it sounds like overall the RTG budget has been increased. AMD has of course struggled mightily in this area as a consequence of their lean years – in particular, it seems like AMD can’t complete as many GPU die designs per year as they once did – so combined with the shift in leadership, I’m optimistic that this means that we’re going to see AMD shift to an even more competitive position in the GPU marketplace.
[ Voor 7% gewijzigd door Verwijderd op 24-01-2018 03:38 ]
Eigenlijk zoals ik al verwachte. De RTG is nu haar onafhankelijkheid ook verloren aangezien ze nu direct onder Su vallen net zoals de CPU kant. En terecht, want het was echt een zooitje rond de Vega launch. Als je een vrij matige chip slechter weet te maken in perceptie dan die werkelijk is heb je het echt verpest...
Meer geld zat er ook wel aan te komen. AMD maakt geen verlies meer, Zen 2 is ook al uitontwikkeld en Zen 3 zal in vergevorderd stadium van ontwikkeling zijn. R&D kan dus ook meer op de GPU komen, naast wat er na Zen 3 komt. AMD gaat die "the future is fusion" strategie ook maar eens uitvoeren lijkt me. Nvidia vrijwel uit de laptopmarkt, alsmede uit het budgetsegment voor GPU's verdrijven door koppelverkoop van APU's is een mooie omzetstijging voor AMD.
Verder ben ik niet bepaald verrast dat primitive shaders niet meer gaan komen. Het was nu al te lang stil rond deze ontwikkeling. Of ze zouden helpen betwijfel ik een beetje. Nu komt het via een API. De vraag is of het dan geïmplementeerd gaat worden als optie in game engines, of dat het echt zelf implementeren gaat worden.
Meer geld zat er ook wel aan te komen. AMD maakt geen verlies meer, Zen 2 is ook al uitontwikkeld en Zen 3 zal in vergevorderd stadium van ontwikkeling zijn. R&D kan dus ook meer op de GPU komen, naast wat er na Zen 3 komt. AMD gaat die "the future is fusion" strategie ook maar eens uitvoeren lijkt me. Nvidia vrijwel uit de laptopmarkt, alsmede uit het budgetsegment voor GPU's verdrijven door koppelverkoop van APU's is een mooie omzetstijging voor AMD.
Verder ben ik niet bepaald verrast dat primitive shaders niet meer gaan komen. Het was nu al te lang stil rond deze ontwikkeling. Of ze zouden helpen betwijfel ik een beetje. Nu komt het via een API. De vraag is of het dan geïmplementeerd gaat worden als optie in game engines, of dat het echt zelf implementeren gaat worden.

[ Voor 38% gewijzigd door DaniëlWW2 op 24-01-2018 11:15 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Toch apart dat AMD z`n "slechtste" release, zowel de man als het produkt aan intel heeft weten te verkopen.
Smells like shenannigans, doesn`t it.
Intel belt AMD, en zegt,
Intel: jullie hadden toch zo`n hekel aan nVidia ?
AMD: Ja
Intel: Als wij nou samen iets gaan doen, wij de CPU en solderen de beste highend GPU van jullie erop, dan zijn we binnen notime van nVidia af.
AMD: hmmm interessant, we bellen zo terug.
AMD intern: Wel lollig voorstel, maar we gaan toch echt niet ons beste produkt design weggeven aan Intel, wat nou als we (net als Intel) een jaar lang marketing doen zodat Intel er zelf ook in gelooft, en vervolgens een design leveren wat theoretisch alle konten allertijden gaat schoppen maar in een reeel scenario keihard onderuit gaat. Maw full deniability.
Dan hebben we en het geld en nog steeds de "kaarten in handen" om met ZEN+RadeonGPU dik boven Intel uit te kunnen groeien.
Smells like shenannigans, doesn`t it.
Intel belt AMD, en zegt,
Intel: jullie hadden toch zo`n hekel aan nVidia ?
AMD: Ja
Intel: Als wij nou samen iets gaan doen, wij de CPU en solderen de beste highend GPU van jullie erop, dan zijn we binnen notime van nVidia af.
AMD: hmmm interessant, we bellen zo terug.
AMD intern: Wel lollig voorstel, maar we gaan toch echt niet ons beste produkt design weggeven aan Intel, wat nou als we (net als Intel) een jaar lang marketing doen zodat Intel er zelf ook in gelooft, en vervolgens een design leveren wat theoretisch alle konten allertijden gaat schoppen maar in een reeel scenario keihard onderuit gaat. Maw full deniability.
Dan hebben we en het geld en nog steeds de "kaarten in handen" om met ZEN+RadeonGPU dik boven Intel uit te kunnen groeien.
How do you save a random generator ?
Verwijderd
AdoredTV sneed gisteren de dubbele standaard aan die PCPerspective volgens hem lijkt te hanteren. Hij trapte af met de standaarden van goede journalistiek volgens de beroepsgroep (officieel document). PCPerspective trok 2 keer redelijk fel van leer tegen AMD naar aanleiding van het ontbreken van LFC (low framerate compensation) en het te hoge vermogen van de RX 480 wat via het PCIe-slot wordt getrokken maar je vernam zo goed als niets over het DPC-probleem bij Nvidia. Daarnaast bekritiseerde hij PCPerspective voor het onvoldoende onafhankelijk zijn aangezien een ander bedrijf van de baas van PCPerspetive in opdracht van o.a. Intel werkt. Tenslotte belichtte hij dat PCPerspective al 4 Crosspoint-latjes had gekregen van Intel nog voordat andere publicaties die veel groter zijn (Tom's Hardware, Anandtech) er ook maar 1 kregen en legde hij uiteraard het verband met het feit dat het andere bedrijf van de baas van PCPerspective werkt voor Intel. Hij gaf aan dat meerdere partijen nogal boos waren op PCPerspective.
Voor wie het plaatje niet herkent: de windmolen-demo voor FreeSync.
Voor wie het plaatje niet herkent: de windmolen-demo voor FreeSync.
[ Voor 32% gewijzigd door Verwijderd op 26-01-2018 22:30 ]
Verwijderd
Inmiddels is de video verwijderd. De video duurde 30 minuten. Een tip, als je ooit een controversiële video tegenkomt die mogelijk verwijderd wordt door andere partijen of je wil om wat voor reden dan ook toegang tot de video behouden, je kan video's van Youtube en andere video-websites downloaden met behulp van een open source programma genaamd youtube-dl, je moet hiervoor de CLI gebruiken maar meer dan het intypen van de naam van het programma en daarachter de webpagina is niet nodig.
[ Voor 84% gewijzigd door Verwijderd op 26-01-2018 22:32 ]
Video is als het goed is niet permanent weg, is private totdat PC Perspective de kans heeft gehad te reageren. Zie Twitter.Verwijderd schreef op vrijdag 26 januari 2018 @ 22:29:
Inmiddels is de video verwijderd. De video duurde 30 minuten. Een tip, als je ooit een controversiële video tegenkomt die mogelijk verwijderd wordt door andere partijen of je wil om wat voor reden dan ook toegang tot de video behouden, je kan video's van Youtube en andere video-websites downloaden met behulp van een open source programma genaamd youtube-dl, je moet hiervoor de CLI gebruiken maar meer dan het intypen van de naam van het programma en daarachter de webpagina is niet nodig.
Was inderdaad wel een grappig filmpje, dat freesync verhaal was toen inderdaad wel drama ja. Het meest verbazingwekkende vond ik echter wel dat AMD een Amazon referral URL van Pcper op de Radeon website had staan om videokaarten te verkopen. Ben eigenlijk veel benieuwder wat daar vanuit AMD de verklaring voor is dan naar een verklaring van Pcper over de andere zaken.Verwijderd schreef op vrijdag 26 januari 2018 @ 15:18:
AdoredTV sneed gisteren de dubbele standaard aan die PCPerspective volgens hem lijkt te hanteren. Hij trapte af met de standaarden van goede journalistiek volgens de beroepsgroep (officieel document). PCPerspective trok 2 keer redelijk fel van leer tegen AMD naar aanleiding van het ontbreken van LFC (low framerate compensation) en het te hoge vermogen van de RX 480 wat via het PCIe-slot wordt getrokken maar je vernam zo goed als niets over het DPC-probleem bij Nvidia. Daarnaast bekritiseerde hij PCPerspective voor het onvoldoende onafhankelijk zijn aangezien een ander bedrijf van de baas van PCPerspetive in opdracht van o.a. Intel werkt. Tenslotte belichtte hij dat PCPerspective al 4 Crosspoint-latjes had gekregen van Intel nog voordat andere publicaties die veel groter zijn (Tom's Hardware, Anandtech) er ook maar 1 kregen en legde hij uiteraard het verband met het feit dat het andere bedrijf van de baas van PCPerspective werkt voor Intel. Hij gaf aan dat meerdere partijen nogal boos waren op PCPerspective.
[video]
Voor wie het plaatje niet herkent: de windmolen-demo voor FreeSync.
Ik weet niet of dit zo handig is op het forum, voor zover ik kan zien kan wat die software doet nooit in alle gevallen (de meeste gevallen zelfs niet) toegestaan zijn. En zorgen voor auteursrechteninbreuk.Verwijderd schreef op vrijdag 26 januari 2018 @ 22:29:
Inmiddels is de video verwijderd. De video duurde 30 minuten. Een tip, als je ooit een controversiële video tegenkomt die mogelijk verwijderd wordt door andere partijen of je wil om wat voor reden dan ook toegang tot de video behouden, je kan video's van Youtube en andere video-websites downloaden met behulp van een open source programma genaamd youtube-dl, je moet hiervoor de CLI gebruiken maar meer dan het intypen van de naam van het programma en daarachter de webpagina is niet nodig.
[ Voor 19% gewijzigd door Dennism op 26-01-2018 23:31 ]
Verwijderd
Daar ben ik ook benieuwd naar.Dennism schreef op vrijdag 26 januari 2018 @ 23:28:
[...]
Was inderdaad wel een grappig filmpje, dat freesync verhaal was toen inderdaad wel drama ja. Het meest verbazingwekkende vond ik echter wel dat AMD een Amazon referral URL van Pcper op de Radeon website had staan om videokaarten te verkopen. Ben eigenlijk veel benieuwder wat daar vanuit AMD de verklaring voor is dan naar een verklaring van Pcper over de andere zaken.
Met de software zelf is niets mis (dus ook niet met het downloaden ervan), wat betreft het gebruik voor de doeleindes waarnaar jij verwijst, het zou me niet verbazen als het van land tot land verschilt. In Nederland was dat zonder enige twijfel legaal, geen idee hoe het nu is. De software zoekt naar alle bekende formats voor media op een webpagina en downloadt die. Voor zo ver ik het weet werkt het niet met geëncrypteerde bestanden zoals op Netflix.Ik weet niet of dit zo handig is op het forum, voor zover ik kan zien kan wat die software doet nooit in alle gevallen (de meeste gevallen zelfs niet) toegestaan zijn. En zorgen voor auteursrechteninbreuk.
[ Voor 49% gewijzigd door Verwijderd op 27-01-2018 03:46 ]
Ik heb daar waarschijnlijk wel een goede verklaring voor. RTG strikes again.Dennism schreef op vrijdag 26 januari 2018 @ 23:28:
Was inderdaad wel een grappig filmpje, dat freesync verhaal was toen inderdaad wel drama ja. Het meest verbazingwekkende vond ik echter wel dat AMD een Amazon referral URL van Pcper op de Radeon website had staan om videokaarten te verkopen. Ben eigenlijk veel benieuwder wat daar vanuit AMD de verklaring voor is dan naar een verklaring van Pcper over de andere zaken.
Echt, wat een stelletje prutsers zijn het zeg. No way dat dit bewust was. Zo veel manieren om dit beter te doen als je ze echt wil omkopen. Weet ik veel, ze inhuren, een white paper laten schrijven, ze een pak met Optanes geven en vooral niks negatiefs laten zeggen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik kan het me inderdaad ook amper niet voorstellen dat je op zo'n manier een andere partij wat geld toe wil schuiven maar goed, zelfs onbewust is het imho gewoon bezwarend en toch vraag ik me af hoe je zoiets onbewust doet, zo'n referral komt niet vanzelf in een amazon link terecht, die moet je er bewust inzetten, tenzij het een copy / paste actie was, maar dat had Jim dan al weer uitgesloten. Dat hele whitepaper verhaal kon ik dan weer weinig mee, daar is weinig vreemds aan, behalve dan dat Pcper geen melding maakt in de review dat hun review eigenlijk (grotendeels) de whitepaper is die ze ook geschreven hebben dat hadden ze gewoon netjes moeten vermelden.DaniëlWW2 schreef op zaterdag 27 januari 2018 @ 10:43:
[...]
Ik heb daar waarschijnlijk wel een goede verklaring voor. RTG strikes again.![]()
Echt, wat een stelletje prutsers zijn het zeg. No way dat dit bewust was. Zo veel manieren om dit beter te doen als je ze echt wil omkopen. Weet ik veel, ze inhuren, een white paper laten schrijven, ze een pak met Optanes geven en vooral niks negatiefs laten zeggen.
Dat eerste is dus gewoon RTG being stupid, again.Dennism schreef op zaterdag 27 januari 2018 @ 10:53:
[...]
Ik kan het me inderdaad ook amper niet voorstellen dat je op zo'n manier een andere partij wat geld toe wil schuiven maar goed, zelfs onbewust is het imho gewoon bezwarend en toch vraag ik me af hoe je zoiets onbewust doet, zo'n referral komt niet vanzelf in een amazon link terecht, die moet je er bewust inzetten, tenzij het een copy / paste actie was, maar dat had Jim dan al weer uitgesloten. Dat hele whitepaper verhaal kon ik dan weer weinig mee, daar is weinig vreemds aan, behalve dan dat Pcper geen melding maakt in de review dat hun review eigenlijk (grotendeels) de whitepaper is die ze ook geschreven hebben dat hadden ze gewoon netjes moeten vermelden.
Het tweede is een conflict of interest, en dat is onacceptabel. Als ze duidelijk hadden vermeld dat ze ook een white paper hadden geschreven voor Intel, dan had geen weldenkend mens die review serieus genomen...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik vind het eerste net zo onacceptabel als het 2de.DaniëlWW2 schreef op zaterdag 27 januari 2018 @ 11:07:
[...]
Dat eerste is dus gewoon RTG being stupid, again.![]()
Het tweede is een conflict of interest, en dat is onacceptabel. Als ze duidelijk hadden vermeld dat ze ook een white paper hadden geschreven voor Intel, dan had geen weldenkend mens die review serieus genomen...
Ik doelde er meer op dat het schrijven van whitepapers op aanvraag van fabribant X in de basis geen vreemde praktijk is, ik zie bij mijn werk bijna iedere dag wel whitepapers geschreven voor fabrikant x of y. Dat je dan data uit dat whitepaper zonder duidelijke bron vermelding ergens anders ook gebruikt dat klopt gewoon niet, maar dat gaf ik ook al aan.
[ Voor 5% gewijzigd door Dennism op 27-01-2018 11:14 ]
RTG being stupid, en PcPer dat een nieuwe (stevige) inkomstenbron ziet, en dat niet aan de bel trekt, want hoera gratis geld.DaniëlWW2 schreef op zaterdag 27 januari 2018 @ 11:07:
[...]
Dat eerste is dus gewoon RTG being stupid, again.![]()
Het tweede is een conflict of interest, en dat is onacceptabel. Als ze duidelijk hadden vermeld dat ze ook een white paper hadden geschreven voor Intel, dan had geen weldenkend mens die review serieus genomen...
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Dat is inderdaad ook wel iets waar ik benieuwd naar ben, er even voor dit voorbeeld uitgaande dat Pcper niet wist dat hun link op de Radeon site stond.foppe-jan schreef op zaterdag 27 januari 2018 @ 11:25:
[...]
RTG being stupid, en PcPer dat een nieuwe (stevige) inkomstenbron ziet, en dat niet aan de bel trekt, want hoera gratis geld.
Zouden zij dan kunnen zien dat een deel van de inkomsten via hun eigen affiliate links komt op hun eigen website / youtube kanaal en waar verder ze die ook gepost mogen hebben en een deel via bijv. de Radeon website of gaat dit bij amazon op de grote hoop omdat alle links uiteindelijk hetzelfde referral ID bevatten.
Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.