Vandaag pas Vega reviews gelezen, dus een beetje laat met de reactie. 
Eerste wat opvalt is dat de review van Tweakers en Hardware.info dat veel benchmarks gelijke cijfers laten zien. Veel metingen zijn gedaan door HWI? Dat betekent dan ook dat we dezelfde problemen in de review van Tweakers hebben?
Ik hoop iig niet dat dit het einde wordt van hardware reviews op Tweakers. Dat zal ook het niveau niet gaan helpen namelijk.
Hoe dan ook, foutjes/opmerkingen:
Pagina 3:
Eén 4GB stack á 256GB/s en de rest van het videogeheugen bij een eventuele Vega 11 kun je aanvullen met bijvoorbeeld GDDR5. Maar voor een APU als Raven Ridge is het nog veel logischer. Het video en werkgeheugen is daarbij gedeeld. Maar 16GB HBM2 is natuurlijk duur, vooral als het gaat om een goedkope APU. Toch wil je wel iets van 16GB hebben als het gaat om video en werkgeheugen, 8GB is dan vrij krap.
Door de HBCC kun je nu één stack HBM2 van 4GB gebruiken met veel bandbreedte voor de het videogedeelte welke veel bandbreedte nodig heeft. En kun je de rest aanvullen met DDR4 of GDDR5. Zit je ook niet vast aan een vaste hoeveelheid en duur geheugen en/of weinig geheugenbandbreedte. Iets waar je bij alleen DDR4 of alleen HBM2 wel last van gaat hebben.
Pagina 5:
Pagina 6:
Bij AMD wordt de max snelheid ook boostsnelheid genoemd, maar eigenlijk is dat niet echt een juiste naam. Eigenlijk zou je het piekfrequentie moeten noemen. Immers hebben Vega videokaarten immers een maximale klokfrequentie die alleen haalbaar is als het verbruik niet over een bepaalde waarde gaat. En de andere interessante waarde is de gemiddeldefrequentie, waar de kaart gemiddeld tijdens een game op uit komt.
Misschien handig om hier eens over na te denken om dit overal wat aan te passen. Zou het voor sommigen denk ik wel duidelijker maken hoe klokfrequenties bij nVidia en AMD verschillen.
Iets eronder wordt tdp genoemd. Maar daar staat bij de AMD videokaarten niet de TDP, maar de TBP. Dus niet de warmte die de koeler moet afvoeren van de GPU (TDP), maar het maximale gemiddelde verbruik van de videokaart (TBP). Betere naam is waarschijnlijk max opgegeven verbruik of iets dergelijks.
Een kan er ook een stuk komen over de testmethode? Het staat nu nergens omschreven hoe er getest wordt en zo kan er moeilijk een conclusie aan verbonden worden. Zelfde als hier dus omschreven: -The_Mask- in "Threadripper 1950X, 1920X en X399" Reviewprotocollen, hoe wordt getest, waarom wordt zo getest en waarmee worden de metingen gedaan.
Eerste wat opvalt is dat de review van Tweakers en Hardware.info dat veel benchmarks gelijke cijfers laten zien. Veel metingen zijn gedaan door HWI? Dat betekent dan ook dat we dezelfde problemen in de review van Tweakers hebben?
Dit is al eens bij hun aangekaart. Dus het kan eventueel gefixed zijn, maar was de laatste keer niet zo.-The_Mask- schreef op dinsdag 15 augustus 2017 @ 00:08:
[...]
Neuh, ga maar eens goed kijken hoe ze testen.
Bij videokaarten bijvoorbeeld in één review verschillende kaarten met verschillende drivers, meerdere maanden of zelfs een jaar verschil is mogelijk. Soms zie je dus ook een tragere kaart sneller zijn in sommige games omdat er driver optimalisaties waren die de ene driver niet had en de andere wel.
Daarnaast worden alle benchmarks zo kort gedraaid dat de kaart niet eens kan opwarmen waarna die weer een tijd stil staat en afkoelt voordat de volgende game wordt getest. Dit geeft voor reference nVidia kaarten een groot voordeel omdat de boostfrequentie temperatuur afhankelijk is. Bij sommige videokaarten maakt dit een verschil van 100 tot zelfs 200MHz op de GPU frequentie en krijg je dus automatisch enkele procenten extra performance. Iets wat in de praktijk niet voor zal komen omdat je nooit voor enkele seconden gamed.
Geluidsmetingen doen ze bijvoorbeeld van 10 cm afstand wat ook niet goed werkt. De standaard voor geluidsmetingen schrijft 100 cm voor. Bij 10 cm kun je de mic net op een fan richten bij de ene kaart terwijl die bij een andere kaart naast de fan wordt gericht. Zal voor een grote afwijking zorgen. Daarom moet je ook meten op 100 cm met de videokaart in de juiste positie zoals die ook in een PC geplaatst wordt.
En zo zullen er nog wel meer fouten in zitten, maar dan zou je hun testmethode echt in de praktijk kunnen zien. Dit is wat nu opvalt.
Ik hoop iig niet dat dit het einde wordt van hardware reviews op Tweakers. Dat zal ook het niveau niet gaan helpen namelijk.
Hoe dan ook, foutjes/opmerkingen:
Pagina 3:
Fury X geheugen draait op 500MHz natuurlijk, zoals erboven ook wordt vermeldt.Ter vergelijking: de Fury X-kaarten hebben hbm-geheugen met een 4096bit-interface en een kloksnelheid van 1000MHz voor een bandbreedte van 512GB/s.
HBM2zo genoemd omdat het hmb2
HBCCDe hbmc organiseert
Voor een game kaart met genoeg geheugen zoals RX Vega zal het idd niet uit maken. Maar voor een professionele videokaart waar 8 of 16GB weinig is, kan het natuurlijk wel heel handig zijn. Daarnaast voor andere Vega producten, zoals Raven Ridge of een kleine Vega, zoals Vega 11 is het idee heel goed.Het uiteindelijke nut van dit soort features is nu nog lastig te voorspellen. Developers moeten van dit soort features gebruik willen maken om er voordeel uit te halen.
Eén 4GB stack á 256GB/s en de rest van het videogeheugen bij een eventuele Vega 11 kun je aanvullen met bijvoorbeeld GDDR5. Maar voor een APU als Raven Ridge is het nog veel logischer. Het video en werkgeheugen is daarbij gedeeld. Maar 16GB HBM2 is natuurlijk duur, vooral als het gaat om een goedkope APU. Toch wil je wel iets van 16GB hebben als het gaat om video en werkgeheugen, 8GB is dan vrij krap.
Door de HBCC kun je nu één stack HBM2 van 4GB gebruiken met veel bandbreedte voor de het videogedeelte welke veel bandbreedte nodig heeft. En kun je de rest aanvullen met DDR4 of GDDR5. Zit je ook niet vast aan een vaste hoeveelheid en duur geheugen en/of weinig geheugenbandbreedte. Iets waar je bij alleen DDR4 of alleen HBM2 wel last van gaat hebben.
Pagina 5:
We? Dit is toch gewoon het systeem van HWI en niet die van Tweakers?We hebben ons testplatform daarom geüpgraded met een Core i9-processor die is overgeklokt naar 4,5GHz, 32GB ddr4-geheugen op 3200MT/s en twee Samsung-ssd's van 1TB voor de opslag van games. Voor een enkele videokaart is de 1600-wattvoeding te veel van het goede, maar voor het testen met twee of meer videokaarten konden we dat vermogen goed gebruiken.
Pagina 6:
Bij AMD wordt de max snelheid ook boostsnelheid genoemd, maar eigenlijk is dat niet echt een juiste naam. Eigenlijk zou je het piekfrequentie moeten noemen. Immers hebben Vega videokaarten immers een maximale klokfrequentie die alleen haalbaar is als het verbruik niet over een bepaalde waarde gaat. En de andere interessante waarde is de gemiddeldefrequentie, waar de kaart gemiddeld tijdens een game op uit komt.
Misschien handig om hier eens over na te denken om dit overal wat aan te passen. Zou het voor sommigen denk ik wel duidelijker maken hoe klokfrequenties bij nVidia en AMD verschillen.
Iets eronder wordt tdp genoemd. Maar daar staat bij de AMD videokaarten niet de TDP, maar de TBP. Dus niet de warmte die de koeler moet afvoeren van de GPU (TDP), maar het maximale gemiddelde verbruik van de videokaart (TBP). Betere naam is waarschijnlijk max opgegeven verbruik of iets dergelijks.
Zou hier een uitgebreid stuk van het apparaat en de werking gegeven kunnen worden? Zou interessant zijn.We testen bij nieuwe videokaarten uiteraard niet alleen de snelheid in games, maar ook het opgenomen vermogen en de geluidsproductie van de koeler. Voor het meten van het opgenomen vermogen maken we gebruik van een nieuwe testmethode met behulp van een pci-e-riser. We hoeven daardoor niet meer het opgenomen vermogen van het hele systeem te meten, maar kunnen alleen dat van de videokaart meten.
Een kan er ook een stuk komen over de testmethode? Het staat nu nergens omschreven hoe er getest wordt en zo kan er moeilijk een conclusie aan verbonden worden. Zelfde als hier dus omschreven: -The_Mask- in "Threadripper 1950X, 1920X en X399" Reviewprotocollen, hoe wordt getest, waarom wordt zo getest en waarmee worden de metingen gedaan.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic