LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Dat zeiden ze ook over 2GB vroegah. Beter te veel dan te weinig, en ik spreek uit ervaring met mijn 7870. 2GB is net te laag.Astennu schreef op zaterdag 30 juli 2016 @ 09:28:
[...]
Mee eens 4GB is genoeg. De RX480 heeft prima prestaties en 8GB kan soms helpen maar in de meeste gevallen zal het niet veel doen. Zonde van het geld als je het mij vraagt.
De meeste games kunnen vrij goed om gaan met lager geheugen, maar je hebt wel gelijk. De 4gb wordt vaak gehaald maar 8GB is dan weer ruim, wat mij betref is de 6GB van de 1060 ruim voldoende maar met 4GB twijfelen de meeste. Echter is de meerprijs 60 euro voor bijvoorbeeld de Nitro van Sapphire echt schandalig voor die 4GB extra. Zeker omdat in de meeste benchmarks er nauwelijks prestatie verschil zit tussen de 4GB en 8GB.Verwijderd schreef op zaterdag 30 juli 2016 @ 14:18:
[...]
Dat zeiden ze ook over 2GB vroegah. Beter te veel dan te weinig, en ik spreek uit ervaring met mijn 7870. 2GB is net te laag.
Dat zijn de games van nu. In het verleden had je zelden iets aan meer geheugen. Immers op het moment dat de games kwamen die daadwerkelijk meer geheugen gebruikte was je kaart al niet meer instaat op de hoogste details op 60 fps te draaien. Dan had je dus eigenlijk een nieuwe kaart nodig en dan had je die 60 euro beter daar aan kunnen besteden.bloodlynx schreef op zaterdag 30 juli 2016 @ 14:55:
[...]
De meeste games kunnen vrij goed om gaan met lager geheugen, maar je hebt wel gelijk. De 4gb wordt vaak gehaald maar 8gb is dan weer ruim wat mij betref is de 6gb van de 1060 ruim genoeg maar met 4gb twijfelt iedereen. Echter is de meerprijs 60 euro voor bijvoorbeeld de Nitro van Sapphire echt schandalig voor die 4gb extra. Zeker omdat in de meeste benchmarks er nauwelijks prestatie verschil zit tussen de 4gb en 8gb.
Het kan echter gebeuren dat we een flinke sprong gaan zien in RAM verbruik van games. Systeem ram is spotgoedkoop, de applicatie limiet van 1-3GB (vista) is eraf en je ziet langzaam games steeds meer gebruiken. Bij het VRAM zie je de nieuwste generatie nu met 4,6,8 GB komen. Verschil is dat het nu ook de mid-range kaarten zijn en niet alleen een bepaalde versie of een dure niche kaart. De kans is dus veel groter dat devs het gaan gebruiken. Bovendien hebben de consoles hebben ook een aardige bak VRAM. Alles bij elkaar zit het er eigenlijk dik in dat het binnen 2 jaar normaal is om 6 GB Vram te gebruiken voor de hogere texture details.
Wat is er ineens gebeurd met de leveringen van de RX 480? Zie er bij Azerty maar 1 die leverbaar is in 2-3 dagen en die is meteen 309 euro.
[ Voor 16% gewijzigd door sdk1985 op 30-07-2016 15:03 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Denk je dat je anders wel speelbare fraternités had gehad? Ik denk niet dat het genoeg scheeld. Meestal moeten de setting toch al omlaag om richting de 60 fps te komen. Dan moet je vaak al naar medium en low dan heb je ook minder ruimte geheugen nodig omdat je IQ setting lager zijn.Verwijderd schreef op zaterdag 30 juli 2016 @ 14:18:
[...]
Dat zeiden ze ook over 2GB vroegah. Beter te veel dan te weinig, en ik spreek uit ervaring met mijn 7870. 2GB is net te laag.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee, dat heeft te maken met de processorbelasting, niet met geheugengebruik.Cpt.Chaos schreef op zaterdag 30 juli 2016 @ 15:58:
Is 4GB niet genoeg als alles straks toch op vulkan draait? Of werkt dat niet zo?
Als je dit leest, heb je teveel tijd.
https://forums.overclocke...p=29846389&postcount=1583
Via; https://www.reddit.com/r/...y_nitro_cooler_is_a_fail/
[ Voor 23% gewijzigd door NitroX infinity op 30-07-2016 22:27 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
Jammer jammer, ik had deze keer echt m'n zinnen gezet op een Sapphire-card.NitroX infinity schreef op zaterdag 30 juli 2016 @ 22:26:
Sapphire Nitro koeler is prut vergeleken met de rest;
https://forums.overclocke...p=29846389&postcount=1583
Via; https://www.reddit.com/r/...y_nitro_cooler_is_a_fail/
Als je dit leest, heb je teveel tijd.
here is a lot of FUD here, where would you like to start?
Before we focus on the cooler, I find it interesting no one has noted that out of the box, the way 90% of consumers will use the card, the Nitro+ has the BEST ability to maintain core boost speed, making it faster than other offerings. However I am guessing since it is not mentioned performance does not matter, lets move to the cooler.
The Nitro+ cooler is capable of maintaining the card, out of the box at it's target of 75C. Now to be fair some sites are reporting higher peak temps but they seem to not be reporting average temps.
For my personal testing I use an open test bench in a room with an ambient temp of around 29C. This is higher than the average ambient temp used by a pretty fair margin, I do this as it is an open bench and want to ensure the temps would give some indication of temp ranges for good air flow cases in cooler rooms.
Next I use GPUz to monitor the video cards core speed, temps, fan speeds and load. I now run a game or benchmark that will loop for a MINIMUM of about 90 minutes, in other words a typical gaming session.
At then end of the loop I pull the data GPUz pulled. I remove all data at the end and beginning of the file that are outside the actual run time of the test. I then import the data into a spread sheet to quickly calculate the averages of the performance metrics I am looking to test.
This is a big deal for temperatures especially since it does not look at one shot spikes but rather at temps over the entirety of the game play session and get a feel for what the cards cooling is really doing over the long haul.
Joker convinced me to use Gears of War for this and I also use Metro Last Light. In both cases over a 90 minute+ run the average temps settled in at around 74C (GoW at 74.315 and Metro Last Light at 74.722) Both of these numbers are dead on our target temp, in other words the cooler worked perfect.
I find it amazing that a core temp of 75C is suddenly consider way to warm and people thing they should be concerned. In the consideration of GPU temps these are well within norms and usually on the cool side.
As for the "noise" of the cooler, this one makes me laugh. First lets dismiss the whole higher end fan speed issue which we know is a driver issue as shown with Asus and our cards. AMD will get it resolved.
Under normal gaming loads our card is very quiet. I should know as I have been sitting next to one on an open test bench stress testing it for a couple of weeks. This BTW is comparing it to my custom cooled loop system that has all it's fans at 5volt and barely makes a whisper even under load.
I am not saying it is silent, that would be a lie and I have never lied to any of you. I can say the noise readings we are seeing are not giving a clear picture.
Lets begin with the fact I have yet to see a review show me proper background information on noise determination. They do not show how they achieved the load, do not explain if this is typical fan behavior or an attempt to see what they can make the noise level be. Do they explain the measuring techniques used as well as give you the ambient room noise, the noise floor, of the room they are in. Have they eliminated all other noise sources before measuring? Do they measure right next to the card or at a distance that would equate to a proper distance your ear is likely to be from the source?
These are ALL important considerations as the noise a product produces is only loud if you hear it? The card I have on the open test bench can only be heard by me and others that have visited, when the card is under heavy load and there is no other noise in the room while they sit next to it.
If a fan is on in the room (many rooms in the summer) or the speakers are on so they can hear the game, the cards noise is drowned out. If the card was in a case you would not hear it.
I understand that my opinion on this is biased and will be taken that way. Also understand I have a reputation among the PC gaming community for never shooting BS, I always give facts straight as I see them. I value that reputation a great deal.
I have talked to about 20 people in recent days that got their Nitro+ from various locations around the world. Some have even posted here on Reddit. ALL of them have said the same thing, they were worried about noise from some reviews they red but once using the card they have found it to be quiet.
Now the question is could we have made a better cooler, well of course we could have. We could have put a massive cooler on it and gotten even lower temps and noise. We would have also had to increase the cost of the card.
The competition used a larger cooler and more fans, they should be cooler and quieter. However they are also slower, with our card being the best 480 on the market at keeping close to it's set boost speeds under load.
We made choices to give the end user, the mainstream gamer, the best performance possible in their out of the box experience. We have built a great card that delivers a reasonable balance of noise, cooling and raw performance.
I firmly believe that our card is a great product and am proud of the work we have put into it.
Tussenedit: wat hierboven dus staat
Wat ik erger vind dan het geluid is het verbruik, berekend vraagt die kaart zo 10% meer vermogen terwijl de prestaties minder/gelijk zijn.
Dat is nogal veel extra vermogen voor nagenoeg hetzelfde resultaat.OC mode vs OC mode, percentage over reference RX 480
Nitro+ Boost +8% performance, +25% power draw, 44.0 dBA
Devil OC +7% performance, +18% power draw, 34.5 dBA
Strix OC +7% performance, +13% power draw, 41.5 dBA
Even een edit: kan je de nitro(+) undervolten en dan dezelfde frequentie houden zodat het vermogen net zo laag zou worden als de rode duivel?
Die 50w verschil in silent mode moet toch wel uit core voltage komen? Komt het niet uit de frequentie, dan uit de spanning, of de fans moeten 50w vragen.
[ Voor 18% gewijzigd door Cpt.Chaos op 31-07-2016 10:57 ]
Ik denk dat daar ook mede het probleem zit, 480x is eigenlijk nog steeds niet zo efficient en ze hebben eigenlijk zo goed als het maximaal haalbare eruit gehaald. Als je dit bijvoorbeeld tegen de 1060 aflegd is het in mijn ogen wel logisch dat mensen niet zo tevreden zijn met de Nitro prestaties. Zelf de 1080 doet het beter. Mijn hoop is dan nu ook gevestigd op MSI, hopelijk weten zij wel een stille kaart af te leveren misschien met een iets mindere overclock maar dat neem ik graag voor lief als de tempratuur en geluid productie afnemen.Cpt.Chaos schreef op zondag 31 juli 2016 @ 10:03:
Ik las ergens anders dat de nitro ook zoveel lawaai maakt omdat het fanprofiel niet helemaal 100% wordt aangestuurd door de radeon software, bij die kaart.
Tussenedit: wat hierboven dus staat
Wat ik erger vind dan het geluid is het verbruik, berekend vraagt die kaart zo 10% meer vermogen terwijl de prestaties minder/gelijk zijn.
[ Voor 5% gewijzigd door bloodlynx op 31-07-2016 11:23 ]
Waar het me meer om ging was dat de nitro veel meer verbruikt dan de andere 480s. Hoe kan dit?
Misschien hierom?Cpt.Chaos schreef op zondag 31 juli 2016 @ 11:53:
Voor games zijn ze minder efficient, voorlopig. Kijk naar mining, dat wordt alleen gedaan op amd kaarten vanwege de andere architectuur. In de toekomst gaan we waarschijnlijk meer naar parallel en dan trekt amd wel bij.
Waar het me meer om ging was dat de nitro veel meer verbruikt dan de andere 480s. Hoe kan dit?
Is er een goede review van meerdere custom kaarten waarin getest wordt hoe goed ze de boost clock behoudenBefore we focus on the cooler, I find it interesting no one has noted that out of the box, the way 90% of consumers will use the card, the Nitro+ has the BEST ability to maintain core boost speed, making it faster than other offerings. However I am guessing since it is not mentioned performance does not matter, lets move to the cooler.
Dit is wel belangrijk, ik zie teveel reviews focussen op benchmarks van 1 minuut. Leuk voor de review-snelheid, maar representatief voor de realiteit én de performance is dat niet.XsuperiorX schreef op zondag 31 juli 2016 @ 09:58:
Deze komt van sapphire ed
[...]
Next I use GPUz to monitor the video cards core speed, temps, fan speeds and load. I now run a game or benchmark that will loop for a MINIMUM of about 90 minutes, in other words a typical gaming session.
klikkerdeklik
De rx 480 red devil is 2 DBa stiller dan de gtx 1080 onder full loadbloodlynx schreef op zondag 31 juli 2016 @ 11:22:
[...]
Ik denk dat daar ook mede het probleem zit, 480x is eigenlijk nog steeds niet zo efficient en ze hebben eigenlijk zo goed als het maximaal haalbare eruit gehaald. Als je dit bijvoorbeeld tegen de 1060 aflegd is het in mijn ogen wel logisch dat mensen niet zo tevreden zijn met de Nitro prestaties. Zelf de 1080 doet het beter. Mijn hoop is dan nu ook gevestigd op MSI, hopelijk weten zij wel een stille kaart af te leveren misschien met een iets mindere overclock maar dat neem ik graag voor lief als de tempratuur en geluid productie afnemen.
bron: http://www.guru3d.com/art...0_red_devil_review,8.html
XFX Radeon RX 470 Double Dissipation
Informatie over de XFX Radeon RX 470 Double Dissipation is geleaked;- 6pins stroomaansluiting
- 24cm lang
- $255 in China
Bron; http://www.custompcreview...eaked-ahead-launch/31518/
Via; https://www.reddit.com/r/...dissipation_leaked_ahead/
Graphene; a material that can do everything, except leave the lab. - Asianometry
Mensen niet tevreden met Nitro prestaties...???bloodlynx schreef op zondag 31 juli 2016 @ 11:22:
[...]
Ik denk dat daar ook mede het probleem zit, 480x is eigenlijk nog steeds niet zo efficient en ze hebben eigenlijk zo goed als het maximaal haalbare eruit gehaald. Als je dit bijvoorbeeld tegen de 1060 aflegd is het in mijn ogen wel logisch dat mensen niet zo tevreden zijn met de Nitro prestaties.
Heb je überhaupt de tekst vlak boven je post wel gelezen? :
Veel sites benchmarken op de verkeerde wijze. Het is hier algemeen bekend dat Hardware.info niet bepaald behoort de betere sites omtrent benchmarken van videokaarten.XsuperiorX schreef op zondag 31 juli 2016 @ 09:58:
Deze komt van sapphire ed
here is a lot of FUD here, where would you like to start?
Before we focus on the cooler, I find it interesting no one has noted that out of the box, the way 90% of consumers will use the card, the Nitro+ has the BEST ability to maintain core boost speed, making it faster than other offerings. However I am guessing since it is not mentioned performance does not matter, lets move to the cooler.
The Nitro+ cooler is capable of maintaining the card, out of the box at it's target of 75C. Now to be fair some sites are reporting higher peak temps but they seem to not be reporting average temps.
For my personal testing I use an open test bench in a room with an ambient temp of around 29C. This is higher than the average ambient temp used by a pretty fair margin, I do this as it is an open bench and want to ensure the temps would give some indication of temp ranges for good air flow cases in cooler rooms.
Next I use GPUz to monitor the video cards core speed, temps, fan speeds and load. I now run a game or benchmark that will loop for a MINIMUM of about 90 minutes, in other words a typical gaming session.
At then end of the loop I pull the data GPUz pulled. I remove all data at the end and beginning of the file that are outside the actual run time of the test. I then import the data into a spread sheet to quickly calculate the averages of the performance metrics I am looking to test.
This is a big deal for temperatures especially since it does not look at one shot spikes but rather at temps over the entirety of the game play session and get a feel for what the cards cooling is really doing over the long haul.
Joker convinced me to use Gears of War for this and I also use Metro Last Light. In both cases over a 90 minute+ run the average temps settled in at around 74C (GoW at 74.315 and Metro Last Light at 74.722) Both of these numbers are dead on our target temp, in other words the cooler worked perfect.
I find it amazing that a core temp of 75C is suddenly consider way to warm and people thing they should be concerned. In the consideration of GPU temps these are well within norms and usually on the cool side.
As for the "noise" of the cooler, this one makes me laugh. First lets dismiss the whole higher end fan speed issue which we know is a driver issue as shown with Asus and our cards. AMD will get it resolved.
Under normal gaming loads our card is very quiet. I should know as I have been sitting next to one on an open test bench stress testing it for a couple of weeks. This BTW is comparing it to my custom cooled loop system that has all it's fans at 5volt and barely makes a whisper even under load.
I am not saying it is silent, that would be a lie and I have never lied to any of you. I can say the noise readings we are seeing are not giving a clear picture.
Lets begin with the fact I have yet to see a review show me proper background information on noise determination. They do not show how they achieved the load, do not explain if this is typical fan behavior or an attempt to see what they can make the noise level be. Do they explain the measuring techniques used as well as give you the ambient room noise, the noise floor, of the room they are in. Have they eliminated all other noise sources before measuring? Do they measure right next to the card or at a distance that would equate to a proper distance your ear is likely to be from the source?
These are ALL important considerations as the noise a product produces is only loud if you hear it? The card I have on the open test bench can only be heard by me and others that have visited, when the card is under heavy load and there is no other noise in the room while they sit next to it.
If a fan is on in the room (many rooms in the summer) or the speakers are on so they can hear the game, the cards noise is drowned out. If the card was in a case you would not hear it.
I understand that my opinion on this is biased and will be taken that way. Also understand I have a reputation among the PC gaming community for never shooting BS, I always give facts straight as I see them. I value that reputation a great deal.
I have talked to about 20 people in recent days that got their Nitro+ from various locations around the world. Some have even posted here on Reddit. ALL of them have said the same thing, they were worried about noise from some reviews they red but once using the card they have found it to be quiet.
Now the question is could we have made a better cooler, well of course we could have. We could have put a massive cooler on it and gotten even lower temps and noise. We would have also had to increase the cost of the card.
The competition used a larger cooler and more fans, they should be cooler and quieter. However they are also slower, with our card being the best 480 on the market at keeping close to it's set boost speeds under load.
We made choices to give the end user, the mainstream gamer, the best performance possible in their out of the box experience. We have built a great card that delivers a reasonable balance of noise, cooling and raw performance.
I firmly believe that our card is a great product and am proud of the work we have put into it.
Hexus heeft onlangs deze benchmark online gezet: http://hexus.net/tech/rev...nitro-4gb-8gb-oc/?page=14
Uit de geteste games (synthetische tests niet meegerekend) én met de laatste drivers blijkt dat de GTX1060 en RX 480 nu al gelijkwaardig presteren:
MSI GTX1060 Gaming X vs Sapphire Nitro+ (4GB en 8GB) RX 480 (driver version 16.30.2311)
- Dirt Rally: 1060 win
- Doom OGL: 1060 win
- Doom Vulkan: 480 win
- Fallout 4: 1060 win
- Hitman: 480 win
- ROTTR: 1060 win
- The Division: 480 win
- TW: Warhammer: 480 win
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Als game developer kan ik je vertellen dat je game al snel texture geheugen vol krijgt.
Aangezien een texture van 4k al snel 380 MB aan geheugen nodig heeft, door dat je de colormap, normalmap, highmap, occlusion map en specular map allemaal gebruikt in je shader.
Daarom worden zo goed als alle games gemaakt met streamed textures, dat houd in dat er alleen spullen worden ingeladen die ook daadwerkelijk op je scherm staan.
Aan de hand van de implementatie in de game kan dit meer en minder efficient werken.
Sowieso zijn die texture stream codes geschreven om kaarten van 2 GB tot 12 GB te ondersteunen, dat kan inhouden dat in het grotere geheugen meer dingen bewaard worden die helemaal niet gebruikt worden maar de ruimte is er toch. Theoretisch zal het misschien load spikes kunnen geven bij slechte implementatie in de games.. maar bij triple A titles kan ik mij dat niet voorstellen, aangezien ze vaak geschreven zijn voor consoles met een veel beperktere ruimte.
Ik kan mij absoluut niet voorstellen dat 4GB te weinig is, een developer die nu een spel ontwikkeld heeft als minimum eis 2GB. en daar is de engine op geschreven en zal waarschijnlijk prima presteren.
Dat een spel meer als 4GB gebruikt ingame als het beschikbaar is zegt niets.
Ik denk ook niet dat je games zult vinden die een duidelijk verschil tussen de 4 GB en 8 GB variant van de RX480 zou laten zien, behalve de geheugen bandbreedte die lager is door het tragere geheugen. (minimaal) Of dat de game gewoon bar slecht in elkaar gezet is.
Coding 4 Fun!
http://www.guru3d.com/art...80_gaming_x_review,1.html
https://www.techpowerup.com/reviews/MSI/RX_480_Gaming_X/
Edit: De andere 2 ook toegevoegd!
[ Voor 8% gewijzigd door Sanderp op 01-08-2016 16:00 ]
Grappig dat die twee eigenlijk totaal verschillende plaatjes schetsen, als je naar de benchmarks kijkt, maar ze wel allebei tot positieve conclusie komen.slabberjan schreef op maandag 01 augustus 2016 @ 14:36:
Hier zijn 2 reviews voor de MSI RX 480 Gaming X 8 GB
http://www.guru3d.com/art...80_gaming_x_review,1.html
https://www.techpowerup.com/reviews/MSI/RX_480_Gaming_X/
Klopt haha, ik vond het ook al een beetje vreemd. Als ik de voorlopige resultaten bekijk veranderd mijn voorkeur toch van de Nitro oc naar deze mooie kaart. Ben benieuwd of de prijs een beetje redelijk is.Twam schreef op maandag 01 augustus 2016 @ 15:54:
[...]
Grappig dat die twee eigenlijk totaal verschillende plaatjes schetsen, als je naar de benchmarks kijkt, maar ze wel allebei tot positieve conclusie komen.
Ik heb het over de koel prestaties en geluidsproductie qua perfomance is het een van de beste en ja die post heb ik gelezen. De reactie komt van Sapphire zelf op de topic starter die de prestaties in twijfel trekt.Indy91 schreef op maandag 01 augustus 2016 @ 12:07:
Mensen niet tevreden met Nitro prestaties...???
Heb je überhaupt de tekst vlak boven je post wel gelezen? :
[quote]slabberjan schreef op maandag 01 augustus 2016 @ 14:36:
Hier zijn 2 reviews voor de MSI RX 480 Gaming X 8 GB
http://www.guru3d.com/art...80_gaming_x_review,1.html
[ Voor 10% gewijzigd door bloodlynx op 01-08-2016 19:38 ]
Gezien het hele throttling verhaal van (vooral) de reference kaart, ben ik wel gecharmeerd van de clock profiles sectie in de TPU review. De MSI kaart lijkt het daarin heel goed te doen, in ieder geval beter dan de ASUS kaart. Jammer dat ze de Sapphire Nitro kaarten niet gereviewed hebben.slabberjan schreef op maandag 01 augustus 2016 @ 14:36:
Hier zijn 2 reviews voor de MSI RX 480 Gaming X 8 GB
http://www.guru3d.com/art...80_gaming_x_review,1.html
https://www.techpowerup.com/reviews/MSI/RX_480_Gaming_X/
Reference RX 480

ASUS Strix RX 480

MSI Gaming X RX 480
Verwijderd
Daarom vraag ik me af of dat AMD niet beter enkel met 6 GB was uitgekomen. Je weet zeker dat het volstaat voor een enkele kaart, het moet gek lopen als het niet voor CF zou volstaan (of zijn er echt mensen die liever 40 fps halen met 4k en middelmatige instellingen dan 70 fps met 1440p en hoge instellingen?) en waarschijnlijk zou de prijs maar heel licht boven die van de huidige RX 480 4 GB uitkomen als dat het enige model is. Nu rekenen ze waarschijnlijk fors wat extra (een aanzienlijk hogere winstmarge in heel de keten) voor de 8 GB versie aangezien deze groep klanten meer fanatiek is en per se die extra RAM op de kaart wil hebben.bloodlynx schreef op zaterdag 30 juli 2016 @ 14:55:
[...]
De meeste games kunnen vrij goed om gaan met lager geheugen, maar je hebt wel gelijk. De 4gb wordt vaak gehaald maar 8GB is dan weer ruim, wat mij betref is de 6GB van de 1060 ruim voldoende maar met 4GB twijfelen de meeste. Echter is de meerprijs 60 euro voor bijvoorbeeld de Nitro van Sapphire echt schandalig voor die 4GB extra. Zeker omdat in de meeste benchmarks er nauwelijks prestatie verschil zit tussen de 4GB en 8GB.
Ik begrijp dat de RX 480 puur is bedoeld voor 1080p met hoge instellingen of 1440p met gemiddelde instellingen en dat 4 GB dan genoeg is maar hoeveel extra kost het 2 GB RAM en het solderen van die twee extra modules? Dat zou ik sowieso graag eens willen weten, wat 1 zo'n RAM-module (mag ik het zo noemen?) kost. We weten dat het heel erg weinig is (de latjes die we kopen geven een aardige indicatie, GDDR5 lijkt immers sterk op DDR3) maar ik heb met googelen nog niet kunnen vinden hoeveel de bedrijven van wie wij die grafische kaarten kopen betalen voor 1 zo'n module.
Wel 20% meer verbruik voor 4% meer FPS. Op dat vlak doet de Asus het wel een stuk beter en laat staan de nVidia kaarten (die het op hun beurt weer heel slecht doen op performance/$FortyOne schreef op maandag 01 augustus 2016 @ 19:14:
[...]
Gezien het hele throttling verhaal van (vooral) de reference kaart, ben ik wel gecharmeerd van de clock profiles sectie in de TPU review. De MSI kaart lijkt het daarin heel goed te doen, in ieder geval beter dan de ASUS kaart. Jammer dat ze de Sapphire Nitro kaarten niet gereviewed hebben.
Reference RX 480
[afbeelding]
ASUS Strix RX 480
[afbeelding]
MSI Gaming X RX 480
[afbeelding]
[ Voor 9% gewijzigd door Paprika op 01-08-2016 19:59 ]
Dit ligt aan de bios die de fabrikant meegeeft. PowerColor undervolt de kaart standaard, Sapphire doet dat bijv niet. Iets verder naar boven had ik een linkje geplaatst over het undervolten, wat heel goed kan met de rx480.Paprika schreef op maandag 01 augustus 2016 @ 19:56:
[...]
Wel 20% meer verbruik voor 4% meer FPS. Op dat vlak doet de Asus het wel een stuk beter...
Het is natuurlijk raar dat een kaart zomaar 20% meer verbruikt met 4% meer fps terwijl het precies dezelfde kaart onder de motorkap is.
Stroomverbruik kan me gestolen worden als het niet leidt tot hogere geluidsproductie en temperatuur. Wat dat betreft komt de MSI kaart uit op 31 (!) dB onder load t.o.v. 39 dB voor de ASUS kaart. Dat is echt een groot verschil. Ik neem aan dat ze op dezelfde manier getest zijn. De temperatuur onder load van de MSI kaart is wel een paar graden hoger, maar alleszins nog binnen normaal bereik.Paprika schreef op maandag 01 augustus 2016 @ 19:56:
[...]
Wel 20% meer verbruik voor 4% meer FPS. Op dat vlak doet de Asus het wel een stuk beter en laat staan de nVidia kaarten (die het op hun beurt weer heel slecht doen op performance/$)...
Huh, raar verhaal... De PS4 heeft 8 GB GDDR5 en de Xbox One 8 GB DDR3 (5 bruikbaar) met wat ESRAM. Dat noem ik niet beperkt. Verder hebben streaming textures nogal wat nadelen (popup, framedrops) en beperkingen (de reden dat F1 van Codemasters tijdens de pitstop geen top down camera stand punt heeft). Tot slot heeft de resolutie geen gigantische impact op het geheugengebruik, dat zit echt vooral in de grootte van de textures (en objecten) zelf.Vincenz0 schreef op maandag 01 augustus 2016 @ 14:34:
Ik haak even in op de 4GB vs 8GB discussie.
Als game developer kan ik je vertellen dat je game al snel texture geheugen vol krijgt.
Aangezien een texture van 4k al snel 380 MB aan geheugen nodig heeft, door dat je de colormap, normalmap, highmap, occlusion map en specular map allemaal gebruikt in je shader.
Daarom worden zo goed als alle games gemaakt met streamed textures, dat houd in dat er alleen spullen worden ingeladen die ook daadwerkelijk op je scherm staan.
Aan de hand van de implementatie in de game kan dit meer en minder efficient werken.
Sowieso zijn die texture stream codes geschreven om kaarten van 2 GB tot 12 GB te ondersteunen, dat kan inhouden dat in het grotere geheugen meer dingen bewaard worden die helemaal niet gebruikt worden maar de ruimte is er toch. Theoretisch zal het misschien load spikes kunnen geven bij slechte implementatie in de games.. maar bij triple A titles kan ik mij dat niet voorstellen, aangezien ze vaak geschreven zijn voor consoles met een veel beperktere ruimte.
Ik kan mij absoluut niet voorstellen dat 4GB te weinig is, een developer die nu een spel ontwikkeld heeft als minimum eis 2GB. en daar is de engine op geschreven en zal waarschijnlijk prima presteren.
Dat een spel meer als 4GB gebruikt ingame als het beschikbaar is zegt niets.
Ik denk ook niet dat je games zult vinden die een duidelijk verschil tussen de 4 GB en 8 GB variant van de RX480 zou laten zien, behalve de geheugen bandbreedte die lager is door het tragere geheugen. (minimaal) Of dat de game gewoon bar slecht in elkaar gezet is.
Daarmee wil ik het niet zeggen dat ik het met je oneens ben. We komen net van 2 GB en de adoptatie van nieuwe techniek duurt altijd wel een paar jaar. Dus mij lijkt 4 GB mij ook wel even genoeg.
Het marktaandeel van de RX 480 is vorige maand overigens van 0.8%naar 0.7% gedaald (bij userbenchmarks) dus ook AMD lijkt wereldwijd leverproblemen te hebben (niet alleen in NL). Vreemd genoeg zijn er in die database al veel meer users met een 1060 te vinden. AMD moet met Vega ook maar een Founders Edition uitbrengen
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Ze kwamen er bij een test (een van de Youtubekanalen) achter dat je bij een enkel spel bij sommige instellingen (realistische instellingen, dus niet iets zots als 4k bij Metro met hoge instellingen) wel een aanzienlijk verschil in FPS hebt door het verschil in het de prestaties van het geheugen. Een voorbeeld is de nieuwe Mirror's Edge als je de betere textures gebruikt. Of dat het door de snelheid van het geheugen komt of het aantal GB weet ik niet. Voor de meeste geteste spellen is het verschil verwaarloosbaar klein.Vincenz0 schreef op maandag 01 augustus 2016 @ 14:34:
Ik haak even in op de 4GB vs 8GB discussie.
Als game developer kan ik je vertellen dat je game al snel texture geheugen vol krijgt.
Aangezien een texture van 4k al snel 380 MB aan geheugen nodig heeft, door dat je de colormap, normalmap, highmap, occlusion map en specular map allemaal gebruikt in je shader.
Daarom worden zo goed als alle games gemaakt met streamed textures, dat houd in dat er alleen spullen worden ingeladen die ook daadwerkelijk op je scherm staan.
Aan de hand van de implementatie in de game kan dit meer en minder efficient werken.
Sowieso zijn die texture stream codes geschreven om kaarten van 2 GB tot 12 GB te ondersteunen, dat kan inhouden dat in het grotere geheugen meer dingen bewaard worden die helemaal niet gebruikt worden maar de ruimte is er toch. Theoretisch zal het misschien load spikes kunnen geven bij slechte implementatie in de games.. maar bij triple A titles kan ik mij dat niet voorstellen, aangezien ze vaak geschreven zijn voor consoles met een veel beperktere ruimte.
Ik kan mij absoluut niet voorstellen dat 4GB te weinig is, een developer die nu een spel ontwikkeld heeft als minimum eis 2GB. en daar is de engine op geschreven en zal waarschijnlijk prima presteren.
Dat een spel meer als 4GB gebruikt ingame als het beschikbaar is zegt niets.
Ik denk ook niet dat je games zult vinden die een duidelijk verschil tussen de 4 GB en 8 GB variant van de RX480 zou laten zien, behalve de geheugen bandbreedte die lager is door het tragere geheugen. (minimaal) Of dat de game gewoon bar slecht in elkaar gezet is.
Liever niet, dan duurt het een maand langer voordat we die ongetwijfeld betere aftermarketkaart kunnen kopen (voor een fatsoenlijke prijs). De statistiekjes zullen mij worst wezen.sdk1985 schreef op dinsdag 02 augustus 2016 @ 00:26:
AMD moet met Vega ook maar een Founders Edition uitbrengen.
Een vertegenwoordiger van Sapphire legde laatst bij PC Perspective uit hoe dat komt. Ze wachten altijd met het maken van een goede voorraad omdat je moet afwachten of dat de kaart wel voldoende wordt verkocht, daarom beginnen ze altijd met een hele voorzichtige productie en schroeven ze die geleidelijk op. Met andere woorden, over een paar maandjes zal dat prima in orde zijn, even geduld hebben als je per se die kaart wil hebben.Het marktaandeel van de RX 480 is vorige maand overigens van 0.8%naar 0.7% gedaald (bij userbenchmarks) dus ook AMD lijkt wereldwijd leverproblemen te hebben (niet alleen in NL).
[ Voor 20% gewijzigd door Verwijderd op 02-08-2016 02:06 ]
Verwijderd
Wel lomp, R480X met 8GB ram, Vulkan en alles op WQHD / Ultra / 8XTSAA en dan nog textures met terugwerkende kracht in beeld.
Als de kaart te warm wordt of 'teveel' verbruikt dan komt throttling kijken, meer ook niet. Het is een feature om gewoon binnen de specs te blijven van wat jij bijv. in powerlimit opgegeven hebt.ParaVince schreef op maandag 01 augustus 2016 @ 20:19:
Ik snap eigenlijk niet zo goed waar dat hele throtteling verhaal vandaan komt. Als ik mijn kaart op 1300MHz heb lopen, blijft hij daar voor de volledigheid van een gamesessie. Enkel het moment dat de fan nog niet snel genoeg draait in het begin gaat de klok iets omlaag, maar later 1300 zonder dips of wat ook.
Zo kan de kaart ook nooit meer gaan verstoken in een furmark sessie, waarmee je je VRM's mogelijk kunt beschadigen.
Helaas lijkt dat nu niet te helpen. Ik zit al een tijdje te azen op een custom RX 480, zo lang dat ik onderhand een non-custom overweeg. Maar die is ondertussen ook overal uitverkocht! Als je aanbod niet aan de vraag voldoet dan kun je beter de prijs wat verhogen. Levert meer centen opVerwijderd schreef op dinsdag 02 augustus 2016 @ 01:57:
Liever niet, dan duurt het een maand langer voordat we die ongetwijfeld betere aftermarketkaart kunnen kopen (voor een fatsoenlijke prijs). De statistiekjes zullen mij worst wezen.
Hmm dat is het underdog syndroom. Geen vertrouwen in je eigen product hebben. Als je de (oem) wereld wil veroveren met je gunstig geprijsde midrange kaart dan kun je beter zorgen dat je er voldoende op voorraad hebt liggen.Een vertegenwoordiger van Sapphire legde laatst bij PC Perspective uit hoe dat komt. Ze wachten altijd met het maken van een goede voorraad omdat je moet afwachten of dat de kaart wel voldoende wordt verkocht, daarom beginnen ze altijd met een hele voorzichtige productie.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Wedden dat je dat met die kaart ook hebt bij Borderlands 2 in de stokoude Unreal 3 engine? Over lomp gesproken.Verwijderd schreef op dinsdag 02 augustus 2016 @ 02:05:
Wat ik vaak met Doom heb is wanneer ik op een stuk van een level duik, de textures wazig zijn en ineens bijtekenen. Is dat nou wat vanuit het systeemgeheugen komt de GPU in?
Wel lomp, R480X met 8GB ram, Vulkan en alles op WQHD / Ultra / 8XTSAA en dan nog textures met terugwerkende kracht in beeld.
De vraag is natuurlijk of dat ze heel erg de vraag hebben onderschat danwel productieproblemen hebben. Aangezien de chip van de RX 480 heel erg klein is lijkt mij het eerste het geval. Niet erg handig natuurlijk, ze hadden er in het begin heel erg veel moeten verkopen omdat er nog geen concurrentie was van de 1060. Maar ja, ik weet niet wat er allemaal op de achtergrond meespeelt.sdk1985 schreef op dinsdag 02 augustus 2016 @ 02:08:
[...]
Helaas lijkt dat nu niet te helpen. Ik zit al een tijdje te azen op een custom RX 480, zo lang dat ik onderhand een non-custom overweeg. Maar die is ondertussen ook overal uitverkocht! Als je aanbod niet aan de vraag voldoet dan kun je beter de prijs wat verhogen. Levert meer centen op.
Daarom reken ik erop dat ik niet voor december een nieuwe grafische kaart heb. Als de 490 in oktober uit komt dan mag je blij zijn als die in december (aftermarket) goed leverbaar is, met de ergste pricegouging verdwenen. Helaas. Al hoop ik stiekem dat het dan wat beter loopt dan nu.
[ Voor 50% gewijzigd door Verwijderd op 02-08-2016 02:14 ]
Er zijn nog wel wat meer potentiele verklaringen. Weet iemand al waar AMD die dingen laat maken? In theorie kan Nvidia capaciteit wegkopen omdat ze meer kunnen betalen. Als ze beiden dezelfde leverancier verbruiken dan is dat een logische verklaring omdat het marktaandeel van de 1070 echt heel hard aan het stijgen is nu.
Wat jij aangaf over Saphire kan ook een verklarign zijn. Sapphire is een partner van AMD. Wellicht dat andere partners (denk aan MSI, Asus, etc) ook te weinig vertrouwen hadden om genoeg pre-orders te plaatsen. Misschien was dat een signaal voor AMD om het niet te dol te maken.
Een andere verklaring is dat het voor een bedrijf heel lastig om van een marktaandeel van pak hem beet 20% weer terug op 40% te komen. Je hebt dan namelijk dubbel zoveel werk. Dat vereist dus dubbel zoveel investeringen (heb je dat geld wel?) en flink wat meer logistieke capaciteit en medewerkers (alhoewel het meeste geoutsourced zal zijn).
Het blijft speculeren
[ Voor 4% gewijzigd door sdk1985 op 02-08-2016 02:26 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
AMD bij Global Foundriessdk1985 schreef op dinsdag 02 augustus 2016 @ 02:25:
Ja daar komen we niet makkelijk achter.
Er zijn nog wel wat meer potentiele verklaringen. Weet iemand al waar AMD die dingen laat maken?
Nvidea bij TSMC
Dat was simpelweg technisch niet haalbaar voor AMD, 6Gb GDDR5 chips worden, - zover ik weet -, niet verkocht en anders moest AMD overstappen op een 192-bit bus. Voor AMD is dat niet snel genoeg, iets wat Nvidia net wel kan doen met de betere compressie die ze hebben.Verwijderd schreef op maandag 01 augustus 2016 @ 19:25:
[...]
Daarom vraag ik me af of dat AMD niet beter enkel met 6 GB was uitgekomen.
Een andere optie zou zijn om vier chips van 8Gb te gebruiken en vier chips van 4Gb, dat zou totaal 6GB opleveren, maar naast de technische aanpassingen is dat vooral logistiek niet handig.
Ik weet ook niet de exacte prijs, omdat GDDR5 niet echt lost te krijgen is voor je DIY projecten, maar het snellere GDDR5 is ongeveer vier keer zo duur als DDR3, dus dat maakt 14 dollar voor een GDDR5 8Gb chipje en 7 dollar voor een GDDR5 4Gb chipje.Verwijderd schreef op maandag 01 augustus 2016 @ 19:25:
We weten dat het heel erg weinig is (de latjes die we kopen geven een aardige indicatie, GDDR5 lijkt immers sterk op DDR3) maar ik heb met googelen nog niet kunnen vinden hoeveel de bedrijven van wie wij die grafische kaarten kopen betalen voor 1 zo'n module.
Stiekem ga ik er wel vanuit dat AMD een beter deal heeft met Samsung voor het GDDR5.
Dus een 6GB model zou 24 dollar goedkoper kunnen qua materiaal kosten, de werkelijke bespaaring zal lager liggen door de overhead van extra onderdelen.
En dan weten we ook meteen hoeveel het AMD kost om een 8GB exemplaar te verkopen als 4GB
Klopt, 8 GB hebben die consoles, maar dat is wel shared geheugen, dat houd dus in dat je sound en mesh data dat geheugen ook moeten delen, en ik kan je verklappen dat die erg snel kunnen oplopen.sdk1985 schreef op dinsdag 02 augustus 2016 @ 00:26:
[...]
Huh, raar verhaal... De PS4 heeft 8 GB GDDR5 en de Xbox One 8 GB DDR3 (5 bruikbaar) met wat ESRAM. Dat noem ik niet beperkt. Verder hebben streaming textures nogal wat nadelen (popup, framedrops) en beperkingen (de reden dat F1 van Codemasters tijdens de pitstop geen top down camera stand punt heeft). Tot slot heeft de resolutie geen gigantische impact op het geheugengebruik, dat zit echt vooral in de grootte van de textures (en objecten) zelf.
Daarmee wil ik het niet zeggen dat ik het met je oneens ben. We komen net van 2 GB en de adoptatie van nieuwe techniek duurt altijd wel een paar jaar. Dus mij lijkt 4 GB mij ook wel even genoeg.
Pop ups en frame drops zijn echt foute implementaties van streamed textures, ik denk dat er genoeg games zijn die het wel goed implementeren. En zie je bij die games een verschil tussen de 8 en 4 GB variant van de RX480? ik betwijfel het.
Het klopt dat een hogere resolutie geen invloed heeft op de ingeladen textures. Ik doelde met 4k texture op dat een single texture van 4096 x 4096 pixels, wat al snel gebruikt word voor een enkel wapen in je spel, omdat die dicht in het gezichtsveld van de speler zit. al meteen 380 MB geheugen snoept. je kan je voorstellen dat een game heel veel texture data heeft.
Trouwens een hogere resolutie heeft wel invloed op de dynamic textures, denk aan SSAO shaders, depthmaps enzovoorts. die kunnen ook snel groeien met een 4 dubbele resolutie vergeleken met 1080P
Goed punt, Mirrors edge is nu echt een spel wat niet goed in elkaar is gezet. ik meen mij nog meer hele vage performance te zien op bepaalde hardware. zware CPU bottlenecks enzovoorts, iemand vertelde dat de nieuwste patch veel hiervan heeft opgelost.Verwijderd schreef op dinsdag 02 augustus 2016 @ 01:57:
[...]
Ze kwamen er bij een test (een van de Youtubekanalen) achter dat je bij een enkel spel bij sommige instellingen (realistische instellingen, dus niet iets zots als 4k bij Metro met hoge instellingen) wel een aanzienlijk verschil in FPS hebt door het verschil in het de prestaties van het geheugen. Een voorbeeld is de nieuwe Mirror's Edge als je de betere textures gebruikt. Of dat het door de snelheid van het geheugen komt of het aantal GB weet ik niet. Voor de meeste geteste spellen is het verschil verwaarloosbaar klein.
Sowieso wie gaat nu extreme textures gebruiken op een mid range kaart?
Het spel draait niet eens 60 FPS op die instellingen in 1080P..
Developers gaan nu uit van minimaal 2GB video geheugen. meer is misschien beter.. maar meestal niet.. ik blijf bij het idee dat meer van 4GB weggegooid geld is, helemaal als de kaart er 20% duurder van word. je merkt dat echt niet in de games die je er op gaat spelen.
Coding 4 Fun!
Jup, Fury X met 4GB presteert nagenoeg gelijk aan een Titan X met 12GB in 3DMark Time Spy.Vincenz0 schreef op dinsdag 02 augustus 2016 @ 11:03:
[...]
Developers gaan nu uit van minimaal 2GB video geheugen. meer is misschien beter.. maar meestal niet.. ik blijf bij het idee dat meer van 4GB weggegooid geld is, helemaal als de kaart er 20% duurder van word. je merkt dat echt niet in de games die je er op gaat spelen.
Meer dan 4GB heb je dus alleen nodig voor 4K+ resoluties, texture packs/mods en slecht geoptimaliseerde games.
Het lijkt er op dat ze de V-GPU toch verhoogd hebben. 1.155v ipv 1.075v van de refferenced kaarten.Paprika schreef op maandag 01 augustus 2016 @ 19:56:
[...]
Wel 20% meer verbruik voor 4% meer FPS. Op dat vlak doet de Asus het wel een stuk beter en laat staan de nVidia kaarten (die het op hun beurt weer heel slecht doen op performance/$)...
Dat verklaart waarom het verbruik zo veel hoger is. Ik draai zelf 0,930v daarmee werd de kaart +-35 watt zuiniger clocks zijn nu continu 1175mhz en is daarmee net zo snel als stock (daar ging hij throttelen als je niets aan je fanprofiel enz deed) Mijn fan speed is max 1500rpm en zo goed als onhoorbaar.
Ik ben zelf best wel happy met dit refferenced kaartje. Het is geen performance monster maar dat komt wel weer zodra vega uit komt. Voor 1080p is dit meer dan genoeg. Met 1440P moet ik sommige settings naar high zetten ipv ultra/extreme.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat is helemaal niet raar; dat zijn de diminishing returns die optreden wanneer je de grenzen van een chip opzoekt. Als dat het je niet waard is, moet je gewoon voor een kaart met stock snelheden gaan of een silent bios gebruiken.Cpt.Chaos schreef op maandag 01 augustus 2016 @ 19:59:
Het is natuurlijk raar dat een kaart zomaar 20% meer verbruikt met 4% meer fps terwijl het precies dezelfde kaart onder de motorkap is.
"640K of memory ought to be enough for anybody."Toettoetdaan schreef op dinsdag 02 augustus 2016 @ 11:58:
Jup, Fury X met 4GB presteert nagenoeg gelijk aan een Titan X met 12GB in 3DMark Time Spy.
Meer dan 4GB heb je dus alleen nodig voor 4K+ resoluties, texture packs/mods en slecht geoptimaliseerde games.
Je kunt hooguit stellen dat 4 GB vram nu voldoende is, omdat spellen nu nog geprogrammeerd worden om niet meer dan dat nodig te hebben. Over een jaar of twee zullen er echt wel spellen zijn die 6 of zelfs 8 GB geheugen nodig hebben om de hoogste kwaliteit textures te kunnen gebruiken zonder flinke prestatieverlies. Zelfs een RX480 zal dan baat kunnen hebben bij 8 GB geheugen.
De prijs-/prestatieverhouding van de RX480 4 GB is ongetwijfeld beter, maar ieder zal voor zichzelf moeten bepalen of 8 GB de meerprijs waard is.
Dat kwam dus door de hogere vcore, en heeft niets te maken met de dimishing returns. f*2=P*2^2, dus twee keer zo hoge clock, 4 keer zoveel verbruik, bij dezelfde vcore. Dus die 20% meer verbruik met iets hogere clock komt door vcore.evEndzhar schreef op dinsdag 02 augustus 2016 @ 13:07:
[...]
Dat is helemaal niet raar; dat zijn de diminishing returns die optreden wanneer je de grenzen van een chip opzoekt. Als dat het je niet waard is, moet je gewoon voor een kaart met stock snelheden gaan of een silent bios gebruiken.
[...]
Je kan de rx480 op 1350mhz draaien met 1,1v. Sneller en minder verbruik dus.
Wel in modded skyrimVincenz0 schreef op dinsdag 02 augustus 2016 @ 11:03:
ik blijf bij het idee dat meer van 4GB weggegooid geld is, helemaal als de kaart er 20% duurder van word. je merkt dat echt niet in de games die je er op gaat spelen.
Voor kaarten van ~200 euro is het idd niet zo'n ramp als de textures een iets minder hoge kwaliteit gaan hebben. Maar bij kaarten als een gtx 1070 lijkt het me niet heel zinvol om een iets goedkopere 4GB versie uit te brengen.
Mechwarrior Online: Flapdrol
Tweakers doet dit zelf pas wanneer het product werkelijk wordt gelanceerd.sanderharton schreef op maandag 01 augustus 2016 @ 15:16:
Ik heb eergisteren de rx 460 2gb toegevoegd aan de pricewatch (vanmorgen verwerkt), en heb zojuist de 4gb variant en de rx 470 (mist nog wat info) toegevoegd. Imo beetje gek dat ze nog niet waren toegevoegd.
Dat komt met name door het hele slechte contact van de koeler met de GPU bij Asus, zoals al besproken een paar pagina's terug. Twee heat pipes hebben redelijk contact met GPU, één amper en twee totaal niet.FortyOne schreef op maandag 01 augustus 2016 @ 20:02:
[...]
Stroomverbruik kan me gestolen worden als het niet leidt tot hogere geluidsproductie en temperatuur. Wat dat betreft komt de MSI kaart uit op 31 (!) dB onder load t.o.v. 39 dB voor de ASUS kaart. Dat is echt een groot verschil. Ik neem aan dat ze op dezelfde manier getest zijn. De temperatuur onder load van de MSI kaart is wel een paar graden hoger, maar alleszins nog binnen normaal bereik.

https://www.techpowerup.c...US/RX_480_STRIX_OC/4.html
Had Asus ook een base plate net als MSI gebruikt, had de Asus waarschijnlijk heel dicht bij de MSI in de buurt gezeten. Nu door een paar cent te besparen zitten ze er heel ver vanaf. Heel dom overigens, want als ze de twee heatpipes en een fan hadden weg gelaten, maar vervolgens wel een base plate hadden gebruikt. Hadden ze met een goed ontwerp waarschijnlijk minimaal dezelfde prestaties kunnen halen, maar een veel goedkopere kaart gehad. Dan zouden ze hem of goedkoper kunnen verkopen, waarschijnlijk dus meer omzet en daarmee meer winst, of voor hetzelfde bedrag kunnen verkopen en dus meer winst gehad.
Asus is dus erg dom bezig met de DirectCU koeler, dit probleem speelt dan ook al jaren bij Asus en hun DirectCU koelers. Ze hebben het probleem ook bij de R9 290, GTX 780, GTX 1060, 1070 en 1080 en nog wel veel anderen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nou ja, tot voor kort was ik ervan overtuigd dat ik voorlopig nog genoeg zou gaan hebben aan de 4GB versie van de Sapphire Nitro+ .Vincenz0 schreef op dinsdag 02 augustus 2016 @ 11:03:
[...]
Klopt, 8 GB hebben die consoles, maar dat is wel shared geheugen, dat houd dus in dat je sound en mesh data dat geheugen ook moeten delen, en ik kan je verklappen dat die erg snel kunnen oplopen.
Pop ups en frame drops zijn echt foute implementaties van streamed textures, ik denk dat er genoeg games zijn die het wel goed implementeren. En zie je bij die games een verschil tussen de 8 en 4 GB variant van de RX480? ik betwijfel het.
Het klopt dat een hogere resolutie geen invloed heeft op de ingeladen textures. Ik doelde met 4k texture op dat een single texture van 4096 x 4096 pixels, wat al snel gebruikt word voor een enkel wapen in je spel, omdat die dicht in het gezichtsveld van de speler zit. al meteen 380 MB geheugen snoept. je kan je voorstellen dat een game heel veel texture data heeft.
Trouwens een hogere resolutie heeft wel invloed op de dynamic textures, denk aan SSAO shaders, depthmaps enzovoorts. die kunnen ook snel groeien met een 4 dubbele resolutie vergeleken met 1080P
[...]
Goed punt, Mirrors edge is nu echt een spel wat niet goed in elkaar is gezet. ik meen mij nog meer hele vage performance te zien op bepaalde hardware. zware CPU bottlenecks enzovoorts, iemand vertelde dat de nieuwste patch veel hiervan heeft opgelost.
Sowieso wie gaat nu extreme textures gebruiken op een mid range kaart?
Het spel draait niet eens 60 FPS op die instellingen in 1080P..
Developers gaan nu uit van minimaal 2GB video geheugen. meer is misschien beter.. maar meestal niet.. ik blijf bij het idee dat meer van 4GB weggegooid geld is, helemaal als de kaart er 20% duurder van word. je merkt dat echt niet in de games die je er op gaat spelen.
Echter, bij ComputerBase heeft men de 4GB nitro+ naast de de 8GB Nitro+ versie gelegd.
Hun conclusie:
Die 5% verschil maakt me nog niet zoveel uit. Was toch al van plan om de 4GB Sapphire Nitro+ ietwat te gaan OC'en (core en mem) zodat ik uiteindelijk toch 8GB Sapphire Nitro+ (out of the box) performance zou gaan krijgen.In dem gekürzten Parcours ist die vier Gigabyte-Version im Schnitt genau zehn Prozent langsamer als die Acht-Gigabyte-Version und damit auch drei Prozent langsamer als das Referenzmodell der Acht-Gigabyte-RX-480. Das hat zweierlei Gründe: Polaris ist zum einen stark von der Speicherbandbreite abhängig. Entsprechend ist die Karte in den meisten Spielen etwa fünf Prozent langsamer. Die restlichen fünf Prozent kommen hingegen durch Call of Duty: Black Ops III zustande. Denn für dieses Spiel reichen die vier Gigabyte nicht mehr aus, sodass der Abstand deutlich größer als in anderen Titeln ist.
Echter....bij Call of Duty: Black Ops III is het verschil tussen de 4GB en de 8GB maar liefst 43%, namelijk 47 fps vs 67 fps (Nitro+ OC Boost Mode). Dit is dus een serieus verschil!
Ik weet namelijk niet of er in de nabije toekomst nog meer games zullen gaan verschijnen waar het verschil in fps (4GB vs 8GB) zo groot zal gaan worden. Dus ik twijfel nu of ik toch voor de 8GB versie zal gaan.
Gelukkig heb ik nog een maandje bedenktijd....tegen die tijd zullen ook de goedkopere versies van Powercolor (Dual Cool) en MSI (Gaming) op de markt zijn.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
CoD gaat dan ook wel héél slecht om met geheugen. Je snapt bijna niet hoe ze het voor zulke middelmatige visuals, voor elkaar krijgen om zo'n lage framerates te verkrijgen van kaarten.Indy91 schreef op dinsdag 02 augustus 2016 @ 14:08:
[...]
Nou ja, tot voor kort was ik ervan overtuigd dat ik voorlopig nog genoeg zou gaan hebben aan de 4GB versie van de Sapphire Nitro+ .
Echter, bij ComputerBase heeft men de 4GB nitro+ naast de de 8GB Nitro+ versie gelegd.
Hun conclusie:
[...]
Die 5% verschil maakt me nog niet zoveel uit. Was toch al van plan om de 4GB Sapphire Nitro+ ietwat te gaan OC'en (core en mem) zodat ik uiteindelijk toch 8GB Sapphire Nitro+ (out of the box) performance zou gaan krijgen.
Echter....bij Call of Duty: Black Ops III is het verschil tussen de 4GB en de 8GB maar liefst 43%, namelijk 47 fps vs 67 fps (Nitro+ OC Boost Mode). Dit is dus een serieus verschil!
Ik weet namelijk niet of er in de nabije toekomst nog meer games zullen gaan verschijnen waar het verschil in fps (4GB vs 8GB) zo groot zal gaan worden. Dus ik twijfel nu of ik toch voor de 8GB versie zal gaan.
Gelukkig heb ik nog een maandje bedenktijd....tegen die tijd zullen ook de goedkopere versies van Powercolor (Dual Cool) en MSI (Gaming) op de markt zijn.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Alles uit een oude engine proberen te persen lijkt me nou niet efficiënt qua performance.Jeroenneman schreef op dinsdag 02 augustus 2016 @ 14:12:
[...]
CoD gaat dan ook wel héél slecht om met geheugen. Je snapt bijna niet hoe ze het voor zulke middelmatige visuals, voor elkaar krijgen om zo'n lage framerates te verkrijgen van kaarten.
Ryzen 5 5600, 32GB, Gigabyte B550M DS3H, RX 9060 XT 16GB
Wanneer je de voltage moet verhogen om op een hogere kloksnelheid stabiel te blijven, heeft voltage net zo goed invloed op diminishing returns.Cpt.Chaos schreef op dinsdag 02 augustus 2016 @ 13:15:
Dat kwam dus door de hogere vcore, en heeft niets te maken met de dimishing returns. f*2=P*2^2, dus twee keer zo hoge clock, 4 keer zoveel verbruik, bij dezelfde vcore. Dus die 20% meer verbruik met iets hogere clock komt door vcore.
Je kan de rx480 op 1350mhz draaien met 1,1v. Sneller en minder verbruik dus.
In dat draadje op Reddit waar je zelf eerder naar linkte zie je dat niet alle RX480's 1350 MHz op 1,1 volt halen. Een fabrikant als Sapphire gaat niet iedere kaart benchtesten, dus die heeft er ook niets aan dat sommige of misschien zelfs heel veel chips 1350 MHz op 1,1 volt kunnen.
Inderdaad. Call of Duty gebruikt nog altijd dezelfde engine op basis van de 17 jaar oude id Tech 3, welke ze al sinds het allereerste CoD-spel aan het upgraden zijn.Gundogan schreef op dinsdag 02 augustus 2016 @ 14:14:
Alles uit een oude engine proberen te persen lijkt me nou niet efficiënt qua performance.
and FWIW:
AMD and NVIDIA GPU Vive VR Performance in VR game "Raw Data"
[ Voor 38% gewijzigd door Help!!!! op 02-08-2016 18:07 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Nee Kyle, je bent echt niet bevooroordeeld. Je kiest alleen maar een VR game voor VR benchmarks die expliciet Nvidia VRWorks gebruikt in UE4. Goh, verassend dat AMD het daar slecht in doet en dat er geen CFX support is. Zakt m'n broek van af, snap er helemaal niks van
En ga je dan op het forum lezen, claimt hij dat hij een hele hoop titels heeft getest en deze heeft gekozen op basis van de resultaten met een 1080.
Aanpak is mooi, allemaal goed uitgedacht, maar besteed dan verdorie ook even 5 minuten aan de technologie achter de game.
Oh, maar op de consoles zorgt Nvidia wel dat het werkt hoormadmaxnl schreef op dinsdag 02 augustus 2016 @ 18:51:
Ze naaien zichzelf een oor aan. Het zal ook goed moeten lopen op de consoles en daar zit overal AMD hardware in.
In hoeverre is dit artikel nog relevant? AMD zou de RX 470 morgen al uitbrengen, en de fabrikanten zouden vermoedelijk afgelopen donderdag hun eigen varianten presenteren. In werkelijkheid hebben we nog niets gezien. Ook van de RX 460 is volgens mij nog niets bekendgemaakt. Ik had stiekem gehoopt om voor de launch van No Man's Sky een nieuwe videokaart in mijn systeem te hebben zitten
Edit: Toevallig een artikel op Videocardz met daarin afbeeldingen van de RX 470 van Gigabyte, Asus en XFX.
[ Voor 16% gewijzigd door Steen447 op 03-08-2016 22:31 ]
Maar is dat omdat mensen gewoon de kaarten met meer GB kopen en dat de programmeerders dan gewoon luier kunnen zijn waardoor het ook daadwerkelijk meer GB gebruikt. Wanneer de GB niet verhoogd zou worden, zouden programmeerders beter hun best moeten doen om het spul te optimaliseren..evEndzhar schreef op dinsdag 02 augustus 2016 @ 13:07:
Je kunt hooguit stellen dat 4 GB vram nu voldoende is, omdat spellen nu nog geprogrammeerd worden om niet meer dan dat nodig te hebben. Over een jaar of twee zullen er echt wel spellen zijn die 6 of zelfs 8 GB geheugen nodig hebben om de hoogste kwaliteit textures te kunnen gebruiken zonder flinke prestatieverlies. Zelfs een RX480 zal dan baat kunnen hebben bij 8 GB geheugen.
Beetje kip en het ei gevalletje.
Volgens mij moeten we gewoon wachten tot 15:00Steen447 schreef op woensdag 03 augustus 2016 @ 14:28:
nieuws: AMD brengt Radeon RX 470 en RX 460 begin augustus uit
In hoeverre is dit artikel nog relevant? AMD zou de RX 470 morgen al uitbrengen
Textures met een hogere resolutie nemen meer geheugen in, dus meer is beter.bluebear schreef op donderdag 04 augustus 2016 @ 07:57:
[...]
Maar is dat omdat mensen gewoon de kaarten met meer GB kopen en dat de programmeerders dan gewoon luier kunnen zijn waardoor het ook daadwerkelijk meer GB gebruikt. Wanneer de GB niet verhoogd zou worden, zouden programmeerders beter hun best moeten doen om het spul te optimaliseren..
Beetje kip en het ei gevalletje.
De enigste vraag die van tel is:
Is een RX480 krachtig genoeg om binnen 2 jaar voldoende frames per seconde te bereken op de hoge instellingen?
Indien niet...
Zelf had ik dat dilemma in 2002: de Geforce4ti was te koop met 64 en 128MB. Men schreef toen ook dat de 128MB meer "futureproof" was. In realiteit was die GF4 na 2 jaar al veel te traag waardoor ik alle games op medium settings (of zelf lager) moest spelen.
Tegen die tijd zijn er alweer nieuwe generaties spellen en GPU's, die (veel) sneller zullen zijn dan de RX480 nu is. De GPU lijkt me daarom ook de beperkende factor voor wat betreft de future proofness.
Als je meer zekerheid wil dat je over 2 jaar de nieuwste spellen nog op de hoogste settings zal kunnen draaien moet je voor de GTX 1080 gaan. Echter, voor de prijs van 1080 kun je mijn inziens beter nu een RX480 kopen en over 2 jaar weer upgraden. Alleen dan heb je de zekerheid dat je over 2 jaar grafisch 'bij' bent.
Liefde maakt een smal bed breed!
Nu de dekens nog...
Dat is de vraag inderdaad. Ik heb nu een GTX 770, die nog wel krachtig genoeg is om best wat fps te berekenen. Alleen de 2 gb VRAM is toch aan de lage kant, zeker als je spellen als Skyrim of XCOM 2 gaat modden ga je toch snel door je vram heen. Ik zou best wel wat meer vram willen hebben, hoor.catfish schreef op donderdag 04 augustus 2016 @ 12:13:
[...]
Textures met een hogere resolutie nemen meer geheugen in, dus meer is beter.
De enigste vraag die van tel is:
Is een RX480 krachtig genoeg om binnen 2 jaar voldoende frames per seconde te bereken op de hoge instellingen?
Indien niet...
Zelf had ik dat dilemma in 2002: de Geforce4ti was te koop met 64 en 128MB. Men schreef toen ook dat de 128MB meer "futureproof" was. In realiteit was die GF4 na 2 jaar al veel te traag waardoor ik alle games op medium settings (of zelf lager) moest spelen.
De vraag is of dat ook heel belangrijk is, vooral als je nog gewoon op full HD gamed. Ik heb 2 jaar geleden een 290 gekocht rond de 300 euro. Voor datzelfde geld koop je nu 20% meer prestaties en ik heb echt niet het gevoel dat ik voor veel games nu echt een stap terug moet doen.[b][message=47847069,noline]
Tegen die tijd zijn er alweer nieuwe generaties spellen en GPU's, die (veel) sneller zullen zijn dan de RX480 nu is.
Ik denk dat je over een aantal jaar voor full HD met een medium kaart gewoon heel lang vooruit kan, zoals dat nu is als je op 1280x1000 zou gamen. Ik denk niet dat er een game is op 1280x1000 die je niet met een 290 op ultra kan spelen, ook over een aantal jaren nog niet.
...Als het maar werkt
Het wordt een ander geval als je, net als ik, een 4 jaar oude midrange kaart hebt (HD7770) en dan upgrade naar een nieuwe midrange kaart (RX 480). Dat verschil is aanzienlijk: 30fps in Project Cars op medium settings tegen 75fps (met vsync aan) op high.
De vraag was echter of je met een 8GB kaart meer future proof bent dan met een 4GB kaart. In de computerwereld is erg echter niet zoiets als future proof zijn. Want met 8GB kun je er redelijk vanuit gaan dat je over een aantal jaar nog voldoende vram hebt, maar je GPU verouderd wel gewoon.
Liefde maakt een smal bed breed!
Nu de dekens nog...
Het is over 2 jaar misschien wel eenvoudiger de kaart nog voor een redelijke prijs te verkopen als je de 8GB-variant hebt. Laten we wel wezen, op dit punt zou je ook tweedehands niet snel een kaart met 2GB kopen, maar 4GB valt nog wel te overwegen, als de prijs klopt en het een upgrade is ten opzichte van wat je nu gebruikt.RvL schreef op donderdag 04 augustus 2016 @ 14:43:
De vraag was echter of je met een 8GB kaart meer future proof bent dan met een 4GB kaart. In de computerwereld is erg echter niet zoiets als future proof zijn. Want met 8GB kun je er redelijk vanuit gaan dat je over een aantal jaar nog voldoende vram hebt, maar je GPU verouderd wel gewoon.
[ Voor 7% gewijzigd door Castor385 op 04-08-2016 15:01 ]
Study everything, You'll find something you can use
reviews: AMD Radeon RX 470 - Net geen RX 480
https://nl.hardware.info/...eview-verse-middenklasser
https://www.techpowerup.com/reviews/ASUS/RX_470_STRIX_OC/
http://semiaccurate.com/2...mds-radeon-rx-470-review/
EDIT: TPU:
We looked each card's current USD price up on Newegg and used it and all relative performance numbers to calculate the performance-per-dollar index.

Dat is een goed (ver)koop argument
[ Voor 30% gewijzigd door Toettoetdaan op 04-08-2016 15:17 ]
TPU:Toettoetdaan schreef op donderdag 04 augustus 2016 @ 15:08:
Een paar:
reviews: AMD Radeon RX 470 - Net geen RX 480
https://nl.hardware.info/...eview-verse-middenklasser
https://www.techpowerup.com/reviews/ASUS/RX_470_STRIX_OC/
http://semiaccurate.com/2...mds-radeon-rx-470-review/
EDIT: TPU:
[...]
[afbeelding]
Dat is een goed (ver)koop argument
When I asked our head of news "What would you buy if you had $210?" he responded "I'd beg on the streets for $40 more if I have to and buy 1060."
Beetje dom dat ze daar de (reference) RX 480 4 GB niet in hebben meegenomen, want die geeft (uitgaande van de adviesprijs) mogelijk zelfs nog iets meer performance per dollar dan een RX 470.Toettoetdaan schreef op donderdag 04 augustus 2016 @ 15:08:
[afbeelding]
Dat is een goed (ver)koop argument
In der daad, dat is ook de conclusie van HWI, dat de RX470 4GB met OC zo dicht op een RX480 4GB komt dat dat een betere optie is.evEndzhar schreef op donderdag 04 augustus 2016 @ 15:25:
Ja, dat is leuk als je een 1060 voor 250 dollar kan kopen.
[...]
Beetje dom dat ze daar de (reference) RX 480 4 GB niet in hebben meegenomen, want die geeft (uitgaande van de adviesprijs) mogelijk zelfs nog iets meer performance per dollar dan een RX 470.
Te hoog geprijst en daardoor helaas zwaar teleurgesteld.
Voor dit geld konden we al een 380X 4GiB krijgen. Met een 35% kleinere die-size had de RX 470 niet meer dan €170 moeten kosten.
Poos geleden heb ik gekeken naar de prijsgrafieken in de pw en als ik me het goed herinner, stabiliseren de prijzen van videokaarten zich, zo'n vier maanden na introductie. Lijkt er dus op dat ik pas in December/Januari een nieuwe kaart ga kopen. Want op dit moment kan ik de aanschaf van een RX 470 niet verantwoorden voor mezelf.
En nou moet ik ook nog een BBG topic aanmaken waarin een RX 470 zit.
Graphene; a material that can do everything, except leave the lab. - Asianometry
De reference 470 is nog interessant voor mensen die gewoon wat minder geld uit willen geven, maar de custom overclocked 470's zijn er momenteel alleen maar voor mensen die een reference 480 er niet indrukwekkend genoeg uit vinden zien.Toettoetdaan schreef op donderdag 04 augustus 2016 @ 15:33:
In der daad, dat is ook de conclusie van HWI, dat de RX470 4GB met OC zo dicht op een RX480 4GB komt dat dat een betere optie is.
Als dat al gebeurt, zal dat maar van hele korte duur zijn. Gezien de RX 470 feitelijk dezelfde componenten bevat als de 480, kan schaarsheid geen excuus zijn om de 480 (nog) duurder te maken zonder de 470 ook in prijs te verhogen. Speculanten worden dan snel genoeg uit de markt geprijsd.flazo schreef op donderdag 04 augustus 2016 @ 15:44:
Ik vermoed ook dat de 470 de prijs van de 480 alleen maar verder omhoog zal drijven, tenzij leveranciers hier al op ingespeeld hebben met de voorkennis binnen hun NDA.
http://xfxforce.com/en-us...-rx-400-series#RX-470-4gb
RX 470 4GB Single Fan Triple X
RX 470 RS 4GB with Hard Swap Triple X (RX-470P436BM)
RX 470 RS 4GB with Hard Swap Triple X (RX-470P4LFB6)
RX 470 RS 4GB with Hard Swap Black Edition (RX-470P4LDB6)
RX 470 RS 4GB with Hard Swap Black Edition (RX-470P437BM)
RX 470 RS 4GB with Hard Swap Black Limited Edition (RX-470P4LBB6)
RX 470 RS 4GB with Hard Swap Black Limited Edition (RX-470P438BM)
Zie enkel niet wat het verschil is tussen de dubbels met verschillende productcode.
[ Voor 255% gewijzigd door SmokingCrop op 04-08-2016 16:48 ]
Van de andere kant bekeken, er zijn nog geen 4GB 480's, dus is dit wel de kaart met de beste price/performance.
Mechwarrior Online: Flapdrol
Er zitten inderdaad een paar identieke kaarten tussen, alleen de EAN verschilt. Maybe light versies met minder accessoires in de doos oid?SmokingCrop schreef op donderdag 04 augustus 2016 @ 16:40:
XFX heeft even gek gedaan en 7x RX470 4GB kaarten uitgebracht.
http://xfxforce.com/en-us...-rx-400-series#RX-470-4gb
RX 470 4GB Single Fan Triple X
RX 470 RS 4GB with Hard Swap Triple X (RX-470P436BM)
RX 470 RS 4GB with Hard Swap Triple X (RX-470P4LFB6)
RX 470 RS 4GB with Hard Swap Black Edition (RX-470P4LDB6)
RX 470 RS 4GB with Hard Swap Black Edition (RX-470P437BM)
RX 470 RS 4GB with Hard Swap Black Limited Edition (RX-470P4LBB6)
RX 470 RS 4GB with Hard Swap Black Limited Edition (RX-470P438BM)
Zie enkel niet wat het verschil is tussen de dubbels met verschillende productcode.
Logisch gezien zou dat kloppen, maar we hebben hier ook te maken met marktwerking. Als de yields van de P10 goed zijn of beter worden staat AMD ook niet te springen om ze als 470 te verkopen.evEndzhar schreef op donderdag 04 augustus 2016 @ 15:55:
[...]
Als dat al gebeurt, zal dat maar van hele korte duur zijn. Gezien de RX 470 feitelijk dezelfde componenten bevat als de 480, kan schaarsheid geen excuus zijn om de 480 (nog) duurder te maken zonder de 470 ook in prijs te verhogen. Speculanten worden dan snel genoeg uit de markt geprijsd.
Als er dadelijk ook meer voorraad is word het ook minder aantrekkelijk om de 480 onder de prijst van de 470 in schap te zetten.
Waar de reference RX 480 8GB nu al paar keer naar de 230/240 schoot deze(bij Amazon) maand, wat nu zoon beetje het prijspunt is van de custom 470 is. Dit maakt dat de markt meer op slot zal gaan omdat er minder speling is in de kwa prijs. Daarnaast zie je nu de pre-order van de custom 4GB 480 met zoon tien a twintig euro om hoog gaan in vergelijking met vorige week.
Hoe dit zich zal ontwikkelen zou grotendeels af kunnen hangen van de yields van de P10 chip natuurlijk.
Dat is juist wat zal gebeuren als de 480 nog duurder wordt ten opzichte van de 470. AMD heeft ook nog de 1060 om tegen te concurreren, dus zij kunnen zich echt niet veroorloven dat de 480 duurder wordt. Het aan de vraag naar de 480 beantwoorden heeft daarom nu prioriteit. Dat is waarschijnlijk ook waarom de introductieprijs van de 470 minder aantrekkelijk is dan verwacht.flazo schreef op donderdag 04 augustus 2016 @ 17:05:
Logisch gezien zou dat kloppen, maar we hebben hier ook te maken met marktwerking. Als de yields van de P10 goed zijn of beter worden staat AMD ook niet te springen om ze als 470 te verkopen.
Als de prijs van de 480 daalt, zal de 470 logischerwijs meezakken.Als er dadelijk ook meer voorraad is word het ook minder aantrekkelijk om de 480 onder de prijst van de 470 in schap te zetten.
En dan zetten ze op de RX 470 een veel goedkopere met maar 2 heatpipes in plaats van 5 en 2 fans in plaats van 3. Maar dan wel zodat de 2 heat pipes die de kaart heeft ook echt goed contact maken en ineens blijkt de kaart ook nog stiller te zijn, naast dat die een stuk goedkoper is.-The_Mask- schreef op dinsdag 02 augustus 2016 @ 13:47:
Dat komt met name door het hele slechte contact van de koeler met de GPU bij Asus, zoals al besproken een paar pagina's terug. Twee heat pipes hebben redelijk contact met GPU, één amper en twee totaal niet.
https://www.techpowerup.c...US/RX_480_STRIX_OC/4.html
Had Asus ook een base plate net als MSI gebruikt, had de Asus waarschijnlijk heel dicht bij de MSI in de buurt gezeten. Nu door een paar cent te besparen zitten ze er heel ver vanaf. Heel dom overigens, want als ze de twee heatpipes en een fan hadden weg gelaten, maar vervolgens wel een base plate hadden gebruikt. Hadden ze met een goed ontwerp waarschijnlijk minimaal dezelfde prestaties kunnen halen, maar een veel goedkopere kaart gehad. Dan zouden ze hem of goedkoper kunnen verkopen, waarschijnlijk dus meer omzet en daarmee meer winst, of voor hetzelfde bedrag kunnen verkopen en dus meer winst gehad.
Asus is dus erg dom bezig met de DirectCU koeler, dit probleem speelt dan ook al jaren bij Asus en hun DirectCU koelers. Ze hebben het probleem ook bij de R9 290, GTX 780, GTX 1060, 1070 en 1080 en nog wel veel anderen.


https://www.techpowerup.com/reviews/ASUS/RX_470_STRIX_OC/
Als ze deze koeler op de RX 480 hadden geplaatst had die waarschijnlijk een vergelijkbaar geluidsniveau als de huidige veel duurdere drie fans koeler kunnen hebben.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Maar las net nog wel op Tom's hardware dat de VRM koeling een los blokje is (niet op de main heatsink zeg maar) waardoor 1 van de geheugenchipjes in de buurt van de VRM's erg warm werd (95ºC, wat voor die VRM niet erg is maar denk dat die ene geheugenchip er niet blij mee is).-The_Mask- schreef op donderdag 04 augustus 2016 @ 19:58:
[...]
En dan zetten ze op de RX 470 een veel goedkopere met maar 2 heatpipes in plaats van 5 en 2 fans in plaats van 3. Maar dan wel zodat de 2 heat pipes die de kaart heeft ook echt goed contact maken en ineens blijkt de kaart ook nog stiller te zijn, naast dat die een stuk goedkoper is.
[afbeelding]
[afbeelding]
https://www.techpowerup.com/reviews/ASUS/RX_470_STRIX_OC/
Als ze deze koeler op de RX 480 hadden geplaatst had die waarschijnlijk een vergelijkbaar geluidsniveau als de huidige veel duurdere drie fans koeler kunnen hebben.
*EDIT* Linkje: http://www.tomshardware.c...radeon-rx-470,4703-7.html
[ Voor 3% gewijzigd door Nemesizz op 04-08-2016 20:22 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
We stand by our original statement that the RX 470 is presently a good buy at $180, and we also stand by the statement that the ~$200+ cards immediately lose value to AMD's own RX 480. The $240 cards are ridiculous, and their existence should be ignored. That said, Sapphire's Platinum Edition card, now that we know the price, is not good value.
Zo, in één klap met de grond gelijk gemaakt. Maar gaat dus idd om de prijs. De HD6850 zat in de €150 range. Zo'n soort kaartje zoek ik dus. Ja, de RX 460 maar die is stukken minder qua prestaties of ten minste niet echt vergelijkbaar als je de twee generaties naast elkaar zou moeten leggen. Eigenlijk zou de RX 480 €200 moeten kosten, de RX 470 €150 en de RX 460 €100 of zo. Ik heb ook het idee dat je tegenwoordig veel minder kaarten van een bepaalde generatie ziet dan vroeger. Vroeger had je veel meer varianten, heb ik het idee. Voor elk wat wils.linkje schreef op vrijdag 05 augustus 2016 @ 10:40:
http://www.gamersnexus.ne...m-tear-down-is-poor-value
We stand by our original statement that the RX 470 is presently a good buy at $180, and we also stand by the statement that the ~$200+ cards immediately lose value to AMD's own RX 480. The $240 cards are ridiculous, and their existence should be ignored. That said, Sapphire's Platinum Edition card, now that we know the price, is not good value.
Verwijderd
Ik denk dat AMD wat minder vrijheid momenteel heeft. Het kan 1 chip ontwerp binnen brengen (Polaris 10) en niet alleen de 480X uit laten snijden maar ook de afgevallen chips, de 470x en 460x in dit geval.chim0 schreef op vrijdag 05 augustus 2016 @ 11:53:
[...]
Vroeger had je veel meer varianten, heb ik het idee. Voor elk wat wils.
Dit bespaart natuurlijk kosten door zoveel mogelijk uit een wafer te kunnen halen, maar het gaat allemaal om productie tegenwoordig.
Dit zal je ook met de CPU tak gaan zien. Geen of weinig 'engineering' foefjes meer maar chips wel of niet werkend vanaf de lopende band. Het ontwerp van de ZEN met modulaire cores (minimaal 4 tot maximaal 32) wijst uit dat ze kapotte delen tot op 4 werkende cores terug kunnen brengen. Mischien zelfs een X3 of X2 in budget vorm nog, wie weet.
Ik toevallig nog op een hd6850 1gb en zoek nu een upgradechim0 schreef op vrijdag 05 augustus 2016 @ 11:53:
[...]
Zo, in één klap met de grond gelijk gemaakt. Maar gaat dus idd om de prijs. De HD6850 zat in de €150 range. Zo'n soort kaartje zoek ik dus. Ja, de RX 460 maar die is stukken minder qua prestaties of ten minste niet echt vergelijkbaar als je de twee generaties naast elkaar zou moeten leggen. Eigenlijk zou de RX 480 €200 moeten kosten, de RX 470 €150 en de RX 460 €100 of zo. Ik heb ook het idee dat je tegenwoordig veel minder kaarten van een bepaalde generatie ziet dan vroeger. Vroeger had je veel meer varianten, heb ik het idee. Voor elk wat wils.
Nou ja, op zich heb ik het niet eens nodig want ik speel eigenlijk maar één spel en die is nog DX9 en de kans is groot dat ik dat spel ook zal blijven spelen de rest van m'n leven (ben absoluut geen hardcore gamer) en geen nieuwe spellen zal spelen. Alleen als je toch een nieuwe PC gaat kopen, wil je natuurlijk ook de nieuwste videokaart. Maar ik moet wel zeggen dat ik ook wel een soort verschuiving zie in prestaties m.b.t. de categorie kaarten. Een RX 480 of een GTX 1060 worden als zijnde mid-range kaarten bestempeld, maar als je naar de benchmarks kijkt, kunnen ze de nieuwste spellen met DX12 op een hoge resolutie met de hoogste instellingen prima aan. Dat was met mid-range kaarten van vroeger wel anders. Toen moest je er echt niet aan denken dat je met je HD6850 alles op de hoogste instellingen kon spelen. Dus er is wel een soort van verschuiving in hardware en prestaties wat dat betreft, dus de manier van denken bij het aanschaffen van nieuwe hardware moeten we ook aanpassen. Je hebt nu dus 3 kaarten met dezelfde chip, alleen steeds met een stukje afgesneden, maar zelfs de minste kan op zich op hoog niveau presteren en dat is een beetje anders dan vroeger, denk ik. Combineer dat met het verhaal van Jism hierboven en dan kom je tot de conclusie waarom ook instap en mid-range kaarten redelijk duur zijn. Ze bieden gewoon prestaties van een high-end kaart van vroeger. Hopelijk begrijpen jullie wat ik bedoel en sorry voor de rant (het is bijna weekendlinkje schreef op vrijdag 05 augustus 2016 @ 12:13:
[...]
Ik toevallig nog op een hd6850 1gb en zoek nu een upgrade. Toendertijd voor 120 euro gekocht ofzo en zeer goeie prestaties voor dat geld maar nu begint zeker die 1gb te weinig te worden. Jammer dat nu alles in verhouding duurder is geworden deze generatie.
480X, 470X en 460X bestaan niet. 400 serie gebruikt geen toevoegingen. Daarnaast is de RX 460 gebaseerd op Polaris 11, niet Polaris 10. Dat zijn twee verschillende chips.Verwijderd schreef op vrijdag 05 augustus 2016 @ 12:04:
[...]
Ik denk dat AMD wat minder vrijheid momenteel heeft. Het kan 1 chip ontwerp binnen brengen (Polaris 10) en niet alleen de 480X uit laten snijden maar ook de afgevallen chips, de 470x en 460x in dit geval.
...
Overigens vind ik het raar dat gamers de cut-down versie van P11 krijgen (896sp's) en workstation de volledige versie (1024sp's).
Graphene; a material that can do everything, except leave the lab. - Asianometry
Komt natuurlijk ook omdat de iGPU tegenwoordig best goed zijn. Heb je weinig eisen, kun je het daar wel mee af. Heb je meer eisen kom je toch snel bij een midrange kaart uit. Alles daaronder zou je in je CPU keuze overweging mee kunnen nemen.chim0 schreef op vrijdag 05 augustus 2016 @ 12:28:
[...]
Nou ja, op zich heb ik het niet eens nodig want ik speel eigenlijk maar één spel en die is nog DX9 en de kans is groot dat ik dat spel ook zal blijven spelen de rest van m'n leven (ben absoluut geen hardcore gamer) en geen nieuwe spellen zal spelen. Alleen als je toch een nieuwe PC gaat kopen, wil je natuurlijk ook de nieuwste videokaart. Maar ik moet wel zeggen dat ik ook wel een soort verschuiving zie in prestaties m.b.t. de categorie kaarten. Een RX 480 of een GTX 1060 worden als zijnde mid-range kaarten bestempeld, maar als je naar de benchmarks kijkt, kunnen ze de nieuwste spellen met DX12 op een hoge resolutie met de hoogste instellingen prima aan. Dat was met mid-range kaarten van vroeger wel anders. Toen moest je er echt niet aan denken dat je met je HD6850 alles op de hoogste instellingen kon spelen. Dus er is wel een soort van verschuiving in hardware en prestaties wat dat betreft, dus de manier van denken bij het aanschaffen van nieuwe hardware moeten we ook aanpassen. Je hebt nu dus 3 kaarten met dezelfde chip, alleen steeds met een stukje afgesneden, maar zelfs de minste kan op zich op hoog niveau presteren en dat is een beetje anders dan vroeger, denk ik. Combineer dat met het verhaal van Jism hierboven en dan kom je tot de conclusie waarom ook instap en mid-range kaarten redelijk duur zijn. Ze bieden gewoon prestaties van een high-end kaart van vroeger. Hopelijk begrijpen jullie wat ik bedoel en sorry voor de rant (het is bijna weekend).
Verwijderd
Ja je hebt gelijk, P10 vs P11NitroX infinity schreef op vrijdag 05 augustus 2016 @ 12:32:
[...]
480X, 470X en 460X bestaan niet. 400 serie gebruikt geen toevoegingen. Daarnaast is de RX 460 gebaseerd op Polaris 11, niet Polaris 10. Dat zijn twee verschillende chips.
Overigens vind ik het raar dat gamers de cut-down versie van P11 krijgen (896sp's) en workstation de volledige versie (1024sp's).
Maar m'n punt is hetzelfde. Er wordt zo min mogelijk 'weggegooid' uit een wafer en dat geldt voor elke chipbakker inmiddels. Nvidia en Intel doen het ook. Winst maximaliseren en voor een bepaald geldbedrag krijg je gewoon een X performance kaart in huis.
De rek met Finfet op 14nm lijkt er ook uit te liggen, geen enkele 480x kaart OC'ed op lucht relatief hoog. Punt is dat AMD het proces al behoorlijk uitgeknepen heeft en men er net 50 tot 100Mhz uit weet te halen helaas.
Dat ze niet goed overklokken betekent toch niet dat het 14nm proces uitontwikkeld is? AMD heeft jaren lang op 28nm gezeten en ze hebben in een paar jaar tijd hun CPUs bijv. toch weer sneller en zuiniger weten te maken. Ze zijn nog maar net bezig met 14nm, dus om nu al te zeggen dat het uitgeknepen is lijkt mij veel te vroeg.Verwijderd schreef op vrijdag 05 augustus 2016 @ 12:53:
De rek met Finfet op 14nm lijkt er ook uit te liggen, geen enkele 480x kaart OC'ed op lucht relatief hoog. Punt is dat AMD het proces al behoorlijk uitgeknepen heeft en men er net 50 tot 100Mhz uit weet te halen helaas.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat betekent natuurlijk niet dat het niet beter kan
Ben wel heel benieuwd welk spel dat dan is!chim0 schreef op vrijdag 05 augustus 2016 @ 12:28:
[...]
Nou ja, op zich heb ik het niet eens nodig want ik speel eigenlijk maar één spel en die is nog DX9 en de kans is groot dat ik dat spel ook zal blijven spelen de rest van m'n leven (ben absoluut geen hardcore gamer) en geen nieuwe spellen zal spelen.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Dit topic is gesloten.
![]()
