Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Eens. Doe het goed of doe het niet! Als je geen elektrotechnici met voldoende praktische ervaring in dienst kan/wil nemen om zoiets goed te meten...-The_Mask- schreef op woensdag 13 juli 2016 @ 15:04:
Hoe Tweakers meet is dan ook de grootste onzin en geeft totaal geen goed beeld, ze kunnen beter geen meting doen dan de huidige meting.
[ Voor 5% gewijzigd door Verwijderd op 14-07-2016 22:44 ]
Verwijderd
Moeilijk te zeggen. Nu al helpt het voor bepaalde games als je meer dan 4 GB geheugen hebt en met een 'resolutie' van 1080p speelt. Een van de bekende hardwareYoutubers heeft dat getest. Vooral als je veel textures moet laden en de textures een hogere kwaliteit hebben dan kan 4 GB geheugen te weinig zijn. Een voorbeeld is Mirror's Edge (de nieuwe uiteraard) bij bepaalde instellingen.Paprika schreef op donderdag 14 juli 2016 @ 21:11:
Het lijkt mij wel dat over de jaren het hebben van 50% meer geheugen ook wel helpt?
Het is maar net hoeveel je over hebt voor dat extra geheugen. Ik vrees dat je een beetje price gouging (meer extra vragen dan wat die 4 GB extra plaatsen kost) zal blijven houden bij de 8 GB-modellen.
Als je de kaart voor 1440p zou willen gebruiken omdat je een lagere FPS geen bezwaar vindt of je wil CF gebruiken dan zou ik sowieso voor de 8 GB kiezen, bij 1080p is het maar net of dat je het erg vindt dat je bij een paar spellen een iets mindere prestatie hebt bij bepaalde instellingen. Ik ben benieuwd welke van de twee populairder zal zijn. Misschien zou het interessant zijn als ze ook 6 GB aanbieden? Net dat beetje speling en meer dan dat zou je nooit nodig moeten hebben zolang je geen CF en 1440p gebruikt.
Moeilijk te zeggen. Nu al helpt het voor bepaalde games als je meer dan 4 GB geheugen hebt en met een 'resolutie' van 1080p speelt. Een van de bekende hardwareYoutubers heeft dat getest. Vooral als je veel textures moet laden en de textures een hogere kwaliteit hebben dan kan 4 GB geheugen te weinig zijn. Een voorbeeld is Mirror's Edge (de nieuwe uiteraard) bij bepaalde instellingen.Paprika schreef op donderdag 14 juli 2016 @ 21:11:
Het lijkt mij wel dat over de jaren het hebben van 50% meer geheugen ook wel helpt?
Het is maar net hoeveel je over hebt voor dat extra geheugen. Ik vrees dat je een beetje price gouging (meer extra vragen dan wat die 4 GB extra plaatsen kost) zal blijven houden bij de 8 GB-modellen.
Als je de kaart voor 1440p zou willen gebruiken omdat je een lagere FPS geen bezwaar vindt of je wil CF gebruiken dan zou ik sowieso voor de 8 GB kiezen, bij 1080p is het maar net of dat je het erg vindt dat je bij een paar spellen een iets mindere prestatie hebt bij bepaalde instellingen. Ik ben benieuwd welke van de twee populairder zal zijn. Misschien zou het interessant zijn als ze ook 6 GB aanbieden? Net dat beetje speling en meer dan dat zou je nooit nodig moeten hebben zolang je geen CF en 1440p gebruik
Als ik het correct begrijp dan liegt NVidia een beetje. Op een van de slides van die AMD-lezing in Australië laatst kon je zien dat bij asynchrone computing meerdere taken tegelijkertijd worden uitgevoerd, parallel dus. Je zag daar een grafiek met op de x-as de tijd en op de y-as iets zoals het percentage van de GPU-activiteit.hubhib schreef op donderdag 14 juli 2016 @ 14:32:
Ik zie het nu ook gebeuren met Maxwell en AC. Eerst krijgen we een smoesje dat het er wel is, maar dat het in de drivers is uitgeschakeld. Vervolgens komen de nieuwe GTX 10x0 kaarten van nVidia waar ze in de slides pochen dat ze nu ook AC hebben, maar wordt er over Maxwell geen woord gerept. Het is er niet en er wordt waarschijnlijk ook nooit meer iets aan gedaan voor Maxwell. Daarnaast beginnen de 390 en 390x nu in verschillende benchmarks ook uit te lopen op de 970 en de 980.
YouTube: Part 1: AMD launches Polaris-powered Radeon RX 480, 470 & 460 in...
17de-18de minuut. Misschien kunnen jullie het wel lezen, ik heb er moeite mee.
Wat NVidia doet, als ik het correct begrijpt, is de GPU laten schakelen tussen de ene taak en de andere taak om bijvoorbeeld data-hazards te beperken. Dus nog steeds seriëel maar iets slimmer seriëel door met de volgorde te spelen en een beetje vooruit te kijken naar welke data je wanneer nodig hebt.
Als iemand van jullie het naadje van de kous weet van dit en een fout hierin ziet, voel je vrij om iets te nuanceren of aan te vullen. Dit is wat ik ervan begrijp.
[ Voor 53% gewijzigd door Verwijderd op 14-07-2016 23:18 ]
Verwijderd
Ik beschouwde het als een algemene statement. Maar inderdaad, het kan alleen maar helpen als dat beetje extra geheugen hebt.
Nu moeten ze het niet overdrijven maar naar mijn mening is 4 GB deze generatie iets te weinig, als je conservatief bent dan is 5 of 6 beter. Just saying. Zoveel kost RAM niet dat je het daarvoor moet laten. Hell, misschien hadden ze 8 GB moeten verplichten (enkel een versie met 8 GB of meer (voor wie dat zou willen), ook voor de aftermarket), ik kan me voorstellen dat de prijs van de 8 GB versie dan wat lager zou liggen omdat ze voor de 8 GB-versie extra meer extra kunnen vragen als er ook en 4 GB-versie is. Veel klanten hebben geen idee wat het werkelijk kost en als ze toch al wat extra betalen dan kijken ze niet naar 10-20 euro meer of minder bij een bedrag van 200-250 euro, die klanten die per se 8 GB willen hebben.
[ Voor 5% gewijzigd door Verwijderd op 14-07-2016 23:39 ]
Eerste resultaten van nieuwe 3DMark met asynchronous compute in voordeel van AMD

[ Voor 111% gewijzigd door madmaxnl op 14-07-2016 23:54 ]
Mechwarrior Online: Flapdrol
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik heb het idee dat die designs het in azie weer beter doen, hier zijn we al een hele poos klaar met schreeuwerige tribal ontwerpen maar volgens mij is het daar nog in. Je ziet de andere ( hier second rank) kaarten van powercolour, galax etc. ook vaak ermee aankomen.Phuncz schreef op donderdag 14 juli 2016 @ 17:35:
Mighty Morphin Power Rangers, the graphics card ?
Je zou voor minder een scheldtirade beginnen richting fabrikant, wat een gedrocht.
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
De 980 is hier 1% sneller. Het is maar wat je winnen noemt.-The_Mask- schreef op vrijdag 15 juli 2016 @ 00:18:
Sowieso zijn de prestaties van nVidia nogal goed, in elke DX12 game wint volgens mij de RX 480 van een GTX 980 op dit moment, maar dus niet deze benchmark.
Als ik bij guru3d kijk bij ashes of warhammer zijn ze ook praktisch gelijk.
Mechwarrior Online: Flapdrol
Bij de GTX 980 Ti's scheelde het wel 10-20% tov een refferenced kaart. Dus dat is nog wel de moeite waard. Als je dan vergelijkt met een GTX 1080 beide max overclocked is het verschil helemaal weg. De GTX1080 is wel zuiniger maar prestaties zijn vergelijkbaar.-The_Mask- schreef op donderdag 14 juli 2016 @ 21:23:
[...]
Misschien iets, maar nooit zoveel, zoek het op zou ik zeggen. Neemt niet weg dat dat ook gewoon een voordeel is van die AMD kaarten tegenover de nVidia's van die tijd. Nog een extra reden om toen voor de AMD kaart in die tijd te gaan en niet voor de nVidia.
[...]
Van die kaarten hebben ze sowieso allemaal reference versies.
Qua prestaties niet maar qua prijs prestaties en performance per watt is het wel een win tov die kaart.haarbal schreef op vrijdag 15 juli 2016 @ 00:30:
[...]
De 980 is hier 1% sneller. Het is maar wat je winnen noemt.
Als ik bij guru3d kijk bij ashes of warhammer zijn ze ook praktisch gelijk.
[ Voor 20% gewijzigd door Astennu op 15-07-2016 10:29 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik snap ook niet dat de prijzen voor de 980 nog zo hoog zitten, de 480 is er al, en volgende week komt de 1060 er ook bij.Astennu schreef op vrijdag 15 juli 2016 @ 10:29:
Qua prestaties niet maar qua prijs prestaties en performance per watt is het wel een win tov die kaart.
Mechwarrior Online: Flapdrol
Je bedoeld de GTX 1070 neem ik aan.Astennu schreef op vrijdag 15 juli 2016 @ 10:29:
[...]
Bij de GTX 980 Ti's scheelde het wel 10-20% tov een refferenced kaart. Dus dat is nog wel de moeite waard. Als je dan vergelijkt met een GTX 1080 beide max overclocked is het verschil helemaal weg. De GTX1080 is wel zuiniger maar prestaties zijn vergelijkbaar.
Moet je naar de tweedehands prijzen kijken, daar vragen de meeste mensen gewoon het dubbel van wat de kaart waard is.haarbal schreef op vrijdag 15 juli 2016 @ 11:00:
[...]
Ik snap ook niet dat de prijzen voor de 980 nog zo hoog zitten, de 480 is er al, en volgende week komt de 1060 er ook bij.
Ik keek naar HardwareCanucks, Guru3D review heb ik niet gelezen.haarbal schreef op vrijdag 15 juli 2016 @ 00:30:
[...]
De 980 is hier 1% sneller. Het is maar wat je winnen noemt.
Als ik bij guru3d kijk bij ashes of warhammer zijn ze ook praktisch gelijk.
http://www.hardwarecanuck...erformance-review-24.html
[ Voor 18% gewijzigd door -The_Mask- op 15-07-2016 11:28 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hij bedoelt het verschil tussen reference en aftermarket.-The_Mask- schreef op vrijdag 15 juli 2016 @ 11:24:
Je bedoeld de GTX 1070 neem ik aan.
Mechwarrior Online: Flapdrol
Dit. Ik houd de laatste weken de V&A een beetje in de gaten en mensen durven echt idiote prijzen te vragen. € 50,- onder de nieuwprijs voor een 12+ maanden oude kaart. Had eerst de gedachte om misschien een tweedehands 980(of Ti) te kopen, maar met deze prijzen ga ik dan uiteraard liever voor een nieuwe RX 480 / 1060....-The_Mask- schreef op vrijdag 15 juli 2016 @ 11:24:
[...]
Moet je naar de tweedehands prijzen kijken, daar vragen de meeste mensen gewoon het dubbel van wat de kaart waard is.
Battle.net: adamvsan#2784 | Steam: adamvansanten | PSN: adamvansanten
Dat zie ik wel vaker op V&A, alles is ook "in nieuwstaat" (vooral grappig bij smartphones), je mag blij zijn als er effectief een zelfmaakte foto van het product bijzit die niet door een 3-jarige peuter gemaakt is.adamvansanten schreef op vrijdag 15 juli 2016 @ 13:13:
[...]
Dit. Ik houd de laatste weken de V&A een beetje in de gaten en mensen durven echt idiote prijzen te vragen. € 50,- onder de nieuwprijs voor een 12+ maanden oude kaart.
Ja zeker, ik wil je afgeschreven troep kopen zonder een duidelijke foto te zien, het is nooit mis/gebruikt en met één zin (meestal: "ik verkoop blabla, in nieuwstaat, kostte me zoveel, nooit problemen mee") moet je het dan doen voor 10% goedkoper dan nieuw.

Yep dat. Aftermarket GTX980 Ti's zijn echt super snel. Overclocked even snel als aftermarket GTX1080'shaarbal schreef op vrijdag 15 juli 2016 @ 11:59:
[...]
Hij bedoelt het verschil tussen reference en aftermarket.
De 1080 is dan nog maar 2-5% sneller.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://overclocking.guide...rx-480-unlocked-air-bios/
Verwijderd
Hun probleem, dan blijven ze ermee zitten.Phuncz schreef op vrijdag 15 juli 2016 @ 13:18:
[...]
Dat zie ik wel vaker op V&A, alles is ook "in nieuwstaat" (vooral grappig bij smartphones), je mag blij zijn als er effectief een zelfmaakte foto van het product bijzit die niet door een 3-jarige peuter gemaakt is.
Ja zeker, ik wil je afgeschreven troep kopen zonder een duidelijke foto te zien, het is nooit mis/gebruikt en met één zin (meestal: "ik verkoop blabla, in nieuwstaat, kostte me zoveel, nooit problemen mee") moet je het dan doen voor 10% goedkoper dan nieuw.
Ik zal zelf straks misschien mijn grafische kaart (HD 7850) aanbieden maar meer dan 50 euro zal ik er niet voor vragen, je moet een beetje realistisch zijn. Misschien aangezien een reservekaart wel handig is wanneer de nieuwe kaart onverhoopt stuk gaat en de kaart is krachtig genoeg dat je er dan nog veel mee kan doen.
[ Voor 85% gewijzigd door Verwijderd op 15-07-2016 22:38 ]
En hier wat stills. Verwijderbare fans om ze wat makkelijker schoon te maken.
Dit heeft Sapphire RX480 ook http://videocardz.com/617...-nitro-detailed-some-morexPhantom schreef op zaterdag 16 juli 2016 @ 14:17:
Die XFX kaart ziet er wel tof uit!![]()
[video]
En hier wat stills. Verwijderbare fans om ze wat makkelijker schoon te maken.
Men zou beter focussen op monitoren met LED achtergrondverlichting (ik bedoel niet Ambilight) zodat je minder last hebt van de helderheidsverschillen, maar ook daar kom je eerder LED-verlichte logo's tegen dan achtergrondverlichting. Fucking marketing en de idioten die er als hersenloze zombies achteraanlopen...
RGB verlichting lijkt de trend te zijn in gaming land. Lang leve de kerstboom toetsenborden, behuizingen, ventilatoren, en videokaartenPhuncz schreef op zaterdag 16 juli 2016 @ 14:32:
Spijtig weer van die RGB zooi, waar ook 100% de focus op ligt in het filmpje. We waren er 10 jaren geleden toch als maatschappij grootendeels mee eens dat auto's met felle neon-lichten belachelijk was, waarom nu ineens wel voor merk-logo's van PC hardware in alle kleuren van de regenboog ?
Men zou beter focussen op monitoren met LED achtergrondverlichting (ik bedoel niet Ambilight) zodat je minder last hebt van de helderheidsverschillen, maar ook daar kom je eerder LED-verlichte logo's tegen dan achtergrondverlichting. Fucking marketing en de idioten die er als hersenloze zombies achteraanlopen...
ora et labora
Verwijderd
Nice.Beaudog schreef op vrijdag 15 juli 2016 @ 21:48:
Unlocked bios voor de 480
http://overclocking.guide...rx-480-unlocked-air-bios/
Maar 1.4V is niet echt raadzaam, omdat electromigratie bij dit soort chips veel sneller optreed dan 28 of 32nm chips. Dus het is echt niet raadzaam dit voor 24/7 te laten draaien zo, tenzij je met een full cover block aan de slag gaat en beschikt over een goede custom loop.
Is de multi monitor bug er ondertussen al uit?
Wanneer komen de custom kaarten (lees Twin Frozr)?
[ Voor 3% gewijzigd door sdk1985 op 16-07-2016 15:57 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Geen idee. Eind juli.sdk1985 schreef op zaterdag 16 juli 2016 @ 15:57:
Heb het nieuws even gemist deze week. Twee vragen mbt de 480:
Is de multi monitor bug er ondertussen al uit?
Wanneer komen de custom kaarten (lees Twin Frozr)?
Als je dit leest, heb je teveel tijd.
Ik heb nu enkele dagen de XFX RX 480 XXX OC edition in mijn PC zitten. Deze draait stock 1288 MHz ipv 1266 MHz en heeft een custom backplate.
So far ben ik heel blij met deze kaart. Helaas heb ik geen geluk gehad met de silicon lottery. Stabiel klokt hij niet hoger dan 1300 MHz en dat is op 1150 mV. Dus ik dacht laat ik hem dan undervolten, stock draait hij de P6 en P7 state al op 1150 mV. Maar lager dan 1120 mV voor de stock 1288 MHz kom ik niet, zodra ik lager ga wordt hij instabiel. Dus is een bescheidde undervolt. Met deze undervolt en een custom fan curve met target 2600 RPM en een power limit van +50% wordt hij niet warmer dan 76 graden en blijft hij netjes 100% van de tijd op zijn boostclock van 1288 MHz.
Nu vroeg ik mij twee dingen af:
- Mijn ventilator van de RX 480 maakt geluid, een soort van zoemend/brommend geluid. Hoe harder de fan draait hoe hoger de toon. Dit begint al hoorbaar te zijn bij 2000 RPM, en is hoorbaar tot zo'n 4000 RPM. Horen jullie dit ook bij jullie RX 480? Of is bij jullie de ventilator stil en horen jullie alleen de luchtstroom door de koeler lopen?
- Tweede vraagje gaat over het geheugen. Nu ik heb gesetteld voor 1288 MHz core met een kleine undervolt naar 1120 mV. Wil ik me gaan oriënteren op het geheugen. Ik vraag me af, hebben jullie hier al mee geëxperimenteerd? Klokt het geheugen stabiel naar de 2250 MHz voor jullie of houd het op rond de 2200 MHz? Welk voltage hanteren jullie voor de geheugen overclock? Ik vraag dit omdat ik op het net nu al een paar keer gelezen heb dat hun texture flikkering ervaren als ze hoger dan 2200 MHz gaan. Nu is 2200 MHz een aardige OC al voor het geheugen, echter kan ik nergens eigenlijk vinden welk voltage hier bij hun tegenover staat.
AMD Ryzen 7 9800X3D - Corsair Vengeance 64 GB DDR5 @ 6000 MHz C36 - ASUS ROG Strix B650E-F - GeForce RTX 4090 Phantom - Samsung 990 Pro 2TB, 980 Pro 2TB, 970 EVO Plus 2TB, 860 EVO 1TB, 850 EVO 1TB, 830 256GB - Liquid Freezer II 280 - RM850x - LG 34GS95QE
http://www.overclock.net/...hmarked/220#post_25351958
Hopelijk gaan ze in games voor de paralelle implemenatie.
[ Voor 3% gewijzigd door Snowdog op 16-07-2016 20:46 ]
So yeah... 3D Mark does not use the same type of Asynchronous compute found in all of the recent game titles. Instead.. 3D Mark appears to be specifically tailored so as to show nVIDIA GPUs in the best light possible. It makes use of Context Switches (good because Pascal has that improved pre-emption) as well as the Dynamic Load Balancing on Maxwell through the use of concurrent rather than parallel Asynchronous compute tasks. If parallelism was used then we would see Maxwell taking a performance hit under Time Fly as admitted by nVIDIA in their GTX 1080 white paper and as we have seen from AotS.Snowdog schreef op zaterdag 16 juli 2016 @ 20:45:
Schaamteloos gejat van reddit, maar heb het hier volgens mij nog niet gezien en wel een goede post met uitleg waarom nvidia het eigenlijk beter deed dan verwacht (en AMD ietwat tegenviel) in de benchmark van 3DMark:
http://www.overclock.net/...hmarked/220#post_25351958
Hopelijk gaan ze in games voor de paralelle implemenatie.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik vond een post verderop eigenlijk nuttiger: http://www.overclock.net/...hmarked/240#post_25353045Snowdog schreef op zaterdag 16 juli 2016 @ 20:45:
Schaamteloos gejat van reddit, maar heb het hier volgens mij nog niet gezien en wel een goede post met uitleg waarom nvidia het eigenlijk beter deed dan verwacht (en AMD ietwat tegenviel) in de benchmark van 3DMark:
http://www.overclock.net/...hmarked/220#post_25351958
Hopelijk gaan ze in games voor de paralelle implemenatie.
Daar zie je dat Maxwell bijna niets kan met Vulcan terwijl Pascal er al een stuk meer van profiteert. Ondanks dat ik de 480 serieus overweeg ben ik het met het punt van die poster eens; Pascal lijkt beter geschikt voor de transitie tussen DX11 naar DX12. Immers voorlopig is 99% nog DX11 namelijk. Wat AMD nu biedt is een kaart van 200-250 euro en de ervaring leert dat die geen 2 jaar houdbaar zijn.
Daarmee bedoel ik dat als je nu een 480 koopt daar niets mis mee is, maar dat je er wel rekening mee moet houden dat over 2 jaar hij tekort schiet. Hij is immers nu al niet bepaald top of the line. Sterker nog, in de bovenstaande grafiek is de OpenGL performance onderhand 50% van dat van een GTX 1080.
Als je die redenatie volgt dan is het logischer je keuze te baseren op performance in de games die je nu speelt en dit jaar verwacht, in plaats van op hoe toekomstige games mogelijk met async om gaan springen. Wie het nu beter in 3dmark doet vindt ik wat dat betreft überhaupt niet relevant.
Voor mij persoonlijk zal veel afhangen wat er met de prijzen gebeurd. Als Nvidia er te lang over doet om de supply chain op orde te krijgen dan wordt het gewoon de AMD. Ik ga geen 829 euro betalen voor een GTX 1080. Ik kan altijd in 2017 opnieuw kijken naar de mogelijkheden (Vega vs een prijsdaling bij Nvidia?).
[ Voor 21% gewijzigd door sdk1985 op 16-07-2016 21:47 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ergens misschien wel, maar ik heb het idee dat de meeste grote releases vanaf nu dx12 gaan zijn? In dat geval zie ik niet zon punt en gaat amd er sowieso nog wat op vooruit. Verder presteert de kaart zelfs met dx11 ok voor zijn prijs denk ik en is er op dat gebied niet zoveel te winnen tenzij je meer wilt uitgeven?sdk1985 schreef op zaterdag 16 juli 2016 @ 21:38:
[...]
Ik vond een post verderop eigenlijk nuttiger: http://www.overclock.net/...hmarked/240#post_25353045
[afbeelding]
Daar zie je dat Maxwell bijna niets kan met Vulcan terwijl Pascal er al een stuk meer van profiteert. Ondanks dat ik de 480 serieus overweeg ben ik het met het punt van die poster eens; Pascal lijkt beter geschikt voor de transitie tussen DX11 naar DX12. Immers voorlopig is 99% nog DX11 namelijk. Wat AMD nu biedt is een kaart van 200-250 euro en de ervaring leert dat die geen 2 jaar houdbaar zijn. Daarmee bedoel ik dat als je nu een 480 koopt daar niets mis mee is, maar dat je er wel rekening mee moet houden dat over 2 jaar hij tekort schiet. Hij is immers nu al niet bepaald top of the line. Sterker nog, in de bovenstaande grafiek is de OpenGL performance onderhand 50% van dat van een GTX 1080.
Als je die redenatie volgt dan is het logischer je keuze te baseren op performance in de games die je nu speelt en dit jaar verwacht, in plaats van op hoe toekomstige games mogelijk met async om gaan springen. Voor mij persoonlijk zal veel afhangen wat er met de prijzen gebeurd.
De benchmark is 61 fps als average, dus dat is voor mij persoonlijk te laag voor een shooter. Een gemiddelde impliceert immers dat je onder de 61 duikt. Echter speel ik niet op 1440p maar op 2560x1080. Dus ik denk dat ik er persoonlijk wel mee weg zou komen. Maar er zijn nu wel games waarin de "tegenhanger" GTX 970 niet volstaat (die het in OpenGL beter doet). Dus dan zou ik wel moeten achterhalen hoe het daar met de performance zit.
Denk bijvoorbeeld aan Ark: Survival Evolved. De DX12 implementatie van die game wordt steeds maar uitgesteld. Voorlopig is het huilen met de pet op in die game, welke videokaart je ook neemt: http://www.pcgameshardwar...chmark-Test-2016-1182869/ (kies epic).
[ Voor 25% gewijzigd door sdk1985 op 16-07-2016 22:01 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dan is de vraag: waar profiteert Pascal precies van? Want het is geen async op hardwareniveau. Die link van Snowdog geeft een mogelijkheid.sdk1985 schreef op zaterdag 16 juli 2016 @ 21:38:
[...]
Ik vond een post verderop eigenlijk nuttiger: http://www.overclock.net/...hmarked/240#post_25353045
[afbeelding]
Daar zie je dat Maxwell bijna niets kan met Vulcan terwijl Pascal er al een stuk meer van profiteert.
Van de bestaande games wel inderdaad.Immers voorlopig is 99% nog DX11 namelijk.
Dat geldt voor elke midrange kaart. Zoals je zegt is ie niet top of the line.Daarmee bedoel ik dat als je nu een 480 koopt daar niets mis mee is, maar dat je er wel rekening mee moet houden dat over 2 jaar hij tekort schiet.
Het is leuk om te zien wat voor sprong AMD maakt van OpenGL naar Vulkan, maar die sprong had nooit zo groot mogen zijn. Ze hadden echt meer moeten doen aan prestaties in OpenGL en de driver overhead in DX11 in de afgelopen jaren. Met de RX480 is het gewoon weer hetzelfde verhaal als GCN1 t/m 3in de bovenstaande grafiek is de OpenGL performance onderhand 50% van dat van een GTX 1080.

Ik ben het verder met je eens hoor, daar niet van
Maar toch maar eens zien voor een upgrade wanneer de aftermarket modellen goed op stock zijn aan een normale prijs.
Dat valt allemaal wel mee... Je koopt een kaart van 250 euro, je verkoopt hem voor 100-150. Dan kost die vervangende kaart je weer 100-150 euro. Je hoeft ze niet allemaal te bewarentomcatha schreef op zaterdag 16 juli 2016 @ 23:32:
ik vind het een beetje onzinnig, de meeste mensen hebben niet alleen geen geld om 500 euro neer te leggen voor een nieuwe video kaart maar hebben ook niet het geld om elke 2 jaar gewoon maar weer een kaart te halen. Daarbij is de performance over een paar jaar met een 480x waarschijnlijk meer dan prima. Je zult waarschijnlijk nog steeds de settings redelijk kunnen cranken op 1080.
Verder weet ik wel zeker dat de 480 over 2 jaar niet snel genoeg is. Zie bijvoorbeeld de gelinkte benchmark van Ark waarbij geen enkele kaart 30 fps haalt op epic. Het prestatie niveau is dus nu al niet voldoende voor elke game. Het wordt nog even spannend hoe zwaar Battlefield 1 wordt maar het zit er wat mij betreft dik in dat GTX 970 performance niet voldoende gaat zijn voor 60 fps op very high/ultra op 1080p. Denk maar eens aan Battlefield 3, toen die uitkwam was midrange een GTX 560 vs 6870.

Maar wie weet kan AMD een beetje "toveren" met vulkan achtige toestanden. Maar dat is dan mooi meegenomen, daar zou ik zelf niet op rekenen.
[ Voor 4% gewijzigd door sdk1985 op 16-07-2016 23:50 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Straks ga je me nog vertellen dat ik met een GTS210 geen goede VR-experience kan krijgen, of dat de AMD A4 van mijn moeder niet bepaald geschikt is om records te breken bij folding@home projecten
Very-high en ultra 60+fps is het terrein van high-end, dat is een 480 simpelweg niet, ook nooit voor gemaakt.
People as things, that’s where it starts.
In de regel kan een midrange kaart van een nieuwe generatie de titels van de vorige en huidige generatie wel op 60 fps draaien. Ik heb jaren lang niet anders gedaan dan elke 1.5-2 jaar een nieuwe midrange kaart kopen...In dezelfde test zie je bijvoorbeeld de 6970 bijna 80 fps halen in Borderlands 2 (ook uit 2011).RobinHood schreef op zaterdag 16 juli 2016 @ 23:53:
Wie had dat gedacht, een midrange kaart kan niet op ultra geen 60fps halen in een moderne game.
Straks ga je me nog vertellen dat ik met een GTS210 geen goede VR-experience kan krijgen, of dat de AMD A4 van mijn moeder niet bepaald geschikt is om records te breken bij folding@home projecten![]()
Very-high en ultra 60+fps is het terrein van high-end, dat is een 480 simpelweg niet, ook nooit voor gemaakt.
Verder bevestig je eigenlijk mijn punt een beetje. Als de midrange kaart die jij op het oog hebt volgend jaar al niet de performance kan leveren die jij went dan heeft de discussie over hoe goed potentiele features wel of niet worden ondersteund weinig nut.
Het is allemaal niet zo erg, maar houdt er wel rekening mee bij aanschaf.
Wat er nu anders is dan vroeger is dat het prestatie verschil tussen een kaart van pak hem beet 250 euro en die van 400 euro veel kleiner was dan nu. Wat dat betreft was de GTX 970 echt een trendbreker want die was met zijn 350 euro min of meer evenveel bang for buck als de goedkopere GTX 960. Omdat iedereen een Nvidia heeft gekocht is de markt veranderd.
Dit betekent automatisch dat je nu sneller een nieuwe videokaart nodig hebt als je een kaart koopt die op launch al 50% trager is dan de top of the line kaart. Denk eens terug aan een 4850 in plaats van een 4870. Dat scheelde toen 16% (19% wiskundig).

Dat is iets heel anders dan 50% (100% wiskundig) die we een pagina eerder bij Doom zagen. Daarnaast was dat performance niveau vroeger normaal, nu is het niveau van 350 euro normaal (zie steam stats).
Samengevat zijn er nu dus twee dingen anders.
1) De midrange kaart loopt veel verder achter op de top kaart (zowel prestaties als prijs)
2) Het niveau van 350 euro is stiekem het nieuwe midrange geworden door de introductie van enthousiast (de fury's, 980 ti's, enz).
Ik vrees dat je nu heftiger en sneller dan voorheen gaat merken dat je geen top kaart hebt gekocht. Dat gezegd hebbende beweer ik nergens dat je dan maar 829 euro moet neertellen voor een 1080, eerder het tegenovergestelde
[ Voor 22% gewijzigd door sdk1985 op 17-07-2016 00:21 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Als je fps dan onder jouw persoonlijke laagste punt komt, kun je makkelijk wat settings naar beneden gooien wat, als je reeël bent, geen grote impact heeft op de mooiheid, maar wel je fps hoog houdt.
Persoonlijk speel ik nog steeds met een 280X op 1440p (virtual super resolution) en inderdaad, ik kan niet de super hoogste settings spelen, maar als je een beetje met de settings speelt kun je nog steeds aardig hoog komen zonder dat je al te veel water bij de wijn doet.
Met een RX480 zal dit hetzelfde zijn in een jaar of 2, maar dat is normaal voor een mid-range kaart. Persoonlijk zie ik het probleem niet.
Wat doe je over een jaar wanneer vulkan/dx12 in alle nieuwe games die je wilt spelen wordt ondersteund en je hebt een nvidia kaart waarop dat geen effect heeft?
De technologie staat niet stil en die kan generaties hardware verouderd maken. Leuk als je dan (net) een top of the range kaart hebt gekocht.
Kan je met het prestatie niveau van een midrange kaart leven neem dan vooral een midrange (lees rx 480) kaart. Daarvan heb je veel meer plezier, en laat een aanzienlijk kleiner gat achter in je brgoting wanneer je hem moet vervangen door de opvolger.
Xeon e5-2695 V3, RX Vega 64, Rift | PS3 | PS4 Pro,PSVR
Een stuk meer?sdk1985 schreef op zaterdag 16 juli 2016 @ 21:38:
Daar zie je dat Maxwell bijna niets kan met Vulcan terwijl Pascal er al een stuk meer van profiteert.
Rare definitie heb jij van "een stuk meer"; 1080 krijgt er 6 FPS bij, 1070 3 en 980 Ti 2. Dat is 5,0%, 3,2% en 2,0%. Dat noem ik niet een stuk meer (980 en 970 is 2,6% en 2,8%). Het staat in schril contrast tot Polaris (32,8%), Fiji (24,4% en 25,0%), Grenada/Hawaii (41,9% en 40,7%) en Antigua/Tonga met maar liefst 60,0%.
Belangrijker is echter naar Pascal vs Maxwell te kijken.
Als ik de 1070 als baseline neem in deze benchmark, krijg je het volgende (volgorde is 1080, 980 Ti, 1070, 980, 970):
- DOOM OGL: 126%, 104%, 100%, 82%, 75%
- DOOM Vulkan: 129%, 103%, 100%, 82%, 74%
- TPU: 121%, 88%, 100%, 71%, 62%
1080 als baseline nemen (zelfde volgorde als hierboven):
- DOOM OGL: 100%, 83%, 79%, 65%, 59%
- DOOM Vulkan: 100%, 80%, 78%, 63%, 58%
- TPU: 100%, 73%, 83%*, 60%, 52%.
Pascal doet het geen ruk beter. De 1080 loopt iets verder uit op de 1070, maar loopt Maxwell juist in op Pascal. Sterker nog, GM200 doet het beter dan GP104 (wat geheel logisch is, omdat HyperQ daar 2 extra TPC's heeft om dingen heen te sturen). Als Pascal daadwerkelijk beter overweg kon met AC, dan had GP104 een grotere voorsprong op GM204 gekregen en dat is niet zo. De voorsprong verandert met 1-2%, als deze al verandert (een 980 blijft op exact hetzelfde steken ten opzichte van een 1070).
DOOM heeft geen benchmark tool en de framerate fluctueert enorm. Neem dit screenshot van mij bijvoorbeeld: https://cl.ly/1O3a3Z25473o - draai ik hier iets naar rechts, heb ik 110 FPS. Dat is 13,4% verschil. Had ik eigenlijk ook een screenshot van moeten maken; maar hier heb je Vulkan op vrijwel exact dezelfde plek: https://cl.ly/0h2n0l0o1C1m - OMG VULKAN DRAAIT ZELFS SLECHTER !!1!1!!
Alle gemiddelden die in de single digits blijven qua veranderingen kun je gerust onder de foutmarge scharen totdat id een benchmark tool maakt.
Zijn er workloads waar Pascal beter mee overweg kan? Zeker, kijk maar naar Time Spy. Maar als het op daadwerkelijk AC aan komt is er geen steek veranderd. Ze zullen vast nog wel iets verzinnen om meer uit DOOM op Vulkan te halen, maar dat wordt een software hack, zoals gewoonlijk.
Edit: ik heb overigens met wat mensen wat dingen uit proberen te vogelen over wat Pascal dan wel verandert, want er is weldegelijk iets meer flexibiliteit ten opzichte van Maxwell. Maar dat gaat alsnog weinig winst opleveren, het beperkt meer de schade. Wellicht dat ik dat binnenkort eens post in de Nvidia draad
* heb ik even lomp als 100/121 genomen omdat in de 1080 review de 1070 uiteraard nog niet staat
[ Voor 12% gewijzigd door Werelds op 17-07-2016 01:25 ]
Je had je de moeite kunnen besparen om het echt procentueel te berekenen. Immers is het lastiger om van 100 naar 110 fps te gaan (10%) dan van 40 naar 45 (12.5%). Daarnaast weet jij ook heel goed dat vrijwel alle engines slecht schalen. Dus bij 100 fps heb je relatief meer power nodig dan bij 40 fps. Appels met peren dus.Werelds schreef op zondag 17 juli 2016 @ 01:20:
[...]
Een stuk meer?
Rare definitie heb jij van "een stuk meer"; 1080 krijgt er 6 FPS bij, 1070 3 en 980 Ti 2. Dat is 5,0%, 3,2% en 2,0%. Dat noem ik niet een stuk meer (980 en 970 is 2,6% en 2,8%). Het staat in schril contrast tot Polaris (32,8%), Fiji (24,4% en 25,0%), Grenada/Hawaii (41,9% en 40,7%) en Antigua/Tonga met maar liefst 60,0%.
Belangrijker is echter naar Pascal vs Maxwell te kijken.
Als ik de 1070 als baseline neem in deze benchmark, krijg je het volgende (volgorde is 1080, 980 Ti, 1070, 980, 970):
- DOOM OGL: 126%, 104%, 100%, 82%, 75%
- DOOM Vulkan: 129%, 103%, 100%, 82%, 74%
- TPU: 121%, 88%, 100%, 71%, 62%
1080 als baseline nemen (zelfde volgorde als hierboven):
- DOOM OGL: 100%, 83%, 79%, 65%, 59%
- DOOM Vulkan: 100%, 80%, 78%, 63%, 58%
- TPU: 100%, 73%, 83%*, 60%, 52%.
Pascal doet het geen ruk beter. De 1080 loopt iets verder uit op de 1070, maar loopt Maxwell juist in op Pascal. Sterker nog, GM200 doet het beter dan GP104 (wat geheel logisch is, omdat HyperQ daar 2 extra TPC's heeft om dingen heen te sturen). Als Pascal daadwerkelijk beter overweg kon met AC, dan had GP104 een grotere voorsprong op GM204 gekregen en dat is niet zo. De voorsprong verandert met 1-2%, als deze al verandert (een 980 blijft op exact hetzelfde steken ten opzichte van een 1070).
DOOM heeft geen benchmark tool en de framerate fluctueert enorm. Neem dit screenshot van mij bijvoorbeeld: https://cl.ly/1O3a3Z25473o - draai ik hier iets naar rechts, heb ik 110 FPS. Dat is 13,4% verschil. Had ik eigenlijk ook een screenshot van moeten maken; maar hier heb je Vulkan op vrijwel exact dezelfde plek: https://cl.ly/0h2n0l0o1C1m - OMG VULKAN DRAAIT ZELFS SLECHTER !!1!1!!
Alle gemiddelden die in de single digits blijven qua veranderingen kun je gerust onder de foutmarge scharen totdat id een benchmark tool maakt.
Zijn er workloads waar Pascal beter mee overweg kan? Zeker, kijk maar naar Time Spy. Maar als het op daadwerkelijk AC aan komt is er geen steek veranderd. Ze zullen vast nog wel iets verzinnen om meer uit DOOM op Vulkan te halen, maar dat wordt een software hack, zoals gewoonlijk.
Edit: ik heb overigens met wat mensen wat dingen uit proberen te vogelen over wat Pascal dan wel verandert, want er is weldegelijk iets meer flexibiliteit ten opzichte van Maxwell. Maar dat gaat alsnog weinig winst opleveren, het beperkt meer de schade. Wellicht dat ik dat binnenkort eens post in de Nvidia draad
* heb ik even lomp als 100/121 genomen omdat in de 1080 review de 1070 uiteraard nog niet staat
Zoals je terecht opmerkt zijn er nog wat twijfels te plaatsen bij de herhaalbaarheid van de test en dus de standaard deviate. Daarmee kan 2 fps eigenlijk nooit een significant verschil zijn. Statistisch gezien doet vulcan dus *niets* bij de maxwell kaarten zoals de GTX 970 en de GTX 960. Bij de 1080 gebeurd er wel *iets* en is er dus sprake van *een* verbetering. Groot is hij inderdaad niet... Maar hij is te groot om te negeren. Het staat je natuurlijk vrij om zelf een test met de GTX 1080 te gaan doen om het één en ander te verifiëren. Ik heb er helaas geen
Dat gezegd hebbende is de hele uitspraak (ik heb hem niet verzonnen) dus gebaseerd op het feit dat je *iets* ziet gebeuren bij de GTX 1080. Terwijl erbij de overige kaarten eigenlijk niets gebeurd. Dan wordt het al snel een stuk meer
Vulcan gaat bij AMD nog een stuk beter, dat stond niet ter discussie. Kunnen we wel een discussie van maken
edit: Hah wat een slecht voorbeeld, natuurlijk wel een scene pakken zonder random bewegende zombies en je baseline eerst minimaal 10x testen om te bepalen of de standaard deviatie wel acceptabel is... Bij mijn DDR4 Skylake Winrar testje ook gedaan. Kost je een uurtje extra, maar dan weet je in ieder geval dat je test nut heeft. Wat dat betreft kun je zeggen wat je wil van HWI maar ze denken wel echt na over dit soort vraagstukken en hebben er ook echt een statistische man bij zitten.. Doom heeft toch een map editor? Dan zou je zelf iets in elkaar kunnen flansen.
[ Voor 49% gewijzigd door sdk1985 op 17-07-2016 03:09 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Zou kunnen gebeuren. Vergeet niet dat er bijna 2x meer 970's dan 960's in omloop zijn. Wat dat betreft had ik persoonlijk nooit verwacht dat een dure kaart als de GTX 970 het grootste marktaandeel op steam zou kunnen behalen (7% bij DX12). Gezien dit succes kan het zo maar eens het nieuwe "normaal" worden. Dus vraag het over een paar maanden nog eens als de GTX 1060 er is en de winkels voldoende voorraad hebben. Dan weten we of het GTX 970 effect blijvend is. Ik vrees het ergste...rapsac schreef op zondag 17 juli 2016 @ 01:16:
En waarom is de prijs van een midrange kaart €350? Dat geldt alleen voor de nvidia kaarten. Een rx 480 kost dat in ieder geval niet en dat noem je dan een sub-midrange kaart?
Waarom? Nvidia bouwt geen kaarten voor het goede doel dus zolang die met hoge prijzen kunnen wegkomen zullen ze dat doen. Zo lang gamers zo "gek" zijn ze voor deze prijzen te kopen zullen de winkels hier ook mee door gaan. Van de week lag er weer een GTX 1070 bij CDROMLAND voor 549, dit weekend was hij toch weer weg. De kaarten bij Alternate waren voor 569 ook zo weg.
Ik denk dat veel gamers samen met mij hopen dat de prijzen die we nu bij de 1070 en 1080 zien tijdelijk zijn en geen voorbode voor de nieuwe toekomst. AMD zal ook echt nog wel met iets duurders komen volgend jaar. Wat AMD betreft kunnen hun duurdere (snellere) kaarten niet vroeg genoeg komen. (Aldus het interview met de vice president wat hier vorige week werd gelinked). Het is bij AMD nu geen kwestie van willen maar kunnen. RTG heeft dus aangegeven bezig te zijn met het inhalen van de achterstand die ze rond 2013 zijn opgelopen. Over een verhoging van het R&D budget heb ik ze echter nog niet gehoord. Dus wat dat betreft ben ik persoonlijk nog erg pessimistisch over de time to market van Vega. Maar eerlijk is eerlijk; Polaris heeft mij positief verrast. Pascal was zoals ik het verwacht had; engineered gains.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Echter is dat verschil bij z'n gecastreerde broertje weer te verwaarlozen, of is 3 FPS je grens?sdk1985 schreef op zondag 17 juli 2016 @ 02:25:
Bij de 1080 gebeurd er wel *iets* en is er dus sprake van *een* verbetering. Groot is hij inderdaad niet... Maar hij is te groot om te negeren.
Mijn punt is niet dat de 1080 niets wint. Mijn punt is dat het niet aan Pascal ligt. Als Pascal daadwerkelijk met AC om kon gaan, zou de 1070 meer moeten winnen - op z'n minst het procentuele verschil zou dichter bij dat van de 1080 moeten liggen. Met andere woorden, het feit dat de 1080 net iets meer baat heeft bij Vulkan, hoe minimaal het ook is, ligt eerder aan het feit dat het gewoon een snellere GPU is dan aan de architectuur.
Dat is al langs geweest, maar ik zou het niet te serieus nemen, weer van zo'n YouTube filmpje.sdk1985 schreef op zaterdag 16 juli 2016 @ 21:38:
[...]
Ik vond een post verderop eigenlijk nuttiger: http://www.overclock.net/...hmarked/240#post_25353045
[afbeelding]
https://www.computerbase....an-benchmarks-amd-nvidia/ laat toch wel iets anders zien, vooral bij Fury X.
Games worden op dit moment helemaal niet snel veel zwaarder, over 2 jaar moet een RX 480 dan ook nog prima gebruikbaar zijn. Daarnaast zou ik ook niet naar de prijs kijken, maar naar de huidige prestaties. Een GTX 980 is bijvoorbeeld net iets minder in DX12 en Vulkan terwijl deze kaart toch vanaf 400 euro te koop is. Dus je kunt de RX 480 ook als een 400/500 euro videokaart beschouwen.Daar zie je dat Maxwell bijna niets kan met Vulcan terwijl Pascal er al een stuk meer van profiteert. Ondanks dat ik de 480 serieus overweeg ben ik het met het punt van die poster eens; Pascal lijkt beter geschikt voor de transitie tussen DX11 naar DX12. Immers voorlopig is 99% nog DX11 namelijk. Wat AMD nu biedt is een kaart van 200-250 euro en de ervaring leert dat die geen 2 jaar houdbaar zijn.
Frame times bepalen hoe soepel het loopt en met FreeSync draait het ook nog veel soepeler. 80 fps gemiddeld met slechte frame times en zonder FreeSync kan dan ook stukken minder lopen dan 50 fps met goede frame times en met FreeSync. Zeggen dat 61 fps gemiddeld dus wat weinig is is veel te kort door de bocht, kan namelijk wel erg soepel zijn maar ook erg slecht lopen.sdk1985 schreef op zaterdag 16 juli 2016 @ 21:49:
De benchmark is 61 fps als average, dus dat is voor mij persoonlijk te laag voor een shooter.
Nou van een maand geleden weten we wel beter.sdk1985 schreef op zondag 17 juli 2016 @ 02:25:
[...]
Je had je de moeite kunnen besparen om het echt procentueel te berekenen.
Eh.. juist...Immers is het lastiger om van 100 naar 110 fps te gaan (10%) dan van 40 naar 45 (12.5%).
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Wel apart, op 1920x1080 is de fury x 18% sneller dan de 1070. Op 2560x1440 zelfs 26%, maar op 4K nog maar 3%.-The_Mask- schreef op zondag 17 juli 2016 @ 13:43:
Dat is al langs geweest, maar ik zou het niet te serieus nemen, weer van zo'n YouTube filmpje.
https://www.computerbase....an-benchmarks-amd-nvidia/ laat toch wel iets anders zien, vooral bij Fury X.
Op 4K zal de kaart misschien zo druk zijn met al die pixels uitrekenen dat dat de bottleneck wordt, en dat het slim bundelen van de verschillende delen van de rendering pipline minder winst oplevert.
Het verschil tussen opengl en vulkan verkleint ook, 66% op 1920x1080 naar 11% op 4K
[ Voor 6% gewijzigd door haarbal op 17-07-2016 14:44 ]
Mechwarrior Online: Flapdrol
Graphics gaat wij mij betreft niet alleen om technologie maar ook heel erg om artwork en design. Ik vind de spelwereld van bijvoorbeeld Bioshock Infinite oneindig veel mooier dan die van Crysis 3. Als je niet alles op ultra 60FPS speelt maar lekker op very high of high dan hoef je niet in het hoge segment kaarten te kopen waar je een enorme premium betaalt. Ik snap de obsessie soms ook niet echt met die topkaarten. Maar goed, ben blij dat die mensen er wel zijn want door hun gesmijt met geld wordt technologie uiteindelijk wel goedkoper.
[ Voor 15% gewijzigd door Tomm13 op 17-07-2016 17:43 ]
Verwijderd
Zou moeten lukken, maarrrrrrrrrrr er komen aftermarket-versies met DVI-poort. Dual-DVI dacht ik. Ik wacht zelf ook nog even dusVerwijderd schreef op zondag 17 juli 2016 @ 21:19:
Helemaal gelijk in. Dat is voor mij de reden om voor de RX480 ga en niet voor de 1070. Ik heb nog een vraagje over de RX480. In tegenstelling tot de 1070 heeft de RX480 geen DVI aansluiting. Ik heb nog een verouderd scherm met alleen een DVI en VGA ingang. Gaat dit problemen opleveren of volstaat een HDMI>DVI koppeling?
Als je dit leest, heb je teveel tijd.
Verwijderd
Elite Dangerous zal ik er wel niet fatsoenlijk (in VR) mee kunnen spelen. Maar dat moet dan nog maar een tijdje wachten (490).
Dit ben ik toch niet helemaal met je eens. Vergeet niet dat er de afgelopen jaren gewoon weinig progressie is geweest op performance vlak in de € 250 price range. Zo is een GTX 960 uit 2015 gemiddeld maar 25% sneller dan een GTX 660 uit (medio) 2012. Voor iedereen met een mid-end kaart uit 2012 of hoger had het dus geen zin om te upgraden naar een kaart minder dan een GTX 970.sdk1985 schreef op zondag 17 juli 2016 @ 03:10:
ff split quoten
[...]
Zou kunnen gebeuren. Vergeet niet dat er bijna 2x meer 970's dan 960's in omloop zijn. Wat dat betreft had ik persoonlijk nooit verwacht dat een dure kaart als de GTX 970 het grootste marktaandeel op steam zou kunnen behalen (7% bij DX12). Gezien dit succes kan het zo maar eens het nieuwe "normaal" worden. Dus vraag het over een paar maanden nog eens als de GTX 1060 er is en de winkels voldoende voorraad hebben. Dan weten we of het GTX 970 effect blijvend is. Ik vrees het ergste...
En straks hebben we dus kaarten met GTX 980 performance in de mid-end price range. Wat dat betreft is de markt dus niet zozeer verschoven maar is er gewoon een extra boven high-end bijgekomen.
Ligt aan je resolutie en refreshrate.Verwijderd schreef op zondag 17 juli 2016 @ 21:19:
Helemaal gelijk in. Dat is voor mij de reden om voor de RX480 ga en niet voor de 1070. Ik heb nog een vraagje over de RX480. In tegenstelling tot de 1070 heeft de RX480 geen DVI aansluiting. Ik heb nog een verouderd scherm met alleen een DVI en VGA ingang. Gaat dit problemen opleveren of volstaat een HDMI>DVI koppeling?
voor 1920x1080 op 120hz of 2560x1440 op 60hz heb je een actieve converter nodig.
Mechwarrior Online: Flapdrol
120hz en 2560x1440 schermen bestaan langer dan displayport.Werelds schreef op maandag 18 juli 2016 @ 15:25:
Een beetje 120/144 Hz monitor hoort ook gewoon een DisplayPort aansluiting te hebben, probleem opgelost
Mechwarrior Online: Flapdrol
Uh, nee, sorryhaarbal schreef op maandag 18 juli 2016 @ 16:08:
120hz en 2560x1440 schermen bestaan langer dan displayport.
DP 1.0 stamt al uit 2006; 1.1 uit 2007 - genoeg voor 1080p120 en 1440p60. Toen had je nog sowieso nog geen 1440p120 schermen, 1440p was zelfs nog veel duurder dan 2160p tegenwoordig is. Zelfs in 2009, toen AMD DP introduceerde was 1440p/1600p nog verre van gemeengoed, laat staan 120 Hz monitors op die resoluties. In 2009 kwam ook DP 1.2 uit, wat AMD in 2010 dus ook in Northern Islands stopte. En 1.2 is genoeg voor 1440p144 en 2160p60.
En 120 Hz? Een 2233RZ stamt uit 2009. Dat was toch wel zo'n beetje een van de eerste 120 Hz "degelijke" monitors. 1440p op 120 of 144 Hz stamt van veel later, dat is pas iets van de laatste 2-3 jaar.
Dat monitor fabrikanten DP pas veel later zijn gaan gebruiken en eigenlijk nog steeds maar mondjesmaat doen is een andere zaak.
Whatever. Het gaat erom dat er nog prima werkende monitoren zijn waar je duallink dvi voor nodig hebt. Dat los je niet op door te zeggen dat ze dan maar displayport hadden moeten hebben.Werelds schreef op maandag 18 juli 2016 @ 16:22:
[...]
Uh, nee, sorry
DP 1.0 stamt al uit 2006; 1.1 uit 2007 - genoeg voor 1080p120 en 1440p60. Toen had je nog sowieso nog geen 1440p120 schermen, 1440p was zelfs nog veel duurder dan 2160p tegenwoordig is. Zelfs in 2009, toen AMD DP introduceerde was 1440p/1600p nog verre van gemeengoed, laat staan 120 Hz monitors op die resoluties. In 2009 kwam ook DP 1.2 uit, wat AMD in 2010 dus ook in Northern Islands stopte. En 1.2 is genoeg voor 1440p144 en 2160p60.
En 120 Hz? Een 2233RZ stamt uit 2009. Dat was toch wel zo'n beetje een van de eerste 120 Hz "degelijke" monitors. 1440p op 120 of 144 Hz stamt van veel later, dat is pas iets van de laatste 2-3 jaar.
Dat monitor fabrikanten DP pas veel later zijn gaan gebruiken en eigenlijk nog steeds maar mondjesmaat doen is een andere zaak.
Mechwarrior Online: Flapdrol
Dat ontken ik ook niet, het was dan ook niet 100% serieus bedoeld (vandaar dehaarbal schreef op maandag 18 juli 2016 @ 17:15:
Whatever. Het gaat erom dat er nog prima werkende monitoren zijn waar je duallink dvi voor nodig hebt. Dat los je niet op door te zeggen dat ze dan maar displayport hadden moeten hebben.
Overigens heeft bijna elke 120 Hz (of hoger) monitor van de afgelopen 2 jaar wel DP zoals het hoort. Enkele uitzonderingen daar gelaten, zoals BenQ's XL2411Z...die dan zoals gezegd wel HDMI 1.4 heeft

Korean memory and NAND flash giant SK Hynix announced that it will have HBM2 memory ready for order within Q3-2016 (July-September). The company will ship 4 gigabyte HBM2 stacks in the 4 Hi-stack (4-die stack) form-factor, in two speeds - 2.00 Gbps (256 GB/s per stack), bearing model number H5VR32ESM4H-20C; and 1.60 Gbps (204 GB/s per stack), bearing model number H5VR32ESM4H-12C. With four such stacks, graphics cards over a 4096-bit HBM2 interface, graphics cards with 16 GB of total memory can be built.
https://www.techpowerup.c...ip-hbm2-memory-by-q3-2016
Verwijderd
https://www.reddit.com/r/...me_spy_intentionally_and/
[ Voor 14% gewijzigd door Crp op 19-07-2016 08:38 ]
Benieuwd of hij ook 15% meer presteerd dan tegenover mijn XFX XXX (1,288) uitvoering. Ik heb geen last van dansende snelheden tijdens gamen of dergelijke, mede dankzij de belachelijke hoeveelheid luchtverplaatsing in mijn case vermoed ik en allicht helpt de backplate er ook bij.Verwijderd schreef op maandag 18 juli 2016 @ 23:33:
Rx480 strixversies zijn opgedoken. Beetje traag maar wel 15+% fps meer dan de reference volgens rog's rx480 o8g productpagina.
Crp schreef op dinsdag 19 juli 2016 @ 08:24:
Timespy is dus geen betrouwbare benchmark en Nvidia favored
https://www.reddit.com/r/...me_spy_intentionally_and/
Opzicht is er ook wel wat voor te zeggen dat ze een DX12 bench maken met de minimale specificaties van DX12 en geen vendor specifieke optimalisaties. Op die manier daait elke kaart exact hetzelfde.3DMark Time Spy engine is specifically written to be a neutral, "reference implementation" engine for DX12 FL11_0.
No, it has a single DX12 FL 11_0 code path.
Dat je dan eigenlijk een mutlitread DX11 bench draait is dan het resultaat, gelukkig hebben ze de asyn optie toegevoegd
Verwijderd
Hopelijk komen er betere rx480 versies die vergelijkbaar zullen zijn met een goede 1070/1060. Een freesync scherm is ook goedkoper, dus als de prestaties goed zijn en ik de gtx1080 voor 1440p, zelfs voor 144hz, een beetje onnodig vind, dan koop ik of een gtx1070, of, als er een vergelijkbare is, een rx480. Dan kan ik eventueel een tweede kopen met freesync scherm voor de andere pc. Die 15% extra fps maakt de rx480 een stuk aantrekkelijker!
[ Voor 55% gewijzigd door Verwijderd op 19-07-2016 09:18 ]
Ja en nee, ja het lijkt eerlijker.Toettoetdaan schreef op dinsdag 19 juli 2016 @ 09:05:
[...]
[...]
Opzicht is er ook wel wat voor te zeggen dat ze een DX12 bench maken met de minimale specificaties van DX12 en geen vendor specifieke optimalisaties. Op die manier daait elke kaart exact hetzelfde.
Dat je dan eigenlijk een mutlitread DX11 bench draait is dan het resultaat, gelukkig hebben ze de asyn optie toegevoegd
Nee, omdat er in het verleden al meermaals gezegd is dat als je dan toch single render path gaat je beter DX11 kan gebruiken. Als je dan toch een DX12 benchmark bouwt moet hij in mijn ogen alle features supporten (hetzij niet verplichten, dus gebruiken als ze er zijn) en vermelden welke ondersteund/gebruikt zijn in je benchmark resultaten.
Dat het vergelijken dan niet altijd even recht is moeten mensen zelf interpreteren en reviewers duidelijk weten te maken. Wij tweakers zijn handig genoeg de juiste filters in de benchmark results in te stellen
Specificaties en leverdata (volgens Overclockers UK):
- 8GB Nitro+ OC: levering vanaf 22 juli, Boostclock 1342MHz, 8000MHz, prijs ~300 Euro
- 8GB Nitro OC: levering vanaf 5 augustus, Boostclock 1306MHz, mem. 8000MHz, prijs ~300 Euro ???
- 4GB Nitro OC: levering vanaf 5 augustus, Boostclock 1306MHz, mem. 7000MHz, prijs ~250 Euro
- De Nitro+ OC heeft op dit moment de hoogste Boostclock 1342MHz (hoger dan de Asus Strix van 1333MHz en XFX BlackEdition OC 1328MHz).
- De Nitro (non plus) OC heeft dezelfde prijs als de Nitro+ OC?
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
[ Voor 14% gewijzigd door -The_Mask- op 19-07-2016 09:43 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik denk dat ik dan liever een 470 haal, kosten straks waarschijnlijk minder dan 200.Indy91 schreef op dinsdag 19 juli 2016 @ 09:23:
Vooral de 4GB Nitro van ~250 Euro lijkt interessant voor mij.![]()
Mechwarrior Online: Flapdrol
Verwijderd
Het antwoord op jou vraag is: dat weet jij alleen.Verwijderd schreef op dinsdag 19 juli 2016 @ 10:08:
Ik twijfel tussen de logische keuzes voor 1440p, de rx480 en de gtx1070, en de duurdere en onnodige keuze, de gtx 1080. De vraag blijft: hoeveel fps wil ik, en op welke settings wil ik dat halen?
ora et labora
Verwijderd
Dan kan ik dat eventueel doen om scren tearing te voorkomen, als ik een amd videokaart koop.
Al tijden, staat ook gewoon in de topicstart. CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 137 en daarvoor kon het overigens ook gewoon met andere programma's, zonder Vsync te gebruiken, wat ook nog een optie is natuurlijk.Verwijderd schreef op dinsdag 19 juli 2016 @ 10:52:
Kan je amd videokaarten instellen op een maximum fps?
[ Voor 16% gewijzigd door -The_Mask- op 19-07-2016 11:10 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Werkt niet met vulkan-The_Mask- schreef op dinsdag 19 juli 2016 @ 10:57:
[...]
Al tijden, staat ook gewoon in de topicstart. CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 137 en daarvoor kon het overigens ook gewoon met andere programma's, zonder Vsync te gebruiken, wat ook nog een optie is natuurlijk.
http://www.twitch.tv/jannustitannus
Omdat de benchmark geen hardware specifieke optimalisaties heeft is hij nvidia favored?Crp schreef op dinsdag 19 juli 2016 @ 08:24:
Timespy is dus geen betrouwbare benchmark en Nvidia favored
https://www.reddit.com/r/...me_spy_intentionally_and/
Mechwarrior Online: Flapdrol
Toettoetdaan schreef op dinsdag 19 juli 2016 @ 09:05:
Opzicht is er ook wel wat voor te zeggen dat ze een DX12 bench maken met de minimale specificaties van DX12 en geen vendor specifieke optimalisaties. Op die manier daait elke kaart exact hetzelfde.
Dat je dan eigenlijk een mutlitread DX11 bench draait is dan het resultaat, gelukkig hebben ze de asyn optie toegevoegd
Nee, dat is niet de reden.haarbal schreef op dinsdag 19 juli 2016 @ 11:41:
Omdat de benchmark geen hardware specifieke optimalisaties heeft is hij nvidia favored?
Bekijk die GPUView afbeelding eens. Zien jullie al die "fences"? Een fence is een call om te wachten tot alles wat je gesubmit hebt klaar is. Dat is wat DX11 constant doet. Met andere woorden, Time Spy, maakt er een grotendeels single-threaded verhaal van. Fences gaan parallellisme tegen, ze maken er een serieel verhaal van. Elke fence legt de GPU even stil.
Zelfs Nvidia's eigen "Dos and Don'ts" geven aan dat je dit juist niet moet doen: https://developer.nvidia.com/dx12-dos-and-donts#barriers
Het omgekeerde is niet waar; minder fences gebruiken betekent niet noodzakelijkerwijs dat een architectuur als Pascal er slechter mee om kan gaan. Het is de taak van de scheduler om wat er binnen komt zo snel mogelijk te verwerken, dat is juist een van de punten van DX12. Of dat nu in hardware (AMD) of software (Nvidia) gebeurt boeit verder niet. Een scheduler hoort echter niet opdrachten weg te laten en dat is wat AMD hier zou moeten doen om FutureMark's waardeloze implementatie op te lossen.Minimize the use of barriers and fences
- We have seen redundant barriers and associated wait for idle operations as a major performance problem for DX11 to DX12 ports
- - The DX11 driver is doing a great job of reducing barriers – now under DX12 you need to do it
Any barrier or fence can limit parallelism
Wat zij hebben is geen "reference DX12 implementatie". Het is een luie DX11 port op de DX12 API.
Toettoetdaan heeft gelijk dat het best een goed idee is om op FL11_0 te gaan zitten en dus geen TR, CR, ROV, SRV of FP16 te vereisen. Maar dit is geen multithreaded versie van een DX11 benchmark; al die fences zorgen er voor dat het juist niet multithreaded wordt.
Het is niet zo extreem als met Vantage+PhysX, maar het is alles behalve een eerlijke benchmark op deze manier. Het enige wat Time Spy op deze manier test is of er een driver hack tussen zit die onnodige fences er uit sloopt.
[ Voor 9% gewijzigd door Werelds op 19-07-2016 12:03 ]
Verwijderd
Verwijderd
Iemand enig idee waar deze dubbele standaard vandaan komt? Zou NVidia die modellen leveren of een premie geven voor het leveren van die modellen aan de reviewers of zo?
Omdat AMD-kaarten AC (complexer, tragere paden maar lonend bij goede API-ondersteuning) gebruiken? Omdat AMD-kaarten meer CPU-overhead geven bij een API die niet 'dicht op het metaal zit' (=DX)?Verwijderd schreef op dinsdag 19 juli 2016 @ 13:01:
Hoe kan de gtx1060 betere prestaties leveren dan de rx480? De rx480 heeft 5,5tflops en de gtx1060 4,4tflops.
Ik ken zelf ook niet alle details maar het is niet omdat ze beter kunnen rekenen dat ze daarom ook met alle applicaties beter uit de voeten kunnen. Met DX12 kan AMD beter uit de voeten dan NVidia, met Vulkan verpulvert AMD NVidia, met DX11 verliest AMD het van NVidia terwijl die kaarten meer rekenvermogen hebben. Hoe dan ook is DX een API die niet goed functioneert in deze tijd: veel te veel overhead voor die API zelf. Zelfs voor DX12 (wel beter dan DX11) in vergelijking met Vulkan.
Let erop dat de 480 voor Vulkan-spellen wel de 1060 verslaat. Hoewel de 1060 nog niets is getest door onafhankelijke reviewers weten we dat die ongeveer de prestaties van de 980 haalt en we weten dat de 480 de 980 verslaat voor Doom en zelfs in de buurt komt van de 1070 die voor DX11 twee klasses hoger zit dan de 480. Voor DX12 is de kans ook groot dat de 480 de 1060 zal verslaan, indien de spellen goed zijn geoptimaliseerd voor AMD-kaarten. Bovendien zal de prijs van de 1060 fors hoger liggen (normaal gesproken kosten de aftermarketkaarten in de eerste maanden meer dan de FE, dat de prijs van de FE hoger ligt dan de MSRP geeft aan dat die MSRP waarschijnlijk nog een hele tijd niet gehaald zal gaan worden
De lagere kloksnelheden zijn op zichzelf weinig informatief, het gaat om de combinatie van de kloksnelheid en wat je per cyclus doet. Google even op CPI (cycles per instruction).
AMD heeft tragere paden maar dit werkt wel beter met een API zoals Vulkan.
Je kan het ook anders zien, soms zijn er meerdere goede keuzes mogelijk met het ontwerpen van hardware. Er zijn tradeoffs: voordelen en nadelen van elke keuze, welke keuze goed uitpakt hangt mede af van andere ontwikkelingen die het bedrijf zelf niet in de hand heeft. Voor de grafische kaarten heeft AMD goed gegokt, maar met de prijs dat DX11 spellen minder goed draaien.
Voor CPU's nam AMD in het verleden ook zo'n gok (1 FPU per 2 kernen) maar deze gok pakte verkeerd uit doordat Microsoft Windows niet op een voor AMD gunstige manier verder ontwikkelde en doordat de software die het mogelijk maakt om meerdere kernen aan het werk te zetten en dit met een goede schaling niet goed werd ontwikkeld. Luck of the draw, AMD liep qua hardware iets te ver vooruit op de ontwikkelingen in de software (het bedrijf was te optimistisch m.b.t. hoe snel de software het zou kunnen bijbenen). YouTube: How Many Cores Do AMD FX Processors *Actually* Have?
NVidia speculeerde voor de grafische kaarten dat DX11 inderdaad voorlopig het eindstadium zou zijn van DX maar helaas voor NVidia heeft MS toch DX12 ontwikkeld. Al dan niet omdat MS de hete adem van Mantle (nu Vulkan) in haar nek voelde. Niemand die het zeker weet behalve wat hot shots bij MS.
[ Voor 98% gewijzigd door Verwijderd op 19-07-2016 13:29 ]
Verwijderd
Het blijft jammer dat je geen gtx1060 kaarten in sli kunt gebruiken, en dat sli zelden goed werkt.
Gaat iemand wachten op een rx480x/rx490/gtx1070 ti/gtx1080 ti? Ik niet, omdat de 1080, 1070, en zelfs de rx480 (AIB is waarschijnlijk de beste keus) zijn prima voor 1440p. 4k is voor gamen simpelweg niet nodig, en 1440p is de beste 16:9 resolutie.
Groot budget: iets met een 1080, medium budget: iets met een 1070, klein budget: iets met een 1060/rx480. Afhankelijk van je budget zijn deze keuzes de beste met nieuwe gpu's voor 1440p. Voor 1080p/60fps/max settings kun je denk ik beter wachten op een rx470/gtx1050.
Ik heb een heel groot budget, en twijfel toch tussen de rx480, gtx1060, gtx1070 en de gtx1080. Waarom? Ik weet namelijk nog niet met hoeveel fps ik wil gamen! Best raar, want wanneer ik een klein budget heb wil ik het duurste en het beste, en dan heb ik eindelijk een groot genoeg budget voor alles, en neig ik naar de goedkopere opties met lagere prestaties!
Het aantal flops wordt berekend aan het aantal core's, maal de frequentie van de GPU, maal twee. Dat zegt dus niks over de prestaties als je niet de prestaties per core weet.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:01:
Hoe kan de gtx1060 betere prestaties leveren dan de rx480? De rx480 heeft 5,5tflops en de gtx1060 4,4tflops.
Een Pentium 4 op 10GHz is ook gewoon veel trager dan een moderne Core i7 en niet alleen omdat de Core i7 meer core's heeft ook omdat de IPC gewoon veel beter is.
Is dus maar net waar de fabrikant voor kiest heel veel kleine trage core's of maar weinig hele grote en sterke core's. Is dan ook nutteloos om flops te gaan vergelijken om de prestaties te bepalen, of zelfs de efficiëntie.
Een kaart met een halve TFlop kan dus ook prima stukken sneller zijn als één van 100 TFlops.
Waar gaat dit over? De RX 480 en GTX 1060? Als dat zo is, is het niet meer dan logisch, custom RX 480's zijn nog niet gereed, eerste GTX 1060's moeten wel leverbaar worden vandaag, al zal het weer schaars en veel te duur zijn. Eerste custom RX 480's moeten volgende week komen.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:02:
Een wat merkwaardig bericht van JayZ: blijkbaar leveren bedrijen zoals MSI en Gigabyte (al de bedrijven die zowel NVidia- als AMD-kaarten maken/bewerken) veel minder modellen aan de reviewers voor AMD dan voor NVidia. Voor NVidia benaderen die bedrijven zelf de reviewers voor samples, voor AMD kreeg hij zelfs geen modelkaart op het moment dat hij er zelf om vroeg.
Iemand enig idee waar deze dubbele standaard vandaan komt? Zou NVidia die modellen leveren of een premie geven voor het leveren van die modellen aan de reviewers of zo?
Die komt met Sint Juttemis.
[ Voor 4% gewijzigd door -The_Mask- op 19-07-2016 13:27 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Oh ja, ik had jouw overklokvraag eventjes over het hoofd gezien. Reken er maar niet op dat je de aftermarketkaarten van de 480 lekker gaat kunnen overklokken. In het gunstigste geval - ik zou hier dus niet eens vanuit gaan - kan je misschien 1400-1450 MHz halen. Het zijn gewoon geen goede overklokkers.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:23:
Ok.
Het blijft jammer dat je geen gtx1060 kaarten in sli kunt gebruiken, en dat sli zelden goed werkt.
Gaat iemand wachten op een rx480x/rx490/gtx1070 ti/gtx1080 ti? Ik niet, omdat de 1080, 1070, en zelfs de rx480 (AIB is waarschijnlijk de beste keus) zijn prima voor 1440p. 4k is voor gamen simpelweg niet nodig, en 1440p is de beste 16:9 resolutie.
Groot budget: iets met een 1080, medium budget: iets met een 1070, klein budget: iets met een 1060/rx480. Afhankelijk van je budget zijn deze keuzes de beste met nieuwe gpu's voor 1440p. Voor 1080p/60fps/max settings kun je denk ik beter wachten op een rx470/gtx1050.
Ik heb een heel groot budget, en twijfel toch tussen de rx480, gtx1060, gtx1070 en de gtx1080. Waarom? Ik weet namelijk nog niet met hoeveel fps ik wil gamen! Best raar, want wanneer ik een klein budget heb wil ik het duurste en het beste, en dan heb ik eindelijk een groot genoeg budget voor alles, en neig ik naar de goedkopere opties met lagere prestaties!
Hij gaf aan dat dit in het algemeen zijn ervaring is en hij noemde specifiek MSI (misschien DeBron er iets over vertellen?-The_Mask- schreef op dinsdag 19 juli 2016 @ 13:26:
Waar gaat dit over? De RX 480 en GTX 1060?
Eerder had ik al eens opgevangen dat NVidia wat guller is met demonstratiemodellen dan AMD (dus voor de referentiekaarten) en dat zou inderdaad te maken hebben met dat ze niet onnodig de levering van kaarten voor de gewone klanten willen vertragen. Dat verklaart echter niet waarom MSI en Gigabyte zuiniger zijn met het geven of lenen van modellen van aftermarketkaarten.
@Barbadruif, ik ben het met hem eens dat je lang kan wachten op de 480X. Die gaat trouwens de 485 heten. Ik zou wachten op de 490 als je de 480 te zwak vindt. Dat is wat ik doe. Dat ik heel erg graag RotTR wil spelen met de hoogste instellingen (het liefst ook met 1440p) en 60+ FPS helpt mij ook om nog even geduldig te wachten. Het eerste deel (2012/2013) van de huidige reeks was een van mijn favoriete spellen.
[ Voor 29% gewijzigd door Verwijderd op 19-07-2016 13:36 ]
Ik verwacht vergelijkbaar met een GTX 1070 en GTX 1080 qua procentuele winst, als het mee zit misschien nog iets beter met luchtkoeling.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:29:
[...]
Oh ja, ik had jouw overklokvraag eventjes over het hoofd gezien. Reken er maar niet op dat je de aftermarketkaarten van de 480 lekker gaat kunnen overklokken. In het gunstigste geval - ik zou hier dus niet eens vanuit gaan - kan je misschien 1400-1450 MHz halen. Het zijn gewoon geen goede overklokkers.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Ik weet niet of zoiets al eerder geconstateerd is maar goed oordeel zelf maar:
YouTube: DOOM Graphics AMD vs Nvidia - 'The Way it's Meant to be Play...
Verwijderd
Je kan koelen wat je wil maar als het netwerk aan transistoren niet sneller kan...-The_Mask- schreef op dinsdag 19 juli 2016 @ 13:32:
[...]
Ik verwacht vergelijkbaar met een GTX 1070 en GTX 1080 qua procentuele winst, als het mee zit misschien nog iets beter met luchtkoeling.
Jij hebt toch meegekregen dat sommige jongens met extreme middelen de referentiekaarten probeerden te overklokken? Zij kwamen niet verder dan 1450-1500 MHz en dit met extreme middelen.
Maar goed, met of zonder flinke overklokking (ik hoop dat ik ongelijk heb!), de 480 is niet krachtig genoeg voor wat ik wil dus ik wacht sowieso op de 490 en ik hoop dat die voor DX11-spellen niet al te ver (niet meer dan een paar FPS bij een FPS van rond de 70) onder de 1070 presteert. Ik vind het hartstikke fijn dat AMD-kaarten meer toekomstbestendig zijn maar de meeste van de huidige spellen draaien onder DX11 of DX9 dus daar moet je wel rekening mee houden.
[ Voor 9% gewijzigd door Verwijderd op 19-07-2016 13:41 ]
Hij heeft het over procentuele winst bij overclocken.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:40:
[...]
Je kan koelen wat je wil maar als het netwerk aan transistoren niet sneller kan...
Jij hebt toch meegekregen dat sommige jongens met extreme middelen de referentiekaarten probeerden te overklokken? Zij kwamen niet verder dan 1450-1500 MHz en dit met extreme middelen.
Maar goed, met of zonder flinke overklokking (ik hoop dat ik ongelijk heb!), de 480 is niet krachtig genoeg voor wat ik wil dus ik wacht sowieso op de 490 en ik hoop dat die voor DX11-spellen niet al te ver (niet meer dan een paar FPS bij een FPS van rond de 70) onder de 1070 presteert. Ik vind het hartstikke fijn dat AMD-kaarten meer toekomstbestendig zijn maar de meeste van de huidige spellen draaien onder DX11 of DX9 dus daar moet je wel rekening mee houden.
De nvidia kaarten willen niet echt overclocken vanwege de strenge limiten op voltage en verbruik die nvidia oplegt. De 480 zit idd ook al dicht op z'n praktisch haalbare max.
Mechwarrior Online: Flapdrol
Wow dat valt echt heel duidelijk op.Solid_Aapie schreef op dinsdag 19 juli 2016 @ 13:35:
Ik weet niet of zoiets al eerder geconstateerd is maar goed oordeel zelf maar:
YouTube: DOOM Graphics AMD vs Nvidia - 'The Way it's Meant to be Play...
Tenminste als je stilstaat, op het moment je beweegt zal het minder opvallen en als je een screenshot maakt zie je er natuurlijk helemaal geen verschil, tenminste niet als je even een seconde stilstaat.
[ Voor 18% gewijzigd door -The_Mask- op 19-07-2016 13:47 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Voor het geval je het niet zou begrijpen. Die boost is een overklok maar een overklok die NVidia (volgens mij doet AMD dat nu ook maar NVidia gebruikt het al veel langer) zelf volautomatisch voor jou regelt en dit zonder het voltage aan te passen. Die boost is geen gegarandeerde frequentie (daarom het verschil tussen de basisklok en de boostklok), enkel zolang de temperatuur niet te hoog wordt wordt die boost gebruikt, zo gauw de temperatuur wel te hoog wordt schakelt de software de kaart terug naar de basisklok.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:33:
1070 en 1080 kaarten boosten zichzelf al enorm, en dan kan je ze nog verder overklokken ook! Ik heb nergens gelezen dat een rx480 zichzelf boost. Doet een rx480 dat wel?
Dat is natuurlijk een goede innovatie maar bij goed bewerkte kaarten kan je de kloksnelheid verder opvoeren omdat de warmte beter wordt afgevoerd en je hebt altijd een tradeoff tussen hoeveel lawaai je wil tolereren en hoe hoog die kloksnelheid wordt en je moet voor jezelf afwegen hoeveel volt je wil tolereren (snellere slijtage, groter risico op voortijdige schade).
De bottomline: de boost is een overklok en NVidia garandeert dat je in een normale kast die klokfrequentie kan halen. Alles daarboven is een kwestie van geluk, met de ene kaart kan het wel, de andere kaart kan het niet.
Verwijderd
[ Voor 6% gewijzigd door Verwijderd op 19-07-2016 13:52 ]
Idd aangezien dat is waar het om draait, niet een zo hoog mogelijk frequentie, maar de performance winst in procenten welke je haalt met de overklok.haarbal schreef op dinsdag 19 juli 2016 @ 13:43:
[...]
Hij heeft het over procentuele winst bij overclocken.
Ik heb het dan over reference RX 480, GTX 1070 en GTX 1080 vs custom RX 480, GTX 1070 en GTX 1080. Al deze kaarten komen waarschijnlijk zo rond de 15% tot max 20% bij heel veel geluk uit met luchtkoeling. Winst met overklokken is in zo'n geval dus vergelijkbaar.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Ik ook, met 1400-1450 MHz (het verwachte maximum) zit AMD heel erg ver onder de procentuele winst die de 1070 haalt met overklokken!haarbal schreef op dinsdag 19 juli 2016 @ 13:43:
[...]
Hij heeft het over procentuele winst bij overclocken.
[ Voor 4% gewijzigd door Verwijderd op 19-07-2016 14:00 ]
Nee dan reken je verkeerd en ik denk dat dat komt omdat je niet de juiste klokfrequentie neemt waar een reference RX 480 gemiddeld op loopt, dat is namelijk niet 1266MHz. 1266MHz is namelijk niet de kloksnelheid waar de RX 480 gemiddeld op loopt, die ligt namelijk lager.Verwijderd schreef op dinsdag 19 juli 2016 @ 13:59:
[...]
Ik ook, met 1400-1450 MHz (het verwachte maximum) zit AMD heel erg ver onder de procentuele winst die de 1070 haalt met overklokken!
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Niets nieuws, dat is gewoon MegaTexture in actie.-The_Mask- schreef op dinsdag 19 juli 2016 @ 13:45:
[...]
Wow dat valt echt heel duidelijk op.
Tenminste als je stilstaat, op het moment je beweegt zal het minder opvallen en als je een screenshot maakt zie je er natuurlijk helemaal geen verschil, tenminste niet als je even een seconde stilstaat.
Wel vreemd dat er nu geen doem scenario's en rellen zijn over hoe slecht Nvidia wel niet is. Met RAGE waren de rollen omgekeerd en toen zag je dat wel
Verwijderd
Ik had inderdaad met 1266 MHz gerekend. Ik herinner me dat het inderdaad iets lager loopt wanneer het kan en slechts naar 1266 MHz gaat wanneer het moet. Prima, dan gaan we van een iets lagere kloksnelheid uit. De 1070 kan vaak overklokt tot pak hem beet 2000-2200 MHz. Dat is een gruwelijke overklok. ik weet niet wat de basisklok van de RX 480 precies is (ik moet iets langere googelen dan dat mij lief is om dat te vinden-The_Mask- schreef op dinsdag 19 juli 2016 @ 14:02:
[...]
Nee dan reken je verkeerd en ik denk dat dat komt omdat je niet de juiste klokfrequentie neemt waar een reference RX 480 gemiddeld op loopt, dat is namelijk niet 1266MHz. 1266MHz is namelijk niet de kloksnelheid waar de RX 480 gemiddeld op loopt, die ligt namelijk lager.
Het is niet mijn intentie om er een weleens/nieteens strijd van te maken, ik ben benieuwd naar wat jouw redenatie is.
[ Voor 5% gewijzigd door Verwijderd op 19-07-2016 14:10 ]
Ik zou hier niet te zwaar aan tillen. Ze testen een GTX 970 (3,5GB) en een RX480 (8GB), op 4K resolutie en wie weet wat nog VRAM slurpende zooi enabled. Het lijkt eerder een poging op internet fame dan een concrete issue.Solid_Aapie schreef op dinsdag 19 juli 2016 @ 13:35:
In een YouTube video van Techyescity(ja I know, YouTube maar toch geef het even een paar minuten) wordt de kwaliteit van textures vergeleken tussen een GTX970 en een RX480(en ook een GTX 780) in het spel Doom. Hier valt het de persoon in de video op dat de textures op de Nvidia kaarten visueel langzamer laden dan op de AMD kaart. Hij heeft dit vervolgens opgenomen en getoond in de video. Nu claimt hij verder dat dit niet aan texture compression moet liggen aangezien de GTX780 dit niet heeft(of in mindere mate?) en ook niet aan de geheugen capaciteit aangezien dit onder 1080 in Doom niet over de 3GB heen gaat. Verder heeft hij dit getest in twee systemen en het probleem deed zich voor in beide systemen met twee Nvidia kaarten.
Ik weet niet of zoiets al eerder geconstateerd is maar goed oordeel zelf maar:
YouTube: DOOM Graphics AMD vs Nvidia - 'The Way it's Meant to be Play...
Verwijderd
Een fair punt.Werelds schreef op dinsdag 19 juli 2016 @ 14:07:
[...]
Niets nieuws, dat is gewoon MegaTexture in actie.
Wel vreemd dat er nu geen doem scenario's en rellen zijn over hoe slecht Nvidia wel niet is. Met RAGE waren de rollen omgekeerd en toen zag je dat wel
Eerlijk is eerlijk, de tech reviewers gaven AMD wel kudos voor hoe snel ze het probleem oplosten met een driverupdate. Iedereen kan nu met een gerust hart de RX 480 kopen. Dat konden ze al maar goed, ook de mensen die een crappy moederbord hebben waarop veel te veel spul is aangesloten kunnen dat nu veilig doen.
Wat betreft die zogenaamde DX12-benchmark waarin de 1070 en de 1080 het goed deden, ik deed het bijna in mijn broek van het lachen. Het geeft vooral aan hoe erg die benchmark zuigt, een benchmark moet namelijk een representatief beeld geven van de performance met de DX12-API.
1 downside: de DX12-performance is wel aanzienlijk slechte dan de Vulkanperformance en gemakszuchtige developers zullen eerder DX12 gebruiken vanwege de MS-service.

[ Voor 25% gewijzigd door Verwijderd op 19-07-2016 14:14 ]
Dit topic is gesloten.