Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • RobinHood
  • Registratie: augustus 2011
  • Niet online
Maar hoe moet ik dat nou uitleggen als "AMD gaat failliet!11!!!111"? -O-

Wel vreemd inderdaad dat ze meer aandeel hebben gekregen, misschien dat DX12 aan de horizon toch wat mensen naar AMD geduwd heeft?

Of ze in Q3 een tik krijgen is maar de vraag, de 480 is volgens mij ook vrij populair, vooral door DX12, maar is slecht te krijgen.

Etcetera: Mijn Tweakblog over Chinese meuk, kartonnen games en misschien wel meer!


  • enchion
  • Registratie: februari 2002
  • Niet online
Welke CPU/APU/GPU producent heeft eigenlijk de grootste marketshare voor gamen in het totaal ?
(Met de consoles en mobieltjes inbegrepen dus)

How do you save a random generator ?


  • RobinHood
  • Registratie: augustus 2011
  • Niet online
enchion schreef op dinsdag 13 september 2016 @ 21:35:
Welke CPU/APU/GPU producent heeft eigenlijk de grootste marketshare voor gamen in het totaal ?
(Met de consoles en mobieltjes inbegrepen dus)
Tja, dat zou een SoC fabrikant zijn, welke, tja, Qualcomm is een goede kanshebber, Mediatek is ook enorm. Apple komt ook erg ver natuurlijk door de idiote hoeveelheid iphones.

Tel je dat soort fabrikanten niet mee, dan moet het eigenlijk wel AMD zijn. Nvidia heeft eigenlijk alleen maar GPU's voor computers, Intel heeft dan wel CPU's erbij, maar die de laatste console met een Intel was volgens mij de Xbox, maar AMD heeft zowel CPU als GPU, als de consoles.

Denk dat je wel verschil moet maken tussen gamen en gamen. Genoeg huismoeders die denken dat iedere console een Nintendo is, maar wel iedere dag uren clashoffarmvillecrushsaga spelen. En andersom natuurlijk, ik game heel wat af op mijn desktop, maar op mijn mobiel echt zelden.

Etcetera: Mijn Tweakblog over Chinese meuk, kartonnen games en misschien wel meer!

sdk1985 schreef op vrijdag 09 september 2016 @ 17:47:
Nuttiger dan Doom en Ashes om uitspraken te doen over gpu prestaties. De game is zo goed als klaar dus daar zou ik niet veel van verwachten. Als je de link volgt kun je ook de DirectX12 benchmark vinden (opnieuw doet het weinig).

Verder ging ik niet op het gpu vraagstuk in want dit is het gpu topic en anders krijg ik daar weer commentaar op ;). Wil jou best een plezier doen: Je hoeft niet gek op te kijken als Zen pas halverwege 2017 verschijnt. Ik zou er persoonlijk niet op wachten als je nu performance tekort komt en gewoon een 6600K of 6700K aanschaffen. Kom je geen performance tekort dan is het een non-issue.
Ik vraag me in het algemeen af in welke mate die DX12-spellen nu voldoende zijn geoptimaliseerd. Voor spellen die nu uitkomen startten ze jaren geleden met de ontwikkeling, de volle potentie van DX12 moeten we waarschijnlijk nog gaan zien, idem voor Vulkan. Zogauw ze vanaf de start de code schijven voor DX12/Vulkan en ze handigheid hierin hebben gekregen gaan we pas echt zien wat het kan. Dat bij de start AMD-kaarten het al veel beter doen bij DX12 en Vulkan is m.i. veelzeggend.

Het advies wat je aan hem geeft is nog veel meer op mij van toepassing. Ik game immers met een i5-750 en een HD 7850, dat mag je wat mij betreft rustig antieke hardware noemen. :)
Ik kan niet wachten om te upgraden, maar ik doe dat wel. Ik ga ervan dat Zen in Q1 uitkomt, AMD zou niet meerdere keren duidelijk laten merken dat ze er gerust op zijn dat die deadline wordt gehaald, hoop ik. Volgens de geruchten krijgen we begin januari een demonstratie en is Summit Ridge in februari te koop. Daarnaast debuteert Kaby Lake ergens in het heerste half jaar van 2017. Hoe minimaal de vooruitgang ook is, je kan net zo goed maar dat beetje vooruitgang meenemen in plaats van aan het einde van de levenscyclus van de Skylake-generatie nog het volle pond voor een Skylake-CPU te betalen. Uiteindelijk heb ik toch veel minder aan die nieuwe CPU zonder de nieuwe GPU dus zolang de CPU uitkomt voordat Vega verkrijgbaar is vind ik het prima.
HWI heeft overigens pas een onderzoek geplubliceerd naar cpu kracht in combinatie met AMD en Nvidia gpu's:
Een heel erg bekend verhaal, AMD heeft onder DX11 een absurd hoge CPU-overhead in vergelijking met NVidia, onder DX12 en Vulkan is die overhead veel kleiner en daarom schitteren de AMD-kaarten die in principe krachtiger (maar niet onder DX11 en testbanken die daarop zijn gebaseerd) zijn dan de NVidia-equivalenten onder DX12 en Vulkan.
Battlefield One is overigens wel zo'n spel. Ik kwam daar op 100% cpu usage. Ik zit nog op een i5 2500K @ 4.4 Ghz. Maatje van me heeft dezelfde GPU met een i7 6700K en die haalde circa 80%. Dus als je geen i7 van Haswell of nieuwe hebt in combinatie met een K-cpu dan zou ik op basis van het bovenstaande voor de GTX 1060 gaan en niet voor de RX 480. In ieder geval met de huidige prijzen.
Voor DX11-spellen wel, voor DX12- en Vulkan-spellen niet, als je bereid bent om flink extra te betalen voor een G-Sync-monitor of je al een G-Syncmonitor hebt.
Voor mij is NVidia sowieso geen optie zolang ze FreeSync niet ondersteunen en zolang NVidia probeert om AMD-spelers het leven zuur te maken met PhysX en Gameworksfratsen. NVidia probeert geheel volgens dezelfde strategie als Microsoft en Apple mensen te dwingen om hun spul te kopen door aan softwarelockin te doen. Dat is voor mij juist een reden om het niet eens te overwegen om een kaart van NVidia te kopen, als NVidia het ooit eerlijk gaat spelen en dit lang genoeg volhoudt dan wil ik het weer overwegen.

[Voor 20% gewijzigd door CHBF op 14-09-2016 01:55]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Dat is de verwachting, alleen laat nu net de eerste grote DX12 titel (eerder genoemde Battlefield One) extra zwaar zijn in DX12 modus. Het kostte mij iets van 20-30 FPS. In het verleden hebben we dat eigenlijk ook wel gezien, toen we van DX9 naar DX10 gingen. De DX10 opties werden vooral gebruikt voor meer/mooiere graphics en op je low-end hardware profiteer je er daardoor eigenlijk niet van. (Denk aan Crysis en World in Conflict). Games die beter draaiden op hogere DX waren echt sporadisch. Ik kan me alleen Far Cry 2 als uitzondering op de regel herinneren. Gelijke settings leverde daar iets van 10 fps op.

Skylake is overigens wel hard gegaan hoor, kijk eens naar mijn gaming nas. Redelijk absurd voor een 60 euro kostende cpu :P . Op dit moment is zelfs een i3 al een upgrade voor je i5 750. Met name die 64% stekere single threaded performance ga je meteen merken in je (minimum) framerates.

Nvidia heeft overigens Physx juist naar de "masses" gebracht door Ageia in 2008 over te nemen. Daarvoor was het een insteekkaart van pak hem beet 150-200 euro: pricewatch: Asus Ageia PhysX P1 128MB DDR3 (PPU, CPU/GPU Enhancer). Nu zit het gratis op je Geforce. Jammer genoeg heeft het nooit echt doorgezet. De cpu kracht nam ineens toe waardoor het hele verhaal een stuk minder relevant werd. Het is vooral een nutteloze feature nu :P
Phuncz schreef op dinsdag 13 september 2016 @ 19:32:
Opmerkelijk dat ze bijna terug bij hun gemiddelde GPU markt aandeel van 35% zijn, ik verwacht wel dat dit weer een flinke tik krijgt in Q3 met de op het zicht populaire GTX 1060 die behoorlijk wat marktaandeel zal afsnoepen. Toch verdienen ze dit, ze zijn goed bezig in mijn ogen, met redelijke producten voor redelijke prijzen. Maar het kan wel beter, ik vond de Radeon 200 en 300 series interessanter dan de huidige 400 series.
Goed nieuws maar niet echt opmerkelijk. Pascal zat eraan te komen (launch in Mei) en de voorraad daarvan was dramatisch (onderhand paper launch). Als je nu kijkt naar de cijfers links en rechts dan lijkt Nvidia nu alweer flink meer gpu's uit te leveren. In Q3 is AMD de winst dus weer kwijt vrees ik.

Cijfers van 16 Augustus:
1080: 2.4% (gestagneerd)
1070 : 5%
1060: 2.8%
Totaal: 10.2%

480: 1.2%
470: 0.5%
460: 0.2%
Totaal: 1.9%

Op steam zie je ondertussen ook wat cijfers, waaronder de 1070 die nu op 0.71% zit (bij AMD staan alleen wat kaarten uit de 7000/8000 serie hoger). Vorige maand is het marktaandeel van AMD Radeon in zijn geheel daar gedaald met 0.3% naar 24.4%. Dus dat kan nog flink beter. Intel doet daar ook mee dus het effectieve Radeon marktaandeel is daar 29.8%.

Andere leuke weetjes: 8 GB ram is nu de norm, bij VRAM is dat slechts 1 GB. Verder is de dualcore nog altijd de meest populaire cpu configuratie. Het marktaandeel van quadcores komt wel steeds dichterbij.

[Voor 70% gewijzigd door sdk1985 op 14-09-2016 04:30]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • SG
  • Registratie: januari 2001
  • Laatst online: 15:10

SG

SG surft naar info hardewaren

Nee nV heeft niet PhysX naar de massa gebracht. Dat deed Havok met Havok FX. Helaas heeft iNtel dat de nek omgedrasid in CPU vs GPGPU war.
Zouden ze dat niet doen dan konden games er altijd van uitgaan dat je paar shader cores voor effect physics kan doen.
Nee dus Ageia overname door nV is een reactie op iNtel. AMD kon niet veel meer dan toekijken. Daarnaa werd AMD sucses vol met hun GPU en nV Physx voor hun GPU spande.

Gross van de dev mijden Cuda PhysX of het lepra is en wel om deze reden.
De twee deling van de markt. NV deel kan effect physics door GPU doen.
Alles niet nV niet.
Houd in dat je een fallback physics load moet hebben.
En gezien de pletora aan gpu met verschillende performance moet die cuda physx ook instelbaar zijn.
Meeste games hebben fix physics settings en deze extra physics is niet te gebruiken voor gameplay physics.

Dus het ownen van middle ware door hardware merk is dus erg skecht voor markt acceptatie als merk sdk voor hun eigen producten exclusief gebruikt.

Een beter voorbeeld is Mantle dat bedoeld is om API brouwers wakker te shudden en het gedoneerd heeft aan chronos groep en dus Vulkan geworden is. Maar ook DX12 dat is een verbetering voor de branch niet wat nV doet.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K

sdk1985 schreef op woensdag 14 september 2016 @ 03:58:
Skylake is overigens wel hard gegaan hoor, kijk eens naar mijn gaming nas. Redelijk absurd voor een 60 euro kostende cpu :P . Op dit moment is zelfs een i3 al een upgrade voor je i5 750.
Ik weet het. Nog een half jaar geduld, maximaal.
[small]Nvidia heeft overigens Physx juist naar de "masses" gebracht door Ageia in 2008 over te nemen.
De masses die twee highend NVidia-kaarten hebben, niet de rest van de gamers, in ieder geval niet zonder te 'hacken'.
Zie Borderlands 2 waarin je perfect PhysX door de CPU kan laten afhandelen door een paar geheime parameters in het configuratiebestand te plaatsen. Ik weet niet hoe het is ontdekt (een programmeur van de developer die het lekte?) maar iedereen die een AMD-kaart heeft en die dit uit heeft geprobeerd kan bevestigen dat het bullshit is om deze PhysX-effecten door de grafische kaart te laten renderen, je geeft de grafische kaart onnodig extra belasting terwijl de CPU het prima aankan. Goed, op mijn antieke CPU moet je dat niet op vol zetten maar op een doorsnee CPU gaat dat prima. Zelfs bij mij draait het nog behoorlijk op vol, alleen krijg je een te grote drop in de FPS bij bijv. Fink's Slaughterhouse, op medium draait het echter prima. Dat zou ik niet hoeven te proberen zonder die hack te doen, in dat geval is het spel onspeelbaar. Ik weet het omdat ik beide heb uitgeprobeerd.
http://pcgamingwiki.com/w...nds_2#System_requirements
Een heel klein beetje naar boven scrollen, je ziet het meteen.

Hier kan je zien hoe NVidia nog steeds PhysX blokkeert voor een NVidia-kaart als er een AMD-kaart naast zit.
https://www.reddit.com/r/...physx_in_its_own_card_as/
"NVIDIA's standard shark business practices are usually never good for consumer." (goede typering)
NVidia heeft ook jarenlang hetzelfde geflikt als je twee NVidia-kaarten van verschillende tiers hebt, bijvoorbeeld een 680 en een 560 of zo. Dit is dus het softwarematig blokkeren van functionaliteit in de hardware die prima zou werken.
Kortom, heel dat PhysX gebruikt NVidia voor 1 doeleinde: meer NVidia-kaarten verkopen. Voer exact dezelfde code op een normale manier uit (de API laten bepalen of dat de CPU of de grafische kaart het uitvoert) en het werkt beter.

Ik heb er geen probleem mee als NVidia (of AMD) eigen code aanbiedt aan een developer waarvan ze weten dat die goed rendert op de kaarten die ze verkopen en die grafisch iets toevoegt aan het spel, onder een aantal voorwaarden. Sta de developer toe om het ook voor de concurrent te implementeren en de concurrent de code te laten optimaliseren voor hun kaarten, sta de developer toe om code van de concurrent te aanvaarden voor hetzelfde effect. Een concreet voorbeeld: Hairworks van NVidia en TressFX van AMD voor TW3. Iedereen is dan tevreden. AMD heeft ook zat fouten gemaakt maar wat betreft de grafische kaarten voor onder Windows speelde AMD het spel op een keurige manier in de afgelopen jaren, NVidia kreeg alle medewerking om TressFX te implementeren en te optimaliseren voor Tombraider, AMD koos hierbij ook niet voor software waarvan ze weten dat die slechter draait op NVidia-kaarten. Dat is hoe het hoort, NVidia daarentegen zet bewust de tessellation extreem hoog - zo hoog dat het echt niets toevoegt voor de grafische kwaliteit hoe goed je zicht ook is - omdat NVidia weet dat de AMD-kaarten niet die extreme tessellation aankonden/aankunnen.
spoiler:
Het puntje waar ik wel kritiek op AMD heb: de ondersteuning voor Linux. Dat is inmiddels wat verbeterd maar daar lieten ze te lang te veel liggen.
Daarvoor was het een insteekkaart van pak hem beet 150-200 euro: [URL="https://tweakers.net/pricewatch/137480/asus-ageia-physx-p1-128mb-ddr3-(ppu-cpu-gpu-enhancer).
Wat prima was, want met die ene insteekkaart kon je het gebruiken en die prijs zou vanzelf snel zijn gezakt als het product het überhaupt had overleefd. Als het product het niet had overleefd dan zouden we dezelfde effecten krijgen maar veel beter (minder negatieve impact op de FPS) gerenderd zoals je kan zien bij Borderlands 2.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
CHBF schreef op woensdag 14 september 2016 @ 19:07:
[...]
Kortom, heel dat PhysX gebruikt NVidia voor 1 doeleinde: meer NVidia-kaarten verkopen.
Klinkt als een healthy business. :+
Vipeax schreef op woensdag 14 september 2016 @ 19:42:
[...]

Klinkt als een healthy business. :+
Dat is het ook, voor mij een extra reden om NVidia te mijden. Als consument vind ik het niet fijn wanneer bedrijven beloond worden voor anti-consumentengedrag. ;)

Zelfcensuur is de meest schadelijke vorm van censuur.

Phuncz schreef op dinsdag 13 september 2016 @ 19:32:
Opmerkelijk dat ze bijna terug bij hun gemiddelde GPU markt aandeel van 35% zijn, ik verwacht wel dat dit weer een flinke tik krijgt in Q3 met de op het zicht populaire GTX 1060 die behoorlijk wat marktaandeel zal afsnoepen. Toch verdienen ze dit, ze zijn goed bezig in mijn ogen, met redelijke producten voor redelijke prijzen. Maar het kan wel beter, ik vond de Radeon 200 en 300 series interessanter dan de huidige 400 series.
Het interessante deel van de 400 serie moet nog komen. :)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Beaudog
  • Registratie: augustus 2015
  • Laatst online: 26-09 23:41

  • Gundogan
  • Registratie: maart 2010
  • Laatst online: 26-09 22:37

Gundogan

Rip and tear, until it is done

i7 4790K, 16GB, ASUS Z97-K, R9 Fury


  • ArmEagle
  • Registratie: oktober 2001
  • Laatst online: 20-09 16:07
... -54%? Wat een lariekoek! Voor mij een reden om daar niet te kopen.
En dan nog; voor de helft meer heb ik een 1070?

Ik wil érg graag een AMD. Maar mijn HTC Vive staat te schreeuwen om flinke performance.

  • SG
  • Registratie: januari 2001
  • Laatst online: 15:10

SG

SG surft naar info hardewaren

CHBF schreef op woensdag 14 september 2016 @ 19:07:
[...]

Ik weet het. Nog een half jaar geduld, maximaal.


[...]

De masses die twee highend NVidia-kaarten hebben, niet de rest van de gamers, in ieder geval niet zonder te 'hacken'.
Zie Borderlands 2 waarin je perfect PhysX door de CPU kan laten afhandelen door een paar geheime parameters in het configuratiebestand te plaatsen. Ik weet niet hoe het is ontdekt (een programmeur van de developer die het lekte?) maar iedereen die een AMD-kaart heeft en die dit uit heeft geprobeerd kan bevestigen dat het bullshit is om deze PhysX-effecten door de grafische kaart te laten renderen, je geeft de grafische kaart onnodig extra belasting terwijl de CPU het prima aankan. Goed, op mijn antieke CPU moet je dat niet op vol zetten maar op een doorsnee CPU gaat dat prima. Zelfs bij mij draait het nog behoorlijk op vol, alleen krijg je een te grote drop in de FPS bij bijv. Fink's Slaughterhouse, op medium draait het echter prima. Dat zou ik niet hoeven te proberen zonder die hack te doen, in dat geval is het spel onspeelbaar. Ik weet het omdat ik beide heb uitgeprobeerd.
http://pcgamingwiki.com/w...nds_2#System_requirements
Een heel klein beetje naar boven scrollen, je ziet het meteen.

Hier kan je zien hoe NVidia nog steeds PhysX blokkeert voor een NVidia-kaart als er een AMD-kaart naast zit.
https://www.reddit.com/r/...physx_in_its_own_card_as/
"NVIDIA's standard shark business practices are usually never good for consumer." (goede typering)
NVidia heeft ook jarenlang hetzelfde geflikt als je twee NVidia-kaarten van verschillende tiers hebt, bijvoorbeeld een 680 en een 560 of zo. Dit is dus het softwarematig blokkeren van functionaliteit in de hardware die prima zou werken.
Kortom, heel dat PhysX gebruikt NVidia voor 1 doeleinde: meer NVidia-kaarten verkopen. Voer exact dezelfde code op een normale manier uit (de API laten bepalen of dat de CPU of de grafische kaart het uitvoert) en het werkt beter.

Ik heb er geen probleem mee als NVidia (of AMD) eigen code aanbiedt aan een developer waarvan ze weten dat die goed rendert op de kaarten die ze verkopen en die grafisch iets toevoegt aan het spel, onder een aantal voorwaarden. Sta de developer toe om het ook voor de concurrent te implementeren en de concurrent de code te laten optimaliseren voor hun kaarten, sta de developer toe om code van de concurrent te aanvaarden voor hetzelfde effect. Een concreet voorbeeld: Hairworks van NVidia en TressFX van AMD voor TW3. Iedereen is dan tevreden. AMD heeft ook zat fouten gemaakt maar wat betreft de grafische kaarten voor onder Windows speelde AMD het spel op een keurige manier in de afgelopen jaren, NVidia kreeg alle medewerking om TressFX te implementeren en te optimaliseren voor Tombraider, AMD koos hierbij ook niet voor software waarvan ze weten dat die slechter draait op NVidia-kaarten. Dat is hoe het hoort, NVidia daarentegen zet bewust de tessellation extreem hoog - zo hoog dat het echt niets toevoegt voor de grafische kwaliteit hoe goed je zicht ook is - omdat NVidia weet dat de AMD-kaarten niet die extreme tessellation aankonden/aankunnen.
spoiler:
Het puntje waar ik wel kritiek op AMD heb: de ondersteuning voor Linux. Dat is inmiddels wat verbeterd maar daar lieten ze te lang te veel liggen.



[...]

Wat prima was, want met die ene insteekkaart kon je het gebruiken en die prijs zou vanzelf snel zijn gezakt als het product het überhaupt had overleefd. Als het product het niet had overleefd dan zouden we dezelfde effecten krijgen maar veel beter (minder negatieve impact op de FPS) gerenderd zoals je kan zien bij Borderlands 2.
PhysX 1 addon kaarten gehad in elke van de 3 PC en Ghost Recon Adv.Warfare 1 & 2 co-op gespeeld en dat was vet.
1 de eerste PhysX chip was geproduceerd op toen oud procede in tijd dat singlecore de norm was en ATI met R520 recent wat gpgpu kon doen dmv HSML
Zou 2 jaar mee moeten gaan uiteindelijk na 3 jaar nog geen gen2 PhysX en in de G80 tijd de 1 gen van nV die wat beter bij was op gpgpu gebied concureerde die ouwe PhysX1 met dino procede tegen GPU op de nieuwste procede.

Mij viel op dat men zo kortzichtig was dat gpu beter zijn. Nou niet.
Een gpu van gen x tegen gen x-3 zal de nieuwste X het stuk beter doen.
Zou PPU goed opgepakt zijn dan zou er na 2 jaar dienst en iig voor 3 de jaar een PPU gen2 op moderne procede zijn. Dan wordt het andere verhaal.

Daarnaast phyisics is heel breed en niet alles is extreem concurrent. In Sniper game met complexe Sniper physics is moderne krachtige core beter.
Maar finegrain physics dat verdeelbare is in 10.000 hoe fijner hoe meer berekeningen. Zoals fluid physics cloths physics hair physics.
Gegenereerde destructable. Dat schaald goed.
Daarbij zijn moderne CPU ook aardig concurrent met tegenwoordig tot 16 threads met 8 cores waar elke core >> shadercore. Dus je hebt factore meer cores nodig om 1 complexe CPU core te verslaan.

Waarbij GPU vaak al belast is met zware taak en CPU vaak grotendeels Idle is.
Daarbij dedicated PPU en dus dedicated gpu voor Physics enorm scheeld en ook aantoond dat je voor de beste PhysX performance
Dikke CPU en Dikke GPU en PPU/ physx dedicated extra gpu nodig hebt.

Want de grote fout die meeste maken is PhysX komt niet gratis erbij het is extra zware compute load waar je de compute power voor nodig hebt. En als je maar 1 gpu hebt al zwaar belast met renderen dan kan het wel een tegen vallen.
Een iel CPU tje houd in dat de render & PhysX hardware wacht op de CPU.
Waar fans en hardware enthausiast cpu gpu ppu etc tegen mekaar opzet.
In games werken ze samen aan de uiteindelijke performance.

En in een niet gebalanceerde systeem verdeel je de last naar de PU waar je power hebt. In Office bak miskoop voor thuis waar zwaar op gegamed wordt lijkt mij de CPU voor de rest en renderen voor GPU
In Cuda programmeer boeken raden ze dat ook aan. Sommige software taken zijn totaal niet concurrent en daar blinken CPU cores in uit.
Zo ook physics er veel features maar sommige zijn slecht concurrent andere extreem en veel ook er tussen in.

Een Physics zware game zal ook extra hoge systeem eisen dus of krachtigere CPU of krachtigere gpu of extra gpu. Ga je wild met PhysX gaan ook de recommended eisen omhoog met hoge physX settings.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Beavbusi
  • Registratie: april 2013
  • Laatst online: 16:19
Stel ik heb twee x een rx480 in mijn pc zetten crossfire (kan dat uberhaupt met een asus z97 plus, leidt dat tot 2x zoveel prestaties of is die scaling net zo slecht als ik altijd over SLI hoor?
Een Asus Z97 Plus bestaat niet en het verschilt per game en instellingen, gaat van geen winst tot 100% winst.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Beavbusi
  • Registratie: april 2013
  • Laatst online: 16:19
Oh, dat staat op de bon van Mycom... naja dan weet ik het ook niet.

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Z97-K zo te zien :+.
https://www.mycom.nl/prod...de=544&s2m_product_id=319

Verder is er altijd TPU ;)...

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 17:28
Heb een RX 460 gekocht. Totale systeemverbruik ligt rond de 136Watt. Stock voltage was 1120mV, verlaagt naar 1000mV* en stroomverbruik daalde met 20Watt naar 116W. Waarom worden die gpu's toch op een overduidelijk hoger voltage dan nodig, gezet? (Asic kwaliteit is 60,8%).

* Stabiel op 1200MHz in Metro LL Redux benchmark.

[Voor 8% gewijzigd door NitroX infinity op 16-09-2016 11:13]

Mijn blog; Floating Points


  • wetsteyn
  • Registratie: februari 2012
  • Laatst online: 30-08 11:08
Is that nu de bang to buck kaart?:P voor high res gaming

8*250wp Garage 12*290wp Zolder


  • ArthurMorgan
  • Registratie: januari 2001
  • Niet online
Kan de 460 nou eigenlijk in crossfire met de 480? Ik kom er niet uit of polaris 10 en 11 nu wel of niet dezelfde generatie zijn. En in hoeverre bottlenecked de 460 de 480 dan? Ik snap dat het geheugen van de minste leidinggevend is, en dat de kloksnelheden ook van de 460 gebruikt worden, maar kan nergens goed uitvinden of je dan op[ 2 keer 460 prestaties komt (oftewel ongeveer 480) of wel echt een boost over de 480 heen geeft.

(Dus even los van hoe verstandig en of het bij een bepaalde game wel of niet werkt, puur de techniek bij een game die een 'normale' crossfire setup goed aan kan.)

(Omdat dit het infotopic was dacht ik dat ik het beste hier kan plaatsen, ook omdat er geen rx ervaringen topic is...)

I got a bad feeling about this.


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Lijkt mij niet dat dit gaat werken. Mocht het wel werken dan is het het absoluut niet waard en reken maar op een behoorlijke bottleneck (helft van de GP/s, 1/3e van de GT/s, helft van de memory bandwidth, GFLOPS is minder dan de helft). Voeg daaraan toe de relatief slechte ondersteuning en extra inputlag en je maakt van die RX480 effectief misschien net een RX470.

[Voor 21% gewijzigd door Vipeax op 16-09-2016 12:02]


  • ArthurMorgan
  • Registratie: januari 2001
  • Niet online
Daar was ik al een beetje bang voor aan het worden, dank je.

I got a bad feeling about this.

Voor CrossFire heb je dezelfde GPU nodig, waarbij het niet uit maakt hoeveel van de GPU is uitgeschakeld,voor SLI hetzelfde type videokaart.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Het zou wel kunnen werken in DX12/Vulkan? indien game developers het implementeren. Maar zoals hiervoor al wordt aangegeven, je hebt bij Crossfire in ieder geval dezelfde gpu (core) nodig.

Battle.net tag


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Ik heb even een vraag m.b.t. het wel of niet nodig hebben van active displayport adapters. Heb gisteren onderdelen voor een nieuwe pc besteld, waaronder een Sapphire R9 Fury Nitro OC. De monitorsetup die ik hierop wil aansluiten is als volgt:

- 1x 29" ultrawide met Freesync, middels Displayport (deze is duidelijk)
- 2x 1080p schermen aan weerszijde, welke de beschikking hebben over HDMI of DVI
- 1x een 1080p TV, welke ik waarschijnlijk het beste direct op de HDMI poort van de GPU kan aansluiten

Nu vroeg ik mij af op welke poorten ik de beide 1080p schermen het beste kan aansluiten en of ik hiervoor wel of geen active displayport adapters nodig heb. Hierbij moet gezegd worden dat ik geen gebruik (wil) maken van een Eyefinity setup, het zijn 3 losse schermen naast elkaar met een tv als 4e scherm (wordt zo nu en dan gebruikt voor films/series/Youtube/Twitch te kijken.

Op dit moment heb ik de twee 1080p schermen aangesloten op mijn GTX670, een via een DP > HDMI kabel (passive) en de ander over DVI. Zou ik deze kabels voor eenzelfde setup ook kunnen gebruiken op de R9 Fury, of moet ik nog 1 of 2 active DP > HDMI kabels halen?

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Je hebt 3 DisplayPorts, gebruik die dan zonder adapters voor monitoren om problemen met Eyefinity (als je dit toch ooit wilt) te vermijden en gebruik de HDMI voor TV. Voor 1080p met DisplayPort heb je honderden keuzes.

[Voor 3% gewijzigd door Phuncz op 17-09-2016 12:43]


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Phuncz schreef op zaterdag 17 september 2016 @ 12:42:
Je hebt 3 DisplayPorts, gebruik die dan zonder adapters voor monitoren om problemen met Eyefinity (als je dit toch ooit wilt) te vermijden en gebruik de HDMI voor TV. Voor 1080p met DisplayPort heb je honderden keuzes.
Zoals ik al aangaf wil ik juist geen Eyefinity gebruiken. Verder heb ik de schermen al, het gaat me dan ook niet om wat voor schermen te kopen, maar om welke kabels en eventuele adapters.

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
http://support.amd.com/en...ages/MultimonitorFAQ.aspx

In deze set kun je letterlijk alles hierover vinden wat erover te zeggen valt.
There are four easy rules to remember:
The first two monitors can connect to the graphics card with any display output on your product: HDMI, VGA, DVI or DisplayPort.
The third (or greater) display must be connected to the graphics card via DisplayPort.
If your monitor does not have a DisplayPort connection, you will need an inexpensive active DisplayPort adapter for it.
Every family of GPUs supports a different maximum number of displays.
In jouw geval wordt dat dus inderdaad de 29 via DP, 1 scherm via een conveter over DP (pricewatch: Sapphire Active DisplayPort naar DVI Adapter, 1 scherm via DVI, de TV via HDMI.

Of Eyefinity wel of niet aanstaat maakt niet uit.

  • Damic
  • Registratie: september 2003
  • Laatst online: 16:06

Damic

Afwezig soms

-The_Mask- schreef op vrijdag 16 september 2016 @ 12:42:
Voor CrossFire heb je dezelfde GPU nodig, waarbij het niet uit maakt hoeveel van de GPU is uitgeschakeld,voor SLI hetzelfde type videokaart.
Het zou kunnen dat een RX470 en RX480 tezamen in CF werken, vermits het eigenlijk dezelfde die's zijn.

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • ArthurMorgan
  • Registratie: januari 2001
  • Niet online

I got a bad feeling about this.

Damic schreef op zaterdag 17 september 2016 @ 14:08:
[...]
Het zou kunnen dat een RX470 en RX480 tezamen in CF werken, vermits het eigenlijk dezelfde die's zijn.
Niet het zou, het kan altijd zoals ik al zei in het stuk dat je quote.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Vipeax schreef op zaterdag 17 september 2016 @ 13:16:
http://support.amd.com/en...ages/MultimonitorFAQ.aspx

In deze set kun je letterlijk alles hierover vinden wat erover te zeggen valt.


[...]


In jouw geval wordt dat dus inderdaad de 29 via DP, 1 scherm via een conveter over DP (pricewatch: Sapphire Active DisplayPort naar DVI Adapter, 1 scherm via DVI, de TV via HDMI.

Of Eyefinity wel of niet aanstaat maakt niet uit.
Ah, hartelijk dank :)

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Damic
  • Registratie: september 2003
  • Laatst online: 16:06

Damic

Afwezig soms

-The_Mask- schreef op zaterdag 17 september 2016 @ 15:00:
[...]

Niet het zou, het kan altijd zoals ik al zei in het stuk dat je quote.
Owja mislezen |:(

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • Donib
  • Registratie: oktober 2011
  • Laatst online: 24-09 23:44
Saphire rx480 Nitro OC 8gb gekocht via azerty. Uiteindelijk een keer overgestapt van kamp groen (voorheen gtx 9800gx2, 285 en 670 ftw, allen EVGA). Ik heb op het internet het een en ander gehoord dat de kaart te heet draait of dat de fans te luidruchtig zijn, heb tot nu toe echt geen last gehad hiervan. Prima kaartje.
SG schreef op vrijdag 16 september 2016 @ 07:53:
[...]


PhysX 1 addon kaarten gehad in elke van de 3 PC en Ghost Recon Adv.Warfare 1 & 2 co-op gespeeld en dat was vet.
1 de eerste PhysX chip was geproduceerd op toen oud procede in tijd dat singlecore de norm was en ATI met R520 recent wat gpgpu kon doen dmv HSML
Zou 2 jaar mee moeten gaan uiteindelijk na 3 jaar nog geen gen2 PhysX en in de G80 tijd de 1 gen van nV die wat beter bij was op gpgpu gebied concureerde die ouwe PhysX1 met dino procede tegen GPU op de nieuwste procede.

Mij viel op dat men zo kortzichtig was dat gpu beter zijn. Nou niet.
Een gpu van gen x tegen gen x-3 zal de nieuwste X het stuk beter doen.
Zou PPU goed opgepakt zijn dan zou er na 2 jaar dienst en iig voor 3 de jaar een PPU gen2 op moderne procede zijn. Dan wordt het andere verhaal.

Daarnaast phyisics is heel breed en niet alles is extreem concurrent. In Sniper game met complexe Sniper physics is moderne krachtige core beter.
Maar finegrain physics dat verdeelbare is in 10.000 hoe fijner hoe meer berekeningen. Zoals fluid physics cloths physics hair physics.
Gegenereerde destructable. Dat schaald goed.
Daarbij zijn moderne CPU ook aardig concurrent met tegenwoordig tot 16 threads met 8 cores waar elke core >> shadercore. Dus je hebt factore meer cores nodig om 1 complexe CPU core te verslaan.

Waarbij GPU vaak al belast is met zware taak en CPU vaak grotendeels Idle is.
Daarbij dedicated PPU en dus dedicated gpu voor Physics enorm scheeld en ook aantoond dat je voor de beste PhysX performance
Dikke CPU en Dikke GPU en PPU/ physx dedicated extra gpu nodig hebt.

Want de grote fout die meeste maken is PhysX komt niet gratis erbij het is extra zware compute load waar je de compute power voor nodig hebt. En als je maar 1 gpu hebt al zwaar belast met renderen dan kan het wel een tegen vallen.
Een iel CPU tje houd in dat de render & PhysX hardware wacht op de CPU.
Waar fans en hardware enthausiast cpu gpu ppu etc tegen mekaar opzet.
In games werken ze samen aan de uiteindelijke performance.

En in een niet gebalanceerde systeem verdeel je de last naar de PU waar je power hebt. In Office bak miskoop voor thuis waar zwaar op gegamed wordt lijkt mij de CPU voor de rest en renderen voor GPU
In Cuda programmeer boeken raden ze dat ook aan. Sommige software taken zijn totaal niet concurrent en daar blinken CPU cores in uit.
Zo ook physics er veel features maar sommige zijn slecht concurrent andere extreem en veel ook er tussen in.

Een Physics zware game zal ook extra hoge systeem eisen dus of krachtigere CPU of krachtigere gpu of extra gpu. Ga je wild met PhysX gaan ook de recommended eisen omhoog met hoge physX settings.
Een heikel punt is natuurlijk dat de CPU-load niet je van het is bij veel DX11 en OpenGL spellen: 1 kern die optimaal wordt belast en 3 kernen die lichtjes worden belast. Tenzij je zoals ik een zeer oude CPU hebt (i5-750) en Far Cry 4 of GTA V speelt. (jawel, 98-100%). :)
Borderlands 2 draait volgens mij maar op 1 CPU-kern, je hebt dus 3 kernen over voor die PhysX-fratsen terwijl de grafische kaart het al zwaar genoeg heeft.
In theorie zijn bepaalde effecten inderdaad beter via de GPU te doen omdat het veel meer processoren heeft maar in de praktijk is de CPU-load ver onder de 50% voor veel van die spellen waardoor je alle ruimte hebt om die PhysX-berekeningen te doden.
Donib schreef op zaterdag 17 september 2016 @ 19:32:
Saphire rx480 Nitro OC 8gb gekocht via azerty. Uiteindelijk een keer overgestapt van kamp groen (voorheen gtx 9800gx2, 285 en 670 ftw, allen EVGA). Ik heb op het internet het een en ander gehoord dat de kaart te heet draait of dat de fans te luidruchtig zijn, heb tot nu toe echt geen last gehad hiervan. Prima kaartje.
Veel plezier ermee! Het is een mooite upgrade voor jou. Voor mij zou dat het ook zijn maar ik wacht nog eventjes op de RX 490 waarvan ik verwacht dat die tussen april en juni komt. Ik ga dan natuurlijk wel de 500-serie links laten liggen.

De kaart wordt natuurlijk wel behoorlijk heet in vergelijking met andere RX 480 en GTX 1060-kaarten maar niet zo heet dat het problemen geeft. Gezeik voor niets. :)
Reviewers zouden ook eens wat minder moeilijk moeten doen over de hogere TDP van AMD-kaarten zolang het niet bottleneckt, althans totdat ze eens onderzoeken waarom de TDP hoger ligt, je hebt immers met een andere (meer parallelle) architectuur te maken, de kans is groot dat dat mede verklaart waarom de TDP hoger ligt.
Dat luidruchtige is natuurlijk allemaal relatief, het is maar net wat je referentie is en wat voor kast je hebt. Mijn advies: kies voor een computerkast die weinig geluid doorlaat en goed ventileert (ATX-formaat of groter, twee grote ventilators en ruimte voor meer) en het geluid van de kaart is veel minder een probleem.

[Voor 19% gewijzigd door CHBF op 17-09-2016 20:53]

Zelfcensuur is de meest schadelijke vorm van censuur.

Vraagje, hebben jullie met een AMD-kaart problemen gehad om Metro 2033 Redux te spelen? Om de een of andere reden prutst Valve nogal bij dit spel, na de installatie weigert Steam om de launcer te starten. De reden dat ik het in deze draad vraag:
https://steamcommunity.co...ions/1/34096318704007985/
I checked my own event viewer and it turns out I get a network error when it tries reading D:\SteamLibrary\steamapps\common\Metro 2033 Redux\_CommonRedist\PhysX\9.13.1220\PhysX_9.13.1220_SystemSoftware.msi
Het is al twee jaar lang een probleem bij Steam en blijkbaar heeft Valve het nog steeds niet opgelost aangezien je nog steeds die bug krijgt.

Ik weet dat je bij Mass Effect een weigering kon krijgen om te starten omdat je niet de juiste versie van dat klote PhysX op je computer had staan, ook al was het een nieuwere versie die je wel op je computer had staan. :')

[Voor 15% gewijzigd door CHBF op 18-09-2016 00:57]

Zelfcensuur is de meest schadelijke vorm van censuur.

Exclusive: First details about AMD VEGA10 and VEGA20

Finally we have something very interesting to share. The details you are about to read are coming from a very good source. The same source confirmed mobile Polaris specs weeks before it was released. It all turned out to be true. The only thing that you need to know, is that information is from internal server roadmap.

AMD VEGA 10

Vega 10 will be released in first quarter of 2017, it has 64 Compute Units and 24TF 16-bit computing power. Vega 10 is based on 14nm GFX9 architecture. It comes with 16GB of HBM2 memory with a bandwidth of 512 Gbps. The TBP is currently expected at around 225W. Meanwhile, dual Vega 10 will be released in second quarter of 2017 and TBP should be around 300W.

AMD VEGA 20

Now here’s something interesting that we didn’t know yet. Vega20 will use 7nm GFX9 architecture. It will feature 32GB of HBM2 memory with 1 TB/s of bandwidth. TBP is around 150W and it will support PCI-Express 4.0. It will also have 64 Compute Units.

So what does GFX9 really mean? It’s an internal codename for architecture, for instance Hawaii was GFX7 and Polaris was GFX8.

AMD VEGA 11 and NAVI 10 & 11

We have also learned that AMD is planning to replace Polaris 10 with Vega 11 next year. The specs were not released and we can only expect Vega 11 to share the same fabrication node with Vega 10 (14nm).

If our source has correct information then Navi 10 and 11 are currently planned for 2019. It means that roadmap has changed and Navi is pushed back one year in the schedule.

We will keep you updated if we learn more.

Bron: http://videocardz.com/637...out-amd-vega10-and-vega20

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • chaoscontrol
  • Registratie: juli 2005
  • Laatst online: 13:11
-The_Mask- schreef op dinsdag 20 september 2016 @ 14:04:

Exclusive: First details about AMD VEGA10 and VEGA20

Finally we have something very interesting to share. The details you are about to read are coming from a very good source. The same source confirmed mobile Polaris specs weeks before it was released. It all turned out to be true. The only thing that you need to know, is that information is from internal server roadmap.

AMD VEGA 10

Vega 10 will be released in first quarter of 2017, it has 64 Compute Units and 24TF 16-bit computing power. Vega 10 is based on 14nm GFX9 architecture. It comes with 16GB of HBM2 memory with a bandwidth of 512 Gbps. The TBP is currently expected at around 225W. Meanwhile, dual Vega 10 will be released in second quarter of 2017 and TBP should be around 300W.

AMD VEGA 20

Now here’s something interesting that we didn’t know yet. Vega20 will use 7nm GFX9 architecture. It will feature 32GB of HBM2 memory with 1 TB/s of bandwidth. TBP is around 150W and it will support PCI-Express 4.0. It will also have 64 Compute Units.

So what does GFX9 really mean? It’s an internal codename for architecture, for instance Hawaii was GFX7 and Polaris was GFX8.

AMD VEGA 11 and NAVI 10 & 11

We have also learned that AMD is planning to replace Polaris 10 with Vega 11 next year. The specs were not released and we can only expect Vega 11 to share the same fabrication node with Vega 10 (14nm).

If our source has correct information then Navi 10 and 11 are currently planned for 2019. It means that roadmap has changed and Navi is pushed back one year in the schedule.

We will keep you updated if we learn more.

Bron: http://videocardz.com/637...out-amd-vega10-and-vega20
24 TerraFlops? Niet echt geloofwaardig.

Inventaris

Niet? Ik vind een kloksnelheid van ~1450MHz nog wel redelijk realistisch, wel wat aan de hoge kant, maar ook weer niet extreem ongeloofwaardig. (er staat FP16 en niet FP32)

[Voor 9% gewijzigd door -The_Mask- op 20-09-2016 14:16]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Nieuwe ronde, nieuwe kansen* en het wachten begint weer :). Verbruik ('typical") lijkt in ieder geval redelijk in lijn te liggen met de nieuwe Titan. De dual variant blijf ik (gezien de huidige markt) een vreemde keuze vinden.

* Telt in dit geval niet gezien beide bedrijven een ander deel van de markt bedienen.

[Voor 47% gewijzigd door Vipeax op 20-09-2016 14:45]


  • chaoscontrol
  • Registratie: juli 2005
  • Laatst online: 13:11
-The_Mask- schreef op dinsdag 20 september 2016 @ 14:16:
Niet? Ik vind een kloksnelheid van ~1450MHz nog wel redelijk realistisch, wel wat aan de hoge kant, maar ook weer niet extreem ongeloofwaardig. (er staat FP16 en niet FP32)
Nja, ik twijfel. Ik hoop het natuurlijk wel, maar ben bang dat als we het voor feit aannemen het gaat tegenvallen. 1450 zou imho goed mogelijk moeten kunnen zijn op kleiner procedé, we gaan eht zien.

Inventaris

chaoscontrol schreef op dinsdag 20 september 2016 @ 14:47:
[...]

Nja, ik twijfel. Ik hoop het natuurlijk wel, maar ben bang dat als we het voor feit aannemen het gaat tegenvallen. 1450 zou imho goed mogelijk moeten kunnen zijn op kleiner procedé, we gaan eht zien.
Nou een nieuw productieproces zal het sowieso niet zijn, het is gewoon hetzelfde 14nm LPP productieproces bij GloFo. Maar je hebt door dat de kloksnelheid aan het aantal flops vast zit en dat als je de ene weet de andere ook bekend is als je het aantal stream processors weet? 1250MHz zou dus nog boven de 20TF 16FP komen en 1250MHz is wel meer dan realistisch. Maar ook 1450MHz moet gewoon kunnen mits ze optimalisaties hebben gedaan net als nVidia heeft gedaan met Pascal waardoor kloksnelheden van 2000MHz mogelijk werden. Dus dacht je niet aan FP32 flops? Want dan is 24 TF idd totaal onrealistisch, daarvoor moet de rekenkracht verdubbeld worden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Het gaat hier om 16bit, en niet 32bit GFLOPS. Geen idee hoe dat zich vertaald naar 32bits, maar als het door 2 gaat dan zit je op iets van 12 TFLOPS. Dan is het ineens wel realistisch.

Battle.net tag


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Bij een volledige (en native) implementatie gaat die vergelijking gewoon op ja.

Zie http://www.anandtech.com/...founders-edition-review/5 voor wat meer informatie hierover. Ook daar zie bijvoorbeeld de bevestiging dat de P100 een throughput verhouding van 2:1 heeft tussen 16 en 32bit operaties en je die ook kunt doortrekken tot een 1:2 verhouding tussen 32 en 64bit operaties. Oftewel 4:1 tussen 16bit en 64bit. Al is die laatste natuurlijk een zinloze vergelijking, want je gebruikt die 64bit precisie ook alleen als je het daadwerkelijk nodig hebt. De grootste verandering is dat er geen betere opties waren voor calculaties met getallen van dit formaat, waardoor het effectiever was om gewoon minimaal 32bit variabelen te gebruiken voor dergelijke calculaties.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
NitroX infinity schreef op vrijdag 16 september 2016 @ 11:12:
Heb een RX 460 gekocht. Totale systeemverbruik ligt rond de 136Watt. Stock voltage was 1120mV, verlaagt naar 1000mV* en stroomverbruik daalde met 20Watt naar 116W. Waarom worden die gpu's toch op een overduidelijk hoger voltage dan nodig, gezet? (Asic kwaliteit is 60,8%).

* Stabiel op 1200MHz in Metro LL Redux benchmark.
Dit is ook mijn ervaring met de RX480 refferenced kaart. Ik draait nu 950mv scheelt echt veel. Kan nog 1175MHz draaien. Ik weet niet of nVidia wellicht vergelijkbare marges heeft? die kaarten kun je ook aardig overclocken. De 980 en 980 Ti kon je ook aardig undervolten.
Sp3ci3s8472 schreef op vrijdag 16 september 2016 @ 16:06:
Het zou wel kunnen werken in DX12/Vulkan? indien game developers het implementeren. Maar zoals hiervoor al wordt aangegeven, je hebt bij Crossfire in ieder geval dezelfde gpu (core) nodig.
Ja dan zou je zelfs een 1080 en een RX480 kunnen laten samen werken. Er zijn volgens mij al wel wat tests gepubliceerd en dat werkte erg goed. (kan zijn dat dat met DX12 was maar met Vulcan kan het als het goed is ook)

[Voor 26% gewijzigd door Astennu op 20-09-2016 16:13]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
Vipeax schreef op dinsdag 20 september 2016 @ 15:07:
Bij een volledige (en native) implementatie gaat die vergelijking gewoon op ja.

Zie http://www.anandtech.com/...founders-edition-review/5 voor wat meer informatie hierover. Ook daar zie bijvoorbeeld de bevestiging dat de P100 een throughput verhouding van 2:1 heeft tussen 16 en 32bit operaties en je die ook kunt doortrekken tot een 1:2 verhouding tussen 32 en 64bit operaties. Oftewel 4:1 tussen 16bit en 64bit. Al is die laatste natuurlijk een zinloze vergelijking, want je gebruikt die 64bit precisie ook alleen als je het daadwerkelijk nodig hebt. De grootste verandering is dat er geen betere opties waren voor calculaties met getallen van dit formaat, waardoor het effectiever was om gewoon minimaal 32bit variabelen te gebruiken voor dergelijke calculaties.
Ik dacht dat de P100 wel speciale hardware had om dit te doen. Titan X P kan dit bv niet.Die heeft volgens mij 1:1 FP16:FP32 performance en aanzienlijk tragere FP64. (om maar niet belabberde FP64 te zeggen)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Klopt, dat staat ook in het artikel. Schijnbaar kochten veel bedrijven vorige generatie Titans door een vergelijkbare situatie :+.

Wat betreft:
Astennu schreef op dinsdag 20 september 2016 @ 16:11:
[...]
Dit is ook mijn ervaring met de RX480 refferenced kaart. Ik draait nu 950mv scheelt echt veel. Kan nog 1175MHz draaien. Ik weet niet of nVidia wellicht vergelijkbare marges heeft? die kaarten kun je ook aardig overclocken. De 980 en 980 Ti kon je ook aardig undervolten.
Je zit sowieso met de voltage lock. Ik kan switchen tussen 1031mV en 1081mV (effectief) op 100% load. Dat scheelt volgens Corsair Link zo'n 15W (in mijn geval dus nog geen 4 euro op jaar basis, als we de Corsair tool mogen vertrouwen). Wat betreft kloksnelheid zit ik met mijn huidige profiel nu effectief op 2082MHz vs 2025MHz. Dit is wel een boost-profiel dat geoptimaliseerd is voor de 1081mV situatie. Als ik heel eerlijk ben vind ik beide niet noemenswaardig (de geldbesparing vs de performance winst), maar de koeler kan het sowieso makkelijk hebben en anders heeft die weinig zin, dus 1081mV it is :+.
Astennu schreef op dinsdag 20 september 2016 @ 16:11:
Ja dan zou je zelfs een 1080 en een RX480 kunnen laten samen werken. Er zijn volgens mij al wel wat tests gepubliceerd en dat werkte erg goed. (kan zijn dat dat met DX12 was maar met Vulcan kan het als het goed is ook)
Dit kost wel behoorlijk wat extra developerstijd en het is natuurlijk een nog minder vaak voorkomende situatie dan een CFX/SLI opstelling (wie koopt er immers 2 totaal verschillende kaarten van een andere bakker ook nog). Buiten wat techdemos (zoals Ashes of the Singularity) zie ik dat voorlopig echt niet gebeuren eigenlijk. En dan kom je wel heel erg in de situatie dat je gewoon echt goede of compleet geen/0 scaling hebt. Nu is het tenminste nog zo dat er ook games zijn waar een dual GPU opstelling je tenminste nog 30% meer frames geeft bijvoorbeeld :p.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
Vipeax schreef op dinsdag 20 september 2016 @ 16:42:
Klopt, dat staat ook in het artikel. Schijnbaar kochten veel bedrijven vorige generatie Titans door een vergelijkbare situatie :+.

Wat betreft:
Zou ik ook doen. Goede prestaties voor minder geld
[...]

Je zit sowieso met de voltage lock. Ik kan switchen tussen 1031mV en 1081mV (effectief) op 100% load. Dat scheelt volgens Corsair Link zo'n 15W (in mijn geval dus nog geen 4 euro op jaar basis, als we de Corsair tool mogen vertrouwen). Wat betreft kloksnelheid zit ik met mijn huidige profiel nu effectief op 2082MHz vs 2025MHz. Dit is wel een boost-profiel dat geoptimaliseerd is voor de 1081mV situatie. Als ik heel eerlijk ben vind ik beide niet noemenswaardig (de geldbesparing vs de performance winst), maar de koeler kan het sowieso makkelijk hebben en anders heeft die weinig zin, dus 1081mV it is :+.
Welke voltage lock? ik heb daar geen last van.
Je moet wel het voltage van je memory mee verlagen. Als je dit op 1.1v zet kan je VGPU ook niet lager. Op een of andere manier zijn die sort of linked. Zodra ik die ook naar 950mv zette ging de VGPU wel verder omlaag.
[...]

Dit kost wel behoorlijk wat extra developerstijd en het is natuurlijk een nog minder vaak voorkomende situatie dan een CFX/SLI opstelling (wie koopt er immers 2 totaal verschillende kaarten van een andere bakker ook nog). Buiten wat techdemos (zoals Ashes of the Singularity) zie ik dat voorlopig echt niet gebeuren eigenlijk. En dan kom je wel heel erg in de situatie dat je gewoon echt goede of compleet geen/0 scaling hebt. Nu is het tenminste nog zo dat er ook games zijn waar een dual GPU opstelling je tenminste nog 30% meer frames geeft bijvoorbeeld :p.
Ik weet niet hoe lastig het is om te implementeren. Ik hoop wel dat ze dit meer gaan doen want dit komt ook ten goede aan de scaling met twee gelijke kaarten. CF en SLI zijn in games die dat ondersteunen niet broken en dan worden multi gpu opstellingen eindelijk weer interessanter.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Astennu schreef op dinsdag 20 september 2016 @ 16:47:
[...]

Welke voltage lock? ik heb daar geen last van.
Je moet wel het voltage van je memory mee verlagen. Als je dit op 1.1v zet kan je VGPU ook niet lager. Op een of andere manier zijn die sort of linked. Zodra ik die ook naar 950mv zette ging de VGPU wel verder omlaag.
Bovenstaande ging over Pascal. Daar vroeg je om als ik je post goed begreep :p. Memory voltages kan ik helemaal niets mee :+.

[Voor 4% gewijzigd door Vipeax op 20-09-2016 16:49]

Astennu schreef op dinsdag 20 september 2016 @ 16:47:

Welke voltage lock? ik heb daar geen last van.
Vipeax heeft het over zijn GTX 1080, dat is net een Apple product waar je ook niks aan kan veranderen. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Ik denk dat een iPhone je meer mogelijkheden geeft in alle eerlijkheid... :+

/me heeft er eentje via het werk.

[Voor 21% gewijzigd door Vipeax op 20-09-2016 16:51]


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
Ah my bad.
Ik weet niet of er al een bios editior voor pascal is.

Met de Maxwell kaarten moest je ook met een bios editor aan de slag. Persoonlijk vond ik dat juist wel leuk :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
offtopic:
Naar mijn weten is dat nog altijd alleen via een hardware mod mogelijk. Ik zou er dan ook weinig tegen hebben als Vega wat meer richting een HD5870 kaart zal zitten wat betreft ervaring en prestaties, uiteraard relatief aan hedendaagse performance :+. Best of the best hoeft niet (ik heb ook geen Titan), maar ik wil wel een 165Hz panel kunnen benutten met leuke instellingen :p.
Ik weet niet hoe lastig het is om te implementeren. Ik hoop wel dat ze dit meer gaan doen want dit komt ook ten goede aan de scaling met twee gelijke kaarten. CF en SLI zijn in games die dat ondersteunen niet broken en dan worden multi gpu opstellingen eindelijk weer interessanter.
De drie problemen die ik mij nu zoal kan bedenken zijn:
- Merken kunnen geen (of beter gezegd zeer beperkt) verbeteringen doorvoeren via drivers, omdat je als developer de volledige aansturing zelf moet regelen. Dit is natuurlijk ook wel deels waar "we heen willen" met Vulcan DX12 etc, maar je kunt je wel voorstellen dat er geen magische single-line of code is die automatisch je workload gaat loadbalancen, want iedere combinatie is eigenlijk uniek (2 snelle kaarten, 1 snelle en 1 langzame kaart, GTX 1060 met een RX480 zou leuk zijn (async)).
- In alle andere games ben je letterlijk screwed.
- Eyefinity/Surround gaming ondersteunen wordt helemaal een pracht en praal :+. En laat nou net in dat genre veel power nodig zijn en in verhouding het aantal dual-GPU eigenaren dus ook relatief groot zijn.

Eigenlijk kom je dan weer terug op een software matige oplossing om het probleem van "2 verschillende hardware producten" aan te sturen. Dus dan gaan we een low-level API bouwen, om via high-level code de low-level API aan te sturen. :p
Astennu schreef op dinsdag 20 september 2016 @ 16:52:
Ah my bad.
Ik weet niet of er al een bios editior voor pascal is.

Met de Maxwell kaarten moest je ook met een bios editor aan de slag. Persoonlijk vond ik dat juist wel leuk :)
Ik bedacht me trouwens nog dat dit waarschijnlijk wel kan door de voltage/frquency curve aan te passen waarbij je dezelfde klokspeed als de max instelt op de gehele reeks vanaf bv 1000mV tot 1200mV.

[Voor 14% gewijzigd door Vipeax op 21-09-2016 10:20]

Astennu schreef op dinsdag 20 september 2016 @ 16:28:
[...]


Ik dacht dat de P100 wel speciale hardware had om dit te doen. Titan X P kan dit bv niet.Die heeft volgens mij 1:1 FP16:FP32 performance en aanzienlijk tragere FP64. (om maar niet belabberde FP64 te zeggen)
Niet eens dat. GP102 en lager hebben 1:64 FP16:FP32. Er is slechts 1 FP16x2 ALU per SM aanwezig en die heeft geen "hot clock". In Titan XP zijn dat er dus 28 * 2 = 56, waarmee je dus 56 * 2 * 1,417 = 158,704 GFLOPS haalt in FP16. De rest van de ALU's zijn pure FP32 ALU's. GP100 heeft alleen maar van die FP16x2 ALU's. De FP16 snelheid is ook een 100% theoretische waarde, in de praktijk is die niet haalbaar. Zo'n FP16x2 ALU kan dat alleen bij gelijke operaties op je FP16 data, dus 4xFP16 optellen of aftrekken kan op "dubbele" snelheid (1 tick) met twee van deze ALU's. Moet je echter optellen en aftrekken heb je gewoon 4 ALU's nodig. Waar de FP32 en FP64 rates dus in principe haalbaar zijn is dat met FP16 op Pascal eigenlijk niet te doen omdat je dan wel een heel erg specifieke workload hebt.

AMD heeft wel een 1:1 verhouding, zij kunnen FP16 op de FP32 ALU's doen, maar dan zonder bit packing. Een RX 480 doet dus 5161 GFLOPS in zowel FP32 als FP16.

24 TF FP16 geeft echter aan dat dat anders ligt in Vega. Met 64 CU's en 64 ALU's per CU geeft 4096 ALU's. Om dan 24 TF te halen kom je op 24000 / 2 / 4096 = 2,92 GHz...dat wordt hem dus niet :+

Halveer die snelheid en je komt op 1,46 GHz, wat dan wel weer haalbaar kan zijn maar ook betekent dat AMD in Vega FP16 op dubbele rate (2:1) kan doen. Dat zal dan wel net zoals Nvidia gebeuren door FP16x2 te doen op de FP32 ALU's door middel van bit packing.

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Werelds schreef op dinsdag 20 september 2016 @ 17:08:
[...]
Halveer die snelheid en je komt op 1,46 GHz, wat dan wel weer haalbaar kan zijn maar ook betekent dat AMD in Vega FP16 op dubbele rate (2:1) kan doen. Dat zal dan wel net zoals Nvidia gebeuren door FP16x2 te doen op de FP32 ALU's door middel van bit packing.
Bespaart dat die space en ook gebruik?

Ben benieuwd of ze met 12TF boven de GTX1080 (non stock) uitkomen. Dat wordt in DX11 games waarschijnlijk lastiger, bij DX12 en Vulkan zal hij vast een stuk sneller zijn.

Battle.net tag

Sp3ci3s8472 schreef op dinsdag 20 september 2016 @ 17:39:
Bespaart dat die space en ook gebruik?
Ten opzichte van losse FP16(x2) units uiteraard wel, ik gok echter wel dat de FP16x2 ALU's iets groter zijn dan pure FP32 units, betwijfel of bit packing er "gratis" in past. Het is voor AMD denk ik echter wel een kleinere aanpassing dan voor Nvidia, omdat AMD nu al gewoon FP16 in de FP32 ALU's stopt. De registers hebben al echte FP16 capaciteiten.

Edit: het belangrijkste is wel dat "men" beseft dat dit nog veel meer "up to" waarden zijn dan FP32 rates. Met dat bit-packing heb je in het ergste geval "slechts" 1:1 throughput, 2:1 is het gunstigste. De praktijk ligt er ergens tussen in afhankelijk van de workload.

[Voor 21% gewijzigd door Werelds op 20-09-2016 19:25]


  • Alienist
  • Registratie: april 2009
  • Laatst online: 17:35
damm is er een pricedrop geweest ? bij azerty is ie ook maar 397 euro

  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 18:17

Compizfox

I use Arch, btw

Sjezus, vanwaar die plotselinge drop van ~€800 naar €400? Wat is dat ding ongeveer echt waard?

There is no system but GNU and Linux is one of its kernels


  • Freaky Maus
  • Registratie: januari 2005
  • Laatst online: 08:50
Lijkt me niet gek als er over een paar maanden hopelijk een Vega verkrijgbaar is die deze opvolgt?

De pricewatch: Sapphire Radeon NITRO R9 FURY 4G HBM with Back Plate (1050Mhz) is immers ook al voor €329,00 verkrijgbaar. Leuke prijzen voor deze kaarten inderdaad.

Specs


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Freaky Maus schreef op woensdag 21 september 2016 @ 22:36:
Lijkt me niet gek als er over een paar maanden hopelijk een Vega verkrijgbaar is die deze opvolgt?

De pricewatch: Sapphire Radeon NITRO R9 FURY 4G HBM with Back Plate (1050Mhz) is immers ook al voor €329,00 verkrijgbaar. Leuke prijzen voor deze kaarten inderdaad.
Als je nu iets zoekt inderdaad een koopje, zeker tov de originele prijs. Echter die dingen zijn slechts 10% sneller dan een GTX 1060 (aldus TPU), dus zodra de prijzen normaliseren zal die prijs nog wat omlaag moeten.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

Compizfox schreef op woensdag 21 september 2016 @ 22:31:
[...]

Sjezus, vanwaar die plotselinge drop van ~€800 naar €400? Wat is dat ding ongeveer echt waard?
Wisselt, voor iemand met een 4K scherm die veel moderne games gaat draaien is 400 euro een prima prijs, maar voor iemand met een full HD scherm die alleen maar oudere games speelt is die weinig interessant.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 18:17

Compizfox

I use Arch, btw

-The_Mask- schreef op woensdag 21 september 2016 @ 22:49:
[...]

Wisselt, voor iemand met een 4K scherm die veel moderne games gaat draaien is 400 euro een prima prijs, maar voor iemand met een full HD scherm die alleen maar oudere games speelt is die weinig interessant.
Het is dus meer zo dat de oude prijs van €800 absurd hoog was in plaats van dat de huidige prijs van €400 absurd laag is?

There is no system but GNU and Linux is one of its kernels

Compizfox schreef op woensdag 21 september 2016 @ 22:55:
[...]

Het is dus meer zo dat de oude prijs van €800 absurd hoog was in plaats van dat de huidige prijs van €400 absurd laag is?
Een Fury X kost geen 800 euro, maar ja de 700 euro wat die ook koste bij launch is nu gewoon te veel. Je hebt nu nieuwe kaarten zoals de RX 480, GTX 1060, GTX 1070 en GTX 1080 welke een veel betere prijs/prestatie hebben.

[Voor 3% gewijzigd door -The_Mask- op 21-09-2016 23:11]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
Ach, is hetzelfde als dat de GTX 970 Gaming nog altijd redelijk hoog staat in de pricewatch (en sowieso alle MSI kaarten eigenlijk :/). Die kaart is compleet absolete met de RX480 (en GTX 1060 voor nVidia kopers), maar staat toch hoog in de pricewatch met zijn minimum prijs van 310...

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Als je ziet hoeveel Maxwell kaarten nog worden verkocht, ze hebben veel stock over ofzo :o.
Lijkt me niet dat webwinkels en makers zoals Asus, MSI daar blij mee zijn?

Battle.net tag

Vipeax schreef op woensdag 21 september 2016 @ 23:15:
Ach, is hetzelfde als dat de GTX 970 Gaming nog altijd redelijk hoog staat in de pricewatch (en sowieso alle MSI kaarten eigenlijk :/). Die kaart is compleet absolete met de RX480 (en GTX 1060 voor nVidia kopers), maar staat toch hoog in de pricewatch met zijn minimum prijs van 310...
LOL
Als het nu nog voor die prijs wordt verkocht dan kan het niet anders dan dat ze het ook daadwerkelijk verkopen. 7(8)7
Los van AMD vs. NVidia. Ook de 1060 is beter dan de 970.

400 euro voor een Fury X slaat ook nergens op gezien de kaarten van AMD die in de eerste helft van 2017 zullen uitkomen. Ik zou er spijt van gaan krijgen als ik die nu zou kopen. Ach ja, uiteindelijk gaan die prijzen nog wel dalen als mensen ze niet kopen. :)

[Voor 18% gewijzigd door CHBF op 22-09-2016 20:22]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • barbadruif
  • Registratie: mei 2016
  • Laatst online: 25-09 09:35
Waar verwachten jullie dat de rx490 geplaatst zal worden? Mid-range/high-end (gtx1070), high-end (gtx1080) of misschien zelfs rond de titan xp?
Wat is een RX 490? Een dual GPU Polaris 10 kaart, een Vega10 kaart, een Vega11 kaart of iets anders? Voor Vega10 zie de topicstart bij het kopje geruchtenmolen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Een RX480X is veel betuhr :Y)
Of een RX580, of een RX4100 :9

  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Freaky Maus schreef op woensdag 21 september 2016 @ 22:36:
Lijkt me niet gek als er over een paar maanden hopelijk een Vega verkrijgbaar is die deze opvolgt?

De pricewatch: Sapphire Radeon NITRO R9 FURY 4G HBM with Back Plate (1050Mhz) is immers ook al voor €329,00 verkrijgbaar. Leuke prijzen voor deze kaarten inderdaad.
Tip van Flip: bij Caseking.de is ie nog altijd in de aanbieding voor €299, verzending kost je 8 euro. De mijne is eerder deze week binnen gekomen, heeft alleen wat last van coilwhine :( (in Unigen Heaven in ieder geval, pc moet verder nog geïnstalleerd worden). Wellicht dat het nog wel bijtrekt, want ik vrees dat coilwhine geen valide RMA reden is.

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Ik wil het even een paar dagen aankijken, met name zien of het optreedt in games en of het wellicht minder wordt/verdwijnt. Als het alleen in iets als Unigen of 3DMark is, dan kan het mij weinig interesseren. Anders zou ik het inderdaad kunnen proberen, niet geschoten is altijd mis.

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • tomcatha
  • Registratie: oktober 2006
  • Laatst online: 21-07-2019
http://steamcommunity.com...detail/892100538370620761

ik vind dit wel beetje interresante nieuws.
de 7970 heeft toch betere dx12 support maar word wel gelijk gesteld aan de 770...

[Voor 15% gewijzigd door tomcatha op 23-09-2016 17:04]

Ik heb nog nooit een game gezien met kloppende of werkelijk duidelijke systeemvereisten.

Ook hier weer bij de minima staat minimaal een i3 op 2,5GHz maar niet welke generatie. Een zesde generatie i3 op 2GHz is al flink sneller als een eerste op 2,5GHz. Bij AMD staat Phenom II, maar niet dualcore, triplecore of quadcore. Dus geen idee waar dat over gaat.

En zo gaat het altijd, het klopt gewoon nooit wat ze zeggen, bij welke game dan ook.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Freaky Maus
  • Registratie: januari 2005
  • Laatst online: 08:50
Wel vreemd dat de recommended specs dan geen DX12 promoten?

VIDEO CARD: 2 GB DirectX 11 Video Card (AMD 7970 or nVidia 770 or greater)

Specs


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
-The_Mask- schreef op vrijdag 23 september 2016 @ 17:43:
Ik heb nog nooit een game gezien met kloppende of werkelijk duidelijke systeemvereisten.

Ook hier weer bij de minima staat minimaal een i3 op 2,5GHz maar niet welke generatie. Een zesde generatie i3 op 2GHz is al flink sneller als een eerste op 2,5GHz. Bij AMD staat Phenom II, maar niet dualcore, triplecore of quadcore. Dus geen idee waar dat over gaat.

En zo gaat het altijd, het klopt gewoon nooit wat ze zeggen, bij welke game dan ook.
Titanfall op de FrontPage is de uitzondering op de regel wat mij betreft. Die hebben een poging gedaan te vermelden wat je nodig hebt om 60 fps op 1080p te halen en 60 fps op lagere details op lagere resolutie.
tomcatha schreef op vrijdag 23 september 2016 @ 17:01:
http://steamcommunity.com...detail/892100538370620761

ik vind dit wel beetje interresante nieuws.
de 7970 heeft toch betere dx12 support maar word wel gelijk gesteld aan de 770...
De 7970 is trager maar zit wel in de buurt (iig de GHz edition): https://www.techpowerup.c...A/GeForce_GTX_770/27.html

Verder doet DX12 tot nu toe nog niets voor je fps. In Battlefield One kost het 30 fps.

[Voor 49% gewijzigd door sdk1985 op 23-09-2016 19:18]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op vrijdag 23 september 2016 @ 19:09:
[...]

Titanfall op de FrontPage is de uitzondering op de regel wat mij betreft.
Nee even onzinnig. Alleen al omdat ze een niet bestaande CPU als minimale eis hebben. Dat is dus sowieso lastig om daaraan te voldoen.
De 7970 is trager maar zit wel in de buurt (iig de GHz edition): https://www.techpowerup.c...A/GeForce_GTX_770/27.html
Een HD 7950 boost verslaat een GTX 770 tegenwoordig al op full HD over een groot scala games gemiddeld gezien.

[Voor 26% gewijzigd door -The_Mask- op 23-09-2016 19:18]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
-The_Mask- schreef op vrijdag 23 september 2016 @ 19:14:
[...]

Nee even onzinnig. Alleen al omdat ze een niet bestaande CPU als minimale eis hebben. Dat is dus sowieso lastig om daaraan te voldoen.
Staat gewoon op passmark: https://www.cpubenchmark....6300T+%40+3.30GHz&id=2626

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
-The_Mask- schreef op vrijdag 23 september 2016 @ 19:21:
De minimale eis is een i3 3600t, maar die bestaat niet.
Dat is gewoon een i3 6300T dat is niet zo ingewikkeld.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 26-09 15:04
Moi_in_actie schreef op vrijdag 23 september 2016 @ 11:32:
Ik wil het even een paar dagen aankijken, met name zien of het optreedt in games en of het wellicht minder wordt/verdwijnt. Als het alleen in iets als Unigen of 3DMark is, dan kan het mij weinig interesseren. Anders zou ik het inderdaad kunnen proberen, niet geschoten is altijd mis.
Gewoon de winkel er alvast even op attenderen, kan geen kwaad. Kan namelijk ook zo zijn dat dit probleem zich nu alleen in Unigen voordoet, maar uiteindelijk erger wordt en ook bij applicaties optreedt die er wel toe doen. Wellicht geven ze dan zelf al wel aan of ze het een valide RMA reden vinden of niet.
-The_Mask- schreef op vrijdag 23 september 2016 @ 17:43:
En zo gaat het altijd, het klopt gewoon nooit wat ze zeggen, bij welke game dan ook.
Dat is wel al vaak duidelijk te zien aan de CPU eisen. Vaak staat een AMD FX8350 gelijk aan iets veel beters van Intel en dan is het niet eens zo dat die game dan bijzonder goed draait om meerdere threads of zo -,-

Achja ze moeten wat en het mag natuurlijk niet te veel geld kosten, maar hoeveel geld zou het kosten als je een stagiair laat uitvogelen wat minimaal vereist is en wat als aanbevolen door kan. Waarschijnlijk zit het geld probleem hem dus in de hardware om zelf te kunnen testen? Zal ook wel niet helpen als men AMD zijn drivers niet laat optimaliseren waardoor z'n recommended en minimal specs t.t.v. de release ook al geen Hollebolle Gijs kan zeggen.

[Voor 64% gewijzigd door madmaxnl op 23-09-2016 23:00]


  • tomcatha
  • Registratie: oktober 2006
  • Laatst online: 21-07-2019
ze hebben civ 6 altijd wel flink geadverteert met dat het een performance boost krijgt vanwege asynchronous compute dacht ik dus daarom vond ik het apart.
sdk1985 schreef op vrijdag 23 september 2016 @ 19:31:
[...]

Dat is gewoon een i3 6300T dat is niet zo ingewikkeld.
Ja of niet. Je doet nu een aanname.
madmaxnl schreef op vrijdag 23 september 2016 @ 22:41:
[...]
Achja ze moeten wat en het mag natuurlijk niet te veel geld kosten, maar hoeveel geld zou het kosten als je een stagiair laat uitvogelen wat minimaal vereist is en wat als aanbevolen door kan. Waarschijnlijk zit het geld probleem hem dus in de hardware om zelf te kunnen testen? Zal ook wel niet helpen als men AMD zijn drivers niet laat optimaliseren waardoor z'n recommended en minimal specs t.t.v. de release ook al geen Hollebolle Gijs kan zeggen.
Allemaal software mensen denk ik met geen enkele kennis van hardware.

[Voor 60% gewijzigd door -The_Mask- op 24-09-2016 00:22]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
-The_Mask- schreef op zaterdag 24 september 2016 @ 00:18:
[...]

Ja of niet. Je doet nu een aanname.
Heb je de gedachtegang erachter gelezen?

Precies hetgeen waartegen wordt geageerd is bij deze game geaddresseerd:
So, what does it mean when we say "minimum" or "recommended"? Since this is a variable standard across the entire industry I think it is important for me to detail the kind of experience you can hope to expect. In the past minimum specs were literally the minimum bar to launch the game - your experience once in the game was probably not going to be ideal. Our goal for minimum PC specs on Titanfall 2 is that you can play at a 1600x900 resolution with most details turned on and average around 60fps. We strongly believe that if you at least match the posted requirements you should have an excellent visual and gameplay experience playing the game, so don’t be alarmed if you boot it up and don’t need to turn all the settings to Low for playable framerates – our artists would actually like if you could see their work! Because of this you will probably be able to actually run the game on a lower-than-minimum spec PC, but the quality and performance won’t quite be ideal. For recommended PC specs we're aiming for details nearly maxed out, 1920x1080 resolution (2560x1440 is also very playable), and again an average of 60fps or higher. We chose the minimum specs with 60fps in mind for the pure gameplay benefits you get once at 60fps (and beyond!).
Om het samen te vatten proberen ze dus af te stappen van het minimum waarbij een game uberhaupt draait naar een meer concreet scenario waarbij je op 1600x900 60 fps haalt. De recommended betreft "nearly maxed" op 1920x1080 voor opnieuw 60 fps.

Ik kan dit soort ontwikkelingen alleen maar toejuichen... Dat er dan iemand een typfout maakt kan ik ze wel vergeven ;).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

"nearly maxed", dat heeft tegenwoordig toch geen betekenis meer ?

Een interessant artikel over hoe de overmatige self-entitlement van deze generatie gamers heeft geleid tot "Ultra" graphics settings niets meer is dan een "deze setting draait vlot op high-end kaarten van de laatste paar generaties": http://www.pcgamer.com/wh...on-really-means-in-games/

Bizar dat men te tam is om de "detect my system" te gebruiken, maar wel alles in de menutjes op maximum instelt.
Een duidelijk voorbeeld hiervan is Deus Ex: Mankind Divided geweest. De meesten verwachten alles op max te rammen (inclusief MSAA x8) en dan het spel een ongeoptimaliseerde troep te vinden omdat hun GTX 970 het niet vlot trekt op 1080p. Als de ontwikkelaar dit dan aanduidt dat de hoogste settings niet bedoeld zijn voor de (single) high-end kaarten van nu, dan is het internet te klein.
A similar issue occurred very recently with Deus Ex: Mankind Divided, which prominently featured an MSAA setting (up to 8x). As the game uses deferred shading—a common rendering technique that makes a straightforward hardware-accelerated implementation of MSAA much less viable—this setting came with the extreme performance impact one would expect in such a renderer. Again, the game might have been seen as far more 'optimized' had it not included that option, and again this is obviously not the case.
In het artikel wordt Dying Light aangehaald, waar ze wél hebben toegegeven aan dit gedrag:
One relatively recent subject of this debate was Dying Light, and in my opinion it is one of the most damning cases—not due to the developer, but due to the misguided reception it received. Dying Light is an open world game with lots of moving actors and parts as well as a dynamic day/night cycle, all ingredients that make up a technically demanding game. It shipped with a huge range of settings for draw distance in particular, which in this type of experience greatly affects both CPU and GPU load.

There was an outcry about the 'terrible unoptimized PC port' when Dying Light would not perform up to (arbitrary) standards at maximum settings. As it turned out, the draw distance slider in the initial version of the game was already above console settings at its lowest position, and went incomparably higher. People were so agitated, in fact, that the developer felt like they had to reduce the range of the slider to 55% of its former maximum in an early patch.

Would the game have been perceived as much more 'optimized' if this trivial step would have been taken before release? I definitely think so. Would it actually have been ‘better optimized’? No, absolutely not. Dying Light is a great example of just how difficult it can be to judge optimization, and also of the concerns developers might be limited by when implementing game options.
Waar vroeger (pak voor Battlefield 3) de maximum settings een manier was om de game later technisch nog wat relevantie te geven, zit je nu dus met games waarvan de maximum settings eigenlijk afgestemd zijn op de groep mensen met een (vorige generatie) high-end kaart, terwijl je vroeger een game opnieuw kon spelen met nog hogere settings, zoals een Crysis of Metro 2033.
Mar nu is "Ultra" het nieuwe "optimized for 60fps on 1080p with a single high-end GPU and high-end CPU".

  • winwiz
  • Registratie: september 2000
  • Laatst online: 16:49
Wow toch wel mooie resultaten met EK water YouTube: INSANE AMD RX480 Watercooled Video Card

Vooral waanzinnig dat het verbruik zo'n eind zakt.

[Voor 15% gewijzigd door winwiz op 24-09-2016 11:08]

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

Ik vind het vooral waanzinnig hoe weinig die man over videokaarten weet en hoeveel onzin hij praat. Hij meet helemaal niet het verbruik van de videokaart en hij denkt dat een 6 pins PEG connector beperkt is tot 75W. Hij heeft geen enkel idee waar die over praat in de video.
sdk1985 schreef op zaterdag 24 september 2016 @ 00:25:
[...]

Heb je de gedachtegang erachter gelezen?
Ja gister direct al voordat je het in dit topic poste. Daarom zei ik ook wat ik zei. Onzin en meer onduidelijkheid dan duidelijkheid.

[Voor 35% gewijzigd door -The_Mask- op 24-09-2016 11:31]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • winwiz
  • Registratie: september 2000
  • Laatst online: 16:49
-The_Mask- schreef op zaterdag 24 september 2016 @ 11:28:
Ik vind het vooral waanzinnig hoe weinig die man over videokaarten weet en hoeveel onzin hij praat. Hij meet helemaal niet het verbruik van de videokaart en hij denkt dat een 6 pins PEG connector beperkt is tot 75W. Hij heeft geen enkel idee waar die over praat in de video.

.
Dat viel mij ook op echter blijft toch het feit dat het verbruik omlaag is gegaan

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

Welk feit? Waaruit blijkt dat het verbruik tientallen watts omlaag gaat? Is helemaal niet terug te zien in de video. En hij meet natuurlijk niet eens het verbruik van de videokaart dus hij kan het ook helemaal niet weten.

Wat wel een feit is dat elektronica over het algemeen zuiniger is bij lagere temperaturen, lagere temperatuur is minder weerstand is een lager verbruik. Maar dat weet hij niet en daar heeft hij het ook niet over.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • rows
  • Registratie: november 2009
  • Laatst online: 13-09 12:27
Even een vraag van andere orde en ik hoop dat jullie daar antwoord op hebben. Ik ga tijdelijk een RX480 in mijn pc zetten totdat de vega er is en ook goed beschikbaar. Nu wilde ik eigenlijk de MSI RX480 Gaming X 8GB hebben maar die is overal uitverkocht. Nog wel zie ik diezelfde versie zonder X. A is die goedkoper en B is de OC beperkt namelijk 1279 vs 1316 in OC mode. Geheugen is 100MHz hoger alleen in OC mode.

Mijn vraag is: weet iemand of die kaart verder helemaal hetzelfde is verder dus ook geheugen chips van Samsung etc??

Ik koop de kaart overigens alleen met BF1 voucher dus mijn opties zijn beperkt. Alleen Alternate in NL geloof ik. :9

Edit: bedenk mij dat ik deze vraag beter kan stellen in een MSI forum, maar je weet nooit wie er hier meelezen natuurlijk :+

[Voor 8% gewijzigd door rows op 24-09-2016 15:21]


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Zo, voor de gein eens een eerste overclocked benchmark gedraaid met de nieuwe setup, bestaande uit:
Core i7 6700K (stock)
Sapphire R9 Fury Nitro OC (1100Mhz Core (+30mV), 500Mhz HBM)
16GB Corsair Vengeance LED (3000Mhz)

En ik moet zeggen, het valt me zeker niet tegen. Dit is mijn eerste Time Spy score.



Had eerlijk gezegd niet verwacht dat het in een keer zou werken. Heb de core clock van 1050 naar 1100Mhz geschoven, power limit naar +50%, iets aan core voltage toegevoegd (30mV) en de fanspeed even vastgezet op 45% en hij liep er zonder enige problemen doorheen. Temperatuur kwam hierbij op max 67 graden, CPU op 77 graden.

Ik moet wellicht nog eens kijken naar de koeling van het geheel, maar daarmee wacht ik tot ik de boel gefinetuned heb (overclocks, voltages, fan profiles). Ik heb nogal wat power in een redelijk klein kastje zitten (Phanteks Enthoo Evolv ITX) met nu slechts 2 fans (standaard 200mm front intake en een 140mm Corsair AF140 als exhaust achter), dus heel koel zal dit niet blijven.
Ook kan ik dankzij mijn CPU koeler (Thermalright True Spirit 140) geen extra fans meer bovenin plaatsen. Wellicht dat ik naderhand alsnog een 240mm AIO overweeg voor de CPU, blijft die iets koeler en helpen die fans meteen met wat warme lucht naar buiten zuigen.

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
-The_Mask- schreef op zaterdag 24 september 2016 @ 11:28:
Ik vind het vooral waanzinnig hoe weinig die man over videokaarten weet en hoeveel onzin hij praat. Hij meet helemaal niet het verbruik van de videokaart en hij denkt dat een 6 pins PEG connector beperkt is tot 75W. Hij heeft geen enkel idee waar die over praat in de video.


[...]

Ja gister direct al voordat je het in dit topic poste. Daarom zei ik ook wat ik zei. Onzin en meer onduidelijkheid dan duidelijkheid.
Iets afzeiken zonder echte argumenten is heel makkelijk. Daar hoeven we dan verder niet op in te gaan. Maar heb je zelf een betere aanpak? Wat zou jij opgeven als minimum spec voor Titanfall 2? Ik ga er vanuit dat als je dit concept helemaal niks vindt er een concept moet bestaan dat je wel ziet zitten. Of ben je gewoon overal tegen?
Moi_in_actie schreef op zaterdag 24 september 2016 @ 13:40:
Zo, voor de gein eens een eerste overclocked benchmark gedraaid met de nieuwe setup, bestaande uit:
Core i7 6700K (stock)
Sapphire R9 Fury Nitro OC (1100Mhz Core (+30mV), 500Mhz HBM)
16GB Corsair Vengeance LED (3000Mhz)

En ik moet zeggen, het valt me zeker niet tegen. Dit is mijn eerste Time Spy score.

[afbeelding]

Had eerlijk gezegd niet verwacht dat het in een keer zou werken. Heb de core clock van 1050 naar 1100Mhz geschoven, power limit naar +50%, iets aan core voltage toegevoegd (30mV) en de fanspeed even vastgezet op 45% en hij liep er zonder enige problemen doorheen. Temperatuur kwam hierbij op max 67 graden, CPU op 77 graden.
Ik kan me niet voorstellen dat 50 mhz bovenop 1050 mhz veel gaat doen. Je zou het eens moeten vergelijken om dat te bevestigen (met dezelfde verhoogde power limit). Als dat minder dan 5% is kun je eigenlijk net zo goed stock draaien.

[Voor 41% gewijzigd door sdk1985 op 24-09-2016 14:42]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op zaterdag 24 september 2016 @ 14:34:
[...]

Iets afzeiken zonder echte argumenten is heel makkelijk. Daar hoeven we dan verder niet op in te gaan.
Lees aub eens één keer voordat je met zo'n reactie komt. Vraag je je nooit af waarom je werkelijk elke discussie verliest? Komt volgens mij omdat je steeds half leest of het niet begrijpt wat er gezegd wordt, maar toch steeds reageert.

[Voor 3% gewijzigd door -The_Mask- op 24-09-2016 14:54]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
-The_Mask- schreef op zaterdag 24 september 2016 @ 14:53:
[...]

Lees aub eens één keer voordat je met zo'n reactie komt. Vraag je je nooit af waarom je werkelijk elke discussie verliest? Komt volgens mij omdat je steeds half leest of het niet begrijpt wat er gezegd wordt, maar toch steeds reageert.
Je kunt natuurlijk ook gewoon je mening geven als daarom wordt gevraagd in plaats van met nog meer dooddoeners aan te komen en op de man te spelen. Als ik zo stom ben prima, maar dan herhaal je jou goede argumenten en onderbouwing toch gewoon een keer? Het is niet alsof je spaarzaam bent met het aantal reacties dat je hier plaatst.

edit:
Het idee van een forum is dat je dingen kunt bespreken, meningen kunt uitwisselen en mogelijk zelfs iets opsteekt van elkaar. Om zelf het goede voorbeeld te geven:
sdk1985 schreef op zaterdag 24 september 2016 @ 14:34:
[...]

Iets afzeiken zonder echte argumenten is heel makkelijk. Daar hoeven we dan verder niet op in te gaan. Maar heb je zelf een betere aanpak? Wat zou jij opgeven als minimum spec voor Titanfall 2? Ik ga er vanuit dat als je dit concept helemaal niks vindt er een concept moet bestaan dat je wel ziet zitten. Of ben je gewoon overal tegen?

[Voor 31% gewijzigd door sdk1985 op 24-09-2016 16:15]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
sdk1985 schreef op zaterdag 24 september 2016 @ 14:34:
[...]

Ik kan me niet voorstellen dat 50 mhz bovenop 1050 mhz veel gaat doen. Je zou het eens moeten vergelijken om dat te bevestigen (met dezelfde verhoogde power limit). Als dat minder dan 5% is kun je eigenlijk net zo goed stock draaien.
Alles op stock draaiende haalde hij iets van 4860 punten, 50mhz meer is bij TimeSpy dus al 200 punten meer, iets meer dan 4% improvement wat redelijk te verwachten was met een +-4.7% overclock. Ga je daar veel van merken? Nee, een paar FPS hier en daar, meer niet. Maar overclocken vind ik gewoon leuk, kijken a) hoe ver hij kan gaan en b) wat de meest efficiënte afstelling is.

Maar ik ga straks en de komende weken wat verder stoeien. Heb even gecontroleerd of er stream processors unlocked kunnen worden, maar helaas ;( Processor wel alvast wat bijgesteld, die kreeg stock een veel te hoog voltage toegediend; tot 1.38V voor 4.2Ghz, nu een veel schappelijker 1.26V op 4.5Ghz.
Heb verder wel al gemerkt dat deze R9 Fury voor 1120Mhz al flink wat meer voltage wil. Zelfs met +60mV hangt ie zich op, dus het is de vraag of het veel nut heeft om ver boven die 1100Mhz te gaan. Temperatuur is het probleem niet, hij tikt met fanspeeds van 45-50% hooguit iets van 70 graden aan. Memory heb ik ook nog niet aan gezeten, eens kijken wat daar mogelijk is en wat dat oplevert.

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz

Pagina: 1 2 3 ... 11 Laatste

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True