CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 133 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 11 Laatste
Acties:
  • 59.937 views

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Hitman gaat blijkbaar gebruik maken van Async Shaders in DX12. Kijken of dat het spel beter laat lopen op AMD dan op Nvidia. We hebben tot nu toe alleen nog maar Ashes of Singularity als vergelijkingsmateriaal.
http://www.pureoverclock....-on-asynchronous-shaders/

[EDIT]
Meest recente benchmark van Ashes (Duits): http://www.computerbase.d...the-singularity-1920-1080

[ Voor 40% gewijzigd door LongBowNL op 11-02-2016 13:23 ]


  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 08:13
Dat laat ook meteen duidelijk zien dat AMD graag iets wilt doen met DX12 en Nvidia (nog) totaal niet....

Ook nog wel apart trouwens, RotTR en Hitman komen van twee verschillende studios maar worden wel beide uitgegeven door Square Enix. Lijkt dus hoofdzakelijk dat de studio bepaalt wat er wordt gebruikt en niet de ontwikkelaar. Volgens mij zit dit in het gebruik van verschillende engines.

Nu vraag ik mij ook af wat er gaat gebeuren met Deus Ex. Was daar nu al wat meer duidelijk van wat die gaat ondersteunen van DX12? Lijk dezelfde engine te gebruiken als Hitman.

[ Voor 74% gewijzigd door Zeara op 11-02-2016 11:50 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Maar niet graag genoeg om het in battlefront te stoppen.

Mechwarrior Online: Flapdrol


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
De stroombesparing zal op meerdere fronten zijn. Langzamer geheugen gecompenseerd door Delta Colour Compresion, 14nm, GCN 1.4/2.0/2.1 (of hoe tellen we?). Want +/-20% IPC is wellicht wat veel?

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
AMD zet even meer dan 93.000 regels code voor Linux klaar.
Zie: https://www.phoronix.com/...GPU-DAL-Patches-Published en https://www.phoronix.com/...x=Massive-DAL-Driver-Woes

Verder een interessante post van AMDMatt:
quote: AMDMatt
Nice one Kaap. Here's a fun fact for all your Fiji overclockers.

Fiji’s MCLK overdrives in discrete steps, so while various overclocking tools are increasing in 5Mhz steps the MCLK is actually only able to support 500.00/545.45/600.00/666.66MHz and right now it just rounds to the nearest step. If you are intending to overclock HBM on Fiji, then 545Mhz works well on all four of my Fury X cards. 600MHZ proved a step too far on each card and resulted in instability.

So for all those people setting their MCLK at 570Mhz, it's actually running at 545Mhz.
https://forums.overclocke...p=29045102&postcount=6977

Acties:
  • +1 Henk 'm!

Anoniem: 64119

LongBowNL schreef op vrijdag 12 februari 2016 @ 20:08:
AMD zet even meer dan 93.000 regels code voor Linux klaar.
Zie: https://www.phoronix.com/...GPU-DAL-Patches-Published en https://www.phoronix.com/...x=Massive-DAL-Driver-Woes

Verder een interessante post van AMDMatt:

Fiji’s MCLK overdrives in discrete steps, so while various overclocking tools are increasing in 5Mhz steps the MCLK is actually only able to support 500.00/545.45/600.00/666.66MHz and right now it just rounds to the nearest step. If you are intending to overclock HBM on Fiji, then 545Mhz works well on all four of my Fury X cards. 600MHZ proved a step too far on each card and resulted in instability.

So for all those people setting their MCLK at 570Mhz, it's actually running at 545Mhz.
[...]
https://forums.overclocke...p=29045102&postcount=6977
Zonde van het OC potentieel dat die stappen steeds groter (+45 +55 +66) worden naarmate hoger ipv kleiner wat logischer zou zijn. Beetje een alles of niks show dan. Dit moet beter kunnen, zelfs voor HBM.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik vermoed dat ze dat niet te kiezen hadden maar dat dat een technische beperking was door het gebruik van HBM.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 08-06 17:08

HP’s New Laptops to Feature AMD FreeSync Technology

AMD has announced that the new versions HP’s Envy 15z laptops - powered by the company’s latest-generation A-series APUs - will feature the FreeSync variable refresh rate technology. In addition, all of HP’s consumer notebooks powered by AMD’s latest APUs will also get FreeSync tech in the second half of the year.

At present, only Lenovo’s IdeaPad Y700 laptop based on AMD’s Carrizo APU and Radeon R9 M380 graphics processor supports the FreeSync technology for notebooks. In the coming months, HP plans to release a new version of its Envy 15z laptop featuring AMD’s Carrizo APUs and the FreeSync technology. The current-gen HP Envy 15z notebooks are powered by AMD’s A10-8700P APU with the Radeon R6 graphics or AMD FX-8800P APU with the Radeon R7 graphics. The systems feature 15.6-inch displays with 1366x768 or 1920x1080 resolution and have a premium metallic finish to stay true to their Voodoo DNA.
Lijkt een nette laptop ipv een budget oplossing :p.

Acties:
  • +1 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 05-06 15:38

Ultraman

Moderator Harde Waren

Boefje

Helaas wel 93k regels waarvan behoorlijk wat redundant/overbodig is of helemaal niet te integreren is in de huidige vorm. ;) Veel delen lijken zo uit de Catalyst driver te komen.

Desalniettemin ben ik heel blij met de support voor Linux van AMD. Ze hebben echt flinke sprongen gemaakt de afgelopen jaren en ik kan nu een Radeon kaart voor Linux voor normaal werk, HTPC en licht gamen aanraden als je van free software houd. Ethisch is het een stuk netter dan de nVidia driver.
Als je echt alles wilt kunnen ben je echter nog op nVidia aangewezen, de vraag is voor hoe lang nog ;)

Terug naar deze codedrop:
Er is aardig wat werk om deze DAL code te integreren in de driver en grafische subsysteem van de Linux kernel. Er is veel onduidelijkheid over wat de code op sommige plekken precies doet en veel dubbel functionaliteit of eigen oplossing voor dingen die centraler al geregeld worden of geregeld zouden kunnen worden.
In huidige staat zal het mogelijk in de staging tak komen, maar verder niet om echt in de Linux kernel opgenomen kunnen worden. Daar gaat vast aan gewerkt worden en dan wordt het nog code waar de andere drivers, zoals die van Intel, mogelijk ook wat aan hebben.

Maar het beloofd weer wat voor de toekomst. :)

[ Voor 12% gewijzigd door Ultraman op 13-02-2016 18:04 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Ziet er op zich strak uit, maar het zal allemaal afhangen vd kostprijs. Zolang OEM's en Retail de fors lagere inkoopprijs voor AMD based hardware niet doorberekenen aan de klant (maar het aanzienlijke verschil in eigen zak steken) blijft AMD spul te duur in de shops liggen waardoor het ook minder zal verkopen... ;w

Je ziet nu in Maedelmarkt en vergelijkbare clubs Intel en AMD based hardware voor vergelijkbare bedragen in de schappen liggen, dan kiezen mensen dus eerder voor Intel. Terwijl wanneer de AMD "versie" 50 tot 175 euro voordeliger is (afhankelijk vh totaalbedrag) dan de Intel versie, mensen de iets mindere accuduur voor lief nemen en met een grafisch krachtiger laptop naar huis gaan.
Komt het ooit zover :? Ik blijf tegen beter weten in, er op hopen......

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 08-06 09:12

SG

SG surft naar info hardewaren

madmaxnl schreef op woensdag 10 februari 2016 @ 11:38:
Ik zie niet in waarom nVidia of AMD na z'n lange stilstand op productie procedé zo een groot risico met een nieuw productie procedé zouden nemen. De stap is te groot om meteen een joekel van een complexe chip te produceren en dat succesvol te doen.

Niet voor niets lijkt het erop dat AMD i.i.g. eerst klein begint. Daarnaast is de "vertraging" van Gemini een indicatie dat AMD niet rond diezelfde tijd met een potente Polaris videokaart komt. Dat drukt elkaar waarschijnlijk de markt uit. Gemini zou daarmee alleen interessant zijn als je maar ruimte hebt voor een dikke videokaart.

En ik maar hopen dat AMD Fiji snel naar 14nm heeft gebracht en we die chip op Gemini terug gaan zien :Z :+
Nou risico is twee-delig. Grotere chip is grotere garantie op de kroon. Kleinere safe size is meer een keuze voor grotere kans op soepelere uitrol van je nieuwe chips op nieuwe procedé.
nvidia die dwangmatig altijd wel de kroon moet hebben zal sowieso een big chip produceren. afhankelijk hoe het uitrold. Zoals nV big vs AMD smal en zit weer eens mee dan kan de een na grootste tegen AMD performance chip gezet worden.

Big chip is economische commercieel niet rendabel. tenzij je de ruimte hebt om dat af te schrijven op marketing kosten voor prestige en imago van het hebben van de kroon.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
SG schreef op zaterdag 13 februari 2016 @ 23:01:
[...]

Big chip is economische commercieel niet rendabel. tenzij je de ruimte hebt om dat af te schrijven op marketing kosten voor prestige en imago van het hebben van de kroon.
Of je verkoopt hem voor ruim $1000. :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 08-06 17:08
Vond laatst dit channel die best goed onderbouwde video's plaatst over AMD/Nvidia kaarten.

Een goed punt wat hij maakt en wat veel andere techsites over het hoofd zien of zijn vergeten in Maxwell -> Pascal vs Polaris qua energie efficientie is het volgende.
Finally there’s the lowest of low level optimizations, which is transistor level optimizations. These optimizations are something of a secret sauce for NVIDIA, but they tell us they’ve gone through at the transistor level to squeeze out additional energy efficiency as they could find it. Given that TSMC 28nm is now a very mature process with well understood abilities and quirks, NVIDIA should be able to design and build their circuits to a tighter tolerance now than they would have been able to when working on GK107 and GK104 over 2 years ago.
http://www.anandtech.com/...-geforce-gtx-980-review/2

Een boel van die optimalisaties zijn niet direct poortbaar naar 14/16nm omdat dit een nieuw process is.

offtopic:
Lang leve zijn accent :D.

Acties:
  • +1 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Vulkan is out! Plus drivers voor Vulkan (LET OP! Hier zitten GEEN DirectX drivers bij!!! Het schijnt dat het een Vulkan driver toevoegt aan de huidige driver, maar nog steeds: Alleen downloaden als je dingen met Vulkan wilt gaan doen): http://support.amd.com/en...s/Radeon-Vulkan-Beta.aspx
Meer info van AMD: https://community.amd.com...r-the-vulkan-graphics-api

En natuurlijk een korte video


[EDIT]
Officiele link van Khronos: https://www.khronos.org/n...-vulkan-1-0-specification

[ Voor 31% gewijzigd door LongBowNL op 17-02-2016 10:16 . Reden: Waarschuwing toegevoegd ]


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 08-06 20:21

Trygve

Redacteur
In een eerste benchmark van Vulkan scoren de FuryX en 980ti gelijk op 720p, en op 1080p en 1440p verslaat de FuryX de 980ti: http://www.computerbase.d...n-api-in-talos-principle/

In deze benchmark is iedereen vooralsnog sneller onder DX11, en Vulkan is hier nog alpha in deze versie van Talos, dus misschien niet al teveel waarde aan hechten.

[ Voor 27% gewijzigd door Trygve op 16-02-2016 22:37 ]


  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Weer wat GPUs gespot op Zauba door VideoCardz: http://videocardz.com/583...nks-gpus-spotted-on-zauba

Ik ben het niet eens met hun voorspelling dat de high-end nog 28nm rebrands bevat...

[EDIT]
Hoe meer ik het lees, hoe minder vertrouwen ik krijg in de waarheid van de voorspelling. :X
Klinkt gewoon niet logisch... Ik verwacht eerder een 470(x) chip en een 480(x) chip voor Baffin en Weston.

[ Voor 34% gewijzigd door LongBowNL op 18-02-2016 17:01 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Je moet iets posten om clicks te vangen als het komkommertijd is.

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
En we weten dat de release pas richting de zomer is, dus inderdaad komkommertijd.

  • Countess
  • Registratie: April 2003
  • Laatst online: 30-04 16:03
LongBowNL schreef op donderdag 18 februari 2016 @ 16:55:
Ik ben het niet eens met hun voorspelling dat de high-end nog 28nm rebrands bevat...
ik ben het helemaal met je eens. het kan namelijk niet eens.

een mid range 16nm chips presteert zeker zo goed als de grootste 28nm chip die je redelijkerwijs nog zou kunnen maken, en is dan nog veel zuiniger en goedkoper.

met de komst van de eerste 16nm chip is 28nm gewoon compleet achterhaalt

mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Waarom hechten mensen nog waarde aan die site?

Ze zitten er 99% van de tijd gewoon naast; en die 1% is puur geluk, want als je 1000 posts maakt die gebaseerd zijn op de geweldige inzichten van je duim zijn er vast wel een paar die kloppen.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Je moet alleen dat Zauba plaatje bekijken, de rest is uit de duim gezogen. Al moet ik toegeven dat ik ook getriggered werd door de voorspellingen van de auteur. :X

[ Voor 37% gewijzigd door LongBowNL op 19-02-2016 13:27 . Reden: Trigger toegevoegd ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Uit die plaatjes kun je weinig uithalen als je geen ingenieur bij AMD bent die weet waar de codes voor staan en waar het product dat verscheept wordt voor bedoeld is. Dan kan je even goed een fotograaf bij AMD's ontwikkelcentra zetten en naargelang hoeveel high-fives de ingenieurs elkaar uitdelen bij het naar buiten gaan, gokken hoe goed hun resultaten zijn.

Straatje zonder einde, maar het blijft 100% clickbait, zoals de dagelijkse iPhone-geruchten. Om die reden negeer ik wcfftech tegenwoordig ook, het is overduidelijk dat hun site 100% clickbait is.

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 08-06 20:21

Trygve

Redacteur
Interessante undervolt-test met een Fury:
http://www.tomshardware.c...-radeon-r9-fury,4425.html
The Sapphire Radeon R9 Fury X Nitro's power consumption plummets from 279W all the way down to a much more moderate 213W. Of course, that only works when your GPU is willing to cooperate at such a low voltage.
En
The fact that AMD tends to set extremely high voltage targets for its graphics cards' GPUs can almost be considered standard at this point. Its strategy does maximize the number of GPUs that can be used, especially at the beginning of its production cycle, thereby increasing yield. However, as nice as that might be for AMD's bottom line, it does hurt the company's image with customers since they're the ones measuring higher power numbers and coping with more heat.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Interessant en inderdaad is dit gedaan voor zo hoog mogelijke yields te halen. Intel doet dit meer dynamisch en zo zijn niet alle Haswell CPUs voorzien van dezelfde standaard Vcore blijkbaar.

Acties:
  • 0 Henk 'm!
Dat is bij Intel sowieso al 10 jaar het geval, het hebben van verschillende VID's voor dezelfde CPU. Daarvoor zou ik het niet weten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ah ik dacht dat dit pas vanaf Haswell zo was. My bad.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Beetje PR https://twitter.com/Roy_t...00745825681428480/photo/1
Developers, we have something coming for you...:) @AMDDevCentral @FalconNW @AMDRadeon #VR #DX12

Afbeeldingslocatie: https://pbs.twimg.com/media/CbmMf2IVAAAyv1i.jpg

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 08-06 17:08
Mooie kleur rood en inderdaad reclame :p. Helemaal niet erg dat ze dat een keer proberen te doen.

Acties:
  • 0 Henk 'm!

  • Case_C
  • Registratie: Maart 2012
  • Laatst online: 22:53

Case_C

[Team Carrack]

De vraag is nu natuurlijk, wat gaat er in die rode kastjes zitten? Want nu zien we alleen een lege behuizing.

Lijkt mij dat ze hierin hun nieuwe Zen CPU en Polaris GPU stoppen zodat de dev's hierop kunnen optimaliseren? Het formaat beloofd in ieder geval wat voor de power consumptie van de nieuwe generatie AMD! :D

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:58

Damic

Tijd voor Jasmijn thee

Sp3ci3s8472 schreef op zondag 14 februari 2016 @ 13:38:
Vond laatst dit channel die best goed onderbouwde video's plaatst over AMD/Nvidia kaarten.
[video]
Een goed punt wat hij maakt en wat veel andere techsites over het hoofd zien of zijn vergeten in Maxwell -> Pascal vs Polaris qua energie efficientie is het volgende.

[...]

http://www.anandtech.com/...-geforce-gtx-980-review/2

Een boel van die optimalisaties zijn niet direct poortbaar naar 14/16nm omdat dit een nieuw process is.

offtopic:
Lang leve zijn accent :D.
Ai he's Scottish ya knaw O-)

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Case_C schreef op zaterdag 20 februari 2016 @ 17:39:
Het formaat beloofd in ieder geval wat voor de power consumptie van de nieuwe generatie AMD! :D
Dat kan wel meevallen, mijn R9 290X en Intel i5-4670K zitten in een 12L behuizing zonder ooit boven de 75°C te komen met de fans afgesteld om onhoorbaar te zijn tijdens idle en lage overlast bij volle belasting.
SFF, efficiënte indeling, goede heatsinks, beetje prutsen met fan profiles en met goede kwaliteit fans kom je ver om een stil maar klein high-end systeem te maken.

Afbeeldingslocatie: http://i.imgur.com/vSpO3A1.png

Afbeeldingslocatie: http://i.imgur.com/9fhdcHj.png

Afbeeldingslocatie: http://i.imgur.com/Zo9o4d4.png

Niet zo indrukwekkend, tenzij die rode kastjes dual-kaarten zouden bevatten natuurlijk :o

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Het is als het goed is de Tiki die werd aangekondigd bij VRLA. Daar zit een Fury X2 in.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op zondag 14 februari 2016 @ 13:38:
Vond laatst dit channel die best goed onderbouwde video's plaatst over AMD/Nvidia kaarten.
[video]

offtopic:
Lang leve zijn accent :D.
Thx. Mmm, voor mijn gevoel goede video's. Denk dat deze het ook wel goed zal doen hier:

Nvidia GameWorks - Game Over for You

Iemand die nog een beetje gaten kan schieten in zijn video's..... :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
Help!!!! schreef op zaterdag 20 februari 2016 @ 21:42:
[...]

Thx. Mmm, voor mijn gevoel goede video's. Denk dat deze het ook wel goed zal doen hier:

Nvidia GameWorks - Game Over for You

Iemand die nog een beetje gaten kan schieten in zijn video's..... :?
nope ik had dat channel ook al gespot en even de paar techvideo's doorgenomen die hij heeft maar ze lijken haast waterdicht.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 08:13
Help!!!! schreef op zaterdag 20 februari 2016 @ 21:42:
[...]
Iemand die nog een beetje gaten kan schieten in zijn video's..... :?
Hij noemt TW3 als voorbeeld. Ik weet niet of je die nog zou kunnen noemen.

Ja het liep allemaal ruk in het begin door hairworks (kon je volgens mij toen ook al uit zetten). Maar sinds de patch met extra opties voor Hairworks loopt het toch niet slechter op AMD dan Nvidia? Tuurlijk is de hit groter op AMD en was het idioot dat het op x64 stond met geen enkel visueel nut.
Bij loopt het (zonder hairworks) gewoon vloeiend met mijn 290x :)

Ik ben wel verbaasd over FO4. Ik kende de benchmark van die Russische site (was ten slotte hier gepost) en dat AMD beter liep. Maar dat Nvidia een hit heeft op al zijn kaarten... Zou leuk zijn als [H] of TPU FO4 nog eens zouden benchen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 08-06 17:08
Zeara schreef op maandag 22 februari 2016 @ 09:23:
[...]


Hij noemt TW3 als voorbeeld. Ik weet niet of je die nog zou kunnen noemen.

Ja het liep allemaal ruk in het begin door hairworks (kon je volgens mij toen ook al uit zetten). Maar sinds de patch met extra opties voor Hairworks loopt het toch niet slechter op AMD dan Nvidia? Tuurlijk is de hit groter op AMD en was het idioot dat het op x64 stond met geen enkel visueel nut.
Bij loopt het (zonder hairworks) gewoon vloeiend met mijn 290x :)

Ik ben wel verbaasd over FO4. Ik kende de benchmark van die Russische site (was ten slotte hier gepost) en dat AMD beter liep. Maar dat Nvidia een hit heeft op al zijn kaarten... Zou leuk zijn als [H] of TPU FO4 nog eens zouden benchen.
Hij kan het nog steeds noemen, er is namelijk wel in drivers te optimaliseren voor gimpworks alleen kost het veel meer tijd. Doordat je de source niet hebt kan je weer vanaf nul beginnen bij de volgende patch indien Nvidia iets in de tussentijd heeft verandert. Dat is het vervelende van zulke technieken, het is gewoon slecht voor de pc game markt.

Acties:
  • +2 Henk 'm!

Anoniem: 64119

@Zeara & Species8472:

Wanneer het allemaal even te veel word met die hardware & software ellende, neem dan gewoon even een ontspannende douche ,natuurlijk met Tress-FX Shampoo, en vergeet al jullie zorgen:
YouTube: Tomb Raider TressFX Shampoo
Nu ook in mouse verkrijgbaar !

Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Zeara schreef op maandag 22 februari 2016 @ 09:23:
[...]


Hij noemt TW3 als voorbeeld. Ik weet niet of je die nog zou kunnen noemen.

Ja het liep allemaal ruk in het begin door hairworks (kon je volgens mij toen ook al uit zetten). Maar sinds de patch met extra opties voor Hairworks loopt het toch niet slechter op AMD dan Nvidia? Tuurlijk is de hit groter op AMD en was het idioot dat het op x64 stond met geen enkel visueel nut.
Bij loopt het (zonder hairworks) gewoon vloeiend met mijn 290x :)

Ik ben wel verbaasd over FO4. Ik kende de benchmark van die Russische site (was ten slotte hier gepost) en dat AMD beter liep. Maar dat Nvidia een hit heeft op al zijn kaarten... Zou leuk zijn als [H] of TPU FO4 nog eens zouden benchen.
Feit is dat het lijkt alsof de game ruk draait op AMD in de performance reviews. Het maakt niet uit dat het daarna 'verholpen' wordt of dat het uitgezet kan worden. Het kwaad is al geschied, de massa gelooft de grafiekjes en zal zeggen; AMD zuigt en Nvidia is geweldig. Die modder is verdomt moeilijk van je naam af te halen; AMD kampt hier al jaren mee en Nvidia komt er gewoon mee weg.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
bluebear schreef op maandag 22 februari 2016 @ 11:59:
[...]


Feit is dat het lijkt alsof de game ruk draait op AMD in de performance reviews. Het maakt niet uit dat het daarna 'verholpen' wordt of dat het uitgezet kan worden. Het kwaad is al geschied, de massa gelooft de grafiekjes en zal zeggen; AMD zuigt en Nvidia is geweldig. Die modder is verdomt moeilijk van je naam af te halen; AMD kampt hier al jaren mee en Nvidia komt er gewoon mee weg.
Alle sites die ik gezien heb hadden hairworks uit staan bij hun tests. En het draaide niet ruk op amd, op 1080p bleven ze achter, maar op 2560x1440 gingen ze ongeveer gelijk op.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 64119

bluebear schreef op maandag 22 februari 2016 @ 11:59:
[...]
Feit is dat het lijkt alsof de game ruk draait op AMD in de performance reviews. Het maakt niet uit dat het daarna 'verholpen' wordt of dat het uitgezet kan worden. Het kwaad is al geschied, de massa gelooft de grafiekjes en zal zeggen; AMD zuigt en Nvidia is geweldig. Die modder is verdomt moeilijk van je naam af te halen; AMD kampt hier al jaren mee en Nvidia komt er gewoon mee weg.
Daarnaast zijn er ook nog mensen die er een betaalde dagtaak aan hebben om AMD te bekritiseren.
Vriend ashraf op seeking alpha is slechts 1 voorbeeld, hier op tnet komen ze ook met enige regelmaat voorbij.

AMD heeft helaas niet de middelen om zich hier goed tegen te verdedigen.
Nvidia schijnt het via omwegen te doen, ze doen maar.
Ws heeft nvidia een kelder vol met "bad karma". (net als Intel)

trm0001 blijft geloven in de betere mentaliteit van AMD en dat zich dat een keer gaat vertalen in veel betere resultaten, zowel op video prestaties als puur reken gebied. O-)

Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:27

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Zeara schreef op maandag 22 februari 2016 @ 09:23:
[...]


Hij noemt TW3 als voorbeeld. Ik weet niet of je die nog zou kunnen noemen.

Ja het liep allemaal ruk in het begin door hairworks (kon je volgens mij toen ook al uit zetten). Maar sinds de patch met extra opties voor Hairworks loopt het toch niet slechter op AMD dan Nvidia? Tuurlijk is de hit groter op AMD en was het idioot dat het op x64 stond met geen enkel visueel nut.
Bij loopt het (zonder hairworks) gewoon vloeiend met mijn 290x :)

Ik ben wel verbaasd over FO4. Ik kende de benchmark van die Russische site (was ten slotte hier gepost) en dat AMD beter liep. Maar dat Nvidia een hit heeft op al zijn kaarten... Zou leuk zijn als [H] of TPU FO4 nog eens zouden benchen.
TW3 draait ook niet zo zeer om de scheiding tussen AMD en Nvidia (hieronder meer), maar meer om wat Hairworks daar doet. Het draait tessellation met 64 samples op objecten die dusdanig klein zijn dat in elk geval zakken naar 8 samples al geen IQ meer kost.

En het is niet nieuw, sinds Nvidia ook tessellation doet zijn ze er ook keihard op ingesprongen, tot op het onzinnige aan toe. Alles draait standaard gewoon met 64 samples in de hele GameWorks kit, iets waar we al 6 jaar van weten dat je reinste onzin is. Zelfs op grote objecten die relatief dicht bij de camera staan, is er tussen 16 en 32 samples al amper iets te zien, totdat je flink in gaat zoomen; laat staan 64 samples. In 90% van de situaties waar je tessellation wil toepassen zijn tussen de 4 en 16 samples wat je nodig hebt om het visueel het effect te geven waar je naar op zoek bent. Daarboven is het niet of nauwelijks zichtbaar.

Daarom is aan of uit dus ook gewoon bullshit. AMD heeft er de GPGPU power voor, ze hebben alleen niet zoals Nvidia een massaal aantal tessellators in gebakken. AMD heeft er 4 (1 per geometry engine; Hawaii en Fiji hebben beide 4 GE's, Tahiti volgens mij ook maar dat weet ik niet 100% zeker), Nvidia heeft er maar liefst 24 in GM200 (16 in GM204; 1 per Polymorph Engine en elke SMM heeft 1 PE). AMD's GE's in hun geheel zijn wel efficiënter dan Nvidia's PE's, maar als het specifiek op tessellation aan komt heb je het gewoon keihard over 4 poly's per tik tegenover 24 per tik. Nvidia kan dat gewoon 4-6 keer sneller verwerken. Wellicht had AMD meer tessellators in moeten bakken, maar ze hebben blijkbaar besloten dat ze die ruimte niet op willen geven. Nvidia boeit dit allemaal geen reet, die bruteforcen al jarenlang door allerlei dingen heen.

Dat is waarom ze tot Maxwell zulke grote GPU's moesten bakken. Dat was gewoon noodzaak. Bewijs is ook niet lastig te vinden, je hoeft maar Cypress/Fermi te bekijken, of Tahiti tegenover GK104 (680/770) en zelfs GK110 (780/Titan). Wat AMD met Cypress deed was gewoon belachelijk goed, ondanks de 5D shaders waar gewoon 20-40% onbruikbaar van was in de meeste workloads. Maar ook met Tahiti is het niet lastig te zien. Vergeleken met GK104 is hij iets groter (352 vs 294), maar kijk je dan naar de prestaties met GPGPU workloads zie je dat meer dan terug. Dat kreeg Nvidia toen nog niet voor elkaar; GK110 was maar liefst 561mm^2 en toch hield Tahiti die chip eigenlijk probleemloos bij. Alleen DP uiteraard niet (vergeleken met Titan; op een 780 had Nvidia dat beperkt om niet de wind uit hun eigen zeilen te nemen). Maar wil AMD vervolgens gebruik maken van die GPGPU kracht, krijg je een hoop gejank van mensen die een GK104 hebben gekocht zonder te beseffen dat Nvidia dat ding tot het niveau van Fermi heeft moeten castreren om hem zo klein te krijgen 8)7


Daar komt bij dat Nvidia zich pas laat in TW3 heeft gekocht; daarvóór heeft CDPR dus gewoon voor beide geoptimaliseerd. Wel is alles iets naar beneden bij gesteld tegenover de vroege E3 beelden, maar de engine produceert alsnog mooie beelden. AMD kan Nvidia hier bij houden omdat ze zo veel rauwe render kracht hebben (ondanks hun baggere DX11 driver!). Ook dit is niets nieuws.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Orginele bron voor men die niet op WCCFTech links wil klikken: http://news.lenovo.com/ne...blet-and-yoga-laptops.htm

(Edit: Link naar Tweakers artikel: nieuws: Lenovo introduceert Yoga-laptop met smalle schermranden)

Belangrijkste citaat:
Powered by up to 6th Gen Intel Core i7 processors with optional AMD® Radeon™ R7 M460 2GB GFX, the YOGA 5101 has serious performance chops for working and multitasking.
Ik weet niet in hoeverre dit al 14nm chips kunnen zijn.

[EDIT]
Volgens Ryan Smith van Anandtech is het een rebrand. (Gebeurt veel te vaak in laptop land :( )

[ Voor 25% gewijzigd door LongBowNL op 22-02-2016 16:56 ]


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 24-05 17:33

Racing_Reporter

Contentmaker

Het klinkt me niet als rebranding in de oren Longbow..? Als ze gaan voor batterylife, dan lijkt het me dat ze er de nieuwste generatie in stoppen.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Voor notebooks is rebrands eerder regel dan uitzondering, van beide partijen. Het zou me onwaarschijnlijk lijken zouden ze beginnen met notebooks om Polaris te onthullen.

Acties:
  • 0 Henk 'm!

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
haarbal schreef op maandag 22 februari 2016 @ 12:48:
[...]

Alle sites die ik gezien heb hadden hairworks uit staan bij hun tests. En het draaide niet ruk op amd, op 1080p bleven ze achter, maar op 2560x1440 gingen ze ongeveer gelijk op.
Ik heb het hier ook niet uitsluitend over HW. Een ander aspect is day 1 drivers van Nvidia doordat zij early access hebben terwijl AMD geen access krijgt en dus pas later kan optimaliseren. De meerderheid heeft geen idee wat er gaande is achter de schermen en AMD krijgt hier een slechte naam door...

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
bluebear schreef op maandag 22 februari 2016 @ 21:03:
[...]
Ik heb het hier ook niet uitsluitend over HW. Een ander aspect is day 1 drivers van Nvidia doordat zij early access hebben terwijl AMD geen access krijgt en dus pas later kan optimaliseren. De meerderheid heeft geen idee wat er gaande is achter de schermen en AMD krijgt hier een slechte naam door...
Bij de witcher 3 hadden ze gewoon acces hoor. Die day1 drivers zijn gewoon een bullshit marketingtruuk van nvidia, bij grote titels zitten er veel optimalisaties in, maar bij het gros kan je net zo goed een ouwe driver gebruiken volgens mij.

Of het wat beter draait op nvidia of amd ligt volgens mij meer aan wat de dev doet, bij veel gedetailleerde objecten draait het beter op nvidia, als het vooral grote fancy belichte vlakken zijn draait het beter op amd.

Bij mij heeft amd ook geen slechte naam. Momenteel hebben ze met de 390 een mooi aanbod qua price/performance, met overkill 8GB memory _/-\o_ . Alle andere amd en nvidia kaarten zijn ruk nu de euro/dollar koers in ons nadeel werkt.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Mirage
  • Registratie: Februari 2001
  • Laatst online: 07-06 21:51
Snip

Even een semi-opmerking/vraag hier neerplempen. Ik ben gewoon op zoek naar een goede videokaart. of dit Nvidia of AMD is maakt mij niet uit. ik ben mij hier sinds korte tijd dus weer even in aan het verdiepen.

Snip

Modbreak:Wat was hier onduidelijk aan?

Aankoopadvies vragen mag weer.. (maar lees eerst dit!)

Dit is een info & nieuwsdiscussietopic, geen plek om offtopic vragen over wat te kopen neer te plempen :o

[ Voor 84% gewijzigd door dion_b op 23-02-2016 15:14 ]

https://www.afrikareisopmaat.nl


Acties:
  • 0 Henk 'm!

  • daffie82
  • Registratie: November 2005
  • Laatst online: 00:32

daffie82

Minisforum UM773 Lite

Niet zeker of dit het goede topic is maar ik probeer het.

Snip

Modbreak:Nee dus. Voortaan als je het niet zeker weet navragen voor je lukraak een post ergens dumpt. Of gewoon even de moeite nemen om de sticky topics bovenaan het subforum te lezen: Aankoopadvies vragen mag weer.. (maar lees eerst dit!)

[ Voor 94% gewijzigd door dion_b op 23-02-2016 15:16 ]

LG OLED65G1RLA / Samsung HW-Q990D / Sony UBP-X800M2 / Ugoos AM6B+ (CE with CPM Build) / Bluesound Node 2 / Redmi Note 12 Pro+ v2.0.2.0 (UMOEUXM)


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 02:42

dion_b

Moderator Harde Waren

say Baah

Modbreak:Even wat offtopic-replies verwijderd. Dit is geen aankoopadviestopic :o

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 08-06 20:21

Trygve

Redacteur
FWIW: Op Reddit zegt AMD's Gaming Community Manager over Crimson 16.2:
I have a feeling, you guys are gonna be very happy with this release.

That's all I am going to say.

When it is released, let's see if I am right.
Ik ben benieuwd. Wat zien jullie graag in de volgende driver?

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
r100 schreef op dinsdag 23 februari 2016 @ 19:44:
FWIW: Op Reddit zegt AMD's Gaming Community Manager over Crimson 16.2:


[...]


Ik ben benieuwd. Wat zien jullie graag in de volgende driver?
In ieder geval CCC functionaliteit geintegreed worden met Crimson, vooral de kleuren controls.
En dan liefst nog uitgebreider ala SweetFx/Reshade.

En gratis Gameworks support.

Maar ik denk however dat dit niet de verrassing gaat worden.

[ Voor 3% gewijzigd door enchion op 23-02-2016 19:58 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 08:13
r100 schreef op dinsdag 23 februari 2016 @ 19:44:
FWIW: Op Reddit zegt AMD's Gaming Community Manager over Crimson 16.2:

Ik ben benieuwd. Wat zien jullie graag in de volgende driver?
Eentje zonder rare fratsen bij bepaalde mensen. Gewoon een vlekkeloze driver release.

Ik heb zelf nooit problemen gehad met drivers van AMD, maar dat soort grapjes zoals dat fan probleem bij de vorige keer helpt gewoon niet mee om van het stereotiep slechte drivers (wat natuurlijk gewoon onzin is) af te komen.

Verder, een leuke boost in games is altijd welkom natuurlijk.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

r100 schreef op dinsdag 23 februari 2016 @ 19:44:
FWIW: Op Reddit zegt AMD's Gaming Community Manager over Crimson 16.2:


[...]


Ik ben benieuwd. Wat zien jullie graag in de volgende driver?
Ik ben benieuwd :)

- meer perf voor (CF-Fury);
- geen fluctuerende core frequenties, bij mij voornamelijk op 5K;
- CF profielen voor UE4 (games) in d3d11 en Dx12, Vulkan;
- werkende CF crimsonsettings voor overriden van voorgedefinieerde CF profielen (ik heb nu nog het
oude CCC nodig voor 16.1.1)., een must voor 3 games met enb injectors/wrappers
- meer CF profielen, Rainbox Six Siege, Soma, the Devision;
- HMB compressie optimalisaties?

Dit was het wel zo'n beetje :D

Niet op voorraad.


Acties:
  • 0 Henk 'm!
Zeara schreef op dinsdag 23 februari 2016 @ 20:11:
[...]


Eentje zonder rare fratsen bij bepaalde mensen. Gewoon een vlekkeloze driver release.
Dat is gewoon onmogelijk, een videokaart driver is zo uitgebreid en je bent ook van zoveel factoren afhankelijk dat het onmogelijk is een foutloze driver te maken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 08:13
-The_Mask- schreef op dinsdag 23 februari 2016 @ 22:39:
[...]

Dat is gewoon onmogelijk, een videokaart driver is zo uitgebreid en je bent ook van zoveel factoren afhankelijk dat het onmogelijk is een foutloze driver te maken.
Maar zoiets als een fan die blijft hangen op 20% zou toch wel te voorkomen moeten zijn? En op zoiets doel ik hoofdzakelijk.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 08-06 17:08
Zeara schreef op woensdag 24 februari 2016 @ 07:21:
[...]


Maar zoiets als een fan die blijft hangen op 20% zou toch wel te voorkomen moeten zijn? En op zoiets doel ik hoofdzakelijk.
Dit was alleen in gevallen waar men zelf ging overclocken via de AMD driver en dus ook iets aan de fanspeed had verandert. Volgens mij heeft dit geen invloed gehad op 99% van de gebruikers.

Mag natuurlijk niet voorkomen maar het is minder ernstig dan iedereen doet overkomen.

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 08:13
Sp3ci3s8472 schreef op woensdag 24 februari 2016 @ 10:39:

Mag natuurlijk niet voorkomen maar het is minder ernstig dan iedereen doet overkomen.
Daar ben ik mij van bewust. Ik had zelf ook geen problemen en zoals je al zei 99% van de gebruikers ook niet.

Maar dit is het internet en als er ergens iemand op Reddit gaat lopen schreeuwen dat zijn GPU kapot is gegaan doordat zijn GPU fan blijft hangen. Dan springt iedereen er boven op. En dan blijft het hangen, en dit keer was het natuurlijk pijnlijker omdat het de nieuwe Crimson drivers waren. En dan komt AMD nooit van het driver gebeuren af.

Nvidia kan gewoon met meer weg komen...

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
Zeara schreef op woensdag 24 februari 2016 @ 10:48:
[...]


Daar ben ik mij van bewust. Ik had zelf ook geen problemen en zoals je al zei 99% van de gebruikers ook niet.

Maar dit is het internet en als er ergens iemand op Reddit gaat lopen schreeuwen dat zijn GPU kapot is gegaan doordat zijn GPU fan blijft hangen. Dan springt iedereen er boven op. En dan blijft het hangen, en dit keer was het natuurlijk pijnlijker omdat het de nieuwe Crimson drivers waren. En dan komt AMD nooit van het driver gebeuren af.

Nvidia kan gewoon met meer weg komen...
nvidea kan idd overal mee wegkomen, vooral omdat hun fanboys super koppig en blind zijn ;p Maar ik snap nog steeds niet hoe een gpu 123 kapot gaat aan oververhitting, hij valt toch gewoon uit op 100-110 graden?

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Hij zal er idd niet kapot van gaan, ik heb überhaupt niet het idee dat moderne chips kapot gaan aan oververhitting. Maar de VRM's kunnen natuurlijk wel de geest geven, ik weet niet of deze überhaupt tegen oververhitting beveiligd zijn.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

aminam schreef op woensdag 24 februari 2016 @ 12:11:
[...]


nvidea kan idd overal mee wegkomen, vooral omdat hun fanboys super koppig en blind zijn ;p Maar ik snap nog steeds niet hoe een gpu 123 kapot gaat aan oververhitting, hij valt toch gewoon uit op 100-110 graden?
Niet per se, dat is afhankelijk van het hele samenspel van hardware en software.
Zit er ergens een hiaat dan loop je dus risico op schade.

Wanneer de oververhitting snel genoeg gaat helpt niets meer......

Acties:
  • 0 Henk 'm!
spNk schreef op woensdag 24 februari 2016 @ 12:50:
Hij zal er idd niet kapot van gaan, ik heb überhaupt niet het idee dat moderne chips kapot gaan aan oververhitting. Maar de VRM's kunnen natuurlijk wel de geest geven, ik weet niet of deze überhaupt tegen oververhitting beveiligd zijn.
Normaal gesproken is een VRM er ook tegen beveiligd.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Anoniem: 64119 schreef op woensdag 24 februari 2016 @ 12:51:
Wanneer de oververhitting snel genoeg gaat helpt niets meer......
Dat zal hoogstens gebeuren bij het gebruik zonder heatsink (dus helemaal geen koeler).
Aan de andere kant heb ik ook wel eens gezien dat een Intel CPU rustig werkt zonder koeler, althans het systeem start op waarna de bios geeft dat deze 92C is (koeler was bij verplaatsen schijnbaar eraf gevallen, onjuist gemonteerd lijkt me. Was niet mijn PC). Verder niets aan de hand.

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
spNk schreef op woensdag 24 februari 2016 @ 13:19:
[...]

Dat zal hoogstens gebeuren bij het gebruik zonder heatsink (dus helemaal geen koeler).
Aan de andere kant heb ik ook wel eens gezien dat een Intel CPU rustig werkt zonder koeler, althans het systeem start op waarna de bios geeft dat deze 92C is (koeler was bij verplaatsen schijnbaar eraf gevallen, onjuist gemonteerd lijkt me. Was niet mijn PC). Verder niets aan de hand.
vaak staat cpu_fan monitoring wel aan, als die niet herkend wordt krijgen veel mensen dus wel een no fan connected foutmelding. Tenzij ze die op ignore hebben staan natuurlijk

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Zeara schreef op woensdag 24 februari 2016 @ 10:48:
[...]


Daar ben ik mij van bewust. Ik had zelf ook geen problemen en zoals je al zei 99% van de gebruikers ook niet.

Maar dit is het internet en als er ergens iemand op Reddit gaat lopen schreeuwen dat zijn GPU kapot is gegaan doordat zijn GPU fan blijft hangen. Dan springt iedereen er boven op. En dan blijft het hangen, en dit keer was het natuurlijk pijnlijker omdat het de nieuwe Crimson drivers waren. En dan komt AMD nooit van het driver gebeuren af.

Nvidia kan gewoon met meer weg komen...
Tja de consument ziet niet graag dat zijn aankoop een miskoop was. Er zijn ook genoeg consumenten die bijvoorbeeld een Renault kopen en vervolgens elke maand een oranje service lampje krijgen. Vervolgens kopen ze 3 jaar later gewoon weer een Renault. Geldt voor AMD ook hoor. Je hoeft in het algemeen niet ver te zoeken in topics als deze om blind fanatisme tegen te komen :P. In een ideale wereld zou er één videokaarten nieuwstopic zijn waar puur rationeel wordt gediscussieerd.

Verder is de GTX 970 is misschien wel Nvidia's meest succesvolle kaart ooit. Het is een vrij dure kaart die toch al maanden bovenaan de steam hardware survey staat. Vanuit een achterstand heb je een superieur product nodig. Een kaart als de Sapphire R9 390 kan zich in ieder geval meten. Performance is goed en er is ook gedacht is aan features als idle fans off. Echter die kaarten zijn veel te laat gekomen. Een maand of 12 na de GTX 970... Dan heeft iedereen al een GTX 970 en reden om te upgraden is een R9 390 niet.

Overigens is er nog altijd werk aan de winkel van de R9 390 is geen optie voor iemand met een Multi monitor setup. Hier in het "westen" zijn dat er aardig wat.
Afbeeldingslocatie: https://tpucdn.com/reviews/Sapphire/R9_390_Nitro/images/power_multimon.png

Met betrekking tot de reputatie: Met Crimson heeft AMD zichzelf in de voet geschoten. Alles was erop gericht om de driver reputatie van AMD op te poetsen.

Als we eerlijk zijn is er ook gewoon veel om te klagen over de drivers bij AMD. De GUI was een bouwsel van elementen van de Microsoft Visual studio software. Verder werd er vaker wel dan niet "beta" op geplakt wat inferieuriteit uitstraalt. Ook duurde het vaak weken voor er hotfixes voor bepaalde populaire games uitkwamen. Inhoudelijk bleken de drivers ook niet goed te zijn. We hebben een paar jaar geleden eerst frametime gate gehad waarin bleek dat AMD totaal niet op framepacing lette en daardoor dus per definitie een slechtere spelervaring boden. Crossfire bleek bovendien niet te werken:
Afbeeldingslocatie: http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/run.stats__2.png.
For SLI and CrossFire though, there isn’t even a debate and the real-world value of adding a second HD 7970 to your system is near zero. That’s a tough pill to swallow for any gamers out there with two cards already in their system and I expect we will get some hate-fueled email and comments on the subject but the data is true and matches our game play testing experiences.
Aan de frametimes is hard gewerkt, wat aangeeft hoe belangrijk drivers zijn. AMD heeft zelfs de "uitvinder" in dienst genomen: http://www.pcper.com/news...s-Scott-Wasson-Leaves-AMD. Echter recentelijk is weer aangetoond dat AMD niet efficient met DX11 om gaat. Ook weer een klap op de neus voor de reputatie van de AMD drivers. Er zijn vast nog meer oorzaken aan te wijzen maar dit lijkt me even voldoende om aan te geven dat er het daadwerkelijk keuzes van AMD zijn die een slechte reputatie veroorzaken. Er zit geen illuminati complot achter...

AMD ziet dat nu zelf ook in en het resultaat is Crimson. Crimson was dus cruciaal om met een schone lei te beginnen. Vervolgens laten ze zo'n grote fout zitten en dat is niets anders dan stom te nomen. De manager die daar verantwoordelijk voor is (voor de te vroege launch) kunnen ze beter ontslaan.

[ Voor 11% gewijzigd door sdk1985 op 24-02-2016 14:53 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Persoonlijk geloof ik niks van dat verhaal dat Crimson kaarten gemold zou hebben. De enige bron daarvoor zijn een paar onbekende namen op reddit, niemand anders heeft dat kunnen reproduceren en zeker geen onafhankelijke partij. Zoals gezegd zijn die kaarten sinds jaar en dag op allerlei manier beveiligd tegen oververhitting. Dat fan probleem kan daardoor op z'n ergst tot spontaan uitval leiden (bij oververhitting schakelt de beveiliging de hele boel uit) maar dat is het wel zo'n beetje. Ik snap persoonlijk ook niet waarom techsites die prat gaan op serieuze journalistiek dat soort geruchten rücksigtlos plaatsen. Dat soort dingen hoor je te verfiëren.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
aminam schreef op woensdag 24 februari 2016 @ 13:47:
[...]


vaak staat cpu_fan monitoring wel aan, als die niet herkend wordt krijgen veel mensen dus wel een no fan connected foutmelding. Tenzij ze die op ignore hebben staan natuurlijk
De complete (tower) koeler lag onderin de kast.

Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 06-06 11:42
Tsja, weet je wat het is. Iedere fabrikant heeft wel vage quirks in zijn drivers zitten. Tot nu toe is er geen 1 videokaart fabrikant waarbij ik geen driver gezeik heb gehad. Allemaal hadden ze weleens een probleem Nvidia, Matrox, Intel, AMD allemaal...helaas spreek ik uit ervaring :'(

Ze maken er allemaal een potje van :P
Ooit een Nvidia kaart gehad, ding deed het opzich prima. Toen kwam SimCity 3000...crash..driver maar eens updaten...Simcity doet het *O* maar nu werkt Tv-out niet meer -O- ...
Terug naar oude driver Tv-out doet het weer *O* maar SimCity niet meer -O-
Intel chips en beamers, begin er niet over, altijd resolutie gezeik, scaling die niet werkt etc. Vroeger waren er ook gewoon genoeg games die crashde met Intel drivers _O-

Computer says no


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
Meekoh schreef op woensdag 24 februari 2016 @ 17:16:
[...]

Tsja, weet je wat het is. Iedere fabrikant heeft wel vage quirks in zijn drivers zitten. Tot nu toe is er geen 1 videokaart fabrikant waarbij ik geen driver gezeik heb gehad. Allemaal hadden ze weleens een probleem Nvidia, Matrox, Intel, AMD allemaal...helaas spreek ik uit ervaring :'(

Ze maken er allemaal een potje van :P
Ooit een Nvidia kaart gehad, ding deed het opzich prima. Toen kwam SimCity 3000...crash..driver maar eens updaten...Simcity doet het *O* maar nu werkt Tv-out niet meer -O- ...
Terug naar oude driver Tv-out doet het weer *O* maar SimCity niet meer -O-
Intel chips en beamers, begin er niet over, altijd resolutie gezeik, scaling die niet werkt etc. Vroeger waren er ook gewoon genoeg games die crashde met Intel drivers _O-
Volgens mij waren de nvidea 4**m of 5**m de eersten met optimus waardoor je laptop effectiver ging switchen tussen intel en dedicated graphics maar dat was in het begin ook super super buggy. God zij dank dat dell geen videokaarten maakt, ik krijg al koppijn aan de gedachten en dat is niet alleen omdat ik al koppijn heb..

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Meekoh schreef op woensdag 24 februari 2016 @ 17:16:
[...]

Tsja, weet je wat het is. Iedere fabrikant heeft wel vage quirks in zijn drivers zitten. Tot nu toe is er geen 1 videokaart fabrikant waarbij ik geen driver gezeik heb gehad. Allemaal hadden ze weleens een probleem Nvidia, Matrox, Intel, AMD allemaal...helaas spreek ik uit ervaring :'(

Ze maken er allemaal een potje van :P
Ooit een Nvidia kaart gehad, ding deed het opzich prima. Toen kwam SimCity 3000...crash..driver maar eens updaten...Simcity doet het *O* maar nu werkt Tv-out niet meer -O- ...
Terug naar oude driver Tv-out doet het weer *O* maar SimCity niet meer -O-
Intel chips en beamers, begin er niet over, altijd resolutie gezeik, scaling die niet werkt etc. Vroeger waren er ook gewoon genoeg games die crashde met Intel drivers _O-
Intel video drivers zijn nog een graadje erger inderdaad...

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 08-06 16:57

Kuusj

Ofwel varken in 't Limburgs

Anoniem: 64119 schreef op woensdag 24 februari 2016 @ 12:51:
[...]

Niet per se, dat is afhankelijk van het hele samenspel van hardware en software.
Zit er ergens een hiaat dan loop je dus risico op schade.

Wanneer de oververhitting snel genoeg gaat helpt niets meer......
Ik heb nu dus een GTX 970, en verwachtte door het lage energieverbruik ook lekker koele VRM's te hebben. Nee dus, onder Furmark worden ze zonder pardon 116 graden, onder gaming load worden ze zo'n 108-110 graden. Naar de Asus support geschreven met een uitgebreid verhaal, krijg ik een generiek antwoord terug dat ik te weinig airflow heb, nou goed, uitgelegd dat dit niet het geval is. Krijg ik een mail terug dat als ik het niks vind ik hem maar terug moet sturen, maar dat het normaal is.

Met alle respect voor de Asus support, maar mijn 280X (overigens ook van Asus..) is kapotgegaan door te warme VRM's, en die werden niet warmer dan 80 graden. Ik weet niet hoe het bij nVidia kaarten zit, maar het lijkt me niet dat VRM's op nVidia kaarten magisch veel beter tegen warmte kunnen.

Nou goed, als Asus over een jaar weer een kaart RMA wil moet ze dat vooral zelf weten, ik ga echt niet weer een maand wachten tot ie terug is terwijl ik het ding een half jaar heb. Dan gaat het ding maar kapot en koop ik een nieuwe terwijl de oude in RMA zit. Wil eigenlijk toch terug naar AMD, ik kan nVidia Surround niet uitstaan, en buiten dat is mijn uitstapje naar het groene kamp eigenlijk ontstaan met de vraag bij mijzelf of nVidia dan echt "zoveel beter" is volgens de welbekende fanboy's. Tot nu toe valt dat vies tegen, buiten het geluid, warmte en verbruik dan.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!
80 graden voor een VRM is gewoon niet warm, daarvan gaan ze niet zo maar stuk, als je VRM al stuk is zal dat waarschijnlijk een andere reden hebben gehad of het VRM werd veel warmer.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
kuusj98 schreef op woensdag 24 februari 2016 @ 17:56:
[...]

Ik heb nu dus een GTX 970, en verwachtte door het lage energieverbruik ook lekker koele VRM's te hebben. Nee dus, onder Furmark worden ze zonder pardon 116 graden, onder gaming load worden ze zo'n 108-110 graden. Naar de Asus support geschreven met een uitgebreid verhaal, krijg ik een generiek antwoord terug dat ik te weinig airflow heb, nou goed, uitgelegd dat dit niet het geval is. Krijg ik een mail terug dat als ik het niks vind ik hem maar terug moet sturen, maar dat het normaal is.

Met alle respect voor de Asus support, maar mijn 280X (overigens ook van Asus..) is kapotgegaan door te warme VRM's, en die werden niet warmer dan 80 graden. Ik weet niet hoe het bij nVidia kaarten zit, maar het lijkt me niet dat VRM's op nVidia kaarten magisch veel beter tegen warmte kunnen.

Nou goed, als Asus over een jaar weer een kaart RMA wil moet ze dat vooral zelf weten, ik ga echt niet weer een maand wachten tot ie terug is terwijl ik het ding een half jaar heb. Dan gaat het ding maar kapot en koop ik een nieuwe terwijl de oude in RMA zit. Wil eigenlijk toch terug naar AMD, ik kan nVidia Surround niet uitstaan, en buiten dat is mijn uitstapje naar het groene kamp eigenlijk ontstaan met de vraag bij mijzelf of nVidia dan echt "zoveel beter" is volgens de welbekende fanboy's. Tot nu toe valt dat vies tegen, buiten het geluid, warmte en verbruik dan.
Je schrijft je probleem toe aan Nvidia, maar het zit hem in de Strix kaart van Asus. De stock kaarten hebben een blower en andere vendors hebben er zo ver ik weet ook geen last van (denk aan de populaire MSI met hun Twin Frozr). Los daarvan zou hij volgens de reviews niet abornaal warm worden. http://www.guru3d.com/art...x_970_strix_review,9.html Toch kwam ik op het Asus forum en forum inderdaad wat meldingen tegen dat hij wel erg warm wordt.

Asus moet altijd iets aparts doen. Asus support is inderdaad een drama. Als je daar om geheugentimings vraagt dan komen ze met dat je een RMA kan aanvragen. Ik koop al jaren geen spullen van Asus meer. Maakt niet uit of dat nu een AMD, Nvidia of moederbord betreft. Over de spin-off Asrock ben ik wel te spreken (en over MSI).

[ Voor 18% gewijzigd door sdk1985 op 24-02-2016 18:13 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 59888 schreef op woensdag 24 februari 2016 @ 16:08:
Persoonlijk geloof ik niks van dat verhaal dat Crimson kaarten gemold zou hebben. De enige bron daarvoor zijn een paar onbekende namen op reddit, niemand anders heeft dat kunnen reproduceren en zeker geen onafhankelijke partij. Zoals gezegd zijn die kaarten sinds jaar en dag op allerlei manier beveiligd tegen oververhitting. Dat fan probleem kan daardoor op z'n ergst tot spontaan uitval leiden (bij oververhitting schakelt de beveiliging de hele boel uit) maar dat is het wel zo'n beetje. Ik snap persoonlijk ook niet waarom techsites die prat gaan op serieuze journalistiek dat soort geruchten rücksigtlos plaatsen. Dat soort dingen hoor je te verfiëren.
In theorie maakt de temperatuur niets uit (tot een bepaald punt). De praktijk lijkt toch anders te zijn. Als je een kaart niet goed onderhoud kan het weleens slecht aflopen. Als je een blower kaart hebt en er zit een laagje stof voor het "doolhof" dan kan dat zo 30 graden schelen. Je kaart koelt dan eigenlijk niet meer.

Je hoort het ook weleens over games die een gpu zogenaamd slopen. Zo was er bijvoorbeeld wat ophef over Starcraft 2 die geen framerate limiter in het hoofdmenu had, maar wel je gpu 99% belastte. http://www.dailytech.com/...rary+Fix/article19224.htm

[ Voor 5% gewijzigd door sdk1985 op 24-02-2016 19:14 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AnandTech: Ashes of the Singularity Revisited: A Beta Look at DirectX 12 & Asynchronous Shading
sdk1985 schreef op woensdag 24 februari 2016 @ 14:45:
[...]

Verder is de GTX 970 is misschien wel Nvidia's meest succesvolle kaart ooit. Het is een vrij dure kaart die toch al maanden bovenaan de steam hardware survey staat. Vanuit een achterstand heb je een superieur product nodig. Een kaart als de Sapphire R9 390 kan zich in ieder geval meten. Performance is goed en er is ook gedacht is aan features als idle fans off. Echter die kaarten zijn veel te laat gekomen. Een maand of 12 na de GTX 970... Dan heeft iedereen al een GTX 970 en reden om te upgraden is een R9 390 niet.
Eens. Maar beter iets dan niets.
Met betrekking tot de reputatie: Met Crimson heeft AMD zichzelf in de voet geschoten. Alles was erop gericht om de driver reputatie van AMD op te poetsen.

Als we eerlijk zijn is er ook gewoon veel om te klagen over de drivers bij AMD. De GUI was een bouwsel van elementen van de Microsoft Visual studio software. Verder werd er vaker wel dan niet "beta" op geplakt wat inferieuriteit uitstraalt. Ook duurde het vaak weken voor er hotfixes voor bepaalde populaire games uitkwamen. Inhoudelijk bleken de drivers ook niet goed te zijn. We hebben een paar jaar geleden eerst frametime gate gehad waarin bleek dat AMD totaal niet op framepacing lette en daardoor dus per definitie een slechtere spelervaring boden. Crossfire bleek bovendien niet te werken:
[afbeelding].


[...]


Aan de frametimes is hard gewerkt, wat aangeeft hoe belangrijk drivers zijn. AMD heeft zelfs de "uitvinder" in dienst genomen: http://www.pcper.com/news...s-Scott-Wasson-Leaves-AMD. Echter recentelijk is weer aangetoond dat AMD niet efficient met DX11 om gaat. Ook weer een klap op de neus voor de reputatie van de AMD drivers. Er zijn vast nog meer oorzaken aan te wijzen maar dit lijkt me even voldoende om aan te geven dat er het daadwerkelijk keuzes van AMD zijn die een slechte reputatie veroorzaken. Er zit geen illuminati complot achter...
Tja hoeveel mensen die een GPU willen kopen zijn op de hoogte van het Frametime issue :?
Dat het niet helpt ben ik met je eens.
AMD ziet dat nu zelf ook in en het resultaat is Crimson. Crimson was dus cruciaal om met een schone lei te beginnen. Vervolgens laten ze zo'n grote fout zitten en dat is niets anders dan stom te nomen. De manager die daar verantwoordelijk voor is (voor de te vroege launch) kunnen ze beter ontslaan.
Denk dat ik ook nog even gewacht zou hebben met Crimson, echter ook als je meer tijd neemt kun je tegen bugs aanlopen. Drivers blijven nogal complex.

IHA vind ik je driverbetoog wel wat erg zwaar aangezet. Het enige wat in mijn ogen echt een heel grote negative is, is het frametime issue. Dat is toch iets waarvan je denkt, "Hoe is het mogelijk!".

[ Voor 88% gewijzigd door Help!!!! op 24-02-2016 19:50 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Async Compute vs no Async Compute:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph10067/80318.png
Vrij duidelijk dat Nvidia geen Async Compute heeft of (nog) niet heeft geactiveerd.


http://www.techspot.com/a...multi-gpu-geforce-radeon/
Zij komen tot dezelfde verhoudingen ruwweg.

[ Voor 15% gewijzigd door Phuncz op 24-02-2016 19:48 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Jammer dat de 380x er niet bij staat, op een andere site presteerde die vergelijkbaar met de 970 bij die benchmark, wat ook niet onmogelijk is gezien de grootte van de chip, geheugenbandbreedte en verbruik.

^^
vreemd trouwens dat de 680 beter draait onder dx12, maar de 980Ti niet echt.

[ Voor 16% gewijzigd door haarbal op 24-02-2016 19:58 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 06:56
Bij de buren ook een test met ook multi GPU waaronder AMD+Nvidia http://nl.hardware.info/r...-review-directx-12-getest

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Garwinski
  • Registratie: Februari 2013
  • Laatst online: 07-06 20:06
Erg interessant dat ze het hebben over twee GPU's die automatisch samen gaan werken. Hier en daar hoorde je al wel dat onder dx12 crossfire of sli beter zou moeten lukken, maar dat de ontwikkelaar van het het spel/ de engine daar nu 100% voor verantwoordelijk was in plaats van AMD of Nvidia zelf. Als dit echter al sowieso AUTOMATISCH gebeurt binnen dx12, ben ik blij.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

sdk1985 schreef op woensdag 24 februari 2016 @ 18:15:
[...]

In theorie maakt de temperatuur niets uit (tot een bepaald punt). De praktijk lijkt toch anders te zijn. Als je een kaart niet goed onderhoud kan het weleens slecht aflopen. Als je een blower kaart hebt en er zit een laagje stof voor het "doolhof" dan kan dat zo 30 graden schelen. Je kaart koelt dan eigenlijk niet meer.
Ja en daar is die oververhittingsbeveiliging dus voor. Die schakelt de GPU boven een bepaalde temperatuur direct uit, waarna de GPU binnen microseconden afkoelt. Op die manier is het vrijwel onmogelijk om een GPU (of CPU) te slopen door oververhitting, al helemaal niet als er nog steeds een koelblok met fan op zit, al draait die fan dan op 20%. In het meest extreme geval krijg je dan een spontaan uitvallende GPU omdat de oververhittingsbeveiliging ingrijpt.
sdk1985 schreef op woensdag 24 februari 2016 @ 18:15:
[...]

Je hoort het ook weleens over games die een gpu zogenaamd slopen. Zo was er bijvoorbeeld wat ophef over Starcraft 2 die geen framerate limiter in het hoofdmenu had, maar wel je gpu 99% belastte. http://www.dailytech.com/...rary+Fix/article19224.htm
Ophef? :D Dat was een complete rel. Die bug tradt bij alle kaarten op (zat in het spel) en leidde tot een hoop herrie in het main menu. De bug had min of meer hetzelfde effect op de GPU als Prime95 op je CPU heeft (100% load) en dan moet de fan uiteraard flink aan de bak. Meer dan dat was het ook niet, met uitzondering van één specifieke Nvidia serie. Die bleek stuk te gaan bij een langdurige load van 100%, ik meen me te herinneren dat er een probleem was met de koeling en de oververhittingsbeveiliging niet werkte (of niet aanwezig was? het is al zo lang geleden). Zoals in het artikel wat je linkt ook al genoemd wordt, een combinatie van een bug in de software en een fout in de hardware.

Maar goed dat was Nvidia dus dat moet dan gebagatelliseert worden zeker? :+

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 08:13
AMD geeft gratis games weg.

Blijkbaar alleen voor OEMs...

Misschien morgen eens op mijn werk laptop proberen })

Acties:
  • +1 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53

Acties:
  • 0 Henk 'm!

Anoniem: 64119

spNk schreef op woensdag 24 februari 2016 @ 13:19:
[...]

Dat zal hoogstens gebeuren bij het gebruik zonder heatsink (dus helemaal geen koeler).
Aan de andere kant heb ik ook wel eens gezien dat een Intel CPU rustig werkt zonder koeler, althans het systeem start op waarna de bios geeft dat deze 92C is (koeler was bij verplaatsen schijnbaar eraf gevallen, onjuist gemonteerd lijkt me. Was niet mijn PC). Verder niets aan de hand.
Aan de andere kant heb ik wel eens een Duron zien exploderen binnen een paar seconden na booten.

Het is bij CPU's en GPU's allemaal een kwestie van het snel genoeg kunnen afvoeren van hitte.

In theorie kun je ook een goed gekoelde gpu laten doorbranden wanneer de weerstand groot genoeg word en de hoeveelheid warmte energie die daardoor achterblijft in het silicium niet snel genoeg kan worden afgevoerd.
Uiteindelijk is het allemaal een kwestie van tijdsduur die er nodig is om de hitte af te voeren.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Tja in het 2000 tijdperk hadden de CPU's ook nog geen beveiliging (AMD dan) ;).
Tegenwoordig gebeurd er helemaal niets meer mee. Ik heb überhaupt nog nooit een kapotte CPU gezien (behalve met fysieke schade dan).

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 08-06 16:57

Kuusj

Ofwel varken in 't Limburgs

spNk schreef op donderdag 25 februari 2016 @ 00:08:
Tja in het 2000 tijdperk hadden de CPU's ook nog geen beveiliging (AMD dan) ;).
Tegenwoordig gebeurd er helemaal niets meer mee. Ik heb überhaupt nog nooit een kapotte CPU gezien (behalve met fysieke schade dan).
Ach ja, toen had je ook nog geen heatspreader op de AMD CPU's, al meer dan eens verhalen van iets oudere builders dan ik (:P) gehoord over gloednieuwe Athlon XP's van 800 Dollar die direct gesloopt werden doordat de koeler te hard in 1 hoek werd gedraaid en en stuk eraf liet breken.

Sowieso, toen had je überhaupt nog zo'n dure chips bij AMD: Athlon 1Ghz was zo'n 1000 Dollar, Athlon 64 X2 4600+ voor 800 Dollar, Athlon 64 FX-62 voor ruim 1000 Dollar. Het waren ook stuk voor stuk geweldige CPU's, tot natuurlijk Phenom I waar die bug bij een warme CPU optrad, en daarna Phenom II wat ook niet echt tegen de nieuwe Tick-Tock "architectuur" van Intel op kon. Ik heb wel echt het allervolste vertrouwen in AMD Zen en ook Polaris, het kan en mag gewoon niet misgaan :D
sdk1985 schreef op woensdag 24 februari 2016 @ 14:45:
[...]

Tja de consument ziet niet graag dat zijn aankoop een miskoop was.
*lange knip*

AMD ziet dat nu zelf ook in en het resultaat is Crimson. Crimson was dus cruciaal om met een schone lei te beginnen. Vervolgens laten ze zo'n grote fout zitten en dat is niets anders dan stom te nomen. De manager die daar verantwoordelijk voor is (voor de te vroege launch) kunnen ze beter ontslaan.
Dat het idle verbruik zo ontzettend hoog is bij de AMD GPU's was ook mijn beweegreden om nu voor nVidia te gaan, en een Fury was ofwel niet beschikbaar ofwel zodanig buiten een in mijn ogen redelijke prijs dat er bijna geen andere optie was.

Over Crimson, zo extreem is het nu ook weer niet, pak de GUI van de nVidia drivers en je krijgt een flashback naar 2005. Helaas blijft het dan niet bij een flashback, maar is het ook echt zo bedroevend slecht dat de AMD GUI (qua GUI zelf, indeling, opties, snelheid, "tegenwerkfactor") in mijn ogen duizend maal beter is.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Probleem bij AMD en multimonitor is [oa.] dat de memoryclock op 100% blijft staan, en dat trekt best wat prik bij zoveel ramchips. Volgens mij is dat ook echt iets voor die generatie chips, je ziet dat de Fury's wel gewoon naar beneden klokken, en dat idle-niet-multimonitor een 390 ook gewoon zuinig is [wel 4w zuiniger dan een GTX970]

De 380x heeft er overigens ook last van, moet dan wel heel hardnekkig zijn geweest om op te lossen, of AMD had geen zin om het op te lossen.

Polaris wordt zeker leuk, en ook weer niet: Waarschijnlijk is dan binnen no-time mijn R9 290 niet zo high-end meer ;(

People as things, that’s where it starts.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 01:34
Anoniem: 59888 schreef op woensdag 24 februari 2016 @ 20:55:
[...]

Ja en daar is die oververhittingsbeveiliging dus voor. Die schakelt de GPU boven een bepaalde temperatuur direct uit, waarna de GPU binnen microseconden afkoelt. Op die manier is het vrijwel onmogelijk om een GPU (of CPU) te slopen door oververhitting, al helemaal niet als er nog steeds een koelblok met fan op zit, al draait die fan dan op 20%. In het meest extreme geval krijg je dan een spontaan uitvallende GPU omdat de oververhittingsbeveiliging ingrijpt.


[...]
Helemaal waar alleen ik heb het idee dat dit vroeger slechter geregeld was. Als ik me niet vergis kon de oude Geforce 6 serie (niet de 600) de 120 aantikken, Er zullen vast een aantal componenten op je kaart te vinden zijn die het langer uithouden bij 60 graden dan bij 100+ graden. Direct kapot zou hij er niet van moeten gaan. Maar mogelijk wel als je kaart al een paar jaar oud is.
RobinHood schreef op donderdag 25 februari 2016 @ 01:10:
Probleem bij AMD en multimonitor is [oa.] dat de memoryclock op 100% blijft staan, en dat trekt best wat prik bij zoveel ramchips. Volgens mij is dat ook echt iets voor die generatie chips, je ziet dat de Fury's wel gewoon naar beneden klokken, en dat idle-niet-multimonitor een 390 ook gewoon zuinig is [wel 4w zuiniger dan een GTX970]

De 380x heeft er overigens ook last van, moet dan wel heel hardnekkig zijn geweest om op te lossen, of AMD had geen zin om het op te lossen.
Is 50W niet wat veel voor alleen het geheugen?

[ Voor 25% gewijzigd door sdk1985 op 25-02-2016 01:40 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

GDDR5 is volgens mij vrij onzuinig op volle toeren, AMD zat met HBM daarom ook wat te pochen met dat het een stuk zuiniger zou zijn dan GDDR5.

Normaal idle is AMD namelijk wel gewoon zuinig, gek genoeg is de 390 procentueel gezien iets van de helft zuiniger dan een gtx970, maar met 2 of 3 schermen blijft het geheugen dus op 100% lopen, terwijl de rest keurig idle blijft.

Weet eigenlijk niet wat er gebeurd als je de boel handmatig terugclockt.

People as things, that’s where it starts.


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Ik zie niet in waarom mensen zo blij zouden moeten zijn met deze driver? AoS benchmark 2 performance imrpovements... yay.. andere weinig toedoende fixes..
Wel weer typisch AMD, hoog van de toren blazen maar het maar half waar kunnen maken..
(begrijp me niet verkeerd, ik heb alsnog zeker een voorkeur voor AMD)

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 08-06 20:21

Trygve

Redacteur
spNk schreef op donderdag 25 februari 2016 @ 09:44:
[...]


Ik zie niet in waarom mensen zo blij zouden moeten zijn met deze driver? AoS benchmark 2 performance imrpovements... yay.. andere weinig toedoende fixes..
Wel weer typisch AMD, hoog van de toren blazen maar het maar half waar kunnen maken..
(begrijp me niet verkeerd, ik heb alsnog zeker een voorkeur voor AMD)
Ja een anti-climax ten opzichte van de aankondiging. Maar wat ik het liefst zou willen, het verlagen van de DX11-overhead, gaat toch niet meer gebeuren..

Anoniem: 64119

Het was mij opgevallen dat nogal wat functionaliteit niet meer vindbaar is (of er helemaal niet meer is) bij Crimson met een ouder type non-gcn apu. Bijvoorbeeld landscape / portrait mist nu ? Dat kan nog wel via windows zelf maar veel is er weg uit de 3 AMD menu's......

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Ik vind Crimson ook nogal een doolhof momenteel. Wie weet went het, maar echt logisch zit het niet in elkaar.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Garwinski schreef op woensdag 24 februari 2016 @ 20:23:
Erg interessant dat ze het hebben over twee GPU's die automatisch samen gaan werken. Hier en daar hoorde je al wel dat onder dx12 crossfire of sli beter zou moeten lukken, maar dat de ontwikkelaar van het het spel/ de engine daar nu 100% voor verantwoordelijk was in plaats van AMD of Nvidia zelf. Als dit echter al sowieso AUTOMATISCH gebeurt binnen dx12, ben ik blij.
Dat gebeurt niet automatisch, denk dat je deze zin van HWI verkeerd begrijpt:
Ten slotte de betere implementatie van de multi-GPU mogelijkheid. DirectX 12 kan zelf verschillende videokaarten aansturen, zonder hulp van de drivers.
Wat ze bedoelen is dat multi-GPU ondersteuning niet meer de verantwoordelijkheid van de drivers is. Ze bedoelen niet dat dit automatisch gebeurt.

Het is juist het eerste dat je zegt: engine bouwers zijn er verantwoordelijk voor. In DX11 hadden ze niet veel aan meerdere GPU's. Via wat omwegen is het wel mogelijk om een 2e GPU voor iets in te zetten, maar niet renderen. Qua renderen kwam het er min of meer op neer dat ze de driver vertelden dat er een nieuw frame begon en de driver bepaalde vervolgens welke GPU de rendertaken voor dat frame uitvoerde. Heel lomp gezegd kwam het er op neer dat ze wel konden zien dat er "meerdere" GPU's aanwezig zijn, maar ze kunnen er maar 1 aansturen. Het werkt meer zoals load balancing op het web: 1 entry point (de driver) met meerdere backends (GPU's). En dat gebeurde vervolgens in principe via AFR (de ene GPU de oneven frames, de andere de even frames). Er zijn door de jaren heen wel enkele andere technieken kortstondig beschikbaar geweest (al dan niet via de drivers of hacks), maar AFR was tot nog toe de meest nuttige.

Met DX12 zit dat anders. De developer "ziet" daar gewoon 2 GPU's en kan beide volledig onafhankelijk aansturen. Als ze de ene triangle op GPU A en de andere op GPU B willen renderen, mag dat gewoon. De taak die de driver voorheen had valt nu volledig op de engine.

Dit is wat DX12 kan / doet met meerdere GPU's:

- Implicit Multi Adapter: kort gezegd, DX11 modus. Laat alles aan de driver over.
- Explicit Multi Adapter, unlinked: volledige controle over alle GPU's. Geen beperkingen op de GPU's qua vendor of snelheid (men kan gewoon een Fury, 750 Ti en Iris combineren als men dat wil)
- Explicit Multi Adapter, linked: volledige controle over alle GPU's, maar met wat beperkingen. De GPU's moeten min of meer dezelfde capaciteiten hebben (feature level vooral, vendor is voor zover ik weet niet beperkt).
kuusj98 schreef op donderdag 25 februari 2016 @ 00:33:
Dat het idle verbruik zo ontzettend hoog is bij de AMD GPU's was ook mijn beweegreden om nu voor nVidia te gaan, en een Fury was ofwel niet beschikbaar ofwel zodanig buiten een in mijn ogen redelijke prijs dat er bijna geen andere optie was.
RobinHood schreef op donderdag 25 februari 2016 @ 01:10:
Probleem bij AMD en multimonitor is [oa.] dat de memoryclock op 100% blijft staan, en dat trekt best wat prik bij zoveel ramchips. Volgens mij is dat ook echt iets voor die generatie chips, je ziet dat de Fury's wel gewoon naar beneden klokken, en dat idle-niet-multimonitor een 390 ook gewoon zuinig is [wel 4w zuiniger dan een GTX970]
Er moet eigenlijk ook bij vermeld worden dat Nvidia's zuinige implementatie andere problemen heeft. Als je een kaart volledig stock draait en hij dus naar P8 mag zakken in Windows dan heb je een hoop lag. Zolang je niets op je 2e/3e scherm hebt staan heb je nergens last van, maar zodra daar iets op staat kakt de hele handel in naar bijzonder onprettige framerates (Windows draait normaal gesproken gewoon netjes 60 FPS). De fix is simpel, zorgen dat de GPU niet zo laag zakt. Ik durf niet te zeggen of dat nu met de huidige driver en Maxwell nog steeds het geval is (aangezien ik deze nooit stock heb gedraaid :P), maar in elk geval met m'n 770 had ik er nog last van en dat verhaal begon al met G80.

Dat zuinige is dus leuk op papier, maar in de praktijk is het niet zo :p
sdk1985 schreef op donderdag 25 februari 2016 @ 01:32:
Is 50W niet wat veel voor alleen het geheugen?
Nee joh, helemaal niet :D

50W zou nog mee vallen. Met een 290X (512-bit, 1250 MHz) mag je al op die 50W rekenen. Met die 384-bit/1750 MHz op een 980 Ti zit je eerder naar zo'n 70-80W te kijken.

Edit om je een idee te geven van hoe hongerig GDDR5 is: een "normale" GDDR5 chip is een 170-pins package. Van die 170 zijn er slechts 67 voor data. De andere 100+ zijn allemaal voor power+aarde.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Werelds schreef op donderdag 25 februari 2016 @ 11:22:
50W zou nog mee vallen. Met een 290X (512-bit, 1250 MHz) mag je al op die 50W rekenen. Met die 384-bit/1750 MHz op een 980 Ti zit je eerder naar zo'n 70-80W te kijken.
Had je niet zo'n HBM plaatje, waar amd voorrekende dat je met een 8GHz 512bit gddr5 interface iets van 80W trok? Dan lijkt 80W me behoorlijk overdreven voor 7GHz 384bit.

Als je kijkt bij techpowerup zie je dat een stock 980Ti bij "typical gaming" 211W verbruikt. Lijkt me sterk dat memory dan al op 70W zit.

Mechwarrior Online: Flapdrol


  • Garwinski
  • Registratie: Februari 2013
  • Laatst online: 07-06 20:06
Werelds schreef op donderdag 25 februari 2016 @ 11:22:
[...]

Dat gebeurt niet automatisch, denk dat je deze zin van HWI verkeerd begrijpt:


[...]


Wat ze bedoelen is dat multi-GPU ondersteuning niet meer de verantwoordelijkheid van de drivers is. Ze bedoelen niet dat dit automatisch gebeurt.

Het is juist het eerste dat je zegt: engine bouwers zijn er verantwoordelijk voor. In DX11 hadden ze niet veel aan meerdere GPU's. Via wat omwegen is het wel mogelijk om een 2e GPU voor iets in te zetten, maar niet renderen. Qua renderen kwam het er min of meer op neer dat ze de driver vertelden dat er een nieuw frame begon en de driver bepaalde vervolgens welke GPU de rendertaken voor dat frame uitvoerde. Heel lomp gezegd kwam het er op neer dat ze wel konden zien dat er "meerdere" GPU's aanwezig zijn, maar ze kunnen er maar 1 aansturen. Het werkt meer zoals load balancing op het web: 1 entry point (de driver) met meerdere backends (GPU's). En dat gebeurde vervolgens in principe via AFR (de ene GPU de oneven frames, de andere de even frames). Er zijn door de jaren heen wel enkele andere technieken kortstondig beschikbaar geweest (al dan niet via de drivers of hacks), maar AFR was tot nog toe de meest nuttige.

Met DX12 zit dat anders. De developer "ziet" daar gewoon 2 GPU's en kan beide volledig onafhankelijk aansturen. Als ze de ene triangle op GPU A en de andere op GPU B willen renderen, mag dat gewoon. De taak die de driver voorheen had valt nu volledig op de engine.

Dit is wat DX12 kan / doet met meerdere GPU's:

- Implicit Multi Adapter: kort gezegd, DX11 modus. Laat alles aan de driver over.
- Explicit Multi Adapter, unlinked: volledige controle over alle GPU's. Geen beperkingen op de GPU's qua vendor of snelheid (men kan gewoon een Fury, 750 Ti en Iris combineren als men dat wil)
- Explicit Multi Adapter, linked: volledige controle over alle GPU's, maar met wat beperkingen. De GPU's moeten min of meer dezelfde capaciteiten hebben (feature level vooral, vendor is voor zover ik weet niet beperkt).
Ah klopt, het is inderdaad niet dat dx12 dit zelf doet uit zichzelf/automatisch, maar dat dx 12 dit potentieel zou kunnen doen zonder dat drivers daar tussenkomen. Ipv dat de drivers voor Crossfire/SLI zorgen, is dit nu de taak van dx 12 maar gebeurt dat niet automatisch. Nu begrijp ik ook beter wat ze bedoelden met "doei sli en crossfire", want dat is dus de proprietary manier voor meerdere GPU's aansturen voor AMD en Nvidia, terwijl dat nu gewoon in dx 12 zélf gebeurt, zonder tussenlaag. Ik blijf benieuwd naar de toekomstige dual-GPU implementatie en hoe dit opgepakt gaat worden door ontwikkelaars. Hopelijk is het zo dat als het eenmaal in de engine is ingebouwd, alle games met die engine dit ondersteunen. We zullen zien. Bedankt voor de verdere uitleg in ieder geval!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
haarbal schreef op donderdag 25 februari 2016 @ 11:36:
[...]

Had je niet zo'n HBM plaatje, waar amd voorrekende dat je met een 8GHz 512bit gddr5 interface iets van 80W trok? Dan lijkt 80W me behoorlijk overdreven voor 7GHz 384bit.

Als je kijkt bij techpowerup zie je dat een stock 980Ti bij "typical gaming" 211W verbruikt. Lijkt me sterk dat memory dan al op 70W zit.
Als ik me niet vergis was dat dus gebaseerd op een 290X, dus 512-bit op 1250 MHz. Voltage en kloksnelheid zijn de definiërende factoren voor stroom verbruik (niet bus width), dus al zou die 2 GHz (niet 8 GHz, dat is alleen de effectieve snelheid :P) 80W trekken, dan zit 1.75 GHz daar niet ver onder. Neemt niet weg dat 50W echt niet overschat is, daar mag je echt wel op rekenen als gemiddeld GDDR5 verbruik bij de high-end kaarten. Dat is uiteraard niet constant, zodra ze belast worden wel. En helaas is dat bij GDDR5 een relatief groot probleem; idle trekt een chip vrij weinig, maar met zelfs een klein beetje belasting schiet dat meteen naar de 100%. Stroom verbruik van GDDR5 is ontzettend dynamisch, het piekt heel snel.

Je hebt wel gelijk, AMD had dat ergens in een slide staan, ik zal vanavond eens zoeken. Zal wel een van de vroege HBM slides geweest zijn.
Garwinski schreef op donderdag 25 februari 2016 @ 12:10:
Ah klopt, het is inderdaad niet dat dx12 dit zelf doet uit zichzelf/automatisch, maar dat dx 12 dit potentieel zou kunnen doen zonder dat drivers daar tussenkomen. Ipv dat de drivers voor Crossfire/SLI zorgen, is dit nu de taak van dx 12 maar gebeurt dat niet automatisch. Nu begrijp ik ook beter wat ze bedoelden met "doei sli en crossfire", want dat is dus de proprietary manier voor meerdere GPU's aansturen voor AMD en Nvidia, terwijl dat nu gewoon in dx 12 zélf gebeurt, zonder tussenlaag. Ik blijf benieuwd naar de toekomstige dual-GPU implementatie en hoe dit opgepakt gaat worden door ontwikkelaars. Hopelijk is het zo dat als het eenmaal in de engine is ingebouwd, alle games met die engine dit ondersteunen. We zullen zien. Bedankt voor de verdere uitleg in ieder geval!
Ik denk dat alle grote engines het wel in zullen bouwen. In welke mate ze ook daadwerkelijk vendor-specifieke voordelen gaan benutten durf ik niet te zeggen.

In een ideale wereld hebben we straks een situatie waar je een 380 en 960 naast elkaar zet, en dat je dan HairWorks en TressFX (om maar even een populair, recent voorbeeld te nemen :P) op de GPU laat lopen die er het beste mee overweg kan, terwijl beide ook gebruikt worden voor rendering in het algemeen. Ik vrees echter dat Nvidia daar wel iets tegen doet, aangezien ze dat al jaren blokkeren.

[ Voor 38% gewijzigd door Werelds op 25-02-2016 12:48 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:35
Werelds schreef op donderdag 25 februari 2016 @ 12:43:
[...]

Als ik me niet vergis was dat dus gebaseerd op een 290X, dus 512-bit op 1250 MHz. Voltage en kloksnelheid zijn de definiërende factoren voor stroom verbruik (
Proportioneel met busbreedte en clock, kwadratisch met voltage.

Maar voor de 8GHz uit die slide zal je ook wel een flink voltage nodig hebben.
Afbeeldingslocatie: http://static.tweakers.net/ext/f/ZWn4Vk4gPl3jKwJamiZ00Pc0/medium.jpg

[ Voor 16% gewijzigd door haarbal op 25-02-2016 13:13 ]

Mechwarrior Online: Flapdrol

Het is 2GHz i.p.v. 8GHz en spanning i.p.v. voltage. ;)

Is maar de vraag of ze meer verbruiken en hoeveel dan, zijn nieuwere chips op een zuiniger en kleiner productieproces dan de geheugenchips die op de 290X zaten. In de formule voor het berekenen van het verbruik zit ook nog een constante en die is bij de moderne chips sowieso lager als bij de oudere.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 ... 4 ... 11 Laatste

Dit topic is gesloten.