Enige wat ik mooi vind zijn de prestaties voor een klein videokaartje maar daar is het ook mee gezegd.
Wat had je verwacht dan?Anoniem: 668222 schreef op donderdag 10 september 2015 @ 14:16:
Enige wat ik mooi vind zijn de prestaties voor een klein videokaartje maar daar is het ook mee gezegd.
Dat ze dezelfde chip als uit de Fury opeens "magisch" veel zuiniger konden maken?
Zo werkt het gewoon niet. Iedereen die een beetje nadenkt zag dit al lang aankomen.
- Board partners mogen de kaart niet aanpassen
Want het is gewoon een Fury, en de enige selling point is nou net de korte PCB.
Of ze hadden hem flink moeten onderklokken, of je moet accepteren dat dit ding je behuizing flink gaat opwarmen als je ITX gaat.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Dat is dan ook het hele ding rondom de Nano, ik snap niet wat AMD nog meer had moeten doen om mensen onder de indruk te krijgen....Anoniem: 668222 schreef op donderdag 10 september 2015 @ 14:16:
Enige wat ik mooi vind zijn de prestaties voor een klein videokaartje maar daar is het ook mee gezegd.
Dat ding is voor zijn formaat vreselijk snel, hij heeft eigenlijk geen concurrentie puur als je gaat kijken naar maximale performance. Ja, er is een GTX970 ITX versie, en ja, die is veel goedkoper, maar de Nano is flink sneller, en niet veel minder zuinig.
Sowieso, dat prijs opeens een punt is
People as things, that’s where it starts.
Mee eens, hij is haast net zo snel als een normale Fury en ietjes sneller dan een GTX980 in mini ITX formaat. Ik zou het raar vinden als ze dat voor dezelfde prijs verkopen als een Fury/GTX980, 100 euro meer klopt dan gewoon. Het stroom gebruik van 175W houdt hij mooi aan.
Selling point van de Nano is ook dat hij klein en snel is met een laag gebruik, indien je geen kleine kaart nodig hebt dan ben je beter af met een GTX980 Ti/Fury X voor dat geld.
Ben trouwens best verrast over de Project Cars score van de Nano in de tweakers review. AMD heeft blijkbaar magie gewerkt in hun driver.
Selling point van de Nano is ook dat hij klein en snel is met een laag gebruik, indien je geen kleine kaart nodig hebt dan ben je beter af met een GTX980 Ti/Fury X voor dat geld.
Ben trouwens best verrast over de Project Cars score van de Nano in de tweakers review. AMD heeft blijkbaar magie gewerkt in hun driver.
Het is geen Fury, maar een Fury X en het PCB en de koeler mag wel aangepast worden zolang de TDP maar hetzelfde blijft en de kaart niet lang wordt, het is immers een Nano.Jeroenneman schreef op donderdag 10 september 2015 @ 14:22:
[...]
- Board partners mogen de kaart niet aanpassen
Want het is gewoon een Fury, en de enige selling point is nou net de korte PCB.
Maar wat wel kan is een veel betere koeler en een dubbel BIOS. Schakelaartje om en je hebt een volledige Fury X kaart met aangepaste koeler.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Inderdaad, het is gewoon een volledige Fury X. Hij is waarschijnlijk ook gecherry picked omdat hij op een lager voltage kan blijven werken. Hij zal dus op lucht waarschijnljk verder kunnen overclocken dan de meeste standaard Fury X's (er van uitgaande dat hij een hogere ASIC waarde heeft).-The_Mask- schreef op donderdag 10 september 2015 @ 16:34:
[...]
Het is geen Fury, maar een Fury X en het PCB en de koeler mag wel aangepast worden zolang de TDP maar hetzelfde blijft en de kaart niet lang wordt, het is immers een Nano.
Maar wat wel kan is een veel betere koeler en een dubbel BIOS. Schakelaartje om en je hebt een volledige Fury X kaart met aangepaste koeler.
http://nl.hardware.info/n...nano-mag-aangepast-worden-The_Mask- schreef op donderdag 10 september 2015 @ 16:34:
[...]
Het is geen Fury, maar een Fury X en het PCB en de koeler mag wel aangepast worden zolang de TDP maar hetzelfde blijft en de kaart niet lang wordt, het is immers een Nano.
Maar wat wel kan is een veel betere koeler en een dubbel BIOS. Schakelaartje om en je hebt een volledige Fury X kaart met aangepaste koeler.
Maar wel pas na 3 maanden blijkbaar.
Apart, aangezien juist de 3rd party koelers meestal een stuk beter zijn.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Maar nu verdient AMD wat meer, dezelfde strategie hadden ze ook bij de R9 290 en 290x.
People as things, that’s where it starts.
Ook de review van Anandtech staat online:
http://www.anandtech.com/...amd-radeon-r9-nano-review
In wat ander nieuws, Kyle van HardOCP is niet blij dat hij geen Nano kaart heeft gekregen om te reviewen. Een user in het HardOCP forum wel, die heeft een post van zijn mini-itx build gemaakt, welke weer verwijdert is door Kyle. Wat ik onprofessioneel vind, maar wel te begrijpen gezien de situatie.
Blijkbaar is Roy Taylor van AMD niet echt goed voor de public relations van AMD. Nu hoor je het verhaal maar van een kant, ben benieuwd hoe het zich ontwikkelt.
http://www.hardocp.com/ar...nano_press/1#.VfGuVEAmBRI
Hoop dat ze dit oplossen en TPU en HardOCP alsnog een kaart sturen, met name de reviews van TPU vind ik tot de beste behoren. HardOCP heeft altijd als extra met hun reviews dat ze naast apples to apples ook de best speelbare settings van een kaart testen.
Roy Taylor heeft blijkbaar al zijn excuses aan TPU aangeboden, denk dat het een misverstand was?
http://www.anandtech.com/...amd-radeon-r9-nano-review
In wat ander nieuws, Kyle van HardOCP is niet blij dat hij geen Nano kaart heeft gekregen om te reviewen. Een user in het HardOCP forum wel, die heeft een post van zijn mini-itx build gemaakt, welke weer verwijdert is door Kyle. Wat ik onprofessioneel vind, maar wel te begrijpen gezien de situatie.
Blijkbaar is Roy Taylor van AMD niet echt goed voor de public relations van AMD. Nu hoor je het verhaal maar van een kant, ben benieuwd hoe het zich ontwikkelt.
http://www.hardocp.com/ar...nano_press/1#.VfGuVEAmBRI
Hoop dat ze dit oplossen en TPU en HardOCP alsnog een kaart sturen, met name de reviews van TPU vind ik tot de beste behoren. HardOCP heeft altijd als extra met hun reviews dat ze naast apples to apples ook de best speelbare settings van een kaart testen.
Roy Taylor heeft blijkbaar al zijn excuses aan TPU aangeboden, denk dat het een misverstand was?
[ Voor 5% gewijzigd door Sp3ci3s8472 op 10-09-2015 18:53 ]
Anoniem: 668222
Ik geef je ook gelijk er is geen concurrentie voor wat gelijk presteert. Stel ik had een mini itx systeem willen hebben dan is de Nano samen met de Fury x het snelste wat in een mini itx past. Ik kan dan die meerprijs dan ook wel voorstellen dus iets te snel de conclusie getrokken over de prijs.RobinHood schreef op donderdag 10 september 2015 @ 14:30:
[...]
Dat is dan ook het hele ding rondom de Nano, ik snap niet wat AMD nog meer had moeten doen om mensen onder de indruk te krijgen....
Dat ding is voor zijn formaat vreselijk snel, hij heeft eigenlijk geen concurrentie puur als je gaat kijken naar maximale performance. Ja, er is een GTX970 ITX versie, en ja, die is veel goedkoper, maar de Nano is flink sneller, en niet veel minder zuinig.
Sowieso, dat prijs opeens een punt isHij is net uit, het is een behoorlijk speciale kaart zonder concurrentie, en de Nvidia "concurrenten" zijn nauwelijks goedkoper, en probeer die maar eens in je ITX kast te proppen
Volgens mij is er ook wel markt voor want ik zie vaak op HW fora dat men graag kleine systemen samen stelt.
Niet apart, maar normaal. Daarnaast kost de ontwikkeling ook wel een paar maanden tijd. Naar mijn idee is het zelfs beter, minder kans op half afgeraffelde kaarten die je nu wel terug ziet bij AMD en nVidia. Bijvoorbeeld waarbij de koeler van een andere videokaart wordt gepakt en niet alle heatpipes de GPU raken.Jeroenneman schreef op donderdag 10 september 2015 @ 17:24:
[...]
http://nl.hardware.info/n...nano-mag-aangepast-worden
Maar wel pas na 3 maanden blijkbaar.
Apart, aangezien juist de 3rd party koelers meestal een stuk beter zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ga voor gpu reviews altijd naar techreport, guru3d en techpowerup, nu hebben TR en TPU geen kaart. Niet cool.
Mechwarrior Online: Flapdrol
Tsja, AMD begint nu ook gewoon websites te negeren waar objectief naar de hardware kijken niet altijd helemaal lijkt te kunnen, zoals nVidia het al jaren doet. Niet cool? Het is niet cool wanneer zogenoemde reviewsites, die objectief moeten kijken naar wat goed is voor een consument, veel subjectieve zaken gaan aandragen om een bepaald beeld te schetsen, in plaats van objectief te blijven.
Techreport is objectief, en heeft de beste gpu reviews.
Mechwarrior Online: Flapdrol
Klopt zowel TPU als Techreport schrijven goede reviews. Qua reviews kijk ik inderdaad daar en voor meer info over de architectuur is Anandtech altijd een hele goede.
Techpowerup is vooral handig om verbruik, geluid en performance op verschillende resoluties te vergelijken. Verder niet veel bijzonders, nog steeds alleen avg fps.
Mechwarrior Online: Flapdrol
Wat ik al dacht, Ark dx12 vertraagd omdat NV nog niet mee kan in dx12 (dx9 all over?)
Notice in patch notes for ARK DX12 is upcoming and has been delayed http://steamcommunity.com...ons/0/594820656447032287/ and one of the widcard DEV's tweeted theyre having issues with performance from DX12 on Nvidia side and delayed it's release because of this until they get further info as to why another of the DEV's tweeted before AMD cards were getting gains of 50%+ while Nvidia cards were lucky to get 15%-20% gains these tweets have since been romoved or I would link them they were in the Wildcard / ARK dev thread where people talked with the DEV's which all these posts have since been removed.
http://www.overclock.net/...-ark-survival-evolved/230
Hopelijk wordt het dx12-pad niet gesaboteerd voor AMD.
Notice in patch notes for ARK DX12 is upcoming and has been delayed http://steamcommunity.com...ons/0/594820656447032287/ and one of the widcard DEV's tweeted theyre having issues with performance from DX12 on Nvidia side and delayed it's release because of this until they get further info as to why another of the DEV's tweeted before AMD cards were getting gains of 50%+ while Nvidia cards were lucky to get 15%-20% gains these tweets have since been romoved or I would link them they were in the Wildcard / ARK dev thread where people talked with the DEV's which all these posts have since been removed.
http://www.overclock.net/...-ark-survival-evolved/230
Hopelijk wordt het dx12-pad niet gesaboteerd voor AMD.
Niet op voorraad.
Ik denk dat kyle die "rant" beter op iets als twitlong had kunnen zetten, want er zit best wel een persoonlijk tintje aan (hij is gefrustreerd).
Maar dat neemt niet weg dat hij wel een punt heeft
Maar dat neemt niet weg dat hij wel een punt heeft

Interessant, ik vermoede al zoiets (zoals vele anderen).edward2 schreef op vrijdag 11 september 2015 @ 00:10:
Wat ik al dacht, Ark dx12 vertraagd omdat NV nog niet mee kan in dx12 (dx9 all over?)
Notice in patch notes for ARK DX12 is upcoming and has been delayed http://steamcommunity.com...ons/0/594820656447032287/ and one of the widcard DEV's tweeted theyre having issues with performance from DX12 on Nvidia side and delayed it's release because of this until they get further info as to why another of the DEV's tweeted before AMD cards were getting gains of 50%+ while Nvidia cards were lucky to get 15%-20% gains these tweets have since been romoved or I would link them they were in the Wildcard / ARK dev thread where people talked with the DEV's which all these posts have since been removed.
http://www.overclock.net/...-ark-survival-evolved/230
Hopelijk wordt het dx12-pad niet gesaboteerd voor AMD.
Het zou echt doodzonde zijn als ze de performance op AMD kaarten daarom express gaan saboteren. Indien ze dat doen zal ik het spel ook nooit aanschaffen.
Het feit dat die posts zijn weggehaald geeft mij weinig vertrouwen

Hij schijnt wel vaker te "ranten", blijkbaar is dat normaal. Maar dat neemt de reacties van Roy Tayler niet weg.DCG909 schreef op vrijdag 11 september 2015 @ 00:30:
Ik denk dat kyle die "rant" beter op iets als twitlong had kunnen zetten, want er zit best wel een persoonlijk tintje aan (hij is gefrustreerd).
Maar dat neemt niet weg dat hij wel een punt heeft
[ Voor 14% gewijzigd door Sp3ci3s8472 op 11-09-2015 01:34 ]
Lijkt me sterk dat nVidia genoeg geld heeft om alle games die nog niet op de pc markt bestaan maar van de consoles naar de pc markt komen te kunnen omkopen om twimtbp te maken.Sp3ci3s8472 schreef op vrijdag 11 september 2015 @ 01:33:
[...]
Interessant, ik vermoede al zoiets (zoals vele anderen).
Het zou echt doodzonde zijn als ze de performance op AMD kaarten daarom express gaan saboteren. Indien ze dat doen zal ik het spel ook nooit aanschaffen.
Het feit dat die posts zijn weggehaald geeft mij weinig vertrouwen.
Maw dit is pas het tweede spel wat iets beloofde met DX12 te gaan doen. Als nVidia deze zo graag wil hebben dan gaan ze imho maar hun gang ermee.
Verder kunnen grote engine bouwers het hun eigen reputatie ook niet aandoen om struktureel 1 kant te kiezen en 1 merk kunstmatig langzamer te maken, gaat nl een beetje teveel opvallen (Unreal, Unity, IDtech, enzzz.)
Maw geen zorgen maken alles komt goed.
How do you save a random generator ?
Dat weet ik nog niet zo.enchion schreef op vrijdag 11 september 2015 @ 02:16:
[...]
Verder kunnen grote engine bouwers het hun eigen reputatie ook niet aandoen om struktureel 1 kant te kiezen en 1 merk kunstmatig langzamer te maken, gaat nl een beetje teveel opvallen (Unreal, Unity, IDtech, enzzz.)
Maw geen zorgen maken alles komt goed.
Ik bedoel de makers van Unreal Engine zijn in het verleden erg close geweest (en nog steeds) met nVidia.
Daarnaast zijn de makers van CryEngine ook niet vies van geweest om lekker veel Tesselation (water onder de gehele map) te gebruiken in hun games. Iets wat nVidia toevallig goed uitkwam.
Bovendien is Ubisoft erg dubieus gebleken bij het Assassins Creed (Anvil engine) DX10.1 debacle. Oeps, AMD hardware gaat opeens nVidia hardware voorbij bij het gebruik van DX10.1...laten we eens een buidel geld droppen bij Ubisoft om de boel eruit te patchen..

Voor mij zijn er maar weinig game engine ontwikkelaars zoals Frostbite, die niet zwichten voor het grote geld van nVidia.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Maar ze gebruiken gewoon DX12 featuers... dat Nvidia die minder ondersteund dan AMD hoeven de developers zich toch geen druk over te maken? Dat lijkt me een driver/hardware issue. Fix dat eventueel met een latere patch, zoals dat bij AMD ook altijd moest wanneer er teveel tesselation gebruikt werd.enchion schreef op vrijdag 11 september 2015 @ 02:16:
[...]
Verder kunnen grote engine bouwers het hun eigen reputatie ook niet aandoen om struktureel 1 kant te kiezen en 1 merk kunstmatig langzamer te maken, gaat nl een beetje teveel opvallen (Unreal, Unity, IDtech, enzzz.)
Dice heeft via EA een deal met amd en hebben een api mee helpen ontwikkelen speciaal voor gcn. Echt het toonbeeld van onpartijdigheid.Indy91 schreef op vrijdag 11 september 2015 @ 10:34:
Voor mij zijn er maar weinig game engine ontwikkelaars zoals Frostbite, die niet zwichten voor het grote geld van nVidia.

Crytek heeft ook een deal met amd, dus waarom is het zo verschrikkelijk dat unreal engine wat nvidia dingen implementeert?
Mechwarrior Online: Flapdrol
Volgens mij is de discussie niet dat er nVidia-dingen worden geïmplementeerd, maar dat DX12 functionaliteit niet wordt geïmplementeerd. Gameworks wel of niet gebruiken is natuurlijk één ding en ik begrijp het heel goed dat developers dat doen, maar ik zou het wel zonde vinden als DX12 niet optimaal wordt benut door developers.haarbal schreef op vrijdag 11 september 2015 @ 14:14:
[...]
Dice heeft via EA een deal met amd en hebben een api mee helpen ontwikkelen speciaal voor gcn. Echt het toonbeeld van onpartijdigheid.
Crytek heeft ook een deal met amd, dus waarom is het zo verschrikkelijk dat unreal engine wat nvidia dingen implementeert?
En met optimaal bedoel ik dus dat ik alles uit mijn R9 290 kan halen
Ik (met CF FuryX) merkte in een paar games, volkomen random, bv. Alan Wake (+reshade met masterffect) en Oblivion (+enb) de rest nog niet gebenched, ook alweer vooruitgang met 15.8 (+15-20%). Je zou zeggen dat het geen spellen zijn waar dat erg relevant is, al zijn deze in 5K met de genoemde shaderinjecties nog best pittig, maar het geeft wel aan dat de perf. hier en daar wel degelijk nog omhooggaat.Sp3ci3s8472 schreef op donderdag 10 september 2015 @ 16:33:
Ben trouwens best verrast over de Project Cars score van de Nano in de tweakers review. AMD heeft blijkbaar magie gewerkt in hun driver.
Nog het vermelden waard is de performance since W10 met CF, niet zozeer kwa framerate, maar de frametimes... Alsof ik een andere (single)GPU en een freesyn monitor gebruik..

Hier zou eens een grote reviewsite aandacht aan moeten besteden, want het heeft echt de impact om de bakens en traditionele opvattingen over (AMD) multi GPU te verzetten.
Voorbeeldje, BF Hardline, liep verschrikkelijk @ 4K 45fps met constante haperingen, nu met W10 smooth as glass 60 fps (met framerate cap, wel die van afterburner (d3d overrider plugin)).
[ Voor 13% gewijzigd door edward2 op 11-09-2015 17:56 ]
Niet op voorraad.
Denk niet dat het een misverstand was. Bovendien, ik zie geen enkele goede reden om sites als HardOCP, TechReport en TPU geen kaarten te sturen. AMD moet dingen goed gaan doen en hun producten moeten voor zich spreken. Daar valt zo'n vage actie niet onder. Deze sites behoren imo tot de beste die er zijn. Het is niet goed als ze excluded worden.Sp3ci3s8472 schreef op donderdag 10 september 2015 @ 18:30:
In wat ander nieuws, Kyle van HardOCP is niet blij dat hij geen Nano kaart heeft gekregen om te reviewen. Een user in het HardOCP forum wel, die heeft een post van zijn mini-itx build gemaakt, welke weer verwijdert is door Kyle. Wat ik onprofessioneel vind, maar wel te begrijpen gezien de situatie.
Blijkbaar is Roy Taylor van AMD niet echt goed voor de public relations van AMD. Nu hoor je het verhaal maar van een kant, ben benieuwd hoe het zich ontwikkelt.
http://www.hardocp.com/ar...nano_press/1#.VfGuVEAmBRI
Hoop dat ze dit oplossen en TPU en HardOCP alsnog een kaart sturen, met name de reviews van TPU vind ik tot de beste behoren. HardOCP heeft altijd als extra met hun reviews dat ze naast apples to apples ook de best speelbare settings van een kaart testen.
Roy Taylor heeft blijkbaar al zijn excuses aan TPU aangeboden, denk dat het een misverstand was?
Vind HardOcp haar reactie dan ook weer niet echt professioneel. Dat doet TechReport stukken beter.
[ Voor 4% gewijzigd door Help!!!! op 11-09-2015 18:58 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Het valt wel op hoe specifiek de sites die geen sample gekregen hebben, nu ineens artikels schrijven over hun ontevreden gevoel van AMD. Dus dat was een jaar geleden geen issue ? Ik vind het toch heel erg toevallig, maar als pers heb je natuurlijk een uitingsmogelijkheid die iedereen kan lezen ipv. enkel de assistent van de manager.
^
Sry, snap niet wat je bedoelt
Sry, snap niet wat je bedoelt
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Hmm, deze was nog niet langs gekomen:
http://www.computerbase.d...-itx-gehaeuse-performance
Dit is de pagina waar prestaties worden getoond wanneer de kaarten in een mini-itx kastje zijn gemonteerd, ipv op een open benchtafel liggen. De Nano komt hier wel extreem sterk naar voren, GTX970 wordt weggeveegd. Interessant genoeg zit R9-380 ITX niet ver achter de GTX970 ITX qua prestaties.
http://www.computerbase.d...-itx-gehaeuse-performance
Dit is de pagina waar prestaties worden getoond wanneer de kaarten in een mini-itx kastje zijn gemonteerd, ipv op een open benchtafel liggen. De Nano komt hier wel extreem sterk naar voren, GTX970 wordt weggeveegd. Interessant genoeg zit R9-380 ITX niet ver achter de GTX970 ITX qua prestaties.
Kijk, dat soort tests zijn interessant. Hoewel van die totaal gestandaardiseerde tests op een testbench de beste manier zijn om globaal gezien cijfers met elkaar te kunnen vergelijken, het wijkt soms flink af van in een case. Die Raijintek Metis is bijvoorbeeld een ideale kandidaat voor een stijlvolle, heel kleine m-ITX build.
Ryzen 7 5800X ~~ 32GB GSkill TridentZ 3600Mhz ~~ ASRock B550 Steel Legend ~~ XFX Radeon RX5700XT
Mijn punt is dat ik niet snap waarom men nu ineens de "open letter"-kaart moet trekken, dit is toch tussen de sites en AMD, niet ons probleem ? Het lijkt meer op clickbait en QQ dan een oprechte zorg. Goed is het niet voor ons, maar het is nog erger voor AMD en de review sites.
[ Voor 9% gewijzigd door Phuncz op 11-09-2015 22:13 ]
Ik vermoed dat het clickbait is 
Even lekker verdienen aan een rant rondom het akkefietje... Gaat alleen maar erger worden
(vandaar dat ik vond dat Kyle het beter op iets als twitlong, of een prive blog kan zetten. Het hoort eigenlijk niet op de site zelf, want het staat extreem onprofessioneel)

Even lekker verdienen aan een rant rondom het akkefietje... Gaat alleen maar erger worden

(vandaar dat ik vond dat Kyle het beter op iets als twitlong, of een prive blog kan zetten. Het hoort eigenlijk niet op de site zelf, want het staat extreem onprofessioneel)
Async moet geweldig zijn maar wat als juist iedereen FL12_1 gaat gebruiken en dat nVidia daar een grote GameWorks muur omheen bouwd? Aots gebruikt extreem async maar is er ook zo veel nodig voor een adventure game of shooter terwijl nVidia ook een soort async heeft mss in mindere mate? Ik ben benieuwd naar wat er gaat komen.
FL12_1 is niet één specifieke vorm van DX12, het is een reeks extra (optionele ?) voorzieningen.
Anoniem: 668222
Features meer niet. Volume-Tiled Resources, Conservative Rasterization and Rasterizer Ordered Views.
http://www.pcgamer.com/di...ming-to-directx-11-3-too/
Heb het toen in die Apolo 11 demo gezien en waarom het nog niet gebruikt word is me een raadsel?
http://www.pcgamer.com/di...ming-to-directx-11-3-too/
Heb het toen in die Apolo 11 demo gezien en waarom het nog niet gebruikt word is me een raadsel?
Anoniem: 159816
Speelde het review gedoe ook al niet met de Fury X, dat de meestal wat kritischere websites geen samples krijgen maar bekende AMD fanboys wel?
[ Voor 0% gewijzigd door Anoniem: 159816 op 12-09-2015 10:58 . Reden: typo ]
AotS gebruikt helemaal niet extreem veel Asynchrone shaders, dat hebben ze zelf gezegd.Nature schreef op zaterdag 12 september 2015 @ 02:14:
Async moet geweldig zijn maar wat als juist iedereen FL12_1 gaat gebruiken en dat nVidia daar een grote GameWorks muur omheen bouwd? Aots gebruikt extreem async maar is er ook zo veel nodig voor een adventure game of shooter terwijl nVidia ook een soort async heeft mss in mindere mate? Ik ben benieuwd naar wat er gaat komen.
Nee, "fanboys" is in jouw voorbeeld de foute term, ironisch genoeg.Anoniem: 159816 schreef op zaterdag 12 september 2015 @ 10:48:
Speelde het review gedoe ook al niet met de Fury X, dat de meestal wat kritischere websites geen samples krijgen maar bekende AMD fanboys wel?
Wij van WC eend...The Fox NL schreef op zaterdag 12 september 2015 @ 11:15:
[...]
AotS gebruikt helemaal niet extreem veel Asynchrone shaders, dat hebben ze zelf gezegd.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Techreport en Techpowerup hadden toen gewoon een kaart.Anoniem: 159816 schreef op zaterdag 12 september 2015 @ 10:48:
Speelde het review gedoe ook al niet met de Fury X, dat de meestal wat kritischere websites geen samples krijgen maar bekende AMD fanboys wel?
Mechwarrior Online: Flapdrol
Hoe moeten we het anders weten dan? Het is niet dat men zomaar inzicht krijgt in de Source Code...
Unrelated, R9 Nano Q&A met Victor Camardo
There has been some misconception out there that the Nano is an uber binned part. Actually, both Nano and Fury X share the same ASIC configuration. What differs is the audience and form factor the products are targeted for. If you are interested in water cooling, aftermarket waterblocks are available for both the Nano and Fury X however the Nano is designed to be smaller and more power efficient with lower overall clocks and power delivery circuit. The Fury X is the card you want if you intend to push the Fiji ASIC to the absolute limit.
- Victor
Hmm dat Klinkt onlogisch. Dus ze hebben enkel 5% lagere clock voorzien voor een veel lagere power consumption ? Dus iedereen kan een ~100W minder verbruik krijgen op een Fury X door minimaal te onderklocken ? Dat lijkt me te simpel, er moet meer aan de hand zijn, zoals een chip die een lager voltage nodig heeft om stabiel te zijn op 1GHz.
Nee niks bijzonders, TDP is gewoon beperkt in het BIOS en de kloksnelheid wordt on-the-fly aangepast om het verbruik niet hoger dan de 175W te laten oplopen. Doordat de kloksnelheid lager is kan de spanning ook lager en dat zorgt er voor dat het verbruik heel erg omlaag gaat.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Aha dus de Nano kan eigenlijk niet of beperkt overclocken.
False. Praktisch even goed als de Fury X, zelfde GPU. Er is alleen weinig extra's.
Als je dit leest, heb je teveel tijd.
Nee eigenlijk identiek als Fury X, tenminste als het VRM of de koeler niet de beperkende factor is, is immers dezelfde GPU. Kwestie van de TDP verhogen, dan gaat de kloksnelheid niet meer omlaag.
Ik verwacht dan ook over 3 maanden Nano kaarten met een bios switch waarbij de TDP beperking wordt opgeheven, nu moet je het softwarematig doen. Dan kan het gewoon met een schakelaartje en je hebt gewoon een iets kleinere Fury X met een koeler van een MSI, Asus, Gigabyte, Sapphire, Club3D, Powercolor, etc.
Ik verwacht dan ook over 3 maanden Nano kaarten met een bios switch waarbij de TDP beperking wordt opgeheven, nu moet je het softwarematig doen. Dan kan het gewoon met een schakelaartje en je hebt gewoon een iets kleinere Fury X met een koeler van een MSI, Asus, Gigabyte, Sapphire, Club3D, Powercolor, etc.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Een 8 pins PEG connector moet wel 30A kunnen leveren dus dat maakt het verschil niet. Wat betreft het VRM dan zou je de specificaties moeten opzoeken, maar dat het VRM geen probleem heeft met veel meer dan 175W is al uit meerdere reviews gebleken waarbij de kloksnelheid hoger werd gezet dan een standaard Fury X en het TDP werd verhoogd.
Maar dan nog met custom PCB's over 3 maanden is ook een beter VRM mogelijk.
Maar dan nog met custom PCB's over 3 maanden is ook een beter VRM mogelijk.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat weet ikPhuncz schreef op zaterdag 12 september 2015 @ 08:32:
FL12_1 is niet één specifieke vorm van DX12, het is een reeks extra (optionele ?) voorzieningen.
Oke laten we dat dan in het midden houden, ik zie nergens iets waar ze het ontkennen alles wijst er denk ik wel op dat het bijna een showcase is voor async imoThe Fox NL schreef op zaterdag 12 september 2015 @ 11:15:
[...]
AotS gebruikt helemaal niet extreem veel Asynchrone shaders, dat hebben ze zelf gezegd.
Als ik hier dan door lees http://on-demand.gputechc...5752-Alexey-Panteleev.pdf
Zie ik wel interessante zaken die nVidia kan gebruiken en ook tiled resource applications dat aangedreven wordt door physics (waar devs rekening mee moeten houden? zie project cars oa).
Dus ik vraag me af wat er gaat gebeuren komt er meer GameWorks, gaan Devs meer voor AMD programmeren een bedrijf dat op sterven na dood is, nVida $22 per aandeel AMD 2$ per aandeel, 18% van de discrete kaarten die over de toonbank gaan is van AMD, via nVidia verkopen ze meer spellen.
En als nVidia mindere async heeft hoeveel is dan genoeg. Ik denk dat te veel mensen van beide kanten al verregaande assumpties maken, ik zelf ben gewoon erg benieuwd.
Een van de devs van AoS heeft er toch heel erg duidelijk wat over gezegd. Hieronder het relevante deel van zijn relaas:Nature schreef op zaterdag 12 september 2015 @ 19:20:
Oke laten we dat dan in het midden houden, ik zie nergens iets waar ze het ontkennen alles wijst er denk ik wel op dat het bijna een showcase is voor async imo
Veel directer kun je het niet krijgen dat AoS maar gematigd gebruik maakt van Async Compute en dus verre van een showcase....I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn’t a poster-child for advanced GCN features.
Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven’t made their way to the PC yet, but I’ve heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC...
Als je naar de pc markt voor grafische kaarten kijkt liggen de verhoudingen inderdaad aardig scheef. 52,21% voor nVidia, 27% voor AMD, en 20% voor Intel (bron)Nature schreef op zaterdag 12 september 2015 @ 19:20:
[...]
Dat weet ik
[...]
18% van de discrete kaarten die over de toonbank gaan is van AMD, via nVidia verkopen ze meer spellen.
Maar hoeveel pc-only titels gaan we zien komende tijd? Want zodra je de twee significante consoles erbij betrekt (beide GCN gpu's) zal het er wat anders uitzien. Daarnaast is games piraten op consoles minder van toepassing, dus verhoudingsgewijs liggen de verkopen daar hoger.
Edit: ik probeer niet onvoorwaardelijk de situatie voor AMD goed te praten, ik beschouw mijzelf als onafhankelijk. Wat ik wel van harte hoop is dat AMD zo snel mogelijk marktaandeel terugsnoept, als het weer rond de 50/50 zit hebben wij daar als consument het meeste voordeel bij.
[ Voor 17% gewijzigd door Trygve op 12-09-2015 21:17 ]
Het is misschien zo op de pc-markt. Maar de console markt is nu 100% in handen van AMD, Nintendo gaat waarschijnlijk ook over op een GCN based gpu dus je kan er van uit gaan dat devs gaan optimaliseren voor GCN. Dat DX12 toevallig ook features zoals Async Compute heeft net zoals de consoles is dan heel erg mooi voor AMD. Developers gaan sowieso gebruik maken van Async Compute indien ze hun console spellen er een beetje goed willen laten uitzien (ten opzichte van de competitieNature schreef op zaterdag 12 september 2015 @ 19:20:
[...]
Dat weet ik
[...]
Oke laten we dat dan in het midden houden, ik zie nergens iets waar ze het ontkennen alles wijst er denk ik wel op dat het bijna een showcase is voor async imo
Als ik hier dan door lees http://on-demand.gputechc...5752-Alexey-Panteleev.pdf
Zie ik wel interessante zaken die nVidia kan gebruiken en ook tiled resource applications dat aangedreven wordt door physics (waar devs rekening mee moeten houden? zie project cars oa).
Dus ik vraag me af wat er gaat gebeuren komt er meer GameWorks, gaan Devs meer voor AMD programmeren een bedrijf dat op sterven na dood is, nVida $22 per aandeel AMD 2$ per aandeel, 18% van de discrete kaarten die over de toonbank gaan is van AMD, via nVidia verkopen ze meer spellen.
En als nVidia mindere async heeft hoeveel is dan genoeg. Ik denk dat te veel mensen van beide kanten al verregaande assumpties maken, ik zelf ben gewoon erg benieuwd.
Ik denk dat devs zelfs eerder voor Async Compute gaan dan voor Nvidia only dingen, tenzij het GW titels zijn. Waarom zou een dev iets gaan gebruiken wat alleen maar op de pc kan worden gebruikt en dan alleen op een klein select aantal kaarten (Maxwell 2) want Kepler kan het niet, je kan in dit geval stellen dat AMD veel meer dan 50% van de markt in handen heeft.
Er zijn al volgens mij 4 titels aangekondigd die gebruik gaan maken van Async Compute. Als je het correcte aantal wilt weten dan zal je een aantal pagina's terug moeten kijken. (ik ga niet elke keer dezelfde info posten
Als game developers alleen maar naar aandelen zouden kijken dan zou het foute boel zijn. Denk ook niet dat ze dat doen.
Async zal natuurlijk wel gebruikt worden maar in hoeverre, ze zullen wel nVidia in hun achterhoofd houden denk ik en zowiezo hoeveel heb je nodig voor een normale game zonder duizenden explosies tegelijk.Sp3ci3s8472 schreef op zondag 13 september 2015 @ 01:42:
[...]
Het is misschien zo op de pc-markt. Maar de console markt is nu 100% in handen van AMD, Nintendo gaat waarschijnlijk ook over op een GCN based gpu dus je kan er van uit gaan dat devs gaan optimaliseren voor GCN. Dat DX12 toevallig ook features zoals Async Compute heeft net zoals de consoles is dan heel erg mooi voor AMD. Developers gaan sowieso gebruik maken van Async Compute indien ze hun console spellen er een beetje goed willen laten uitzien (ten opzichte van de competitie).
FL 12_1 zal nu alleen gebruikt worden door Maxwell maar dat veranderd over een (relatief) korte tijd met pascal.
Hier in Nederland denk je misschien wel een beetje hoe het zit maar in het overgrote deel van Azie
Zuid Amerika Rusland Afrika is PC gaming booming en wordt er weinig console gegamed de PC gaming markt wereldweid is een grotere dan die van alle consoles bij elkaar.
Vandaar dat nVidia zo'n goedlopend bedrijf is en dat devs zeker rekening met hen houden, misschien kan je hardware maken voor consoles ook door de lage marges meer als 'heitje voor een karweitje doen' zien.
AMD had in 2013 een opleving naar rond de 37% verkopen door de mining, laatste kwartaal van 2014 22.5% en nu 18% dit plus de aandelen zie je wie er veel kaarten verkoopt, losse kaarten en in OEM PC's laptops, kaarten voor professioneel gebruik name it.
Je zegt dat AMD veel meer dan 50% van de markt in handen heeft (serieus
Ik denk dat developers wel naar dit soort cijfers kijken en er ook afwegingen mee maken kwa koers en manier van programmeren, een console game is na 2 of 3 jaar niet meer te krijgen dezelfde game op de pc is na 10+jaar nog te krijgen via online distributie ed.
Async compute is geen GFX pushende feature maar mogelijkheid tot parraleliseren van drie hoofd taken.
Render en compute en copy. Dat zie je niet kwa gfx maar dat merk je kwa performance.
De hoofd doel van DX12 is down to the metal. Dus efficent utiliseren van de GPU door overhead van de CPU te minimaliseren en gebruik maken van de vele cores die CPU in heden al standaard hebben.
Maxwel2.0 bied als enige wat extra features. Dat is klein aandeel onder de nV g- card gebruikers. Dus dat is ook al optioneel. Daarnaast kunnen deze features met andere features ook ge- emuleerd worden. Mogelijk niet zo efficent als het direct ondersteund zou worden. Ook zijn ze onderdeel van DX11.3
Pascal, ik vraag mij af of deze wel ACE goed zal ondersteunen, grote kans van niet.
Zo ja, ook AMD komt ook met hun nextgen. ACE zal al zwaar ge- implementeerd zijn. Maar mogelijk ook volledigere DX12 featureset. GCN1.3?
Ik denk dat die gamework games en cudaPhysX game en zware testalatie games het vaker wel stuk beter doen op nVidia. Zo ook Rop bound games.
Maar ook wat games die aardig wat extra performance krijgen door ACE.
En AMD is dan ook niet meer zo CPU bound met DX12 en komt goed mee met 1080P
Die voorkeur kan mogelijk tot soms extreme verschillen leiden. Wil je mogelijk het snelste van snelste hebben moet je twee gamePC ene op nV basis en andere op AMD basis. Met beide intel CPU.
Render en compute en copy. Dat zie je niet kwa gfx maar dat merk je kwa performance.
De hoofd doel van DX12 is down to the metal. Dus efficent utiliseren van de GPU door overhead van de CPU te minimaliseren en gebruik maken van de vele cores die CPU in heden al standaard hebben.
Maxwel2.0 bied als enige wat extra features. Dat is klein aandeel onder de nV g- card gebruikers. Dus dat is ook al optioneel. Daarnaast kunnen deze features met andere features ook ge- emuleerd worden. Mogelijk niet zo efficent als het direct ondersteund zou worden. Ook zijn ze onderdeel van DX11.3
Pascal, ik vraag mij af of deze wel ACE goed zal ondersteunen, grote kans van niet.
Zo ja, ook AMD komt ook met hun nextgen. ACE zal al zwaar ge- implementeerd zijn. Maar mogelijk ook volledigere DX12 featureset. GCN1.3?
Ik denk dat die gamework games en cudaPhysX game en zware testalatie games het vaker wel stuk beter doen op nVidia. Zo ook Rop bound games.
Maar ook wat games die aardig wat extra performance krijgen door ACE.
En AMD is dan ook niet meer zo CPU bound met DX12 en komt goed mee met 1080P
Die voorkeur kan mogelijk tot soms extreme verschillen leiden. Wil je mogelijk het snelste van snelste hebben moet je twee gamePC ene op nV basis en andere op AMD basis. Met beide intel CPU.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Hij neemt hier de consoles mee.Nature schreef op zondag 13 september 2015 @ 03:36:
[...]
Je zegt dat AMD veel meer dan 50% van de markt in handen heeft (serieus?) daar ga ik verder maar niet op in.
[...]
Unrelated, een fix voor de 390 drivers crashes komt eraan:
https://community.amd.com/message/2671041#2671041
Hello everyone,
Thank you for bringing this issue to our attention and being patient whilst we investigated the issue internally. I just wanted to take a moment to give you all a quick update on the status of play and the progress we’ve made, thanks to your reports.
We’ve made great progress and are no longer seeing the issue with the latest internal build, however we will continue testing on various configurations. Once we’ve confirmed that the issue is resolved and the driver is ready to be released, we’ll be sure to let everyone know about it.
I understand how frustrating this issue is, but I can promise you that we’re working on getting it resolved as soon as possible.
[ Voor 60% gewijzigd door LongBowNL op 13-09-2015 10:50 . Reden: 390 driver crashes ]
Ja, serieus. Als je mijn post goed had gelezen dan had je gezien hoeNature schreef op zondag 13 september 2015 @ 03:36:
[...]
Async zal natuurlijk wel gebruikt worden maar in hoeverre, ze zullen wel nVidia in hun achterhoofd houden denk ik en zowiezo hoeveel heb je nodig voor een normale game zonder duizenden explosies tegelijk.
FL 12_1 zal nu alleen gebruikt worden door Maxwell maar dat veranderd over een (relatief) korte tijd met pascal.
Hier in Nederland denk je misschien wel een beetje hoe het zit maar in het overgrote deel van Azie
Zuid Amerika Rusland Afrika is PC gaming booming en wordt er weinig console gegamed de PC gaming markt wereldweid is een grotere dan die van alle consoles bij elkaar.
Vandaar dat nVidia zo'n goedlopend bedrijf is en dat devs zeker rekening met hen houden, misschien kan je hardware maken voor consoles ook door de lage marges meer als 'heitje voor een karweitje doen' zien.
AMD had in 2013 een opleving naar rond de 37% verkopen door de mining, laatste kwartaal van 2014 22.5% en nu 18% dit plus de aandelen zie je wie er veel kaarten verkoopt, losse kaarten en in OEM PC's laptops, kaarten voor professioneel gebruik name it.
Je zegt dat AMD veel meer dan 50% van de markt in handen heeft (serieus?) daar ga ik verder maar niet op in.
Ik denk dat developers wel naar dit soort cijfers kijken en er ook afwegingen mee maken kwa koers en manier van programmeren, een console game is na 2 of 3 jaar niet meer te krijgen dezelfde game op de pc is na 10+jaar nog te krijgen via online distributie ed.
Om het verhaal nog een keer te doen. Stel ik ben een game developer en ik ga een spel maken voor de consoles en de pc. Dan weet ik dat de consoles als architectuur GCN gebruiken, nu wil ik als game developer dat mijn spel goed presteerd op de consoles. Als game developer maak ik de keuze om Async Compute te gebruiken omdat dat een prestatie winst gaat geven op de consoles.
Nu ga ik het spel poorten naar de pc, op de pc maakt AMD ook gebruik van GCN. Ga ik dan Async Compute eruit slopen? Nee dat laat ik er lekker inzitten en geeft wellicht AMD kaarten een performance boost ten opzichte van de Nvidia kaarten.
Als game developer heb je maar een bepaalt budget, als ik mijn spel ga optimaliseren dan ga ik iets gebruiken wat op zo veel mogelijk platformen te gebruiken valt. Async Compute doet dat omdat de consoles en een klein gedeelte van de pc markt dat ondersteunt.
Tenzij ik geld toegeschroven krijg van Nvidia of in hun TWIMTBP programma zit dan ga ik geen feature implementeren die misschien maar 5% van de hele markt gebruikt (want Kepler ondersteunt geen DX12_1 en 12_0).
Dus om het markt aandeel nog eens duidelijk te krijgen. AMD heeft een markt aandeel van meer dan 50% omdat ze de consoles + een gedeelte van de pc markt hebben.
Nog eens als een game developer een spel gaat maken voor een console dan gaan ze echt nooit naar de aandelen van een bedrijf kijken. Er zijn maar 3 consoles waarvoor ze een next gen spel kunnen maken, deze consoles gebruiken allemaal AMD.
Maxwell 2 heeft misschien maar 5% (en waarschijnlijk is dit al een overschatting) van de hele markt en is als enige architectuur die DX12_1 ondersteunt, het is het voor veel developers waarschijnlijk gewoon niet waard om daar specifiek iets voor te gaan schrijven totdat er meer kaarten komen die het ondersteunen. Dus Pascal en de volgende generatie AMD kaarten.
/rant
Maxwel 2.0 heeft +/- 7% van de pc markt in handen.
Edit: GCN heeft +/- 10% van de pc markt in handen.
http://store.steampowered.com/hwsurvey/videocard/
Sowieso is het veel logischer om voor consoles te optimaliseren, want echt powerhouses zijn dat niet. Games die echt fullHD zijn, zijn knap zeldzaam [als ze er al zijn] en qua grafische pracht en praal stelt het ook vaak teleur, en, om het helemaal af te maken, echt hoge FPS is er ook niet.
Als game dev wil je dus echt eruit halen wat erin zit, en dat betekend dus erg zwaar leunen op Async.
En het aantal kaarten van AMD wat die async compute goed ondersteunt is volgens mij ook stevig in de meerderheid, gezien een HD7950 dat al ondersteunt [als ik het goed heb]. Nou, ik zie de GTX660ti dat niet doen
Overigens vraag ik me daarom wel af waarom er nu nog GTX970's en the like worden aangeraden, echt slim lijkt dat mij niet, van een R9 390 of R9 380 weet je dat ze goed presteren, van de GTX970 is dat maar afwachten.
Als game dev wil je dus echt eruit halen wat erin zit, en dat betekend dus erg zwaar leunen op Async.
En het aantal kaarten van AMD wat die async compute goed ondersteunt is volgens mij ook stevig in de meerderheid, gezien een HD7950 dat al ondersteunt [als ik het goed heb]. Nou, ik zie de GTX660ti dat niet doen
Overigens vraag ik me daarom wel af waarom er nu nog GTX970's en the like worden aangeraden, echt slim lijkt dat mij niet, van een R9 390 of R9 380 weet je dat ze goed presteren, van de GTX970 is dat maar afwachten.
People as things, that’s where it starts.
Mijn vermoeden:RobinHood schreef op zondag 13 september 2015 @ 15:52:
Overigens vraag ik me daarom wel af waarom er nu nog GTX970's en the like worden aangeraden, echt slim lijkt dat mij niet, van een R9 390 of R9 380 weet je dat ze goed presteren, van de GTX970 is dat maar afwachten.
1. Nvidia is veel populairder en heeft een hogere brand loyalty
2. DX12 en Async Compute zijn nog maar pas een feit
3. er is nog geen concrete en kritisch aanvaarde vergelijking
Over 1 en 2 heb je zeker gelijk, ik ken wel wat verstokte AMD fans [mijzelf included] maar de Nvidia fans zijn inderdaad in de meerderheid.Phuncz schreef op zondag 13 september 2015 @ 15:58:
[...]
Mijn vermoeden:
1. Nvidia is veel populairder en heeft een hogere brand loyalty
2. DX12 en Async Compute zijn nog maar pas een feit
3. er is nog geen concrete en kritisch aanvaarde vergelijking
Maar 3, tja, zolang 1 van de 2 merken het heel slecht doet in een test, zullen fans van dat merk zeggen dat die test niet klopt, niet eerlijk is etc. Diezelfde stuiptrekking zag je bij Nvidia zelf al "het is een MSAA probleem!"
Natuurlijk, meer benchmarks is beter, maar soms moet je roeien met de riemen die je hebt, en daaruit blijkt dat op dit moment Nvidia kopen en verwachten goede prestaties te hebben in DX12 niet echt samengaan. Natuurlijk kan Nvidia nog het nodige bijschaven in de drivers, maar, ook hardwarematig moet het goed zitten. En of dat zou is moet nog maar blijken [of het is misschien al duidelijk, maar ik lees veel tegenstrijdigheid]
People as things, that’s where it starts.
Je bedoelt Tiled Resources, die gebaseerd zijn op Partial Resident Textures van AMD? Dezelfde Tiled Resources die Nvidia pre-Maxwell 2 slechts emuleert, waardoor het grootste deel van de prestatie winst weer verloren gaat?Nature schreef op zaterdag 12 september 2015 @ 19:20:
Zie ik wel interessante zaken die nVidia kan gebruiken en ook tiled resource applications dat aangedreven wordt door physics (waar devs rekening mee moeten houden? zie project cars oa).
Anoniem: 668222
Het maakt vrij weinig uit wat je nu moet kopen. Ik zou me eerder druk maken als dx 12 race is begonnen met games en dat kan nu nog wel een duren. Je heb sowieso dx 12 titels die waarschijnlijk beter op bedrijf al lopen zoals Unreal engine 4 games en die beter op bedrijf B lopen vanwege andere optimalisaties. Dat AMD uit marketing roept alle games in handen te hebben moet je niet geloven want 80% van de gamers laten de gameontwikkelaars heus niet links liggen want ze willen ook de games nog verkopen.RobinHood schreef op zondag 13 september 2015 @ 16:06:
[...]
Natuurlijk, meer benchmarks is beter, maar soms moet je roeien met de riemen die je hebt, en daaruit blijkt dat op dit moment Nvidia kopen en verwachten goede prestaties te hebben in DX12 niet echt samengaan. Natuurlijk kan Nvidia nog het nodige bijschaven in de drivers, maar, ook hardwarematig moet het goed zitten. En of dat zou is moet nog maar blijken [of het is misschien al duidelijk, maar ik lees veel tegenstrijdigheid]
Ze laten ze niet links liggen, ze presteren alleen minder goed dankzij Nvidia's design.
People as things, that’s where it starts.
Bij Unreal heb ik echt het gevoel dat ze in de engine zelf echt AMD kaarten lopen te vernachelen...
Ik speel al meer dan een jaar nu Renegade X, een fan-made C&C Renegade remake (geen single player, alleen multi).
Deze maakt gebruik van de unreal engine (volgens mij 3).
Met één van de grote updates (4.x uit mijn hoofd), merkte ik en wat andere AMD gebruikers dat onze FPS ineens naar beneden gingen en dat eigenlijk alle nVidia gebruikers melde dat het spel nog nooit zo soepel speelde
De Devs hebben gezegd dat er vanuit hun kant geen optimalizaties doorgevoerd zijn voor grafische kaarten (zover gaat hun kennis namelijk niet), maar dat ze enkel een nieuwere build van de UDK hebben gebruikt.
Ik verloor gewoon iets van 20 á 25% van mijn totale FPS (afhankelijk van de situatie).
@Splitffire
Het hangt er vanaf hoe je de gaming markt bekijkt.
Sommige bedrijven zullen PC en consoles op één hoop gooien, terwijl PC only bedrijven enkel naar PC stats kijken.
Een multiplatform spel heeft bijna gratis optimalisaties voor AMD, als er echt rekening wordt gehouden met de capaciteiten van GCN, terwijl bij nVidia dan weer meer nagedacht moet worden en zaken aangepast moeten worden.
Gezien een flinke hoeveelheid slechte ports van een tijd geleden, zal er dus gepoogd worden zo min mogelijk te moeten doen. Wat er dus voor kan zorgen dat je in de aanbevolen specificaties ineens een zwakkere AMD GPU ziet en een beest van een nVidia kaart (heb het omgekeerde volgens mij ook wel gezien).
Ik speel al meer dan een jaar nu Renegade X, een fan-made C&C Renegade remake (geen single player, alleen multi).
Deze maakt gebruik van de unreal engine (volgens mij 3).
Met één van de grote updates (4.x uit mijn hoofd), merkte ik en wat andere AMD gebruikers dat onze FPS ineens naar beneden gingen en dat eigenlijk alle nVidia gebruikers melde dat het spel nog nooit zo soepel speelde

De Devs hebben gezegd dat er vanuit hun kant geen optimalizaties doorgevoerd zijn voor grafische kaarten (zover gaat hun kennis namelijk niet), maar dat ze enkel een nieuwere build van de UDK hebben gebruikt.
Ik verloor gewoon iets van 20 á 25% van mijn totale FPS (afhankelijk van de situatie).
@Splitffire
Het hangt er vanaf hoe je de gaming markt bekijkt.
Sommige bedrijven zullen PC en consoles op één hoop gooien, terwijl PC only bedrijven enkel naar PC stats kijken.
Een multiplatform spel heeft bijna gratis optimalisaties voor AMD, als er echt rekening wordt gehouden met de capaciteiten van GCN, terwijl bij nVidia dan weer meer nagedacht moet worden en zaken aangepast moeten worden.
Gezien een flinke hoeveelheid slechte ports van een tijd geleden, zal er dus gepoogd worden zo min mogelijk te moeten doen. Wat er dus voor kan zorgen dat je in de aanbevolen specificaties ineens een zwakkere AMD GPU ziet en een beest van een nVidia kaart (heb het omgekeerde volgens mij ook wel gezien).
Ik heb je verhaal ook echt naar mijn weten goed gelezen, een game werd bijvoorbeeld voor een console ontwikkeld worden om met compute te werken AMD is daar er goed in sinds iig de HD7000 serie vandaar ook het minenj, waarna het spel geport wordt om haast volledig met tessellation te werken. Ik denk dat async gebruikt gaat worden op de PC maar niet zo veel om nVidia te erg voor het hoofd te stoten, we weten ook niet hoe verre nVidia async kan gebruiken.Sp3ci3s8472 schreef op zondag 13 september 2015 @ 15:23:
[...]
Ja, serieus. Als je mijn post goed had gelezen dan had je gezien hoe. Zie reactie van LongBowNL maar.
Om het verhaal nog een keer te doen. Stel ik ben een game developer en ik ga een spel maken voor de consoles en de pc. Dan weet ik dat de consoles als architectuur GCN gebruiken, nu wil ik als game developer dat mijn spel goed presteerd op de consoles. Als game developer maak ik de keuze om Async Compute te gebruiken omdat dat een prestatie winst gaat geven op de consoles.
Nu ga ik het spel poorten naar de pc, op de pc maakt AMD ook gebruik van GCN. Ga ik dan Async Compute eruit slopen? Nee dat laat ik er lekker inzitten en geeft wellicht AMD kaarten een performance boost ten opzichte van de Nvidia kaarten.
Als game developer heb je maar een bepaalt budget, als ik mijn spel ga optimaliseren dan ga ik iets gebruiken wat op zo veel mogelijk platformen te gebruiken valt. Async Compute doet dat omdat de consoles en een klein gedeelte van de pc markt dat ondersteunt.
Tenzij ik geld toegeschroven krijg van Nvidia of in hun TWIMTBP programma zit dan ga ik geen feature implementeren die misschien maar 5% van de hele markt gebruikt (want Kepler ondersteunt geen DX12_1 en 12_0).
Dus om het markt aandeel nog eens duidelijk te krijgen. AMD heeft een markt aandeel van meer dan 50% omdat ze de consoles + een gedeelte van de pc markt hebben.
Nog eens als een game developer een spel gaat maken voor een console dan gaan ze echt nooit naar de aandelen van een bedrijf kijken. Er zijn maar 3 consoles waarvoor ze een next gen spel kunnen maken, deze consoles gebruiken allemaal AMD.
Maxwell 2 heeft misschien maar 5% (en waarschijnlijk is dit al een overschatting) van de hele markt en is als enige architectuur die DX12_1 ondersteunt, het is het voor veel developers waarschijnlijk gewoon niet waard om daar specifiek iets voor te gaan schrijven totdat er meer kaarten komen die het ondersteunen. Dus Pascal en de volgende generatie AMD kaarten.
/rant
Maxwel 2.0 heeft +/- 7% van de pc markt in handen.
Edit: GCN heeft +/- 10% van de pc markt in handen.
http://store.steampowered.com/hwsurvey/videocard/
De performance boost die je noemt kan wel eens uitblijven of op zich laten wachten denk ik, voor zover dat telt. The Witcher 3 draait ruk op alles behalve Maxwell 2 die 7% v/d markt in handen heeft dat weerhield
cd project er toch niet van om wss een grote zak geld aan te nemen en er een Maxwell 2 exclusive van te maken, dat soort praktijken helpen nVidia alleen maar gpu's te verkopen. Maxwell 2 is er ook pas een jaar en gcn 4 jaar ofzo nu al? het is denk ik een andere strategie.
Het kan dus dat het weer gewoon tesselation met gameworks maar dan met wat async worden, we kunnen alleen wachten en zien wat echte ontwikkel studio's gaan doen en DX12 implementeren.
Dat ene alleen nog van dat AMD gpu/apu een aandeel van meer dan 50% heeft daar zijn geen cijfers van, je kan door je westerse bril kijken 15% v/d wereldbevolking die veel console gamed tegenover de niet westerse bril 85% v/d wereld bevolking. die het meeste PC gamed
Ik bedoel wat ik zegWerelds schreef op zondag 13 september 2015 @ 16:39:
[...]
Je bedoelt Tiled Resources, die gebaseerd zijn op Partial Resident Textures van AMD? Dezelfde Tiled Resources die Nvidia pre-Maxwell 2 slechts emuleert, waardoor het grootste deel van de prestatie winst weer verloren gaat?
Partial Resident Textures die textures beter of anders onthoudt voor later zodat je minder hoeft te laden ofzo, heeft er volgens mij weinig mee te maken.
Ja unreal
Een licenceerbare engine die PhysX gebruikt heeft voor mij te dike banden met PU bakker.
Zo ook Havok met iNtel. Zie liever dat men als licenceerbare game engine bouwer zelf de physics engine implementeerd en daarbij vrij is om Cuda en OpenCL dx compute en C++AMP te gebruiken.
Zoon engine die AMD APU de ondie GPU misbruiken voor compute en daarmee fine grain AI en Physics
doen. Of kijken waar de meeste rekenkracht beschikbaar is CPU of GPU.
Dan kunnen ze de gameplay physics drastisch opschroefen.
ipv beperkt te zijn aan NV only extra effect PhysX.
en zich daarmee op gameplay vlak flink onderscheiden.
Een licenceerbare engine die PhysX gebruikt heeft voor mij te dike banden met PU bakker.
Zo ook Havok met iNtel. Zie liever dat men als licenceerbare game engine bouwer zelf de physics engine implementeerd en daarbij vrij is om Cuda en OpenCL dx compute en C++AMP te gebruiken.
Zoon engine die AMD APU de ondie GPU misbruiken voor compute en daarmee fine grain AI en Physics
doen. Of kijken waar de meeste rekenkracht beschikbaar is CPU of GPU.
Dan kunnen ze de gameplay physics drastisch opschroefen.
ipv beperkt te zijn aan NV only extra effect PhysX.
en zich daarmee op gameplay vlak flink onderscheiden.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Async Compute gaat Nvidia niet voor het hoofd stoten, zo is het niet bedoelt. Als je een bepaalde feature op een kaart hebt dan zal het worden gebruikt, heb je de feature niet dan wordt het niet gebruikt. Het is ook niet het doel om Nvidia zijn kop te laten stoten in tegenstelling tot GameWorks. Het doel is dat mensen met een GCN kaart en toekomstige AMD/Nvidia kaarten met Async Compute een performance winst zien.Nature schreef op zondag 13 september 2015 @ 18:54:
[...]
Ik heb je verhaal ook echt naar mijn weten goed gelezen, een game werd bijvoorbeeld voor een console ontwikkeld worden om met compute te werken AMD is daar er goed in sinds iig de HD7000 serie vandaar ook het minenj, waarna het spel geport wordt om haast volledig met tessellation te werken. Ik denk dat async gebruikt gaat worden op de PC maar niet zo veel om nVidia te erg voor het hoofd te stoten, we weten ook niet hoe verre nVidia async kan gebruiken.
Dat is toch precies wat ik omschrijf, game deveopers zullen het best implementeren zodra ze een zak geld krijgen toegeschoven.De performance boost die je noemt kan wel eens uitblijven of op zich laten wachten denk ik, voor zover dat telt. The Witcher 3 draait ruk op alles behalve Maxwell 2 die 7% v/d markt in handen heeft dat weerhield
cd project er toch niet van om wss een grote zak geld aan te nemen en er een Maxwell 2 exclusive van te maken, dat soort praktijken helpen nVidia alleen maar gpu's te verkopen. Maxwell 2 is er ook pas een jaar en gcn 4 jaar ofzo nu al? het is denk ik een andere strategie.
Het kan dus dat het weer gewoon tesselation met gameworks maar dan met wat async worden, we kunnen alleen wachten en zien wat echte ontwikkel studio's gaan doen en DX12 implementeren.
Daar zijn geen exacte cijfers van, daarom gok ik ook maar op 50%. Als AMD al meer dan 18% van de discrete markt in handen heeft dan is die extra 30% van de consoles niet zo ver gegrepen. Die 18% is maar van 1 kwartaal, eerder hadden ze een groter markt aandeel.Dat ene alleen nog van dat AMD gpu/apu een aandeel van meer dan 50% heeft daar zijn geen cijfers van, je kan door je westerse bril kijken 15% v/d wereldbevolking die veel console gamed tegenover de niet westerse bril 85% v/d wereld bevolking. die het meeste PC gamed
Overigens heb ik geen hedendaagse console staan en game ik op een pc
Wat ik wil zeggen is dat de kans dat een spel gebruik gaat maken van Async Compute een stuk groter is dan dat het gebruik gaat maken van DX12_1 only features (tenzij zak geld)
@SG
Helaas heeft Unity ook voor PhysX gekozen, gelukkig hebben ze EINDELIJK een update gedaan naar de nieuwste versie en hebben we multicore support. Ik had liever gezien dat ze voor een andere engine hadden gekozen die open was.
Maar in het geval van Unity is er nog wat voor te zeggen omdat het een engine is die veel door indie developers wordt gebruikt en die meestal niet de resources hebben om een eigen physics engine te bouwen of een andere te integreren.
Unreal ligt al zolang in bed met Nvidia dat ik me niet eens meer kan herinneren dat het ooit niet zo was
Nee hoor, PRT is waar Tiled Resources op gebaseerd is. Heeft AMD met GCN geintroduceerd (inclusief een OGL extensie), Nvidia heeft vervolgens een uitgebreidere versie gemaakt (ook weer inclusief OGL extensie) en dat is in z'n geheel vrijwel 1 op 1 TR gewordenNature schreef op zondag 13 september 2015 @ 18:54:
Ik bedoel wat ik zegin de link die ik gaf staat dat nVidia FL12_1 hardwarematig doet http://on-demand.gputechc...5752-Alexey-Panteleev.pdf
Partial Resident Textures die textures beter of anders onthoudt voor later zodat je minder hoeft te laden ofzo, heeft er volgens mij weinig mee te maken.
PRT/TR draait er om dat je in plaats van hele textures slechts "tiles" (hokjes) laadt. Je moet het zien alsof een texture in een dambord wordt verdeeld. Normaal gesproken moet je alle 64 de hokjes laden, ook al heb je er eigenlijk slechts 19 uit het midden nodig. Met TR laadt je alleen die stukjes. Op zich is dit al een geheugen besparing, maar het wordt veel mooier als je dit met mip-map levels combineert. Als je het in actie wil zien, moet je dit filmpje eens bekijken (±17:30 vind ik de mooiste demo). Wat in dat filmpje gebeurt is dat ze met 16 MB gewoon tot in super hoog detail kunnen gaan. Eind resultaat? 3GB aan texture informatie in die 16 MB gepropt
Buiten Maxwell 2 emuleert Nvidia dat allemaal, met als gevolg dat je toch meer geheugen nodig hebt en dat er meer gestreamed moet worden...dat ook al niet versneld kan worden met Async Copy
Naast tiled resources heb je in 12_1 ook conservative rasterization en raster order views. http://www.extremetech.co...vidia-do-and-dont-deliver
Daarnaast adverteren ze met een hoop meer dat mogelijk is door FL12 en FL12_1. (pr misschien gedeeltelijk)
Ik vond het een leuk filmpje ik heb hem helemaal gekeken wat deed alleen die nvidia doos op tafel
''Tiled Resources, exclusive to DirectX 11.2'' zoals in het filmpje bestond nog niet toen de GTX 780 uit kwam dus dat heeft er wel mee te maken denk ik dat hij er niet hardwarematig mee overweg kan.
Het doet er misschien niet toe ook omdat tot nu toe alleen Windows 8.1 er mee overweg kon en die heeft bijna iedereen overgeslagen.
Daarnaast adverteren ze met een hoop meer dat mogelijk is door FL12 en FL12_1. (pr misschien gedeeltelijk)
Ik vond het een leuk filmpje ik heb hem helemaal gekeken wat deed alleen die nvidia doos op tafel
''Tiled Resources, exclusive to DirectX 11.2'' zoals in het filmpje bestond nog niet toen de GTX 780 uit kwam dus dat heeft er wel mee te maken denk ik dat hij er niet hardwarematig mee overweg kan.
Het doet er misschien niet toe ook omdat tot nu toe alleen Windows 8.1 er mee overweg kon en die heeft bijna iedereen overgeslagen.
[ Voor 5% gewijzigd door Nature op 13-09-2015 23:49 ]
Tiled Resources zit niet in 12_1. 12_1 is alleen CR en ROV. Tiled Resources bestaat op alle feature levels als optionele feature met 3 tiers. Op 12_0 is minimaal tier 2 vereist, maar tier 3 blijft optioneel.Nature schreef op zondag 13 september 2015 @ 23:46:
Naast tiled resources heb je in 12_1 ook conservative rasterization en raster order views. http://www.extremetech.co...vidia-do-and-dont-deliver
Daarnaast adverteren ze met een hoop meer dat mogelijk is door FL12 en FL12_1. (pr misschien gedeeltelijk)
Die Nvidia "doos" (is een PC) is de demo machine, ze emuleerden hier de hele handel al op de shaders. Hele conference bekijken, grootste deel van hun demo's zijn pure emulatie (sommige zelfs op de CPU).Ik vond het een leuk filmpje ik heb hem helemaal gekeken wat deed alleen die nvidia doos op tafel
Grappig hoe je zegt dat TR er wellicht niet toe doet omdat Nvidia er later pas mee kwam, maar wel hamert op CR en ROVs.''Tiled Resources, exclusive to DirectX 11.2'' zoals in het filmpje bestond nog niet toen de GTX 780 uit kwam dus dat heeft er wel mee te maken denk ik dat hij er niet hardwarematig mee overweg kan.
Het doet er misschien niet toe ook omdat tot nu toe alleen Windows 8.1 er mee overweg kon en die heeft bijna iedereen overgeslagen.
Juist die CR ondersteuning is niet boeiend omdat Nvidia's implementatie maar heel barebones is: tier 1, halve pixel precisie. Skylake doet tier 3, dat is 1/512e van een pixel. Tier 2 is al meteen 1/256e van een pixel. Een halve pixel is het niet waard, dan win je vrijwel niets ten opzichte van hoe men CR nu al doet: nu rendert men triangles 1 pixel groter dan nodig, met transparency; exact hetzelfde effect als 1/2 pixel precisie.
Sterker nog, Tier 1 CR is een lachertje; los van die lage precisie, hebben tier 2 en 3 juist de functies die normaal gesproken veel tijd kosten. Precisie berekenen van verschoven vertexes - maar veel belangrijker, inner coverage: dat wil zeggen dat je van tevoren aan geeft welke pixels gegarandeerd "vol" zijn, zo bespaar je dus kostbare tijd. Tier 1 bestaat puur en alleen omdat Nvidia er om heeft gevraagd. CR wordt pas boeiend als een hoop hardware tier 3 ondersteunt - op z'n vroegst over een jaar of 2-3, als we 2 generaties verder zijn.
Edit: afbeelding er bij om uit te leggen wat CR precies doet:

De grijze pixels zijn wat gerenderd wordt. Zonder CR zou je pixels (2,2), (2,3), (3,1), (3,2), (3,3) met deelse transparantie renderen (waarbij dat X,Y is, met 1,1 links boven). Met CR render je dus 5 pixels meer. Echter wat deze afbeelding laat zien kan Nvidia's implementatie nog niet eens, omdat je triangle daar minimaal 50% van een pixel moet beslaan. Met andere woorden, Nvidia's implementatie zou hier ook gewoon hetzelfde als zonder CR renderen. En als je triangle 50% van een pixel beslaat, kun je net zo goed een extra pixel renderen voor hetzelfde effect.
Daarnaast bekijkt Nvidia's implementatie ook pixel (3,2) - die pixel is gegarandeerd volledig bedekt (geen transparantie) en kan dus overgeslagen worden; pas op tier 3 kun je dit aangeven. Als je dus 1 miljoen van deze triangles hebt, zijn dat 1 miljoen minder pixels die gecheckt hoeven worden (even afgezien van culling, wat weer een heel ander verhaal is en te maken heeft met tier 2
Die deelse transparantie is nuttig voor bijvoorbeeld schaduw, foliage. Het vergroot de precisie waarmee je zulke dingen rendert; en het maakt ze "strakker".
[ Voor 19% gewijzigd door Werelds op 14-09-2015 00:51 ]
draait niet echt slecht op mijn amd 290 hoor. hele spel uitgespeeld met 60fps met hairworx ook nog aan (zag er toch iets beter uit).Nature schreef op zondag 13 september 2015 @ 18:54:
[...]
The Witcher 3 draait ruk op alles behalve Maxwell 2 die 7% v/d markt in handen heeft dat weerhield
cd project er toch niet van om wss een grote zak geld aan te nemen en er een Maxwell 2 exclusive van te maken, dat soort praktijken helpen nVidia alleen maar gpu's te verkopen. Maxwell 2 is er ook pas een jaar en gcn 4 jaar ofzo nu al? het is denk ik een andere strategie.
Het kan dus dat het weer gewoon tesselation met gameworks maar dan met wat async worden, we kunnen alleen wachten en zien wat echte ontwikkel studio's gaan doen en DX12 implementeren.
krijgt ook nog een dx12 update dus dat is dan misschien een leuke compensatie.
zie de toekomst voor het gpu gedeelte eigenlijk wel positief. zolang dx12 maar gepushed wordt en de 970 ed daarin vreselijk achter gaat lopen. zo komt de r9 en fury weer mooi in beeld.
Nukezone FTW
AMD Readies Radeon R9 380X, XFX Ready with Card
AMD is readying a new SKU to take advantage of the vast pricing gap between the GeForce GTX 960 and GTX 970, and to bolster its sub-$300 lineup, with the Radeon R9 380X. This SKU will be based on the 28 nm "Tonga" silicon, which implements the latest Graphics CoreNext 1.2 architecture. The R9 380X could max out the specifications of the "Tonga" silicon, offering 2,048 stream processors spread across 32 compute units, 128 TMUs, 32 ROPs, and a 384-bit wide GDDR5 memory interface, holding either 3 GB or 6 GB of memory.Another equally plausible theory pins the R9 380X as a chip with 2,048 stream processors, but the same 256-bit GDDR5 memory interface of the R9 380, with 4 GB of memory, letting AMD keep the costs low. XFX appears to be ready with a "Double Dissipation" card based on the R9 380X. The card's new-generation Double Dissipation cooler features an aluminium fin-stack heatsink with four 8 mm thick nickel-plated copper heat pipes, and a pair of 100 mm spinners, which are easily detachable, letting you clean the heatsink underneath. Mass-production of the R9 380X is reportedly underway, so a launch is to be expected rather soon.

http://www.techpowerup.co...-xfx-ready-with-card.html
De lang verwachte volledige Tonga chip.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ow snap, ik zag het al aankomen toen ik vorige week las over de sterfhuis constructie van AMD, maar het wordt steeds concreter.
http://nl.hardware.info/n...ername-amd-door-microsoft
Jammer, maar begrijpelijk als je de jaarverslagen leest.
http://nl.hardware.info/n...ername-amd-door-microsoft
Jammer, maar begrijpelijk als je de jaarverslagen leest.
Dat lijkt me bekoorlijk vergezocht. Microsoft gaat juist steeds verder de service kant op, met een beetje hardware als "proof of concept" voor OEMs.eL_Jay schreef op maandag 14 september 2015 @ 10:57:
Ow snap, ik zag het al aankomen toen ik vorige week las over de sterfhuis constructie van AMD, maar het wordt steeds concreter.
http://nl.hardware.info/n...ername-amd-door-microsoft
Jammer, maar begrijpelijk als je de jaarverslagen leest.
Een hele chip fabrikant kopen past daar niet echt bij.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Juist, dus als je het maar wekelijks als nieuws brengt en elke keer blijkt het weer niet waar te zijn is het ditmaal wel waar natuurlijk.eL_Jay schreef op maandag 14 september 2015 @ 10:57:
maar het wordt steeds concreter.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Geen sterfconstructie. Deze constructie geeft de Radeon afdeling meer vrijheid. Nu hoeft niet alles meer te worden goedgekeurd door de CEO (Lisa Su) maar alleen door het hoofd van de Radeon afdeling.eL_Jay schreef op maandag 14 september 2015 @ 10:57:
Ow snap, ik zag het al aankomen toen ik vorige week las over de sterfhuis constructie van AMD, maar het wordt steeds concreter.
http://nl.hardware.info/n...ername-amd-door-microsoft
Jammer, maar begrijpelijk als je de jaarverslagen leest.
That's cute (en lichtelijk naief). Heeft natuurlijk helemaal niets mee te maken met het feit dat de succesvolle divisie(s) zo gesplitst wordt van de minder succesvolle divisie(s) en dat deze hierdoor veel geschikter is voor een overname, dat is een leuke bijkomstigheidLongBowNL schreef op maandag 14 september 2015 @ 12:16:
[...]
Geen sterfconstructie. Deze constructie geeft de Radeon afdeling meer vrijheid. Nu hoeft niet alles meer te worden goedgekeurd door de CEO (Lisa Su) maar alleen door het hoofd van de Radeon afdeling.
Vergezocht zeker, onmogelijk nee. Wellicht past dit bij hun lange termijnsvisie voor hun hardware (xbox, WP, Surface). Wat ik behoorlijk vergezocht vind is dat AMD over 5 jaar nog autonoom GPU's prduceert.Jeroenneman schreef op maandag 14 september 2015 @ 11:02:
[...]
Dat lijkt me bekoorlijk vergezocht. Microsoft gaat juist steeds verder de service kant op, met een beetje hardware als "proof of concept" voor OEMs.
Een hele chip fabrikant kopen past daar niet echt bij.
Kijk voor de gein eens in de jaarverslagen. Verhouding debt en assets gaat de verkeerde kant op, AMD maakt al ff geen winst (verlies in 2014 was groter dan in 2013, maar kleiner dan in 2012). En ook de market value gaat als een raket na beneden sinds de overname van ATI
Meest waarschijnlijke partijen vind ikzelf toch:
Samsung, Apple, Microsoft, IBM, Mediatek, ARM en Intel. Maar van een foundry zou ik ook niet staan te kijken aangezien een gemiddelde chip fabriek al 4 keer zoveel waard is als AMD. (AMD lijkt me echt een koopje voor 1,5 miljard maar ik ken hun patentenportfolio niet)
Dan is het ook een leuke bijkomstigheid dat een succesvolle afdeling meer vrijheid krijgt om eventueel beter te presteren.eL_Jay schreef op maandag 14 september 2015 @ 12:30:
[...]
That's cute (en lichtelijk naief). Heeft natuurlijk helemaal niets mee te maken met het feit dat de succesvolle divisie(s) zo gesplitst wordt van de minder succesvolle divisie(s) en dat deze hierdoor veel geschikter is voor een overname, dat is een leuke bijkomstigheid.
[...]
Werd eens tijd. Het blijft vreemd dat er zo lang niets tussen de 380 en 390 zat.
Nvidia heeft in dat gebied (tussen de 960 en 970) ook helemaal niets.
Mechwarrior Online: Flapdrol
Anoniem: 668222
Ja hairworks op normal of high hairworks AA 2x 4x of 8x alleen op Geralt? resulutie en de rest van de instellingen? De impact op de fps is bij mij nog steeds heel groot op mijn gtx 980 ti en mag blij zijn dat ik niet onder de 50 fps duik in huisjes en in dichte bossen of bij een grote beer, alles op max 1080pPowrskin schreef op maandag 14 september 2015 @ 01:01:
[...]
draait niet echt slecht op mijn amd 290 hoor. hele spel uitgespeeld met 60fps met hairworx ook nog aan (zag er toch iets beter uit).
krijgt ook nog een dx12 update dus dat is dan misschien een leuke compensatie.
zie de toekomst voor het gpu gedeelte eigenlijk wel positief. zolang dx12 maar gepushed wordt en de 970 ed daarin vreselijk achter gaat lopen. zo komt de r9 en fury weer mooi in beeld.
plaatje is ff sneller. 1920x1200. niet helemaal altijd 60fps trouwens, maar viel me op dat het me niet uitmaakte. geen haperingen/strepen oid. videokaart is wel een stukkie overklokt naar 1100mhzAnoniem: 668222 schreef op maandag 14 september 2015 @ 13:01:
[...]
Ja hairworks op normal of high hairworks AA 2x 4x of 8x alleen op Geralt? resulutie en de rest van de instellingen? De impact op de fps is bij mij nog steeds heel groot op mijn gtx 980 ti en mag blij zijn dat ik niet onder de 50 fps duik in huisjes en in dichte bossen of bij een grote beer, alles op max 1080p

Nukezone FTW
Erop hamert klinkt een beetje alsof ik partijdig ben misschien ben ik ook wel aan het shoppen voor een nieuwe GPU ondertussen, ik denk wel dat nVidia er iets mee gaat doen persoonlijk anders had nVidia het niet geimplementeerd ''om gevraagd'' (om te pochen?)[b]Werelds schreef op maandag 14 september 2015 @ 00:39:
Grappig hoe je zegt dat TR er wellicht niet toe doet omdat Nvidia er later pas mee kwam, maar wel hamert op CR en ROVs.
Tier 1 bestaat puur en alleen omdat Nvidia er om heeft gevraagd. CR wordt pas boeiend als een hoop hardware tier 3 ondersteunt - op z'n vroegst over een jaar of 2-3, als we 2 generaties verder zijn.
Dan ROV daar moet ik me nog wat inlezen
Het is gewoon de vraag wat publishers doen, jij hebt misschien enig idee van wat sommige devs willen doen via via van wat ik in een andere thread las maar het extreme voorbeeld The Witcher 3, AMD dacht ook dat ze goed zaten tot vlak voor de release, tot cd projekt niet door de devs maar door het bestuur de 'money guys' HairWorks implementeerde.
Dat is het punt ook een beetje publishers geven niets om AMD, Ubisoft bv levert spellen af die pas maanden later draaien op AMD terwijl nVidia een day 1 driver heeft.
Dat terwijl het spel ontwikkeld is voor gcn, zo zijn er veel publishers die dat doen optimaliseer voor nVidia en je hebt bijna de hele markt te pakken en dan schuiven ze nog met geld toe voor de kleinere studio's en je hebt de poppen aan het dansen.
Als ik hier kijk met een R9 390 haalt hij tussen de 40 en 50 FPS ultra met Hairworks uit en ook zonder vijanden dan gaat er ook nog wel 15-20 FPS vanaf.Powrskin schreef op maandag 14 september 2015 @ 01:01:
[...]
draait niet echt slecht op mijn amd 290 hoor. hele spel uitgespeeld met 60fps met hairworx ook nog aan (zag er toch iets beter uit).
krijgt ook nog een dx12 update dus dat is dan misschien een leuke compensatie.
zie de toekomst voor het gpu gedeelte eigenlijk wel positief. zolang dx12 maar gepushed wordt en de 970 ed daarin vreselijk achter gaat lopen. zo komt de r9 en fury weer mooi in beeld.
YouTube: The Witcher 3 R9 390 Ultra settings 1080p (Hairworks off)
Je zal hem goed getweaked hebben!
Ik gun ze allebei met DX12 het beste vooral dat AMD er een beetje bovenop komt dat is goed voor ons gamers allemaal, voordat ik mijn GTX 970 had heb ik 3 kaarten (4 met crossfire erbij) van AMD gehad na mijn 8800GTX en daarvoor afgewisseld, dus ik ben echt niet partijdig ofzo voor zover dat wat uitmaakt.
gras op ultra bv vreet fps. daarbij heb ik AA uit staan. zie plaatjeNature schreef op maandag 14 september 2015 @ 17:07:
[...]
Als ik hier kijk met een R9 390 haalt hij tussen de 40 en 50 FPS ultra met Hairworks uit en ook zonder vijanden dan gaat er ook nog wel 15-20 FPS vanaf.
YouTube: The Witcher 3 R9 390 Ultra settings 1080p (Hairworks off)
Je zal hem goed getweaked hebben!
Ik gun ze allebei met DX12 het beste vooral dat AMD er een beetje bovenop komt dat is goed voor ons gamers allemaal, voordat ik mijn GTX 970 had heb ik 3 kaarten (4 met crossfire erbij) van AMD gehad na mijn 8800GTX en daarvoor afgewisseld, dus ik ben echt niet partijdig ofzo voor zover dat wat uitmaakt.
zomaar spellen op ultra doe ik eigenlijk nooit, altijd texture en detail ultra, schaduw, gras en vijanden mag iets naar beneden. belichting afhankelijk per spel.
tressfx ben ik meer fan van
Nukezone FTW
Anoniem: 668222
Ik en fan van beide omdat ze bij mij bijde enorm de boel in kakken
Tress fx aan gemiddeld 176 fps en Tress fx uit gemiddeld 262 fps en dan heb ik het nog niet over de min fps gehad. Niet dat het wat uit maakt bij zo veel fps maar op 4k of met SSAA gaat het om speelbaar of niet speelbaar.
Tress fx aan gemiddeld 176 fps en Tress fx uit gemiddeld 262 fps en dan heb ik het nog niet over de min fps gehad. Niet dat het wat uit maakt bij zo veel fps maar op 4k of met SSAA gaat het om speelbaar of niet speelbaar.
[ Voor 22% gewijzigd door Anoniem: 668222 op 14-09-2015 18:34 ]
Anoniem: 687019
Kan iemand mij wat vertellen over de volgende AMD Radeon videokaart: Radeon R7 M260
Met welke Nvidia kan ik deze vergelijken en in hoeverre is dit een betere videokaart dan de Nvidia GT 920M?
Ik hoor het graag en alvast bedankt!
Met welke Nvidia kan ik deze vergelijken en in hoeverre is dit een betere videokaart dan de Nvidia GT 920M?
Ik hoor het graag en alvast bedankt!
Volgens meerdere sites (Google is je vriend met dit soort vragen) zijn ze gelijkwaardig qua performance.
Stond net op het punt een R9-380 te kopen. Heb nu een 7950, de R9-380 heeft net zoveel steamprocessor als de 7950 maar biedt veel meer performance. Maar de R9-380X gebaseerd op GCN 1.2 en 2048 streamprocessor is voor mij toch een betere stap. Er is een groot gat tussen de R9 390/970 en de R9-380/ 960 en deze nieuwe kaart kan dit mooi invullen.Dus wordt even afwachten.-The_Mask- schreef op maandag 14 september 2015 @ 10:54:AMD Readies Radeon R9 380X, XFX Ready with Card
AMD is readying a new SKU to take advantage of the vast pricing gap between the GeForce GTX 960 and GTX 970, and to bolster its sub-$300 lineup, with the Radeon R9 380X. This SKU will be based on the 28 nm "Tonga" silicon, which implements the latest Graphics CoreNext 1.2 architecture. The R9 380X could max out the specifications of the "Tonga" silicon, offering 2,048 stream processors spread across 32 compute units, 128 TMUs, 32 ROPs, and a 384-bit wide GDDR5 memory interface, holding either 3 GB or 6 GB of memory.
Another equally plausible theory pins the R9 380X as a chip with 2,048 stream processors, but the same 256-bit GDDR5 memory interface of the R9 380, with 4 GB of memory, letting AMD keep the costs low. XFX appears to be ready with a "Double Dissipation" card based on the R9 380X. The card's new-generation Double Dissipation cooler features an aluminium fin-stack heatsink with four 8 mm thick nickel-plated copper heat pipes, and a pair of 100 mm spinners, which are easily detachable, letting you clean the heatsink underneath. Mass-production of the R9 380X is reportedly underway, so a launch is to be expected rather soon.
[afbeelding]
http://www.techpowerup.co...-xfx-ready-with-card.html
De lang verwachte volledige Tonga chip.
In het kort: yep. Want voor de rest hebben ze simpelweg niet veel. Ik weet dat ik vaak anti-Nvidia over kom, maar dat is puur omdat ik weet waar de meeste techniek vandaan komt. TR komt van AMD, ROVs van Intel. CR komt van een stel studenten, ergens in 2006 meen ik. Niets van dit alles komt bij Nvidia vandaan, dus dan gaan ze pushen op de dingen die zij wel en AMD niet hebben. En zeker gezien het feit dat zelfs GCN 1.0 nog zo veel features ondersteunt, moet Nvidia's marketing machine volop aan het werk.Nature schreef op maandag 14 september 2015 @ 17:07:
ik denk wel dat nVidia er iets mee gaat doen persoonlijk anders had nVidia het niet geimplementeerd ''om gevraagd'' (om te pochen?)
Nvidia kan proberen wat ze willen, met 5% marktaandeel is CR gewoon niet boeiend - laat staan Tier 1. Daar krijgen ze niemand voor om gekocht. Nogmaals, vergeet niet dat het bij Nvidia alleen om Maxwell 2 gaat. De rest van de chips zit echt helemaal onderaan wat ondersteuning betreft. Je moet Nvidia's marktaandeel alleen vanuit Maxwell 2.0 bekijken, de rest is simpelweg irrelevant; die zitten (veel) lager dan GCN.
ROVs zijn een ander verhaal, daar willen devs wel van alles mee. De belangrijkste toepassing (OIT) is echter iets dat bij AMD wel mogelijk is, dus wellicht dat we in elk geval dat zien. Maar ook hier geldt weer dat het beperkte marktaandeel roet in het eten gooit. OIT zien we heel misschien, maar voor de rest zien we ook dit weer niet.Dan ROV daar moet ik me nog wat inlezen
Huh, hoe kom je erbij dat de 380 (285) veel meer performance biedt dan de 7950? Dat scheelt misschien net 10% (afhankelijk van de kloksnelheid).polli_ schreef op maandag 14 september 2015 @ 20:34:
[...]
Stond net op het punt een R9-380 te kopen. Heb nu een 7950, de R9-380 heeft net zoveel steamprocessor als de 7950 maar biedt veel meer performance. Maar de R9-380X gebaseerd op GCN 1.2 en 2048 streamprocessor is voor mij toch een betere stap. Er is een groot gat tussen de R9 390/970 en de R9-380/ 960 en deze nieuwe kaart kan dit mooi invullen.Dus wordt even afwachten.
Als je iets tussen de 7950/285/380 en de 290/390/290X wilt hebben kun je natuurlijk ook (nog steeds) een 280X nemen.
Anoniem: 668222
Leuk waterblokje voor op de Fury Nano klein maar fijn.

http://www.techpowerup.co...-r9-nano-water-block.html

http://www.techpowerup.co...-r9-nano-water-block.html
Yup, zo kunnen wel héél kleine en performante systemen gemaakt worden. Twee van deze rakkers zorgt er al voor dat 4K met 60fps geen probleem meer is.
Nieuwe Linux Drivers http://support.amd.com/en...t15-9LINReleaseNotes.aspx :
AMD Catalyst™ 15.9 Proprietary Linux Graphics Driver Release Notes
Resolved Issues:Known Issues:
- [425910] Driver installation sometimes fails on Ubuntu 14.04.3
- [424450] Company of Heroes® 2 - Game crashes while running the performance test
- [424794] Middle-earth™: Shadow of Mordor - Corruption observed in game
- [424882] DIRT® Showdown - Corruption observed in game
- [425234] DIRT® Showdown - Game crashes after the loading screen
- [424802] DOTA™ 2 – Application hang observed while exiting the game
- [424255] AMD Catalyst™ Installer removing EGL links resulting in Xserver/Xorg load failure
- [423471] Unable to switch desktop mode after installing AMD Catalyst™ driver
- [423735] Renaming Counter-Strike: GO and other Steam game binary improves performance
- [419960]: Vari-Bright on some configurations is not decreasing brightness as expected
- [425912] Alien: Isolation - Blank screen or corruption observed on the main menu in game
Anoniem: 532949
Ik zit ook te wachten op de r9 380x , had al een vermoede dat die binnenkort zou komen 
heb nu een r9 270x , hoop dat die ongeveer 30 % sneller gaat zijn, dan koop ik hem.
Het is vooral leuk omdat het een GCN 1.2 architectuur is, en ik van plan ben om een 1440p scherm te halen met freesync.
Ik las geruchten dat het ook een 256bits versie blijft, dit zou ik niet erg vinden, maar wel jammer. Aangezien ik het liefs zie dat het een 6gb versie word, zodat ik hem later in CF kan gaan draaien.
heb nu een r9 270x , hoop dat die ongeveer 30 % sneller gaat zijn, dan koop ik hem.
Het is vooral leuk omdat het een GCN 1.2 architectuur is, en ik van plan ben om een 1440p scherm te halen met freesync.
Ik las geruchten dat het ook een 256bits versie blijft, dit zou ik niet erg vinden, maar wel jammer. Aangezien ik het liefs zie dat het een 6gb versie word, zodat ik hem later in CF kan gaan draaien.
Ongeveer 30%? Dat ding heeft 768 meer streamprocessors, dat is meer dan de helft van die 270X. Reken maar op zo'n 60% verbetering.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Toch verbaas ik me er over wat mijn 270x nog kan draaien. Batman Arkham Knight zou overal zo brak draaien, maar ik draai deze gewoon maxed out (op 1080p).
That's god damn sexyAnoniem: 668222 schreef op dinsdag 15 september 2015 @ 09:11:
Leuk waterblokje voor op de Fury Nano klein maar fijn.
[afbeelding]
http://www.techpowerup.co...-r9-nano-water-block.html

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Anoniem: 532949
Iemand hier die kort iets over AMD's crossfire over pcie kan zeggen. Hoe is dat , iemand ervaring hiermee ? En dan het liefst een kaart uit de gcn 3 architectuur
[ Voor 73% gewijzigd door Anoniem: 532949 op 17-09-2015 00:07 ]
En dat is niet stiekem op 30fpsspNk schreef op woensdag 16 september 2015 @ 20:52:
Toch verbaas ik me er over wat mijn 270x nog kan draaien. Batman Arkham Knight zou overal zo brak draaien, maar ik draai deze gewoon maxed out (op 1080p).
Momenteel zeer te spreken over 2x r9 295x2 in CF, zonder bruggetjeIemand hier die kort iets over AMD's crossfire over pcie kan zeggen. Hoe is dat , iemand ervaring hiermee ? En dan het liefst een kaart uit de gcn 3 architectuur
Nog geen na delen gevonden, ook geen micro-stutter of andere hik-ups in game
Als je meer vragen hebt kan je me anders PM om dit topic ''schoon'' te houden.
Dit topic is gesloten.