CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 130 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 8 ... 10 Laatste
Acties:
  • 29.173 views

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

PAHvandam schreef op zaterdag 20 juni 2015 @ 15:46:
[...]


Ben het hier helemaal mee eens. AMD komt over het algemeen veel slechter in het nieuws dan dat Nvidia doet. Toen het issue van de 970 kaarten naar boven kwam, was het moord en brand. Nadat Nvidia zei dat het geen probleem is, was het ook meteen weer over, alsof het allemaal maar kan. Als AMD dit had gedaan, zou men nog harder schreeuwen dan dat men voor de verklaring deed.

Even kort: beide kampen zullen vaak zat dingen uithalen die niet door de beugel heen kunnen. Waarbij ik denk dat Nividia dit zelfs nog meer doet dan AMD. Misschien moeten mensen gewoon kijken naar wat het beste product is voor hun. naar hun wensen en eisen. En dan maakt het merk geen donder uit.
Volgens mij was dat juist een enorme PR fuckup van Nvidia, misschien wel de grootste in jaren.

Belangrijkste punt echter, was dat behalve een custom programma om doorvoersnelheden te meten, het in games nauwelijks/niet uitmaakte. Daarna is het inderdaad een beetje een storm in een glas water gebleken.

Was het netjes? Nee.
Leverde het problemen op met games? Nee, want voordat het langzame geheugen is gebruikt, zit je allang op onspeelbare framerates.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Verwijderd

unfor schreef op zaterdag 20 juni 2015 @ 10:58:
Dat kitguru verhaal komt bij mij over als een AMD die bang is voor kritiek.
Zal mij dan ook niets verbazen dat fury een flinke tegenvaller word.
unfor schreef op zaterdag 20 juni 2015 @ 11:46:
[...]

Dat mag jij denken, maar niemand heeft de feiten.
Ik denk dat AMD toch bang is voor matige reviews.
unfor schreef op zaterdag 20 juni 2015 @ 12:13:
[...]
ik zou die gelekte benchmark nog maar heel even met een korreltje zout nemen.
Tot we echte benchmarks zien blijft het gokken.
Wie weet neemt die gpu 500 watt om in de buurt van 980ti te komen, met de historie van AMD in het achterhoofd is er niets dat mij kan verbazen.
De ervaring leert dat benchmarks zo kort voor de release vaak redelijk in de buurt zitten. Het komt maar zelden voor dat en kaart veel beter of slechter presteert. Alles wat we de laatste paar weken gezien hebben wijst er op dat de Fury iets langzamer of even snel is als de 980 Ti. Dat is geen gokwerk, dat is afgaan op de informatie die er is. Dat gokken noemen is niks anders dan je vastklampen aan strohalmen om maar vol te kunnen houden dat de Fury X misschien wel eens tegen zou kunnen vallen.


sdk1985 schreef op zaterdag 20 juni 2015 @ 20:43:
[...]

Dat zou heel goed nieuws zijn. De overige afdelingen trekken nu Radeon alleen maar omlaag (lagere marges, steeds lager R&D budget).
Mja, ik twijfel een beetje. Voor de graphics afdeling zou het goed zijn, maar zonder de graphics afdeling is het maar de vraag of de CPU afdeling de afgelopen jaren überhaupt overleefd zou hebben. Het zou dus wel eens slecht nieuws voor de CPU afdeling kunnen zijn. :/

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 13:43
In het westen is het "normaal" om je op één ding te richten; je core competencies. Volgens die logica is AMD beter af door zich puur op cpu ontwerp te richten. In theorie kan dat heel goed werken. In de praktijk zijn er natuurlijk ook veel succesvolle bedrijven die het heel anders doen (Samsung bijvoorbeeld, die doen alles van verzekeringen tot boten bouwen) en veel bedrijven die dat juist hebben geprobeerd en falen (bijvoorbeeld Philips die alles af stoot wat los en vast zit).

Maar wat mij betreft staat het vast dat Ati Radeon er niet beter van geworden is. De overname was niet bepaald de doodsteek voor Nvidia die het had kunnen zijn.

ps
De fail van de GTX 970 is onvergetelijk dankzij o.a. dit filmpje:
[YouTube: https://www.youtube.com/watch?v=BdwUsalwBJ8]

De 660Ti scheen overigens een vergelijkbare configuratie te hebben.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geweldig filmpje :) Het zal nog wel even duren voordat de overnamen zijn meerwaarde zal tonen. De SoC in de consoles zijn hier slechtst een begin van. Hopelijk hebben ze met Zen weer eens een competatieve CPU architectuur. Op GPU vlak zitten ze wel snor op het gebrek aan een nieuw productie proceed na. Met de komst van 14nm zal dit hopelijk blijken. Zeker als nVidia voor 16nm van TSMC gaat. Dan is nog wel de vraag wie eerder zijn productie kan beginnen, nVidia of AMD.

Hopelijk valt het productie procedé voor hun Zen gebaseerde SoC goed uit. In het verleden resulteerde een nieuw productie procedé niet altijd in betere prestaties (65nm). 65nm voor AMD is destijds een ontzettend slecht productie procedé geweest. Aangezien een nieuwe partij, met meer geld, en Samsung betrokken zijn bij het nieuwe productie procedé (14nm FF) heb ik er wel vertrouwen in.

Met de komst van HBM kunnen ze eindelijk op een fatsoenlijke manier een GPU en een CPU samenbrengen zonder dat de GPU vast zit aan te traag geheugen. Daarnaast krijg je dan een heel erg compact moederbord als er uitsluitend gebruikt wordt gemaakt van HBM geheugen, ideaal voor laptops, AIO, HTPCs etc.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 10:42
Ik denk dat de overdreven rebrand problemen ook in de naamgeving zit.

Zonder Fury was er waarschijnlijk minder tegenstand geweest. Dan was de line-up waarschijnlijk zo:

390x -> Fiji (water)
390 -> Fiji (lucht)
380x -> oude 290x
380 -> oude 290
370x -> Tonga
370 -> oude 280/Kleine Tonga
360 -> Hetzelfde als nu (???)

Dan lijkt het iets minder erg omdat de rebrand een niveau lager wordt geplaatst qua performance. (net als in de 7000 -> 2xx rebrand)

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 16:24

Kuusj

Ofwel varken in 't Limburgs

sdk1985 schreef op zaterdag 20 juni 2015 @ 21:08:
In het westen is het "normaal" om je op één ding te richten; je core competencies. Volgens die logica is AMD beter af door zich puur op cpu ontwerp te richten. In theorie kan dat heel goed werken. In de praktijk zijn er natuurlijk ook veel succesvolle bedrijven die het heel anders doen (Samsung bijvoorbeeld, die doen alles van verzekeringen tot boten bouwen) en veel bedrijven die dat juist hebben geprobeerd en falen (bijvoorbeeld Philips die alles af stoot wat los en vast zit).

Maar wat mij betreft staat het vast dat Ati Radeon er niet beter van geworden is. De overname was niet bepaald de doodsteek voor Nvidia die het had kunnen zijn.

ps
De fail van de GTX 970 is onvergetelijk dankzij o.a. dit filmpje:
[video]

De 660Ti scheen overigens een vergelijkbare configuratie te hebben.
Klopt allemaal, maar we mogen eigenlijk nog blij zijn DAT er concurrentie is, wie weer hoeveel we anders op dit moment achter hadden gelegen. HBM had dan nog geen mens van gehoord, heck, "4k, wat is dat"?

En dit video, keer op keer springen de tranen me in de ogen van het lachen hahahaha :+

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Dit is misschien al eerder voorbij gekomen:
what-are-your-opinions-on-dx12vulkanmantle
De user die dit poste heeft een intern bij nVidia gelopen.
The last piece to the puzzle is that we ran out of new user-facing hardware features many years ago. Ignoring raw speed, what exactly is the user-visible or dev-visible difference between a GTX 480 and a GTX 980? A few limitations have been lifted (notably in compute) but essentially they're the same thing. MS, for all practical purposes, concluded that DX was a mature, stable technology that required only minor work and mostly disbanded the teams involved. Many of the revisions to GL have been little more than API repairs. (A GTX 480 runs full featured OpenGL 4.5, by the way.) So the reason we're seeing new APIs at all stems fundamentally from Andersson hassling the IHVs until AMD woke up, smelled competitive advantage, and started paying attention. That essentially took a three year lag time from when we got hardware to the point that compute could be directly integrated into the core of a render pipeline, which is considered normal today but was bluntly revolutionary at production scale in 2012. It's a lot of small things adding up to a sea change, with key people pushing on the right people for the right things.
Dan is de volgende statement van AMD Vice President of Global Channel Sales, Roy Taylor een stuk logischer, zijn statement "that there will be no DirectX12 at any time in the future."

Overigens op sommige site lees je nu dat mensen het oneerlijk vinden dat er zo meteen een watergekoelde GPU (de Fury x) wordt vergeleken met de luchtgekoelde GTX980TI :+. Wat ze even vergeten is dat het anders heel moeilijk is om de GPU en het geheugen fatsoenlijk te koelen. Wat het hilarisch maakt is dat AMD nu eindelijk met een fatsoenlijk GPU koeler komt en het nu weer niet goed is }:O.

offtopic:
Hilarisch is niet het goede woord, typisch moment dat het woord op je tong ligt maar dat je er niet op kan komen.

[ Voor 3% gewijzigd door Sp3ci3s8472 op 21-06-2015 00:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Er gaat een gerucht dat het HBM geheugen op die fuji gelocked is, en oc'en alleen nog maar 'kan' met de GPU. Vandaar die sheet die je zag met alleen een 100MHz increase in Core-clock.

Wel jammer, ik zou HBM juist willen oc'en omdat je de latency ook verlaagt met een hogere snelheid. :Y)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

LongBowNL schreef op zaterdag 20 juni 2015 @ 23:12:
Ik denk dat de overdreven rebrand problemen ook in de naamgeving zit.

Zonder Fury was er waarschijnlijk minder tegenstand geweest.
Ik denk dat de reden waarom Fury geen 300-series naam heeft gekregen, ermee te maken heeft dat AMD de 300-series zo snel mogelijk achter zich wil laten. Niet morgen maar misschien tegen het eind van het jaar of begin 2016 ? Dan verwacht ik een 400-series met ergens Fiji als een rebrand en een aantal nieuwe kaarten in de lineup. Het zal sowieso verfrissend zijn om Nvidia en AMD back on track te zien na het TSMC probleem waardoor beide hun planning om zeep was.
Sp3ci3s8472 schreef op zondag 21 juni 2015 @ 00:41:
Dit is misschien al eerder voorbij gekomen:
what-are-your-opinions-on-dx12vulkanmantle
De user die dit poste heeft een intern bij nVidia gelopen.
Dat leek me een jaar geleden ook, er werd extreem weinig gedaan met DX en de verhalen over het inefficiënte design ervan kwamen toen al uit allerlei hoeken. Wat me vooral opvalt is hoe snel MS een DX12 concept en werkend model uit de grond gestampt heeft.
Overigens op sommige site lees je nu dat mensen het oneerlijk vinden dat er zo meteen een watergekoelde GPU (de Fury x) wordt vergeleken met de luchtgekoelde GTX980TI :+. Wat ze even vergeten is dat het anders heel moeilijk is om de GPU en het geheugen fatsoenlijk te koelen. Wat het hilarisch maakt is dat AMD nu eindelijk met een fatsoenlijk GPU koeler komt en het nu weer niet goed is }:O.
Haters will be haters, maar het is typerend voor fanboyism. De GTX 970's 3,5GB is geen probleem, de Fury's 4GB HBM is een schandaal. :X

Acties:
  • 0 Henk 'm!

Verwijderd

Ja hun heb je ook nog, die gaan zeuren om 4gb of om wc vs lucht hopelijk doen review sites dat niet want dat is geen redenen om een kaart op te bekritiseren. Sterker nog voor in een kleine kast lijkt me de fury X erg interessant want de Fury X is amper langer dan het pcie slot en ziet er ook nog eens geweldig mooi uit.
Afbeeldingslocatie: http://www.guru3d.com/index.php?ct=news&action=file&id=11161

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Er lijkt een schakelaartje te zitten linksboven die strip LEDs. Op een high-res foto zag ik "ON" erop staan, wat waarschijnlijk erop duidt dat je de LEDs kunt uitschakelen als je niet zo voor de VU-meter feature bent :)

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

Ben echt wel benieuwd naar de benchmarks en wat ze gaan doen in de toekomst (wrs nog meer CU's erin proppen)

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

Rebrands zijn helaas gewoontjes geworden. Dus jammer voor 300 serie. De nieuwste zijn 960, 980 en 980Ti en aankomende tegenhangers, de Nano Fury FuryX. Rebrands hoe relevant? Zelfs featurelevel van GCN1.0 overtreft fermi en kepler. Dus de laaste en eerste bieden een andere mix aan features dan maxwell 1 en 2. Waar D3D_FL_12_1 een gecastreerde incomplete FL is. Dus Rebrand houd niet in dat je kwa DX12 enorm achter loopt. Zelfs niet met de oudste GCN!

Als ik alle features in DX12 SDK hardwarematig wil gebruiken heb ik sowieso een
Maxwell2 en Fury nodig. Zonder terug te vallen op reference of Warp device. Daarnaast is ook handig te weten hoe belangrijk elke features eigenlijk zijn? Gezien GPU allemaal wel iets extra hebben en wat missen.
Met de drawcall CPU ontlasting kan je nu stuk wilder gaan met resource bindings en dan bied Tier3 je veel marge. Wat GCN oudste al bied. Rebrand is niet gewenst, maar blijkbaar wordt het massaal gedaan en hoe kreupel zijn die oudjes? De grote architectuur stap wordt gedaan naar de 14 of 16nm procédés. Een nieuwe D3D_FL_12_2 of hoger kan dan te verwachten zijn. 8GB of meer HBM voor AMD en nV wordt de norm, allemaal van die compacte PCB. Dan verwacht ik mogelijk de meer DX12 feature complete hardware. Maar er kunnen weer nieuwe features geïntroduceerd worden.

AMD loopt chronisch achter door een ding, de beschikbare procede voor chip produktie.
Met enkele hoofd fab is procede overstap al flinke opgave omdat huidige productie in de weg zit. Dan wordt elke procede step ook duurder en moeizamer. Afsplitsing kan de foundry groeien en dmv schaal vergroting zijn procedes step beter te doen, maar samenwerking toch nog hard nodig, tov de grotere foundries.

Het help enorm als je groot bent en 3 fabrieken van paar dozijn aan fabrieken kan omzetten. Zonder volume productie in te boeten. Daarnaast met zoveel fabs kan je ook makkelijker de Tic en Tock beleid handhaven. Ook CPU met enorme L3 caches. En met surplus aan R&D ook architectuur op grote schaal verbeteren. Ook met de vele lijnen makkelijk enorme diversiteit. Het is dus volgens verwachting dat iNtel ver voor loopt.

Daarnaast zou AMD CPU op 14nm met meer dan 4 modules de huidige iNtels kunnen verslaan, omdat iNtel nog niet de maximum potentie er uit haald. Met concurentie in de top zou je nu 16 core extreem editions hebben, die ver boven de 125watt trekken. Ja Hoger geklokte Xeon CPU. Dan zou iNtel met hun IPC voordeel mogelijk toch de kroon weer hebben. Ten opzichte van een fictieve 16 core 8 modules AMD FX.

Daarnaast doet AMD niet onder voor kwaliteit, alleen in performance en verbruik.

Het is geen Trabant vs VW. Maar eerder Seat vs VW. Waar VW , exclusief de VAG "downsized" CO2 reductie TFSI, BlueMotion etc motoren gebruikt en Seat exclusief de standaard ongeblazen VAG motoren.

Maar de naam heeft meer te maken met consumenten mentaliteit. Volksstammen nemen duurder aan voor hogere kwaliteit. Wat soms ook wel klopt maar kunnen ook uitzonderingen zijn als duur maar slechter of je betaald puur voor naam. Alleen als producent kan je er niet veel aan doen. Behalve de prijs verhogen!. Intel loopt voor op performance en verbruik. En daar kan AMD niet veel aan doen dan wat TMSC en GF hen bied. En die lopen zwaar achter.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Stoffa
  • Registratie: Februari 2005
  • Laatst online: 10:43
Ik snap echt niets van die discussies over fanboyism tussen AMD en nvidia altijd. We hebben het hier over een computeronderdeel dat in je kast verdwijnt, en daarna toch overwegend functioneel is (namelijk zorgen voor een goede framerate). Dat dat zoveel emoties bij mensen teweeg brengt heb ik nooit begrepen.

Zelf kijk ik na de release van Fury naar prijs/prestatie. Vergelijk met 980ti en koop waar m'n euro t meeste waard is. Dan klik ik die kaart in m'n pc en ga ik weer counterstriken en witcheren.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Stoffa schreef op zondag 21 juni 2015 @ 13:17:
Ik snap echt niets van die discussies over fanboyism tussen AMD en nvidia altijd. We hebben het hier over een computeronderdeel dat in je kast verdwijnt, en daarna toch overwegend functioneel is (namelijk zorgen voor een goede framerate). Dat dat zoveel emoties bij mensen teweeg brengt heb ik nooit begrepen.

Zelf kijk ik na de release van Fury naar prijs/prestatie. Vergelijk met 980ti en koop waar m'n euro t meeste waard is. Dan klik ik die kaart in m'n pc en ga ik weer counterstriken en witcheren.
Komt omdat het iets is waar we als tweakers dichtbij staan. Het zal mij persoonlijk ook een worst wezen wie er nou wint met voetbal of het nou feyenoord/ajax of brazilie/duitsland is. Zolang ze maar een leuke wedstrijd spelen de keer dat ik toevallig erop zap.
Ik denk dat iedereen wel iets heeft waar hij een fanboy van is, dat tweakers het met videokaarten hebben is normaal :p.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessant stukje over DX12 FL12-1 op Techreport podcast Fury :

https://youtu.be/uz-2lO86xfs?t=1h21m29s

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Met een hoop speculatie hoe Nvidia het in gameworks gaat stoppen om vals te spelen, wat natuurlijk niet zo is. Wel een interessant stukje verder want het komt er op neer dat het allemaal minder belangrijk word die feature levels.

[ Voor 35% gewijzigd door Verwijderd op 21-06-2015 17:29 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:07
Phuncz schreef op zondag 21 juni 2015 @ 09:15:

De GTX 970's 3,5GB is geen probleem, de Fury's 4GB HBM is een schandaal. :X
Ik denk dat dit vooral naar voren komt omdat de GTX970 een kaart is voor Ultra 1080P en misschien Ultra 1440P, terwijl Fury voor zover ik kan zien qua performance i.i.g. een stuk hoger moet staan. Vandaar dat ik denk dat een boel mensen eigenlijk 6 of misschien zelfs 8GB op de Fury kaarten verwacht hadden. Of het daadwerkelijk een nadeel gaat zijn voor de prestaties van Fury op 4K zal natuurlijk nog moeten blijken.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Phuncz schreef op zondag 21 juni 2015 @ 11:04:
Er lijkt een schakelaartje te zitten linksboven die strip LEDs. Op een high-res foto zag ik "ON" erop staan, wat waarschijnlijk erop duidt dat je de LEDs kunt uitschakelen als je niet zo voor de VU-meter feature bent :)
Ik las ergens dat je ze op rood en blauw kunt instellen d:)b

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Toettoetdaan schreef op zondag 21 juni 2015 @ 20:02:
[...]

Ik las ergens dat je ze op rood en blauw kunt instellen d:)b
Maar geen groen :+.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

Toettoetdaan schreef op zondag 21 juni 2015 @ 20:02:
[...]

Ik las ergens dat je ze op rood en blauw kunt instellen d:)b
en met een hack paars :+

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Zou ook wel geinig zijn, alle kleuren behalve Nvidia groen :+

Al is Intel blauw, mag ook niet.

:+

Welke kleur heeft Matrox ook alweer?

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op zondag 21 juni 2015 @ 17:27:
Met een hoop speculatie hoe Nvidia het in gameworks gaat stoppen om vals te spelen, wat natuurlijk niet zo is. Wel een interessant stukje verder want het komt er op neer dat het allemaal minder belangrijk word die feature levels.
Als ik zo'n podcast kijk van de Techreport, en kan ernaast zitten hoor, dan valt mij vooral de nuance en afgewogenheid op van iemand als Scott Wasson. Geen gebrul, gehype, weinig meelaten slepen door emotie, kortom volwassen gedrag.

Wat ik merk in podcasts van dit soort sites dat ze vaak iets meer onthullen over hoe ze er echt over denken, en ook kun je er bepaalde NDA zaken er tussen de regels beter uithalen dan in geschreven reviews.

Als hij wat zegt dan neem ik dat wel mee.

Hij is ook de man achter framrating wat nu niet bepaald positief uitpakte voor AMD. Heb hem ook nooit echt op bias kunnen betrappen. Dus als hij een soort sneer maakt naar gameworks, tja misschien zit daar dan wel een hele grote kern van waarheid in.

Enne, gameworks is imho gewoon een kloteontwikkeling maar ik postte de link niet ivm zijn opmerking over gameworks. :)

[ Voor 3% gewijzigd door Help!!!! op 21-06-2015 20:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

In ander nieuws :p.
Blender 2.75 Allows For AMD OpenCL Support

Heeft een tijdje geduurt maar eindelijk fatsoenlijk OpenCL support voor de Cycles renderer in Blender!
Dev van AMD heeft een aantal patches uitgebracht voor de renderer.

Ben wel fan van deze Phoronix, geeft vaak meer gespecialiceerd technieuws dan tweakers (leuk voor de mensen die de 100st gelekte render van telefoon x zat zijn :P).

[ Voor 21% gewijzigd door Sp3ci3s8472 op 21-06-2015 20:41 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

RobinHood schreef op zondag 21 juni 2015 @ 20:13:
Zou ook wel geinig zijn, alle kleuren behalve Nvidia groen :+

Al is Intel blauw, mag ook niet.

:+

Welke kleur heeft Matrox ook alweer?
http://www.matrox.com/en/ volgens mij donker blauw

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op zondag 21 juni 2015 @ 20:31:
[...]


Enne, gameworks is imho gewoon een kloteontwikkeling maar ik postte de link niet ivm zijn opmerking over gameworks. :)
Ook al zit er een kern van waarheid in wat ik niet wil uitsluiten, Gameworks zorgt voor mooiere games, iets wat andere bedrijven niet genoeg doen voor de gamers en gameontwikkelaars en alleen maar leuke API's verzinnen maar die zorgen niet voor mooiere graphics en daarom vind ik Gameworks niet zo verkeerd dat het er is. Je moet er maar geld in kunnen steken en dat kan Nvidia die met 300 man werken aan betere graphics die bedoeld zijn voor vooruitgang voor gaming. Ik zelf zit niet te wachten dat games niet meer mooier worden omdat er te weinig aandacht aan word besteed.

Acties:
  • 0 Henk 'm!

  • Yamotek
  • Registratie: Oktober 2011
  • Laatst online: 17-07 00:36
Verwijderd schreef op zondag 21 juni 2015 @ 20:59:
[...]


Ook al zit er een kern van waarheid in wat ik niet wil uitsluiten, Gameworks zorgt voor mooiere games...
Dan zouden ze het net zoals met Mantle en AMD gewoon open toegankelijk moeten maken? Nu coden ze afgesloten voor eigen gewin, of het nu links of rechtsom bekijkt. Met Mantle had Nvidea iig de keuze om het te gaan ondersteunen of niet. Nu kan AMD ook gameworks ondersteunen, maar niet op een niveau zoals Nvidea dat zelf doet (ook al maken zij er ook een beetje een potje van). Ander voorbeeld is PhysX, dat Nvidea hiermee in haar recht staat is begrijpelijk, maar alleen maar nadelig voor de consument dus ik ben er niet blij mee ;).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op zondag 21 juni 2015 @ 20:59:
[...]


Ook al zit er een kern van waarheid in wat ik niet wil uitsluiten, Gameworks zorgt voor mooiere games, iets wat andere bedrijven niet genoeg doen voor de gamers en gameontwikkelaars en alleen maar leuke API's verzinnen maar die zorgen niet voor mooiere graphics en daarom vind ik Gameworks niet zo verkeerd dat het er is. Je moet er maar geld in kunnen steken en dat kan Nvidia die met 300 man werken aan betere graphics die bedoeld zijn voor vooruitgang voor gaming. Ik zelf zit niet te wachten dat games niet meer mooier worden omdat er te weinig aandacht aan word besteed.
Het is al zovaak voorbijgekomen, gameworks saboteert mooiere graphics bij de concurrent bijv. door onnodige hoeveelheid Tesselation te gebruiken.
Daarnaast zijn er voor die effecten vaak net zo goede zo niet betere open varianten.

En hoezo zorgt Mantle/DX12 niet voor mooiere games :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op zondag 21 juni 2015 @ 21:24:
[...]

Het is al zovaak voorbijgekomen, gameworks saboteert mooiere graphics bij de concurrent bijv. door onnodige hoeveelheid Tesselation te gebruiken.
Daarnaast zijn er voor die effecten vaak net zo goede zo niet betere open varianten.

En hoezo zorgt Mantle/DX12 niet voor mooiere games :?
[sarcasme]
Nee joh, TXAA van GameWorks is vet mooi :+.
[/sarcasme]
Ook al zit er een kern van waarheid in wat ik niet wil uitsluiten, Gameworks zorgt voor mooiere games, iets wat andere bedrijven niet genoeg doen voor de gamers en gameontwikkelaars en alleen maar leuke API's verzinnen maar die zorgen niet voor mooiere graphics en daarom vind ik Gameworks niet zo verkeerd dat het er is.
Andere bedrijven doen het wel was je anders TressFX bij Tombraider vergeten, die bedrijven doen het tenminste zonder de performance van anderen te verpesten.
GameWorks valt in hetzelfde straatje als console exclusive content voor bepaalde spellen, daar wordt ook niemand blij van.

[ Voor 1% gewijzigd door Sp3ci3s8472 op 22-06-2015 01:21 . Reden: sarcasme :P ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 10:42
Daarnaast dankzij Mantle komt er nu DX12 en Vulkan. Lagere CPU overhead, multithreading -> betere performance. Dat is net zo belangrijk als mooie graphics. Het maakt de mooie graphics mogelijk door bottlenecks weg te halen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bovendien, als AMD niet zo had zitten pushen om toch eindelijk tesselation in DX te krijgen, wat ze eindelijk lukte met versie 11, dan had nVidia tesselation dus ook nooit zo kunnen misbruiken als ze bij hun TressFX tegenhanger Hairworks (onderdeel van gameworks) doen. Hairworks is een minder ver ontwikkelde variant van TressFX, terwijl nVidia zonder enig probleem TressFX kan ondersteunen.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 21 juni 2015 @ 20:59:
[...]


Ook al zit er een kern van waarheid in wat ik niet wil uitsluiten, Gameworks zorgt voor mooiere games, iets wat andere bedrijven niet genoeg doen voor de gamers en gameontwikkelaars en alleen maar leuke API's verzinnen maar die zorgen niet voor mooiere graphics en daarom vind ik Gameworks niet zo verkeerd dat het er is.
Mantle (daar verwijs je naar) is naar verluid door AMD aan Microsoft gedoneerd, dat is de reden dat DX12 zo op Mantle schijnt te lijken. Door Mantle te maken heeft AMD druk gelegd op de PC gaming industrie en pionierswerk verricht op het gebied van CtM APIs. Daarmee zou AMD de basis gelegd hebben voor de toekomst van PC gaming.

Dat is wel ff wat anders dan gameontwikkelaars met een zak geld er van overtuigen een toolset te implementeren die games er iets mooier uit laat zien op nieuwe Nvidia kaarten maar er slechter uit laat zien op oudere Nvidia en alle AMD kaarten. Gameworks is een voordeel voor nog niet de helft van PC gamers en een nadeel voor de rest en de industrie. Ik zit niet te wachten op een dergelijke toolset.

En laten we ook niet vergeten dat het het werk is van gameontwikkelaars om hun games mooier te maken (of juist niet), niet dat van hardwarefabrikanten. Leuk dat ze het doen maar het is echt niet zo dat games er zonder Gameworks ineens veel minder mooi uit zouden zien. Daarvoor wordt het te weinig gebruikt en zijn de effecten die het toevoegt veel te beperkt (net zoals met PhysX). Kortom: we kunnen ook best zonder Gameworks en een meerderheid van PC gamers zou dan beter af zijn.

Het hangt er maar net vanaf wiens belang voor jou zwaarder weegt: dat van Nvidia of dat van PC gamers.

En ja, AMD is zeker ook niet perfect en doet ook wel eens dingen die niet in het belang van PC gamers zijn. Maar zo ver als Nvidia met Gameworks gaat doet AMD dat niet. Dat is een heel duidelijk verschil tussen beide bedrijven.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
LongBowNL schreef op zondag 21 juni 2015 @ 21:50:
Daarnaast dankzij Mantle komt er nu DX12 en Vulkan. Lagere CPU overhead, multithreading -> betere performance. Dat is net zo belangrijk als mooie graphics. Het maakt de mooie graphics mogelijk door bottlenecks weg te halen.
Low overhead API's zouden er ook zonder Mantle/AMD zijn gekomen, developers vragen er al jaren om.
AMD is gewoon slim geweest om hier als eerste in te springen.
Verwijderd schreef op zondag 21 juni 2015 @ 22:22:
Dat is wel ff wat anders dan gameontwikkelaars met een zak geld er van overtuigen een toolset te implementeren
Zover ik weet is de spreekwoordelijke zak met geld nooit bewezen. Zou hier graag een bron van willen zien.
Verwijderd schreef op zondag 21 juni 2015 @ 22:22:
Gameworks is een voordeel voor nog niet de helft van PC gamers en een nadeel voor de rest en de industrie. Ik zit niet te wachten op een dergelijke toolset.
Nvidia heeft op het moment van spreken een marketshare van 76%. Daarom is GameWorks ook interessant voor game developers. Als ze maar iets van 15% hadden zou het voor devs totaal geen zin hebben.
Verwijderd schreef op zondag 21 juni 2015 @ 22:22:
En laten we ook niet vergeten dat het het werk is van gameontwikkelaars om hun games mooier te maken (of juist niet), niet dat van hardwarefabrikanten.
Ja en nee. Devs zitten maken met een enorme tijdsdruk te werken, Als GameWorks ervoor kan zorgen dat de developers minder tijd kwijt zijn met grafische poespas te intrigeren, en dus meer tijd hebben voor core gameplay en bugs, lijkt mij dat iets positiefs. In essentie is GameWorks gewoon een positief fenomeen, het is alleen Nvidia die dit verkloot door niet te optimaliseren voor oudere/concurerende hardware.

[ Voor 65% gewijzigd door ColinZ op 21-06-2015 23:33 ]


Acties:
  • 0 Henk 'm!

Verwijderd

ColinZ schreef op zondag 21 juni 2015 @ 23:20:
[...]

Low overhead API's zouden er ook zonder Mantle/AMD zijn gekomen, developers vragen er al jaren om.
AMD is gewoon slim geweest om hier als eerste in te springen.
Maar als developers er al jaren om vragen dan had iemand anders daar toch al veel eerder in kunnen springen? Feit is dat niemand dat gedaan heeft totdat AMD er mee gekomen is, feit is dat Microsoft daar geen enkel plan voor had totdat AMD met Mantle kwam. AMD heeft Mantle gemaakt en daar een hele belangrijke stap mee gezet, anderen hebben daarna pas AMDs voorbeeld gevolgd.
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
[...]

Zover ik weet is de spreekwoordelijke zak met geld nooit bewezen. Zou hier graag een bron van willen zien.

Nvidia heeft op het moment van spreken een marketshare van 76%. Daarom is GameWorks ook interessant voor game developers. Als ze maar iets van 15% hadden zou het voor devs totaal geen zin hebben.
Hmm, ik zie dat 60/40 inmiddels wat verouderd is. Ik ga er maar vanuit dat het klopt, ondanks het feit dat dit plaatje op een gratis imagehoster staat en je er verder geen enkele bron bij geeft. :P

Enfin, uit concurrentieoverwegingen worden dergelijke contracten tussen gamedevs en Nvidia (of AMD) altijd geheim gehouden (NDA e.d.). Daar is dus geen bron van. Maar een beetje AAA game moet al snel 4 miljoen exemplaren verkopen om uit de kosten te kopen. Je denkt toch niet dat een gamedev 1 miljoen van z'n klanten tegen de haren in strijkt terwijl daar niks anders tegenover staat dan een paar grafische effecten? Daar moet geld aan te pas komen, dat kan niet anders.
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
[...]

Ja en nee. Devs zitten maken met een enorme tijdsdruk te werken, Als GameWorks ervoor kan zorgen dat de developers minder tijd kwijt zijn met grafische poespas te intrigeren, en dus meer tijd hebben voor core gameplay en bugs, lijkt mij dat iets positiefs. In essentie is GameWorks gewoon een positief fenomeen, het is alleen Nvidia die dit verkloot door niet te optimaliseren voor oudere/concurerende hardware.
AAA studios hebben honderden mensen in dienst, die mensen specialiseren zich om een specifieke taak zo goed en efficiënt mogelijk uit te voeren. Het voordeel is dat je zo meer werk met hetzelfde aantal mensen kunt doen, het nadeel is dat je je personeel minder flexibel in kunt zetten. Je kunt een graphics programmer niet zomaar inzetten als gameplay programmer of voor QA. Leuk bedacht, maar die vlieger gaat niet op.

Gameworks zou een positief fenomeen zijn als het efficient was geprogrammeerd voor alle hardware, ook die van AMD. In plaats daarvan is het specifiek goed voor een en bepaalde generatie Nvidia hardware en specifiek slecht voor alle andere. Leuk als je toevallig die hardware hebt, maar als je andere hebt niet. En als je favoriete game gameworks gebruikt en over een paar jaar een nieuwe architectuur er anders uit ziet kan het zo maar zijn dat die game op een nieuwere kaart voor geen meter meer draait, dankzij Gameworks. Ik zie dat niet als een positief fenomeen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Verwijderd schreef op zondag 21 juni 2015 @ 17:27:
Met een hoop speculatie hoe Nvidia het in gameworks gaat stoppen om vals te spelen, wat natuurlijk niet zo is. Wel een interessant stukje verder want het komt er op neer dat het allemaal minder belangrijk word die feature levels.
Nvidia heeft CR al verwerkt in VXGI, dat komt ook naar GW:)
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
Low overhead API's zouden er ook zonder Mantle/AMD zijn gekomen, developers vragen er al jaren om.
AMD is gewoon slim geweest om hier als eerste in te springen.
Niet op zulke korte termijn. Microsoft deed niet veel meer met DirectX.

Dat hebben we volledig aan AMD te danken, of je het nu wilt horen of niet. Vulkan is gewoon Mantle en DX12 is geïnspireerd door Mantle. Als je de documentatie leest wordt dat overduidelijk.
Verwijderd schreef op zondag 21 juni 2015 @ 20:59:
Ook al zit er een kern van waarheid in wat ik niet wil uitsluiten, Gameworks zorgt voor mooiere games, iets wat andere bedrijven niet genoeg doen voor de gamers en gameontwikkelaars en alleen maar leuke API's verzinnen maar die zorgen niet voor mooiere graphics en daarom vind ik Gameworks niet zo verkeerd dat het er is. Je moet er maar geld in kunnen steken en dat kan Nvidia die met 300 man werken aan betere graphics die bedoeld zijn voor vooruitgang voor gaming. Ik zelf zit niet te wachten dat games niet meer mooier worden omdat er te weinig aandacht aan word besteed.
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
Ja en nee. Devs zitten maken met een enorme tijdsdruk te werken, Als GameWorks ervoor kan zorgen dat de developers minder tijd kwijt zijn met grafische poespas te intrigeren, en dus meer tijd hebben voor core gameplay en bugs, lijkt mij dat iets positiefs. In essentie is GameWorks gewoon een positief fenomeen, het is alleen Nvidia die dit verkloot door niet te optimaliseren voor oudere/concurerende hardware.
Mag ik jullie beide eens vragen om iets uit GW te pikken wat daadwerkelijk games mooier maakt? Ik zie het namelijk niet. TXAA is stront lelijk, DoF zie je ook zonder GW (en wordt in beide gevallen misbruikt). HairWorks is onzin, TressFX laat zien dat dat niet zo slecht hoeft te lopen. Turbulence ziet er belachelijk uit; Black Flag werd er niet mooier van, integendeel. De particles/destruction elementen zien er even belachelijk uit, ik vergeet die exploderende pilaren in Mafia 2 en de exploderende stapels papier in Arkham Asylum nooit.

Wat nog veel erger is, is dat Havok dat allemaal al veel langer deed - gewoon op de CPU. Havok is zelfs nu Intel het heeft gekocht en er geen reet mee doet nog steeds ver superieur aan PhysX en ApeX. Het wordt minder geadverteerd, maar vrijwel elke game gebruikt het. En om maar even te laten zien hoe weinig GW toe voegt, grijp ik even naar AC: Black Flag. Het PhysX poster kindje van vorig jaar. Weten jullie dat het juist Havok die voor de oceanen zorgt in die game? En alle physics in de rest van de game? Het enige waar GW voor werd gebruikt waren Turbulence en Cloth. Die mag je allebei van me houden hoor. Voor de rest is het allemaal Havok.

Ik wacht nog steeds op een game die mij laat zien waarom PhysX en GameWorks goed zouden zijn. Qua physics kan Nvidia gewoon nog steeds niet aan Havok tippen; ik heb nog geen game gezien die met PhysX deed wat RF:G met Havok deed. Sterker nog, meestal is het zoals ik zei gewoon Havok. Die paar dingen die wél boeiend zijn, heeft AMD ook gewoon - of het zou probleemloos via DC/OCL kunnen lopen (en dan zou het me niets verbazen als het beter liep op AMD).

Begrijp me niet verkeerd, als jullie vinden dat GW iets toe voegt kan dat best, ik zie het zelf alleen niet. Vandaar dat ik het graag eens wil horen van iemand. Mijn probleem met Nvidia's spul is dat het meeste games juist lelijker maakt naar mijn mening. Ik heb hierboven al enkele dingen genoemd, een ander voorbeeld zou Witcher 3 zijn, waar wandtapijten wapperen alsof er een tornado door de gangen van het kasteel raast. En geen raam of wat dan ook te bekennen. Is dat nu werkelijk "mooi"?

TXAA is een ander voorbeeld. Het is MSAA + FXAA. Het resultaat is een wazige smurrie van graphics. MSAA + SMAA geeft een veel beter resultaat, puur omdat FXAA an sich zo lelijk is. En het feit dat het MSAA + FXAA is betekent ook dat enig performance verlies op AMD gewoon stierenpoep van de bovenste plank is.


Edit: de enige game waar ik nu even op kan komen waar ik wel onder de indruk van was, was Cryostasis.

[ Voor 5% gewijzigd door Werelds op 22-06-2015 01:05 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
Nvidia heeft op het moment van spreken een marketshare van 76%. Daarom is GameWorks ook interessant voor game developers. Als ze maar iets van 15% hadden zou het voor devs totaal geen zin hebben.
Verwijderd schreef op maandag 22 juni 2015 @ 00:45:
Hmm, ik zie dat 60/40 inmiddels wat verouderd is. Ik ga er maar vanuit dat het klopt, ondanks het feit dat dit plaatje op een gratis imagehoster staat en je er verder geen enkele bron bij geeft. :P
ColinZ leest de grafiek verkeerd, zoals wel vaker gebeurd. Er zijn 2 simpele fouten die hier gemaakt wordt. Ten eerste is die 76% die wordt aangehaald niet de huidige verdeling in het marktaandeel, maar de verkopen van het laatste kwartaal. Dat is niet aan de titel van de grafiek terug te vinden, maar is wel terug te vinden in begeleidende teksten elders. Dus marktaandeel van kaarten die in computers zitten is hier niet aan af te leiden.
Het tweede punt is dat er klakkeloos 76% wordt aangehaald, alsof gameworks voor die 76% geweldig is. Maar dan wordt glad vergeten dat gameworks alleen maar goed werkt op Maxwell v2 en laat dat nu weer net een redelijk klein, zo niet onbeduidend deel zijn van het totale aantal videokaarten van nVidia dat in gebruik is. Ofwel, het aantal mensen dat werkelijk 'baat' zouden hebben bij gameworks, is uiterst klein.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Over de 'zak geld':

Of dit (deels) ook letterlijk op gaat weet ik niet maar wat wel duidelijk is, is dat er op kosten van nVidia een x aantal programeurs bij de developer worden neergezet die vervolgens allerlei zaken voor de developer gaan zitten coden op voorwaarde dat de librarys closed blijven.
Dat is imho indirect gewoon een zak geld.

Zoals ik het begrijp kan AMD hierdoor ook niet bij de delen van de code die niks met de geweldige extra nvidia effecten te maken hebben maar die wel noodzakelijk zijn om voor AMD te optimaliseren.
Of nvidia code wordt aan de algemene delen geplakt zodat de algemene delen niet meer algemeen zijn.

Dus wat zou dan de toekomst moeten zijn? Dat zowel AMD als nVidia hele teams van eigen programeurs bij alle developers neer gaan zetten om hele delen vd game zelf te gaan zitten coden :?

Stel dat dit nVidia beleid hugely succesvol zou worden en AMD dit soort ‘support’ niet kan verwezenlijken dan eindig je uiteindelijk met een soort nvidia only pc gamemarkt.
Dat zal vast lekker innovatief worden. Dingen als Mantle en HBM, zaken die de industrie en games echt verder brengen hoef je, zoals ik het zie, van een type bedrijf als nvidia echt niet te verwachten.

Dus: ik zie dat hele gameworks in de huidige variant voorzover ik het begrijp voor geen meter zitten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op zondag 21 juni 2015 @ 21:24:
[...]

Het is al zovaak voorbijgekomen, gameworks saboteert mooiere graphics bij de concurrent bijv. door onnodige hoeveelheid Tesselation te gebruiken.
Daarnaast zijn er voor die effecten vaak net zo goede zo niet betere open varianten.

En hoezo zorgt Mantle/DX12 niet voor mooiere games :?
Klopt het is al zo vaak voorbijgekomen die speculaties en dat is aan de grafische gameontwikkelaar om aan te passen wat ze vaak vergeten te doen en dat komt misschien wel door Nvidia zelf maar daar is geen bewijs van.

Verder bestaan van veel effecten geen andere varianten die gameworks gebruikt op Physx na.

Omdat Mantel het niets aan de graphics toe voegt toevoegt, het is geen grafisch effect.

Na optimalisaties voor AMD werken de Gameworks games ook zoals het moet en dat word vergeten door de AMD aanhangers. Zelf de Witcher 3 is nu goed speelbaar op AMD en gelijk aan de concurrent qua prestaties en dat zie ik in de meeste Gameworks games gebeuren.

[ Voor 13% gewijzigd door Verwijderd op 22-06-2015 10:03 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 13:13

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Tis een API, netzo als Dx of OpenGL dat is, en Vukan binnenkort ook, dat gaat wat verder dan enkel een effect..

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Verwijderd schreef op maandag 22 juni 2015 @ 09:58:
Verder bestaan van veel effecten geen andere varianten die gameworks gebruikt op Physx na.
Zoals?

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
[...]
Zover ik weet is de spreekwoordelijke zak met geld nooit bewezen. Zou hier graag een bron van willen zien.
[...]
Wat denk nou zelf? Zullen game devs ooit toegeven dat zij een zak geld ontvangen van nVidia voor het "optimaliseren" van een game en daarmee bewust het andere deel van GPU land (AMD) benadelen?
Neen, dus!

Wellicht volg je het videokaartennieuws niet zo heel lang of moet je ik je geheugen even helpen opfrissen (daar komen de oude koeien weer):

Het AC, DX10.1 debacle:
NVIDIA is within their rights to make such a decision, and software developers are likewise entitled to decide whether or not they want to support DirectX 10.1. What we don't like is when other factors stand in the way of using technology, and that seems to be the case here. Ubisoft needs to show that they are not being pressured into removing DX 10.1 support by NVIDIA, and frankly the only way they can do that is to put the support backing in a future patch. It was there once, and it worked well as far as we could determine;
...
What's noteworthy is that the drop isn't nearly as bad on ATI hardware running AC version 1.00. In other words, the 1.02 patch levels the playing field and forces ATI and NVIDIA to both use an extra rendering pass in order to do anti-aliasing. That probably sounds fair if you're NVIDIA -- or you own NVIDIA hardware -- but ATI users should be rightly upset.
bron: http://www.anandtech.com/show/2536


Crysis2 Tesselation debacle:
So what do we make of this?
Crytek's decision to deploy gratuitous amounts of tessellation in places where it doesn't make sense is frustrating, because they're essentially wasting GPU power—and they're doing so in a high-profile game that we'd hoped would be a killer showcase for the benefits of DirectX 11

There is another possible explanation. Let's connect the dots on that one. As you may know, the two major GPU vendors tend to identify the most promising upcoming PC games and partner up with the publishers and developers of those games in various ways, including offering engineering support and striking co-marketing agreements. As a very high-profile title, Crysis 2 has gotten lots of support from Nvidia in various forms. In and of itself, such support is generally a good thing for PC gaming. In fact, we doubt the DX11 patch for this game would even exist without Nvidia's urging. We know for a fact that folks at Nvidia were disappointed about how the initial Crysis 2 release played out, just as many PC gamers were. The trouble comes when, as sometimes happens, the game developer and GPU maker conspire to add a little special sauce to a game in a way that doesn't benefit the larger PC gaming community
...
Unnecessary geometric detail slows down all GPUs, of course, but it just so happens to have a much larger effect on DX11-capable AMD Radeons than it does on DX11-capable Nvidia GeForces. The Fermi architecture underlying all DX11-class GeForce GPUs dedicates more attention (and transistors) to achieving high geometry processing throughput than the competing Radeon GPU architectures
bron: http://techreport.com/rev...oo-much-of-a-good-thing/6


Je kunt dan toch moeilijk ontkennen dat nVidia hier mogelijk een twijfelachtige rol in heeft gespeeld?

[ Voor 7% gewijzigd door Indy91 op 22-06-2015 11:03 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

TXAA is best goed, maar moet gecorrigeerd worden met negatieve lodbias. Zie bv. Crysis 3 met ~1.25 sharpening.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

Indy91 schreef op maandag 22 juni 2015 @ 10:59:
[...]


Je kunt dan toch moeilijk ontkennen dat nVidia hier mogelijk een twijfelachtige rol in heeft gespeeld?
Dat zeg je heel juist, maar het is aan de grafische gameontwikkelaar zelf om bijvoorbeeld de hoeveelheid tessellation aan te passen, maar het kan zijn wat niet zeker is dat Nvidia daar achter zit en het is raar dat het gelijk als feit word neergezet.

Dat hele Gameworks gezeur zie ik nog wel verleden tijd worden als het beter word want Nvidia gaat nu over op Flex Physx wat ook een open standaard zou kunnen worden vanwege DC. Ik zie het nog wel gebeuren dat de opties die bij AMD voor problemen kunnen zorgen, wat alleen maar gpu physx en Tessellation is, dan komt het allemaal wel goed voor AMD en dat is wat ik ook hoop.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 10:42
ColinZ schreef op zondag 21 juni 2015 @ 23:20:
[...]

Low overhead API's zouden er ook zonder Mantle/AMD zijn gekomen, developers vragen er al jaren om.
AMD is gewoon slim geweest om hier als eerste in te springen.
Dan quote ik een voorganger even.
Sp3ci3s8472 schreef op zondag 21 juni 2015 @ 00:41:
[...]

Dan is de volgende statement van AMD Vice President of Global Channel Sales, Roy Taylor een stuk logischer, zijn statement "that there will be no DirectX12 at any time in the future."
[...]
Dit is een artikel uit begin 2013, waarin wordt gezegd dat er geen DX12 verwacht hoeft te worden. September datzelfde jaar kondigt AMD Mantle aan.

Acties:
  • 0 Henk 'm!

Verwijderd

Dus AMD bepaald al bij voorbaat dat Microsoft niet met DX12 komt, lekker geloofwaardig is dat dan.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 10:42
Als Microsoft dat niet ontkent, is dat geloofwaardig ja.

Acties:
  • 0 Henk 'm!

Verwijderd

Maar weer geen feit hahahahaha.
Sorry maar ik ben niet zo van de ALU hoedjes gedoe.

[ Voor 47% gewijzigd door Verwijderd op 22-06-2015 11:42 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hier wat mooie unbox foto's van de Fury X alsmede gpu z screenshot:

http://wccftech.com/amd-r...y-photos-gpuz-screenshot/

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op maandag 22 juni 2015 @ 11:39:
Maar weer geen feit hahahahaha.
Sorry maar ik ben niet zo van de ALU hoedjes gedoe.
Je hebt voor het gemak de bronnen die ik heb gelinked in de door LongBowNL gequote reactie maar even niet gelezen?
Dat zowel een AMD topman en een oud nVidia medewerker dit zeggen vind jij geen feit, dat is in deze industrie het beste wat je gaat krijgen, en vergelijkbaar met een feit.

Beetje jammer dat je zo moet reageren, mensen proberen hier een normale discussie te houden.

Overigens ben ik ook erg geinteresseerd in die fantastische effecten die GameWorks volgens jou geeft, noem er maar een paar die ik niet door andere tools zou kunnen verkrijgen of die niet in andere games zitten.

Acties:
  • 0 Henk 'm!

Verwijderd

Jawel die heb ik wel gelezen maar het is vooral een hoop speculatie en twijfel vandaar dat ik het niet zo goed als feit aan kan nemen.

De effecten die nog negens ander in gebruikt word behalve in Gameworks, die ook vergelijkbaar zijn behalve Physx. Tress fx is ook heel anders als je het vergelijkt met Hairworks.

VisualFX

Provides solutions for rendering and effects including:
•HBAO+ Enhanced Horizon Based Ambient Occlusion
•TXAA Temporal Anti-aliasing
•Soft Shadows Improves on PCSS to reach new levels of quality and performance, with the ability to render cascaded shadow maps
•Depth of Field Combination of diffusion based DOF and a fixed cost constant size bokeh effect
•FaceWorks Library for implementing high-quality skin and eye shading
•WaveWorks Cinematic-quality ocean simulation for interactive applications
•HairWorks Enabling simulation and rendering of fur, hair and anything with fibers
•GI Works Adding Global Illumination greatly improves the realism of the rendered image
•Turbulence High definition smoke and fog with physical interaction as well as supernatural effects

[ Voor 56% gewijzigd door Verwijderd op 22-06-2015 12:53 ]


Acties:
  • 0 Henk 'm!

  • Ardjee
  • Registratie: Februari 2009
  • Laatst online: 04-09 19:42
Verwijderd schreef op maandag 22 juni 2015 @ 11:39:
Maar weer geen feit hahahahaha.
Sorry maar ik ben niet zo van de ALU hoedjes gedoe.
Een interessante artikeltje die deze discussie voert vanuit AMD, Nvidia en developers standpunten: http://www.extremetech.co...e-gameworks-controversy/5

In het kort: Het is zeker mogelijk om AMD te cripplen met specifieke gamework features waardoor optimalisaties lastiger worden.

Uiteraard is dit geen definitieve bewijs, maar laten we even oudere en minder oude praktijken van Nvidia erbij halen:

Direct x 10: Nvidia liep achter qua features op AMD-> Nvidia lobbyde bij Microsoft om features uit Dx10 te halen. Gevolg: AMD verspeelde feel development aan DX10 features die nooit in dx10 terecht kwamen.

DirectX10.1: Assassins creed (weet niet meer welk deel) supporte dx 10.1 wat een 20% performance increase opleverde voor AMD gpu's. Via een latere patch werd dat eruit gesloopt omdat het zogenaamd over een bug ging die 20% performanceincrease veroorzaakte (yeah right)

Physx: Zogenaamd alleen mogelijk op Nvidia hardware: deels waar, maar Nvidia blokeerde actief via code in drivers de combinatie van AMD gpu met Nvidia Physx kaart. Via een code hack was het wel prima mogelijk om een AMD gpu te gebruiken icm met een Nvidia basic kaartje voor PhysX support.

The witcher 3: De game is zo slecht geoptimaliseert bij release dat een gtx 960 zelfs een 780 versloeg! Nvidia begint zelfs hun eigen klanten achter te stellen (geen idee of dat ondertussen verholpen is though)

Dat gecombineerd met het feit dat Nvidia met de 8800 gt begon met rebranden, 3 generaties lang slecht soldeerwerk gebruikte wat de GPU's snel kapot liet gaan (ook wel planned obsolescence genoemd) geeft mij het gevoel dat Nvidia niet het meest klantgerichte bedrijf is.

All in all hou ik zeker de optie open dat Nvidia moedwillig de boel aan het saboteren is, ook al zou geen developer dat uiteraard 100% toegeven (lang leve NDA's)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgensmij heeft dit niet zoveel zin meer.

Poster vraagt continu om "feiten" maar als hetzelfde aan hem wordt gevraagd dan krijg je een link naar nvidia's reclamepagina. Tja.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op maandag 22 juni 2015 @ 12:50:
Volgensmij heeft dit niet zoveel zin meer.

Poster A vraagt continu om "feiten" maar als hetzelfde aan hem wordt gevraagd dan krijg je een link naar nvidia's reclamepagina. Tja.
Geen reclame maar de effecten die werden gevraagd om te posten.
Zal het nog even voor jou aanpassen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Verwijderd schreef op maandag 22 juni 2015 @ 12:42:
Jawel die heb ik wel gelezen maar het is vooral een hoop speculatie en twijfel vandaar dat ik het niet zo goed als feit aan kan nemen.

De effecten die nog negens ander in gebruikt word behalve in Gameworks, die ook vergelijkbaar zijn behalve Physx. Tress fx is ook heel anders als je het vergelijkt met Hairworks.

VisualFX

Provides solutions for rendering and effects including:
•HBAO+ Enhanced Horizon Based Ambient Occlusion
•TXAA Temporal Anti-aliasing
•Soft Shadows Improves on PCSS to reach new levels of quality and performance, with the ability to render cascaded shadow maps
•Depth of Field Combination of diffusion based DOF and a fixed cost constant size bokeh effect
•FaceWorks Library for implementing high-quality skin and eye shading
•WaveWorks Cinematic-quality ocean simulation for interactive applications
•HairWorks Enabling simulation and rendering of fur, hair and anything with fibers
•GI Works Adding Global Illumination greatly improves the realism of the rendered image
•Turbulence High definition smoke and fog with physical interaction as well as supernatural effects
- HBAO+: voegt niet veel toe over gewoon HBAO, wat overal werkt. Bekijk de screenshots maar eens.
- TXAA: geef mij maar MSAA + SMAA, veel mooier resultaat.
- DoF: hadden we al lang voor GW; vreemd genoeg doet de GW versie pijn op zowel Nvidia als AMD. En wordt misbruikt (vanuit een "design" standpunt).
- FaceWorks: hebben we nog nergens gezien, is te zwaar. Sterker nog, alleen de Source engine doet echt iets met gezichten en daar zit geen FW in hoor ;)
- WaveWorks: Havok. AC: Black Flag gebruikt Havok voor de oceanen, geen WaveWorks. En Bullet kan dit ook.
- HairWorks: TressFX.
- GI Works: net als FaceWorks, vooralsnog te zwaar.
- Turbulence: ziet er ronduit belachelijk uit, realistisch is anders. Case in point: wederom Black Flag. Ook in Arkham Knight ziet het er wat mij betreft niet spectaculair uit, het ziet er onnatuurlijk uit.

Enige dat GW bevat dat daadwerkelijk mooier uitziet dan bij de concurrentie is PCSS. AMD's CHS ziet er niet zo mooi uit. Voor de rest hadden we het meeste al lang of bestaan er superieure alternatieven.

[ Voor 4% gewijzigd door Werelds op 22-06-2015 13:18 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Smaken verschillen.

Hairwokrs is mooier door simulaties dus nee niet vergelijkbaar.

[ Voor 63% gewijzigd door Verwijderd op 22-06-2015 13:20 ]


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
AMD kan bepaalde features ook wel van Gameworks maar met een veel grote performance impact, maar je hebt ook bv TressFX waar AMD veel beter in is en AMD hield er ook geen rekening mee dat Tombraider voor geen meter draaide op Nvidia, later (net als AMD met gameworks dus) ging het wel wat beter op de GTX6xx series maar er moest een GTX780 aan te pas komen om een beetje dicht in de buurt te komen en nog steeds draait hij beter op vergelijkbare hardware van AMD
Nvidia heeft ook voor niet Gameworks titles direct goede drivers vaak al voor day 1.
Je kan van devs niet verwachten voor AMD te optimaliseren dmv TressFX terwijl ze maar +/-30% van de markt in handen hebben, als klant van AMD weet je dat je budget spul koopt en kan je niet verwachten dat je goede service en betere feature implementatie krijgt zoals je dat van Nvidia krijgt waar je dus ook een premium prijs voor betaald.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 16:08
Werelds schreef op maandag 22 juni 2015 @ 01:02:
Mag ik jullie beide eens vragen om iets uit GW te pikken wat daadwerkelijk games mooier maakt? Ik zie het namelijk niet. TXAA is stront lelijk, DoF zie je ook zonder GW (en wordt in beide gevallen misbruikt). HairWorks is onzin, TressFX laat zien dat dat niet zo slecht hoeft te lopen. Turbulence ziet er belachelijk uit; Black Flag werd er niet mooier van, integendeel. De particles/destruction elementen zien er even belachelijk uit, ik vergeet die exploderende pilaren in Mafia 2 en de exploderende stapels papier in Arkham Asylum nooit.

Wat nog veel erger is, is dat Havok dat allemaal al veel langer deed - gewoon op de CPU. Havok is zelfs nu Intel het heeft gekocht en er geen reet mee doet nog steeds ver superieur aan PhysX en ApeX. Het wordt minder geadverteerd, maar vrijwel elke game gebruikt het. En om maar even te laten zien hoe weinig GW toe voegt, grijp ik even naar AC: Black Flag. Het PhysX poster kindje van vorig jaar. Weten jullie dat het juist Havok die voor de oceanen zorgt in die game? En alle physics in de rest van de game? Het enige waar GW voor werd gebruikt waren Turbulence en Cloth. Die mag je allebei van me houden hoor. Voor de rest is het allemaal Havok.

Ik wacht nog steeds op een game die mij laat zien waarom PhysX en GameWorks goed zouden zijn. Qua physics kan Nvidia gewoon nog steeds niet aan Havok tippen; ik heb nog geen game gezien die met PhysX deed wat RF:G met Havok deed. Sterker nog, meestal is het zoals ik zei gewoon Havok. Die paar dingen die wél boeiend zijn, heeft AMD ook gewoon - of het zou probleemloos via DC/OCL kunnen lopen (en dan zou het me niets verbazen als het beter liep op AMD).

Begrijp me niet verkeerd, als jullie vinden dat GW iets toe voegt kan dat best, ik zie het zelf alleen niet. Vandaar dat ik het graag eens wil horen van iemand. Mijn probleem met Nvidia's spul is dat het meeste games juist lelijker maakt naar mijn mening. Ik heb hierboven al enkele dingen genoemd, een ander voorbeeld zou Witcher 3 zijn, waar wandtapijten wapperen alsof er een tornado door de gangen van het kasteel raast. En geen raam of wat dan ook te bekennen. Is dat nu werkelijk "mooi"?

TXAA is een ander voorbeeld. Het is MSAA + FXAA. Het resultaat is een wazige smurrie van graphics. MSAA + SMAA geeft een veel beter resultaat, puur omdat FXAA an sich zo lelijk is. En het feit dat het MSAA + FXAA is betekent ook dat enig performance verlies op AMD gewoon stierenpoep van de bovenste plank is.


Edit: de enige game waar ik nu even op kan komen waar ik wel onder de indruk van was, was Cryostasis.
hbao+ maakt games mooier.

En physx is een goeie gratis physics middleware. Als je al havok gebruikt zal je niet de moeite nemen om over te stappen, maar andersom ook niet.

Txaa is niet msaa + fxaa, er is geen performance verlies voor amd, want het draait alleen op kepler en maxwell. Het is een dappere poging om alle shimmering te elimineren, helaas meestal blurry.

Ik snap niet dat mensen zich zo opwinden over gameworks, nvidia wil gewoon hun logo in de splash screen, de effecten kunnen uit, dus mocht een effect slecht draaien op amd dan hoef je daar geen last van te hebben. Als het amd echt zou saboteren dan zou geen enkele dev het gebruiken. Phsyx/gameworks is meer een marketingtruuk, mensen denken door dat logo dat een nvidia kaart in die games een meerwaarde heeft, terwijl dat zelden echt zo is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Physx word Flex over Direct Compute, binnenkort speelbaar ik Killingfloor 2, hopelijk ook op AMD.

Acties:
  • 0 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 15:36
Verwijderd schreef op maandag 22 juni 2015 @ 13:19:
Smaken verschillen.

Hairwokrs is mooier door simulaties dus nee niet vergelijkbaar.
Dat klopt, maar je kan een techniek die technologisch superieur is niet ontkennen. TressFX is velen malen beter dan de meuk die Nvidia gemaakt heeft so far.

Smaken verschillen, ik vind 8bit games ook leuk maar ga niet lopen beweren dat de gebruikte technieken en effecten beter zijn.

Inventaris - Koop mijn meuk!


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 16:08
Wat is er zo goed aan tressfx dan? vond het in tombraider maar een glitchende bende met een dikke performancehit, al kon het nog aan blijven omdat tombraider verder niet zo veel voorstelt.

The witcher 3 is te zwaar voor mijn pc om nog een gek haar effect te draaien, maar ik vond het er op zich goed uitzien en het gedraagt zich normaal.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
haarbal schreef op maandag 22 juni 2015 @ 13:20:
[...]
Ik snap niet dat mensen zich zo opwinden over gameworks, nvidia wil gewoon hun logo in de splash screen, de effecten kunnen uit, dus mocht een effect slecht draaien op amd dan hoef je daar geen last van te hebben. Als het amd echt zou saboteren dan zou geen enkele dev het gebruiken. Phsyx/gameworks is meer een marketingtruuk, mensen denken door dat logo dat een nvidia kaart in die games een meerwaarde heeft, terwijl dat zelden echt zo is.
Wat denk je wat wij hierboven proberen aan te dragen (zie onder andere de post van Ardjee)....
Wij proberen beargumenteerd aan te tonen dat:
  • nVidia totaal geen respect heeft voor wie dan ook: underfill debacle, de Fermi nepkaart met "wooden screws" debacle
  • nVidia juist wel moedwillig AMD kaarten kruipel maakt middels "rechtstreekse ondersteuning" aan game devs. Hell...zelfs een gedeelte van hun eigen kaarten werd hierdoor kreupel gemaakt.
Gelet op het discutabele verleden van nVidia is het in mijn perceptie dan ook erg naïef om te denken dat nVidia van hun fouten heeft geleerd en hun klanten respecteert.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op maandag 22 juni 2015 @ 13:57:
Wat is er zo goed aan tressfx dan? vond het in tombraider maar een glitchende bende met een dikke performancehit, al kon het nog aan blijven omdat tombraider verder niet zo veel voorstelt.

The witcher 3 is te zwaar voor mijn pc om nog een gek haar effect te draaien, maar ik vond het er op zich goed uitzien en het gedraagt zich normaal.
En de simulatie is ook niet mooi, ook niet in Battlemage met tressFX 2.0

[ Voor 35% gewijzigd door Verwijderd op 22-06-2015 14:03 ]


Acties:
  • 0 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 15:36
Verwijderd schreef op maandag 22 juni 2015 @ 14:00:
Tress fx loopt beter omdat het lichter is, het ziet er in ieder geval niet mooier uit door de simulatie wat Tress FX iet goed kan nadoen.
[...]


En de simulatie is ook niet mooi, ook niet in Battlemage met tressFX 2.0
Ik (en duizenden andere) ondervinden deze problemen niet. Ik heb Tomb Raider evenals Battlemage gewoon zonder gekke artifacten kunnen spelen. De effecten doen ook zeker niet onder voor Nvidia Hairworks welke hetzelfde probeert maar dan met een dikke performance hit.

Volgens mij zit je bewust te flamen en heb je geen idee waar je over praat.

[ Voor 17% gewijzigd door chaoscontrol op 22-06-2015 14:05 ]

Inventaris - Koop mijn meuk!


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
Nature schreef op maandag 22 juni 2015 @ 13:20:
AMD kan bepaalde features ook wel van Gameworks maar met een veel grote performance impact, maar je hebt ook bv TressFX waar AMD veel beter in is en AMD hield er ook geen rekening mee dat Tombraider voor geen meter draaide op Nvidia, later (net als AMD met gameworks dus) ging het wel wat beter op de GTX6xx series maar er moest een GTX780 aan te pas komen om een beetje dicht in de buurt te komen en nog steeds draait hij beter op vergelijkbare hardware van AMD
Hoe kom je daar nu bij?

De reden dat TressFX vergeleken met Tahiti voor geen meter liep op GK104 en ouder is omdat Nvidia het niet voor elkaar kreeg om in zo'n kleine die ook hun GPGPU te behouden. Op GK110 (780/Titan) loopt het even goed als op AMD. Dat heeft niets te maken met AMD die misbruik zou maken van Nvidia's zwakte, ze konden helemaal niet weten dat GK104 zo gecastreerd zou zijn.

Dat is toch echt iets anders dan standaard met 64 tessellation samples voor elke afzonderlijke haar draaien, wat niets toe voegt en het ook onnodig traag maakt op Nvidia's eigen hardware. Of developers dat überhaupt aan kunnen passen weet ik niet.
Verwijderd schreef op maandag 22 juni 2015 @ 13:19:
Hairwokrs is mooier door simulaties dus nee niet vergelijkbaar.
Oh? Leg eens uit? Want TressFX is ook gewoon een simulatie. Dat de eerste implementatie in TR 2013 soms wat raar uitzag is waar, maar als je de nieuwere simulaties bekijkt zit dat gewoon op hetzelfde niveau als HW.
haarbal schreef op maandag 22 juni 2015 @ 13:20:
hbao+ maakt games mooier.

En physx is een goeie gratis physics middleware. Als je al havok gebruikt zal je niet de moeite nemen om over te stappen, maar andersom ook niet.

Txaa is niet msaa + fxaa, er is geen performance verlies voor amd, want het draait alleen op kepler en maxwell. Het is een dappere poging om alle shimmering te elimineren, helaas meestal blurry.
Je moet HBAO+ maar eens met HBAO vergelijken, dat is nauwelijks zichtbaar hoor.

PhysX als middleware is niets mis mee, totdat je iets verder gaat dan rigid bodies. Op dat moment worden Havok en Bullet gewoon superieur. En dan heb ik het niet alleen over AMD hardware, zowel Havok als Bullet zijn op veel dingen gewoon sneller dan PhysX zelfs op Nvidia hardware (en de dingen die via de CPU moeten zijn sowieso al sneller). Als ontwikkelaar wil je dat alles zo snel mogelijk loopt en dan is PhysX gewoon niet de beste keus.

TXAA is weldegelijk MSAA met "custom resolve filters" (zie hier). Het komt min of meer neer op 2xMSAA met PPAA. Vergelijk FXAA screenshots eens met TXAA screenshots. Je zult zien dat de manier waarop transparante objecten hun AA krijgen verdomd veel op FXAA lijkt - net zoals TXAA ook veel met textures rotzooit, net als FXAA ;)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op maandag 22 juni 2015 @ 13:19:
Smaken verschillen.

Hairwokrs is mooier door simulaties dus nee niet vergelijkbaar.
TressFX doet ook simulaties, lees de papers/presentaties maar eens door. De manier hoe ze het aanpakken is alleen verschillend. HairWorks (mis)gebruikt tesselation en TressFX leunt meet op compute.
haarbal schreef op maandag 22 juni 2015 @ 13:20:
[...]

hbao+ maakt games mooier.
http://m.hardocp.com/arti...ality_video_card_review/3
Afbeeldingslocatie: http://m.hardocp.com/images/articles/1377057316EY5eRnYSqZ_3_1_l.png
HBOA+ ziet er weinig anders uit dan HBOA tenzij je met een vergrootglas gaat kijken. HBOA heb ik standaard aanstaan in de spellen die dat niet hebben via de RadeonPro tool dus ik mis niks :P.
Tabel van de nVidia staat dat HBAO+ 2.4ms per frame kost en HBAO maar 1.0ms per frame, dit is een behoorlijk verschil en het is mij niet waard om zoveel rendertijd aan een techniek te geven.
Txaa is niet msaa + fxaa, er is geen performance verlies voor amd, want het draait alleen op kepler en maxwell. Het is een dappere poging om alle shimmering te elimineren, helaas meestal blurry.
Shimmering wordt ook opgelost door SMAA dus ik gebruik dat veel liever, veel lagere performance cost en niet alles wordt blurry. Wat me opviel met TXAA is dat als je kijkt naar vegetatie dat het lijkt alsof een kleuter met een schaar de randen van de blaadjes heeft geknipt.
Het is niet mijn persoonlijke smaak :p.

Acties:
  • 0 Henk 'm!

Verwijderd

Beelden zeggen meer dan woorden.

Hairworks



Tress FX 2.0

[ Voor 11% gewijzigd door Verwijderd op 22-06-2015 14:12 ]


Acties:
  • 0 Henk 'm!

  • Yamotek
  • Registratie: Oktober 2011
  • Laatst online: 17-07 00:36
*Speculatie* Het zou ook nog maar eens kunnen zijn dan Nvidea met hairworks hun eigen MFAA gebruikt wat efficienter is terwijl het bij AMD kaarten dan SMAA gebruikt wat 30% minder efficient zou zijn. Daarbij komt ook dat er gigantsiche tesselation overheen zit, waardoor het alleen met de 900 reeks goed loopt en het verschil niet zichtbaar is.

Ik heb zelf ook een 970 kaart, maar zou het zoveel mooier vinden als de consument er door de concurrentie beter van wordt, gameworks is closed source. Dat is alleen goed voor Nvidea en altijd slecht voor de consument, want die heeft daardoor mogelijk niet het meeste waar voor zijn geld.

Ik neig daarom ook meer naar AMD, deze maakt ook grove fouten en heeft het ook niet altijd goed voor elkaar. Maar deze probeerd de consument tenminste wel waar voor zijn geld te geven. Het was AMD ook niet die met 1000 euro vid kaarten kwam, Nvidea heeft er een markt voor gecreerd en is nog succesvol ook..

Mantle was er trouwens ook pas naar aandringen van DICE, hierom was BF4 ook het eerste spel met Mantle en werd het als een verkoopargument gebruikt (kan alleen de bron even niet meer vinden). Ik vind dat DICE tegenwoordig ook de meest mooie spellen produceerd, kijkend naar DA:I ziet het grafisch er beter uit dan The Witcher 3, laatstgenoemde heeft dan wel weer betere gameplay maar dat is mijn mening.
DICE gebruikt dan ook helemaal niks van PhysX (toch?) maar het water in de storm coast in DA:I ziet er echt geweldig uit. Blijkt dus dat een closed sourced PhysX helemaal niet nodig is en dat is hier het hele probleem.


@Spliffire

Van de twee video's vind ik TressFX er toch wat realistischer uitzien, N Hairworks ziet er mooier uit alleen is het net alsof er nagenoeg gewichtloosheid is met hoe traag het haar reageert.

Acties:
  • 0 Henk 'm!

Verwijderd

Mee een, maar die snelheid en hoeveel zwaartekracht kun je aanpassen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op maandag 22 juni 2015 @ 14:10:
Beelden zeggen meer dan woorden.

Hairworks

[video]

Tress FX 2.0

[video]
HairWorks lijkt alsof je in low gravity zit :P. Dat kan je dus ook aanpassen bij TressFX.

[YouTube: https://www.youtube.com/watch?v=HvHq4JIcneY]

[ Voor 4% gewijzigd door Sp3ci3s8472 op 22-06-2015 14:19 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Als langharig tuig weet ik vrij goed hoe haar alle kanten op kan gaan, en ik vind dat Tress FX het veel realistischer neerzet qua bewegingen dan dat filmpje van Hairworks. Precies wat Rifleshader zegt, in HW ziet het er erg gewichtsloos uit, het is traag en slingert alle kanten op, dat krijg je alleen voor elkaar met kurkdroog en heel licht haar.

Maar, wat wil je nou eigenlijk laten zien met die filmpjes?

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • Lord_Fader
  • Registratie: Mei 2015
  • Laatst online: 04-07 15:52
Yamotek schreef op maandag 22 juni 2015 @ 14:15:
Mantle was er trouwens ook pas naar aandringen van DICE, hierom was BF4 ook het eerste spel met Mantle en werd het als een verkoopargument gebruikt (kan alleen de bron even niet meer vinden). Ik vind dat DICE tegenwoordig ook de meest mooie spellen produceerd, kijkend naar DA:I ziet het grafisch er beter uit dan The Witcher 3, laatstgenoemde heeft dan wel weer betere gameplay maar dat is mijn mening.
DICE gebruikt dan ook helemaal niks van PhysX (toch?) maar het water in de storm coast in DA:I ziet er echt geweldig uit. Blijkt dus dat een closed sourced PhysX helemaal niet nodig is en dat is hier het hele probleem.
Ik wil geen muggenzifter zijn, maar DA:I is gemaakt door Bioware, niet DICE. De game maakt wel gebruik van de Frostbite 3 engine, die is ontwikkeld door DICE. :P

Acties:
  • 0 Henk 'm!

  • Yamotek
  • Registratie: Oktober 2011
  • Laatst online: 17-07 00:36
Oja inderdaad :P, dat was ik even vergeten inderdaad dat klopt.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 10:42
Om maar even weer nieuws in het topic te gooien.
[...]

EK Water Blocks is also working on a full-cover water block for the upcoming AMD® Radeon R9 FURY X flagship performance graphics card, based on the Fiji XT GPU, which is due to release in June 2015.

EK-FC R9-Fury X will be available in all four versions, along with aesthetic retention backplate and will be available for purchase through EK Webshop and Partner Reseller Network.
http://www.ekwb.com/news/...adeon-Rx-300-series-GPUs/

Acties:
  • 0 Henk 'm!

AMD "Fiji" Block Diagram Revealed, Runs Cool and Quiet

AMD's upcoming flagship GPU silicon, codenamed "Fiji," which is breaking ground on new technologies, such as HBM, memory-on-package, a specialized substrate layer that connects the GPU with it, called Interposer; features a hefty feature-set. More on the "Fiji" package and its memory implementation, in our older article. Its block diagram (manufacturer-drawn graphic showing the GPU's component hierarchy), reveals a scaling up, of the company's high-end GPU launches over the past few years.

"Fiji" retains the quad Shader Engine layout of "Hawaii," but packs 16 GCN Compute Units (CUs), per Shader Engine (compared to 11 CUs per engine on Hawaii). This works out to a stream processor count of 4,096. Fiji is expected to feature a newer version of the Graphics CoreNext architecture than "Hawaii." The TMU count is proportionately increased, to 256 (compared to 176 on "Hawaii"). AMD doesn't appear to have increased the ROP count, which is still at 64. The most significant change, however, is its 4096-bit HBM memory interface, compared to 512-bit GDDR5 on "Hawaii."

At its given clock speeds, of up to 1050 MHz core, with 500 MHz memory (512 GB/s bandwidth), on the upcoming Radeon R9 Fury X graphics card, "Fiji" offers a GPU compute throughput of 8.6 TFLOP/s, which is greater than the 7 TFLOP/s rated for NVIDIA's GeForce GTX Titan X. The reference board may draw power from a pair of 8-pin PCIe power connectors, but let that not scare you. Its typical board power is rated at 275W, just 25W more than the GTX Titan X, for 22% higher SPFP throughput (the two companies may use different methods to arrive at those numbers).

AMD claims that the reference cooling solution will pay heavy dividends in terms of temperatures and noise. In a typical gaming scenario, the temperatures will be around 50°C, and noise output under 32 dB. To put these into perspective, the reference NVIDIA GeForce GTX Titan X, sees its load temperatures reach 84°C, and its fan scream at 45 dB, in our testing. The cooling solution is confirmed to feature a Nidec-Servo made 120 mm fan. As with all flagship graphics cards over the past few generations, Radeon R9 Fury X will feature dual-BIOS, and ZeroCore (which powers down the GPU when the display-head is idling, and completely powers down non-primary GPUs in CrossFire setups, unless 3D loads warrant the driver to power them back up).

The Radeon R9 Fury X will be priced at US $649.99, and will be generally available in the next 3 or so weeks.


Afbeeldingslocatie: http://static.tweakers.net/ext/f/9uo5bdYcGamBfwGmde0llhCh/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/nvU9VM2tMo6wX5VM5HHHyOje/full.jpg

http://www.techpowerup.co...-runs-cool-and-quiet.html

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Fox NL
  • Registratie: Oktober 2004
  • Laatst online: 13-09 22:24
Gibbo van OcUK (ken hem verder niet) heeft een sample van de FuryX ontvangen. Hij heeft de kaart aangesloten en de radiator gewoon op de bodem van zijn kast gelegd en de kaart een nacht lang Heaven 4.0 laten draaien: de kaart kwam niet boven de 58 graden en de fanspeed niet hoger dan 16% (startpercentage is 15%). De kaart is stiller dan zijn casefans.

Met de fan op 100% komt de kaart niet verder dan 10 graden boven kamertemperatuur.

http://forums.overclocker...p=28209143&postcount=1306

Edit: Op pagina 41 van die thread staan ook interessante posts: 35 graden gaming, onder 40 benchmarking en fluisterstil.

[ Voor 10% gewijzigd door The Fox NL op 22-06-2015 21:32 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat klinkt allemaal heel leuk, het lijkt dat de koeling een zeer goede oplossing gaat worden.

Acties:
  • 0 Henk 'm!

Verwijderd

Topkaart. Alleen struinen er overal vermoedens dat het HBM geheugen gelocked is. 50Mhz OC is meer dan 30G/b aan bandbreedte extra :9~ Ook die 400A max board power is erg aantrekkelijk.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

Tja in den beginne van ddr3 (of was het nu 2) gingen ze ook niet ver door omdat het weer nieuw was, nu is het helemaal nieuw en amd wil zich een beetje indekken tot de volgende gen en gaan dan wrs losser.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik zie niet waarom je meer zou moeten hebben dan 512GB/s met losless delta color compressie? Het lijkt me sterk dat dit in de praktijk een probleem gaat opleveren zelfs met een stevige overklok van de GPU.

De geheugenbandbreedte van Fury is meer dan het dubbelen van een GTX980...

Enfin, kritiek hierover kan natuurlijk niet uitblijven :F

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Eens, maar het is vooral ook de sport. En als de koeling en powervoorziening het aan kan is het natuurlijk jammer als je het niet eens kunt proberen. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 18:32

Trygve

Redacteur
Overclocken van het geheugen zal vast weinig toevoegen met zo'n gigantische bus erachter. Hier zit de bottleneck zeker niet, maar geheugen dat slechts op 500 MHz draait klinkt natuurlijk duf na de steeds hogere snelheden van GDDR5 in de afgelopen jaren. Ik ben benieuwd hoe ver men de core krijgt, en hoe de relatie tussen kloksnelheid en energieverbruik bij deze kaarten is. Tenslotte ben ik érg benieuwd naar de Nano; hoeveel van Fiji daar nog is ingeschakeld, het verbruik en de prijs :)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Als je kijkt naar de R9-380, dan zie je een bandbreedte van ~182Gb/s voor 1792 SPU's. Dat staat tegenover 512Gb/s en 4096 SPU's.

Als we gaan rekenen, dan komen we er snel achter dat voor bijna 2.3 keer zoveel SPU's er ruim 2.8 keer zoveel bandbreedte beschikbaar is. Nu draait een 380 natuurlijk 'maar' op 970MHz, tegenover 1050MHz voor Fury X, maar als we dat verschil verrekenen, dan heb je nog altijd 'maar' ~2.5 keer zoveel SPU kracht met nog steeds die ruim 2.8 keer zo grote bandbreedte.

Ofwel, als R9-380 geen bandbreedte bottleneck heeft, dan kun je Fury X al gauw naar 1200MHz duwen zonder een geheugenbottleneck tegen te komen en wellicht nog wel een stukje verder.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 12:58
The Fox NL schreef op maandag 22 juni 2015 @ 19:10:
Gibbo van OcUK (ken hem verder niet) heeft een sample van de FuryX ontvangen. Hij heeft de kaart aangesloten en de radiator gewoon op de bodem van zijn kast gelegd en de kaart een nacht lang Heaven 4.0 laten draaien: de kaart kwam niet boven de 58 graden en de fanspeed niet hoger dan 16% (startpercentage is 15%). De kaart is stiller dan zijn casefans.

Met de fan op 100% komt de kaart niet verder dan 10 graden boven kamertemperatuur.

http://forums.overclocker...p=28209143&postcount=1306

Edit: Op pagina 41 van die thread staan ook interessante posts: 35 graden gaming, onder 40 benchmarking en fluisterstil.
Gibbo is één (kuch :P) van de grote mannen bij OCUK; die laat wel vaker dingen zo doorschemeren ;)

Performance laat hij niets over los omdat hij dan problemen krijgt :D

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Werelds schreef op maandag 22 juni 2015 @ 23:54:

Performance laat hij niets over los omdat hij dan problemen krijgt :D
Met AMD of nVidia? :+

Acties:
  • 0 Henk 'm!

Verwijderd

AMD. Als je de spelregels 'verbreekt' dan kan je er lik op stuk nemen dat je verder nooit meer als review site door AMD nog samples ontvangen zult. :+

Wat betreft performance; als ik een kaart koop en er zit iets op dat ik aan kan passen dan wil ik dat ook doen. Hetzij ook voor het HBM geheugen. Hopelijk komt er dan ook iets dat de community weet te omzeilen, gewoon 750Mhz HBM geheugen draaien :9

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Gibbo laat wel meer interessante dingen los in die thread :

I am not going to report my overclocks without voltage yet as stating Mhz will probably get my hands slapped.

But mine is not doing 1200MHz on stock voltage.
&
If AMD are pushing the voltages as low as possible to remain cool and low TDP, then it will depend if the technology responds well to voltage.

In theory it will do and as there is at a least a good 20-30c left on the table before throttling occurs (75c) then I would suspect even just a little extra voltage will have quite a positive impact to clock speeds.

[ Voor 45% gewijzigd door Help!!!! op 23-06-2015 04:39 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Vandaag is de grote dag? :D

Edit; nee, morgen dus. :'(

[ Voor 36% gewijzigd door Format-C op 23-06-2015 07:44 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 18:32

Trygve

Redacteur
De 24e idd, nog heel even wachten :)

Catalyst 15.6 is trouwens uit, met optimalisaties voor Batman Arkham Knight.

AMD Catalyst™ Display Driver version 14.502.1014.1004

Acties:
  • 0 Henk 'm!

  • Willie Billie
  • Registratie: Oktober 2004
  • Laatst online: 10-09 00:33
Hier bevestigt Gibbo ook enigzins dat 1150 Mhz moet lukken met stock voltage. http://forums.overclocker...p=28209923&postcount=1381
Achja, morgen weten we meer :p

Mijn game PC: http://tweakers.net/gallery/125384?inv_id=19781#tab:inventaris


Acties:
  • 0 Henk 'm!

Verwijderd

Fanstack die waterkoeling en prop er eentje bij aan de achterzijde van de radiator, en je hebt een ideaal gekoeld kaartje.

Ik denk dat op LN2 die kaart de 1400Mhz of zelfs hoger nog doen wil. Echt afwachten tot reviews en tot Oc'ers die dingen onder handen nemen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dus wat weten we zover:

AMD presentatie:

* Fury X = alleen reference designs. Dus geen aangepaste clocks of andere koelers van IHV's
* Fury X = “an overclockers dream”


Leaked Fury X::
* Mem clocks zijn locked (Maar geen issue omdat dat geen bottleneck is)
* Koeler houdt kaart ook onder load zeer koel en stil
* Derhalve is er vanuit de koeling gezien veel potentieel voor GPU overclock
* Momenteel lijkt er nog geen mogelijkheid te zijn om voltage GPU aan te passen
* Op standaard voltage lijkt de GPU ergens tussen tot 1200mhz te halen (Hetzij OC hetzij Boost).
* Zodra voltage verhoogt zou kunnen worden ligt de grens wellicht hoger maar wel ten kostte van (aanzienlijk?) hogere TDP

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 18:32

Trygve

Redacteur
Dat voltage verhogen moet toch echt wel kunnen zou je zeggen? "an overclockers dream" + 400A + 500W-capabele koeling.
Het max voltage van de GPU is toch nog niet bekend? Misschien iets van 1.2-1.25V (400A/500W, zie https://www.youtube.com/watch?v=upPFD0qJE5w)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik weet het niet zeker maar ik leid het af vd posts van Gibbo.

AMD zal haar redenen hebben maar neem aan dat dit in de toekomst wel degelijk mogelijk wordt, linksom (AMD) of rechtsom (3rd party tools).

Nee standaard / maxvoltage is volgensmij nog niet bekend.


ps: GW staat niet altijd garant voor "succes". Nieuwe rel in de maak ?

Forbes: AMD And Nvidia Users Reporting Serious Problems With PC Version Of 'Batman: Arkham Knight'

Batman Arkham Knight Is Capped At 30 FPS On PC – Nvidia Users Report Stuttering, Flickering And Crashing

[ Voor 53% gewijzigd door Help!!!! op 23-06-2015 08:55 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 18:32

Trygve

Redacteur
Hoe goed kan geheugen eigenlijk tegen warmte? Want dat zit nu onder dezelfde heatsink als de GPU, en krijgt dus last van die warmte (lijkt me).

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Dat doet het met alle Full cover waterblokken. No problem.

Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op dinsdag 23 juni 2015 @ 08:49:
Ik weet het niet zeker maar ik leid het af vd posts van Gibbo.

AMD zal haar redenen hebben maar neem aan dat dit in de toekomst wel degelijk mogelijk wordt, linksom (AMD) of rechtsom (3rd party tools).

Nee standaard / maxvoltage is volgensmij nog niet bekend.


ps: GW staat niet altijd garant voor "succes". Nieuwe rel in de maak ?

Forbes: AMD And Nvidia Users Reporting Serious Problems With PC Version Of 'Batman: Arkham Knight'

Batman Arkham Knight Is Capped At 30 FPS On PC – Nvidia Users Report Stuttering, Flickering And Crashing
De game loopt bij mij op 60fps, ik kreeg hem net binnen en gemiddeld haal ik ongeveer 74 fps met alle effecten aan.

Benchmark run: 06/23/15 09:31:49
Min = 47.98 Max = 108.81 Avg = 72.94
DisplayMode: Fullscreen
Resolution: 1920X1080
V-Sync: Off
Anti-Aliasing: On
Level of Detail: High
Shadow Quality: High
Texture Resolution: Normal
Interactive Smoke/Fog: On
Interactive Paper Debris: On
Enhanced Rain: On
Enhanced Light Shafts: On

[ Voor 13% gewijzigd door Verwijderd op 23-06-2015 09:38 ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 10:42
Format-C schreef op dinsdag 23 juni 2015 @ 07:39:
Vandaag is de grote dag? :D

Edit; nee, morgen dus. :'(
Het zou me niet verbazen als de reviews ook pas in de middag komen, net als bij de 300-series.
offtopic: Pre-orders staan zeker niet altijd garant voor succes, dus niet pre-orderen! :X

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Als zowel nvidia als Amd er last van heeft zal het wel niet direct aan GW liggen. Maar gewoon een slechte port die gerushed was....

Acties:
  • 0 Henk 'm!

Verwijderd

Ik vermoed dat de slechte prestaties komen door vram gebruik. 1080p 4,7 gb in gebruik, slaat nergens op. En gpu physx is blijkbaar weer heel zwaar in Batman AN want de fps gaat van gemiddeld 120fps naar gemiddeld 72 fps.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zeara schreef op dinsdag 23 juni 2015 @ 09:51:
[...]


Als zowel nvidia als Amd er last van heeft zal het wel niet direct aan GW liggen. Maar gewoon een slechte port die gerushed was....
Het is niet zozeer of het aan GW zelf ligt. Who knows waardoor het komt. Het is vreemd dat een Gameworks game bij launch zo slecht werkt op nvidia kaarten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 ... 8 ... 10 Laatste

Dit topic is gesloten.