Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Waarom zijn dat opeens AMD sponsort of Gaming Evolved titels? Omdat ze wel enigszins goed gebruik maken van DX12?

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 23:28
madmaxnl schreef op zondag 12 juni 2016 @ 13:17:
Waarom zijn dat opeens AMD sponsort of Gaming Evolved titels? Omdat ze wel enigszins goed gebruik maken van DX12?
Wellicht omdat ze net zo fout beeld geven als een gameworks titel, maar dan in het voordeel van AMD. Om je punt te maken koos jij letterlijk het meest uiterste van de de andere kant.
En Hitman is sowieso een gaming evolved titel, zie hitman website. AotS volgens mij ook ;)

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
AotS is independent.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Als je alleen neutrale games wilt vergelijken ben je snel klaar.

Feit is wel dat er voor amd een stuk meer te winnen valt met dx12. Dx11 cpu overhead was een voordeel voor nvidia dat wegvalt. Async compute levert amd ook weer 10% extra fps.

Wil niet zeggen dat amd dan per se "beter" is onder dx12. Als je een aftermarket 980Ti vergelijkt met een fury X in ashes of the singularity is de fury X maar ~6% sneller. Ondanks waterkoeling, HBM, een hoger verbruik en een volledige chip tegen een met wat units uitgeschakeld.

Als ik upgrade wordt het waarschijnlijk wel een polaris. Denk niet dat nvidia de 1060 goedkoop neer zal zetten, freesync is ook wel interessant en nvidia is weer zo vreselijk op de rem aan het trappen met aftermarket kaarten waar de powerlimit niet hoog mag etc. No fun allowed.
Met het amd logo op de website? lijkt me toch niet.

Mechwarrior Online: Flapdrol


Acties:
  • +3 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Die games staan wel bij de Featured Games van AMD.

Enfin, hoeveel DX12 titels worden er gesteund door nVidia en hoeveel door AMD? Nu en in de toekomst (bevestigde titels). Idem dito voor Vulkan. Het is geen toeval dat voor fatsoenlijke implementatie van DX12 naar AMD gestapt wordt. Ze zijn een van de grondleggers van de standaard waarop DX12 en Vulkan zijn geïnspireerd. Wat heeft nVidia precies toegevoegd aan DX12 en Vulkan? Ben ik wel benieuwd naar. Wat ze wel weer hebben toegevoegd is hun weerstand voor vooruitgang... DX12 en Vulkan kunnen gewoon volledig zonder inperking binnen de specificaties van die API gebruikt worden door nVidia of AMD, en zelfs Intel. Er is geen mogelijkheid voor AMD of een andere fabrikant om de ander te dwarsbomen afhankelijk van hoe je het gebruik van DX12 of Vulkan interpreteert.

Het aansporen bij developers tot het niet gebruiken van ASync, of het niet juist gebruiken, kun je als dwarsbomen van AMD zien. Andersom geldt dit natuurlijk ook. Het aansporen bij developers tot het gebruiken van ASync (liefst dan natuurlijk zoveel mogelijk, fak nVidia en zijn gebruikers) kan dus ook gezien worden als dwarsbomen van nVidia.

Gameworks/TWIMTBP etc daarentegen is imo gewoon niet goed te praten. Als een game het gebruikt is het gewoon om te zorgen dat nVidia met die game beter uit de verf komt (alsmede natuurlijk de reclame). Vaak zelfs op een dusdanige manier dat het niet uitmaakt dat nVidia gebruikers er zelf ook op achteruitgaan (weliswaar natuurlijk altijd relatief minder dan een AMD gebruiker). DX12 en Vulkan zorgen alleen al met hun mogelijkheid tot veel meer drawcalls voor een theoretische verbetering van de performance. Noch nVidia, noch AMD kan door het gebruik hiervan benadeelt worden, wel is het zo dat AMD hier veel meer profijt van heeft. Zelfde geldt voor ASync, nVidia kan hier gebruik van maken als ze dit hardwarematig kunnen. Resultaat is dat geen van de fabrikanten benadeelt wordt, maar wel dat AMD hier veel meer profijt heeft. Ik kan me geen scenario bedenken waarin ASync onnodig veel gebruikt zou kunnen worden om zo relatief meer prestatie te hebben. Dit betekend niet dat het niet mogelijk is, dit gaan we nog gegarandeerd terug zien.

nVidia gaat in deze gevallen echt niet DX12 om die redenen promoten. Integendeel, ze zullen waarschijnlijk nog her en der een dikke zak geld droppen om bij DX11 te blijven en ook nog even Gameworks erin te duwen. Of ze laten een developer wel gebruik maken van DX12 waarbij dan juist die features, waar het in mijn ogen om te doen is, weggelaten of "verkeerd" gebruikt worden.

Ik realiseer me dat het nog veel te vroeg is om DX12, Vulkan, nVidia en AMD te beoordelen. We hebben nog te weinig gezien hiervoor, wel is het zo dat, dat wat we wel hebben gezien positiever is voor AMD dan voor nVidia. Als er straks twee handjes vol DX12 games zijn kunnen we al meer zeggen, daarbij natuurlijk ook kritisch kijkende naar de implementatie van genoemde API's. GoW was natuurlijk een faal, maar dat betekend niet dat DX12 puin zooi is, de implementatie ervan was puin zooi. Net zoals dat tesselation op zichzelf geen puin zooi is. Een onnodig hoge tesselation sample rate verlangen daarentegen is gewoon puin zooi en dus slechte implementatie/gebruik van tesselation.

Op het moment dat er geen statisch significant aantoonbaar verschil is tussen beeld kwaliteit verhogingen en de waarneming hiervan. Ergo feit is dat er meer detail is, mening kan blijven dat je geen verschil is met een lagere beeld kwaliteit. Wel resulteert het berekenen van meer beeld kwaliteit in minder beelden die berekend kunnen worden binnen dezelfde tijd. Waarbij je dan moet gaan kijken of het verschil hiertussen wel significant is te noemen. Het kost je misschien meer FPS, maar erg heb je er bijvoorbeeld niet in omdat je dat ook niet merkt (erg raar, hogere instellingen niet merkbaar en lagere FPS ook niet merkbaar). Bijvoorbeeld de vraag of 5K op 20" scherper is als op 4K op 20", geen idee of dat zo is (is feitelijk wel zo, of je het kan zien weet ik dus niet), maar als het niet zo is ben je een aardige dief van je eigen portemonnee. Als je dan voor 5K op 20" kiest te samen met een videokaart die dat ook aankan op die resolutie (welke we aannemen duurder is dan dezelfde ervaringsvereisten voor 4K op 20").

Lang verhaal kort, iets valt of staat niet met maar één aspect. Ook niet als dat "de prijs" is in de zin van, de prijs is goed. Je kan wel een magische videokaart hebben die altijd de beste prijs prestatie heeft, maar als die een paar duizend euro kost kun je hem niet betalen om daarnaast de alom belangrijke vraag of het nodig is nog maar even te laten voor wat het is (CS GO met 9000 FPS heb je niks aan t.o.v. 200 ofzo ;) )

Als een koe in de wei herkauwen }:O

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

madmaxnl schreef op zondag 12 juni 2016 @ 13:17:
Waarom zijn dat opeens AMD sponsort of Gaming Evolved titels? Omdat ze wel enigszins goed gebruik maken van DX12?
Omdat er bij Hitman op de officiële site gewoon een flink "Gaming Evolved" logo staat, en omdat er bij de AotS site een groot AMD logo onderaan de pagina staat?

Dunno, maar lijkt me dat ze dan toch enigzins op elkaar afstemmen.

AMD pushed het gebruik van Async en DX2, terwijl Nvidia volumetric lighting, HBOA+ en Phsyx pushed. Laten we nou niet doen alsof één van de twee een grote schurk is, en de ander een konijnenknuffelaar...

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +3 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Async Compute en DX12 zorgen beide alleen maar voor prestatiewinst, als de GPU het niet ondersteund gaan de games niet minder draaien ze draaien dan gewoon als een game zonder die functies.

Volumetric Lighting, HBOA+ en PhysX zorgen allemaal voor prestatieverlies en als je het niet gebruikt voor een minder goed uitziende game.

Die dingen staan dus precies tegenover elkaar.

En dan is het meeste wat nVidia uitbrengt vaak ook nog closed source en draait het vaak alleen maar fatsoenlijk op de laatste generatie van nVidia en slecht op oudere nVidia kaarten en alle AMD kaarten.

[ Voor 21% gewijzigd door -The_Mask- op 12-06-2016 17:25 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
AMD heeft Mantle aan MS en Khronos gegeven omdat ze wisten dat Nvidia GPU's geen hardware matige ondersteuning hadden voor async compute. Die ondersteuning inbouwen zou zeker enkele generaties duren en zo AMD vrij spel geven in de eerste jaren van de nieuwe generatie API's.

Natuurlijk gaat Nvidia API's tegenwerken die zo zijn toegespitst op de GCN arch, aangezien er voor Maxwell en Pascal weinig winst te behalen valt.

Slim gespeeld door AMD. Het beste is nog wel dat ze het zo hebben weten te verkopen dat de meute denkt dat het open sourcen van Mantle wordt gezien als goodwill van AMD.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

haarbal schreef op zondag 12 juni 2016 @ 14:24:
Wil niet zeggen dat amd dan per se "beter" is onder dx12. Als je een aftermarket 980Ti vergelijkt met een fury X in ashes of the singularity is de fury X maar ~6% sneller. Ondanks waterkoeling, HBM, een hoger verbruik en een volledige chip tegen een met wat units uitgeschakeld.
Beetje offtopic maar een Fury X verbruikt minder dan een aftermarket GTX980Ti, je kan alles zeggen over AMD kaarten maar qua verbruik is de Fury X tenopzichte van de oudere GCN toch echt beter geworden.
Dit hangt natuurlijk wel af van het type aftermarket kaart, want de GTX980Ti gaming gebruikt weer minder.
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/power_average.png
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/GTX_980_Ti_Matrix/images/power_peak.png

Acties:
  • +1 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik vind het wel typisch dat er word gedaan alsof er in principe een level playing field is tussen amd en nvidia wanneer het aankomt op wat er gebeurd als amd of nvidia een game sponsort. Echter amd heeft zo ver ik weet compleet geen geschiedenis van zaken zoals water onder de map of dx10.1 verhinderen.
Zo ver ik weet zelfs is het laatste keer dat amd echt iets niet deed wat kon was met de 8500 kaart en quake 3.

Nvidia heeft gewoon smerigere handen dan AMD.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Sp3ci3s8472 schreef op zondag 12 juni 2016 @ 17:58:
Dit hangt natuurlijk wel af van het type aftermarket kaart, want de GTX980Ti gaming gebruikt weer minder.
bij die had ik gekeken ja.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • V3g3ta
  • Registratie: September 2004
  • Laatst online: 10-09 18:30

V3g3ta

Fueled by Games!

Deze vraag is vast al eens gesteld.. Maar heeft het zin om van een 980Ti Strix naar een 1080 Strix over te stappen? Nu mijn 980Ti nog wat waard is? Ik game op 2650x1440

PS5 DE, PS4 Pro, PS3 SS, PS VIta Slim PSN: BSGathena


Acties:
  • 0 Henk 'm!

  • ArthurMorgan
  • Registratie: Januari 2001
  • Niet online
Ik zou het niet doen, alleen als je nu voortdurend een paar settings omlaag moet zetten die je heel graag aan wilt hebben. Maar ik denk niet dat de winst meer dan een procent of 15 zal zijn.. Helemaal als je hem goed overclocked hebt.

I hear voices in my head, they counsel me, they understand.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
V3g3ta schreef op zondag 12 juni 2016 @ 18:54:
Deze vraag is vast al eens gesteld.. Maar heeft het zin om van een 980Ti Strix naar een 1080 Strix over te stappen? Nu mijn 980Ti nog wat waard is? Ik game op 2650x1440
Waarom stel je hem dan nog? ;)

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Er zijn reviews genoeg om zelf te bepalen of je 850 euro moet uitgeven of niet...

[ Voor 7% gewijzigd door Paprika op 12-06-2016 19:20 ]


Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 19:05
V3g3ta schreef op zondag 12 juni 2016 @ 18:54:
Deze vraag is vast al eens gesteld.. Maar heeft het zin om van een 980Ti Strix naar een 1080 Strix over te stappen? Nu mijn 980Ti nog wat waard is? Ik game op 2650x1440
De 1080 Strix schijnt een van de minste 1080's te zijn, omdat niet alle heatpipes contact maken met de die ( 8)7 ) - dus die kaart zou ik sowieso skippen. Onder andere MSI en EVGA hebben interessantere kaarten.

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
tomcatha schreef op zondag 12 juni 2016 @ 18:00:
ik vind het wel typisch dat er word gedaan alsof er in principe een level playing field is tussen amd en nvidia wanneer het aankomt op wat er gebeurd als amd of nvidia een game sponsort. Echter amd heeft zo ver ik weet compleet geen geschiedenis van zaken zoals water onder de map of dx10.1 verhinderen.
Zo ver ik weet zelfs is het laatste keer dat amd echt iets niet deed wat kon was met de 8500 kaart en quake 3.

Nvidia heeft gewoon smerigere handen dan AMD.
Tsja, dat krijg je bij elk bedrijf die rond de 70-80% marketshare heeft..
Dan kan je al (bijna) gaan spreken van een monopoly. Gelukkig kon AMD weer wat procenten afnemen.

[ Voor 4% gewijzigd door SmokingCrop op 12-06-2016 19:57 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:22

XanderDrake

Build the future!

tomcatha schreef op zondag 12 juni 2016 @ 18:00:
Zo ver ik weet zelfs is het laatste keer dat amd echt iets niet deed wat kon was met de 8500 kaart en quake 3.
Ik kan me nog een leuk verhaal met HalfLife 2 en shader semi-optimalisaties herinneren.

Maar sindsdien boeit het me eigenlijk ook niet direct. Ik heb duidelijk een aantal games in gedachten die ik wil gaan spelen met een videokaart en daar kijk ik specifiek naar. Tomb Raiders en andere Nixxen ports staan hoog in mijn lijstje je daar deed de Fury X het niet zo best vs de nVidia 1000 serie. Ik hou mijn ogen open voor Polaris, de 1000 serie is nu toch te duur.
Nvidia heeft gewoon smerigere handen dan AMD.
Och spaar me. Smerige handen hebben is een binaire eigenschap, je hebt ze of je hebt ze niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 14-09 21:48
CardGTX 960GTX 970GTX 1060GTX 1070
Memory2GB / 4GB4GB*6GB8GB
Bus width128bit256bit*192bit256bit
Mem. clock7Gb/s7Gb/s8Gb/s?8Gb/s
Bandwidth112GB/s244GB/s*192GB/s?256GB/s
*GTX 970 heeft een 'apparte' geheugen structuur, waarbij het gesplitst is in 2 gedeeltes. Hierdoor is het net iets langzamer dan aangegeven.

Het ziet er naar uit dat het geheugensysteem van de GTX 1060 een flinke upgrade heeft gekregen tegenover de GTX 960. Flink meer geheugen en 50% tot 62.5% meer bandbreedte :).

Ik denk zelf dat de GTX 1060 precies de helft wordt van de GTX 1080. Dus 1280 cores voor de GTX 1060, 1920 voor de 1070 en 2560 voor de 1080.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op zondag 12 juni 2016 @ 20:43:
Ik kan me nog een leuk verhaal met HalfLife 2 en shader semi-optimalisaties herinneren.
Dat verhaal wil ik wel eens horen als dat tégen ΑΤΙ zou zijn. Want wat ik me weet te herinneren is dat dat de tijd van NV3x is (GeForce FX), de chip die voor geen meter tegen R300 op kon boksen. HL2 was ook een van de eerste games die vol met de FP32 shaders van DX9 aan de gang ging, iets waar de NV3x al helemaal niet mee overweg kon en Valve dus een speciaal code path voor NV3x bouwde waar ze een groot deel van de shaders op FP16 (DX8 stijl) uitvoerden ;)

Tegen de tijd dat het spel uit kwam was NV4x ook uit en presteerde dat gewoon netjes gelijk aan ATI. AF en AA hadden nog steeds een grotere impact op Nvidia dan ATI, maar dat gold voor elk spel omdat ATI daar gewoon beter mee om kon gaan.
Maar sindsdien boeit het me eigenlijk ook niet direct. Ik heb duidelijk een aantal games in gedachten die ik wil gaan spelen met een videokaart en daar kijk ik specifiek naar. Tomb Raiders en andere Nixxen ports staan hoog in mijn lijstje je daar deed de Fury X het niet zo best vs de nVidia 1000 serie. Ik hou mijn ogen open voor Polaris, de 1000 serie is nu toch te duur.
RotTR is ook wel de enige Nixxes port die voor geen meter draait en waar je enorme verschillen ziet. Vreemd genoeg ook de eerste waar Nvidia bij betrokken is. Rara..

Tot nu draaiden Nixxes ports gewoon degelijk voor beide kampen. Zelfs de "AMD games" zoals Deus Ex en TR2013 (zucht). Die laatste had wel een patch nodig, maar die was er binnen twee weken.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:22

XanderDrake

Build the future!

Werelds schreef op zondag 12 juni 2016 @ 23:14:
RotTR is ook wel de enige Nixxes port die voor geen meter draait en waar je enorme verschillen ziet. Vreemd genoeg ook de eerste waar Nvidia bij betrokken is. Rara..

Tot nu draaiden Nixxes ports gewoon degelijk voor beide kampen. Zelfs de "AMD games" zoals Deus Ex en TR2013 (zucht). Die laatste had wel een patch nodig, maar die was er binnen twee weken.
Ze zijn toch gewoon onafhankelijk? Ik vind dit complot denken toch wel ver gaan.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Piet_Piraat7
  • Registratie: September 2011
  • Laatst online: 15-09 15:58
Waarom staat de 1070 nog niet op videocardbenchmark.net? Hij is toch al sinds vrijdag uit?

Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 19:05
XanderDrake schreef op maandag 13 juni 2016 @ 07:33:
[...]

Ze zijn toch gewoon onafhankelijk? Ik vind dit complot denken toch wel ver gaan.
Ze zijn inderdaad onafhankelijk, maar komop. Vergelijk nou eens hoe alle Nixxes games tot dusver werken op AMD kaarten (erg goed juist juist). Rise of the Tomb Raider is de enige game waar AMD het slecht mee doet. En het is tegelijkertijd een TWIMTBP game... Toeval volgens jou, dus?

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Piet_Piraat7 schreef op maandag 13 juni 2016 @ 09:09:
Waarom staat de 1070 nog niet op videocardbenchmark.net? Hij is toch al sinds vrijdag uit?
Waarom zou iemand die site vrijwillig bezoeken?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op maandag 13 juni 2016 @ 07:33:
Ze zijn toch gewoon onafhankelijk? Ik vind dit complot denken toch wel ver gaan.
Oh ja joh?

http://tombraider.tumblr....tx-12-to-rise-of-the-tomb

Van 46 naar 60 FPS op High met een 970 is 30% winst van DX12, niet slecht, toch?

http://www.hardocp.com/ar...x12_review/4#.V15mEqKKSV4
With the GeForce GTX 970 we found our first highest playable gameplay difference between DX11 and DX12, and it is not for the positive. DX12 in fact slowed performance down so much for us we had to lower settings compared to DX11. First, under DX11 and DX12 we had to set textures to "High" for a smoother experience. With DX11 we were able to have "Very High" shadows, sun soft shadows and depth of field turned on. Under DX12 we actually had to lower these settings to "High" and "On." Everything else was the same with "On" ambient occlusion (no HBAO+), and "medium" dynamic foliage and pure hair on "on" and specular reflection on "High."

Between the GTX 980 Ti and GTX 980 DX12 did not add anything to the experience, and the gameplay was the same between DX11 and DX12. However, with the GeForce GTX 970 DX12 actually slowed it down enough that we had to lower settings under the new API. We recommend playing under the DX11 API for the best performance right now.
Click door naar de benchmarks en je ziet dat DX12 consistent trager is; op AMD is het geheel sowieso al trager op DX11, op DX12 wordt dat alleen erger. Niet alleen wordt die 30% winst niet gehaald, in het ergste geval heb je het gewoon over 25% verlies.


Ik heb geprobeerd iets los te peuteren van oisyn, maar hij kan uiteraard niets los laten. Het enige dat momenteel vast staat is dat RotTR de eerste keer is dat Nixxes zo'n ongelijke prestaties af levert. Tegelijkertijd is het de eerste keer dat Nvidia vingers in de pap heeft. En ook de eerste keer dat Nvidia het behoorlijk beter doet in DX12. Er zijn geen ook patches of wat dan ook geweest om het spel te fixen.

Noem het een complot theorie als je wil, maar ik vind het lastig om de feiten te negeren.

Ik ben een groot fan van het werk dat Nixxes doet, als het op ports aan komt levert niemand zo'n degelijk werk af als zij. Prestaties zijn altijd in orde, muis input zit niet gedwongen vast aan acceleratie (voor mij veel belangrijker, veel ports hebben negatieve acceleratie), keybindings zijn meestal in orde. Maar RotTR is toch een grote misser en dan is het wel heel toevallig dat dit de game is waar Nvidia ineens bij betrokken is.

[ Voor 8% gewijzigd door Werelds op 13-06-2016 10:04 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op maandag 13 juni 2016 @ 10:01:
[...]

Oh ja joh?

http://tombraider.tumblr....tx-12-to-rise-of-the-tomb

Van 46 naar 60 FPS op High met een 970 is 30% winst van DX12, niet slecht, toch?

http://www.hardocp.com/ar...x12_review/4#.V15mEqKKSV4


[...]


Click door naar de benchmarks en je ziet dat DX12 consistent trager is; op AMD is het geheel sowieso al trager op DX11, op DX12 wordt dat alleen erger. Niet alleen wordt die 30% winst niet gehaald, in het ergste geval heb je het gewoon over 25% verlies.


Ik heb geprobeerd iets los te peuteren van oisyn, maar hij kan uiteraard niets los laten. Het enige dat momenteel vast staat is dat RotTR de eerste keer is dat Nixxes zo'n ongelijke prestaties af levert. Tegelijkertijd is het de eerste keer dat Nvidia vingers in de pap heeft. En ook de eerste keer dat Nvidia het behoorlijk beter doet in DX12. Er zijn geen ook patches of wat dan ook geweest om het spel te fixen.

Noem het een complot theorie als je wil, maar ik vind het lastig om de feiten te negeren.

Ik ben een groot fan van het werk dat Nixxes doet, als het op ports aan komt levert niemand zo'n degelijk werk af als zij. Prestaties zijn altijd in orde, muis input zit niet gedwongen vast aan acceleratie (voor mij veel belangrijker, veel ports hebben negatieve acceleratie), keybindings zijn meestal in orde. Maar RotTR is toch een grote misser en dan is het wel heel toevallig dat dit de game is waar Nvidia ineens bij betrokken is.
Ik kan me niet voorstellen dat .oisyn hier trots op is. Over het algemeen maat Nixxes de beste pc ports zover ik weet, maar met Rise of the Tomb Raider hebben ze echt een aantal steken laten vallen.
Als de performance in DX12 op elke kaart lager is dan bij DX11 dan doe je iets niet goed....

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Sp3ci3s8472 schreef op maandag 13 juni 2016 @ 10:13:
Ik kan me niet voorstellen dat .oisyn hier trots op is. Over het algemeen maat Nixxes de beste pc ports zover ik weet, maar met Rise of the Tomb Raider hebben ze echt een aantal steken laten vallen.
Als de performance in DX12 op elke kaart lager is dan bij DX11 dan doe je iets niet goed....
Ik weet niet of oisyn hier veel mee te maken heeft gehad. Als bedrijf lijkt me dat Nixxes dit inderdaad niet als toonbeeld van hun kunnen zal gebruiken. Ik begrijp ook volledig dat hij niets kan los laten en er dus niet dieper op in zal gaan.

Begrijp me niet verkeerd, in DX11 loopt het spel vrij redelijk op Nvidia, dus wat dat betreft is het Nixxes zoals we gewend zijn. Een beetje onregelmatig (niet in termen van frametimes, maar qua haalbare framerate), maar niet slecht. Op AMD en met DX12 is het echter waardeloos.

Als DX12 nu nauwelijks verbetering toonde over DX11 dan was het acceptabel geweest. Dat kan best als je een draw-call optimised DX11 path omgooit naar DX12; dan zul je alleen op lower end CPU's wat voordeel zien. Maar tot wel 25% performance verliezen zonder daarbij flink wat meer IQ te krijgen? Nee.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:22

XanderDrake

Build the future!

Sp3ci3s8472 schreef op maandag 13 juni 2016 @ 10:13:
[...]


Ik kan me niet voorstellen dat .oisyn hier trots op is. Over het algemeen maat Nixxes de beste pc ports zover ik weet, maar met Rise of the Tomb Raider hebben ze echt een aantal steken laten vallen.
Als de performance in DX12 op elke kaart lager is dan bij DX11 dan doe je iets niet goed....
Exact. De ports zijn tot nu toe echt geweldig op elke gpu, dat is toch een indicatie van onafhankelijkheid? Er is meer aan de hand, maar sabotage lijkt me echt heeeeel sterk.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op maandag 13 juni 2016 @ 10:33:
Exact. De ports zijn tot nu toe echt geweldig op elke gpu, dat is toch een indicatie van onafhankelijkheid? Er is meer aan de hand, maar sabotage lijkt me echt heeeeel sterk.
Het kan best dat er een legitieme reden is, maar als dat zo was dan zou Nixxes daar eens een blog over moeten schrijven. De IQ met DX12 is niet beter, dus performance inleveren betekent dan dat één van twee dingen:

- Nixxes bakt er niets van, iets waar we het allemaal wel over eens zijn dat zeer onwaarschijnlijk is, gezien hun eerdere werk en vooral ook ervaring
- Er is iets aan de hand dat niet deugt

En dan spijt het me heel erg, maar aangezien Nvidia er ineens bij betrokken is geraakt en zij juist wel een slechte geschiedenis hebben op dat gebied en het spel in z'n algemeen slechter loopt op AMD zeg ik: waar rook is...

Het is helemaal stil rond het spel, waar er eerst nog dev blogs waren zijn die er al lang niet meer. Patches? Niks daarvan. Het is voor mij ook onbegrijpelijk hoe reviewers hier niet op in hebben gehaakt en waarom het spel überhaupt nog gebruikt wordt voor benchmarks, want hoe je het ook wendt of keert, er klopt gewoon iets niet. Of dat nu aan Nixxes, Nvidia of gewoon een waardeloze base engine ligt doet er verder ook niet toe.

[ Voor 19% gewijzigd door Werelds op 13-06-2016 10:51 ]


Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
NV komt met een programma om de laatste 980ti/980/970 te clearen met grote rebates.
Ik denk dat jullie later deze week de prijzen in de shops met leuke bedragen zullen zien zakken.
Dan komt een 2de hands 980Ti voor 300 euro toch nog in zicht :)
Mocht er iemand vanaf willen, laat mij maar weten..

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

The Source schreef op maandag 13 juni 2016 @ 13:34:
NV komt met een programma om de laatste 980ti/980/970 te clearen met grote rebates.
Ik denk dat jullie later deze week de prijzen in de shops met leuke bedragen zullen zien zakken.
Dan komt een 2de hands 980Ti voor 300 euro toch nog in zicht :)
Mocht er iemand vanaf willen, laat mij maar weten..
Vaak zie je die rebate/cashback programma's bij Amerikaans versies van eBay / NewEgg / Amazon etc - dan krijgen consumenten zelf echt geld terug van AIB's (wat zij vervolgens van NV hebben gehad + kortingscoupon voor een smakelijke upgrade), maar ik heb dit nog maar heel weinig in echt Nederlandse webshops gezien?

Is dit een van de eerdere/zeldzame keren dat dit programma ook aan Nederland wordt verleent?

[ Voor 36% gewijzigd door Cassius op 13-06-2016 13:44 ]

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Werelds schreef op maandag 13 juni 2016 @ 10:49:
[...]

Het kan best dat er een legitieme reden is, maar als dat zo was dan zou Nixxes daar eens een blog over moeten schrijven. De IQ met DX12 is niet beter, dus performance inleveren betekent dan dat één van twee dingen:

- Nixxes bakt er niets van, iets waar we het allemaal wel over eens zijn dat zeer onwaarschijnlijk is, gezien hun eerdere werk en vooral ook ervaring
- Er is iets aan de hand dat niet deugt

En dan spijt het me heel erg, maar aangezien Nvidia er ineens bij betrokken is geraakt en zij juist wel een slechte geschiedenis hebben op dat gebied en het spel in z'n algemeen slechter loopt op AMD zeg ik: waar rook is...

Het is helemaal stil rond het spel, waar er eerst nog dev blogs waren zijn die er al lang niet meer. Patches? Niks daarvan. Het is voor mij ook onbegrijpelijk hoe reviewers hier niet op in hebben gehaakt en waarom het spel überhaupt nog gebruikt wordt voor benchmarks, want hoe je het ook wendt of keert, er klopt gewoon iets niet. Of dat nu aan Nixxes, Nvidia of gewoon een waardeloze base engine ligt doet er verder ook niet toe.
Nvidia so evil.

Als square voor dx12 optimalisatie zou betalen gebeurt dat gewoon hoor.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 15-09 08:36

Phntm

Tlingelingeling

The Source schreef op maandag 13 juni 2016 @ 13:34:
NV komt met een programma om de laatste 980ti/980/970 te clearen met grote rebates.
Ik denk dat jullie later deze week de prijzen in de shops met leuke bedragen zullen zien zakken.
Dan komt een 2de hands 980Ti voor 300 euro toch nog in zicht :)
Mocht er iemand vanaf willen, laat mij maar weten..
Lijkt me een Amerikaans iets he? Als dat zo is in Nederland, dan vind ik het gek dat er niet gelijk wat van te zien was. :O

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
In de USA is het heel makkelijjk om een MIR (mail in rebate) te regelen. Er zijn bedrijven die daarin zijn gespecialiseerd. In EU is dat erg moeilijk, allemaal verschillende BTW tarieven, fiscale wetten en wir war van banken. In EU doen wij ook cashback programmas wat op hetzelfde neer komt. Toevallig gaat er vandaag een cashback actie live van Intel en MSI: https://msi-promotions.co...summertime/country-select. Zijn ook bedrijven die dit regelen, echter veel uitzonderingen en niet mogelijk in alle landen.

De rebates van NV werken in EU anders. BV Wij hebben onze GAMING kaart aan verschillende distributeurs en resellers verkocht. Als NV de prijs nu 100$ laat zakken dan is de nieuwe voorraad goedkoper. Dan komt je dus met oude en nieuwe stock te zitten. Als een reseller 1 oude kaart en 1 nieuwe kaart op voorraad heeft dan is zijn voordeel niet 100$ maar 50$ (gemiddeld) per kaart. Vandaar dat NV zegt wij supporten alle resellers in het NV programma, zij krijgen prijs protectie (dus 100$ voor elke kaart op voorraad) maar moeten de nieuwe verkoop prijs volgen. Vandaar dat je deze prijswijzigingen snel zult zien.

Echter zijn er ook kleinere resellers die van NV dit voordeel niet hebben... die hebben pech. De meeste van deze zaken zullen ook geen voorraad hebben. Dus in de praktijk is dit niet zo'n groot probleem.

Acties:
  • 0 Henk 'm!

  • hotdog92
  • Registratie: Oktober 2006
  • Niet online
Guru3D heeft nu naast de MSI GeForce GTX 1080 GAMING X 8G review ook een review online staan van de Gigabyte GeForce GTX 1080 G1 GAMING. Kaarten lijken op basis van deze reviews erg aan elkaar gewaagd, de MSI is een tikkeltje stiller en koeler, maar de verschillen zijn vrij miniem. De Gigabyte haalt in deze review beduidend betere OC-resultaten. Het 8+6 design op de MSI lijkt dus niet bijzonder veel voordeel te hebben, kwestie van geluk hebben.

Acties:
  • +1 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 22:55

Tomas Hochstenbach

Redacteur componenten
hotdog92 schreef op maandag 13 juni 2016 @ 14:05:
Guru3D heeft nu naast de MSI GeForce GTX 1080 GAMING X 8G review ook een review online staan van de Gigabyte GeForce GTX 1080 G1 GAMING. Kaarten lijken op basis van deze reviews erg aan elkaar gewaagd, de MSI is een tikkeltje stiller en koeler, maar de verschillen zijn vrij miniem. De Gigabyte haalt in deze review beduidend betere OC-resultaten. Het 8+6 design op de MSI lijkt dus niet bijzonder veel voordeel te hebben, kwestie van geluk hebben.
Op basis van zijn geluidstests kun je daar nauwelijks iets over zeggen, de verschillen zijn veel te klein en vallen vrijwel allemaal binnen de foutmarge. Onder load is de MSI echt een flinke klap stiller, de review van Computerbase laat dat al beter zien.

Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De reviews van Guru3D wat betreft geluidsmetingen zijn extreem slecht, hij heeft zoveel omgevingsgeluid dat het geluid van de videokaart daar eigenlijk altijd in wegvalt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Techpowerup heeft z'n eerste 1080 custom review published:
http://www.techpowerup.co.../GTX_1080_Gaming_X/1.html

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Hardware.info heeft zo te zien heel wat 1080's getest ondertussen.
http://nl.hardware.info/v...0139-350126-350128-351450

Temperaturen bij 40 dB(A) na 10 minuten firemark:
MSI = 65°C
Gainward = 67°C
Asus = 68°C
Inno3D = 77°C
Gigabyte = 78°C
Founders = 94°C

Default geluid vs temperatuur:
MSI = 39,7 dB(A) - 68°C
Gainward = 40,4 dB(A) - 69°C
Inno3D = 43,6 dB(A) - 72°C
Asus = 44,6 dB(A) - 64°C
Gigabyte = 48,8 dB(A) - 68°C
Founders = 50,4 dB(A) - 82°C

HWI Videokaart Prestatiescore 2016 (2160p):
Gainward = 73,7
Inno3D = 73,4
Asus = 72
Gigabyte = 70,7
MSI = 70,6
Founders = 68,4

HWI Videokaart Prestatiescore 2016 (1080p):
MSI = 160,6
Gainward = 160,3
Inno3D = 160,3
Gigabyte = 159,2
Asus = 158,9
Founders = 156,7

Interessant om zien dat de MSI het beste bij 1080p en slechtste bij 4K scoort vd customs..
De Gainward Phoenix GLH doet het ook verrassend goed.

[ Voor 54% gewijzigd door SmokingCrop op 13-06-2016 18:04 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
Nu ben ik wel benieuwd hoe ze in de performance/$ chart de GTX1070 weergeven... Ik ben even niet in staat de berekening zelf te doen.

[ Voor 6% gewijzigd door Paprika op 13-06-2016 17:55 ]


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Weet jij toevallig wanneer de MSI GTX 1070 beschikbaar zou kunnen komen in Nederland?

Staat in andere topic:
The Source in "[nVidia GeForce GTX 10xx] Levertijden en Beschikbaarheid"

[ Voor 25% gewijzigd door SmokingCrop op 14-06-2016 17:17 ]


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Ik vraag me af hoe het nu werkelijk zit met die async/DX12 en hoeveel beter 1070's gaan blijken in spellen waarbij die gebruikt wordt tov 980 ti's.

Als de pricewatch: Inno3D iChill GeForce GTX 980 Ti X3 DHS eens goedkoop verkrijgbaar is, lijkt me dat erg interessant voor de lage geluidsproductie met goede koeling, alsook de performance die voorlopig beter is dan een MSI 1070 Gaming..
http://nl.hardware.info/r...sproductienen-temperatuur

Acties:
  • 0 Henk 'm!

  • PascalvE
  • Registratie: September 2009
  • Nu online
Maar hoe zit het met de ondersteuning van de 980Ti door Nvidia in de toekomst? Of is die alleen 'slechter' (lees: geen nieuwe drivers) bij de echt oude modellen.

Acties:
  • 0 Henk 'm!

  • Case_C
  • Registratie: Maart 2012
  • Laatst online: 15-09 13:52

Case_C

[Team Carrack]

Piet_Piraat7 schreef op maandag 13 juni 2016 @ 09:09:
Waarom staat de 1070 nog niet op videocardbenchmark.net? Hij is toch al sinds vrijdag uit?
Bij deze dan :P , met een opvallend hoge notering. 7 samples die gemiddeld hoger scoren dan de 115 van de GTX1080. Weet iemand hoe die benchmark werkt met z'n score?

http://www.videocardbenchmark.net/high_end_gpus.html

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

PascalvE schreef op woensdag 15 juni 2016 @ 12:40:
Maar hoe zit het met de ondersteuning van de 980Ti door Nvidia in de toekomst? Of is die alleen 'slechter' (lees: geen nieuwe drivers) bij de echt oude modellen.
Dat kan je prima nagaan, bekijk de Kepler generatie maar en hoe die zich verhouden tot hun AMD tegenhangers. Daar is geen competitie meer.
Bijvoorbeeld de 280x komt heel dicht in de buurt van de GTX780, terwijl toen de GTX780 uitkwam hij vergelijkbaar was met de 290. Dat is een highend kaart van 3 jaar oud waar eigenlijk niks meer mee gebeurt.
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/perfrel_2560_1440.png

Acties:
  • 0 Henk 'm!

  • PascalvE
  • Registratie: September 2009
  • Nu online
Ik zit er niet zo in, moet zeggen dat ik hier behoorlijk van schrik. Ik wacht geduldig tot de 1070, helaas is de 480 geen alternatief voor mijn wensen.

Ik heb nog een oudje (6850) en het viel me inderdaad ook op dat ik af en toe nog een driver update krijg, echt klasse.

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Nja, moest die inno3d 980 ti X3 DHS naar een 400 euro gaan, zou ik het wel overwegen om die te kopen.
Ik houd m'n GPU's geen jaren meer, zo is de 780 ti nog steeds zowat gelijk aan de 970 qua performance en V&A prijs. Al gaan ze misschien niet meer zo laag gaan.

Acties:
  • 0 Henk 'm!

  • Piet_Piraat7
  • Registratie: September 2011
  • Laatst online: 15-09 15:58
Case_C schreef op woensdag 15 juni 2016 @ 13:10:
[...]

Bij deze dan :P , met een opvallend hoge notering. 7 samples die gemiddeld hoger scoren dan de 115 van de GTX1080. Weet iemand hoe die benchmark werkt met z'n score?

http://www.videocardbenchmark.net/high_end_gpus.html
Wauw die scoort hoog

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
The Source schreef op maandag 13 juni 2016 @ 13:34:
NV komt met een programma om de laatste 980ti/980/970 te clearen met grote rebates.
Ik denk dat jullie later deze week de prijzen in de shops met leuke bedragen zullen zien zakken.
Dan komt een 2de hands 980Ti voor 300 euro toch nog in zicht :)
Mocht er iemand vanaf willen, laat mij maar weten..
Nvidia heeft prijzen GTX 980 Ti, 980 en 970 verlaagd
http://nl.hardware.info/n...utm_campaign=hardwareinfo

125 dollar op een 980 Ti
75 dollar op een 980
25 dollar op een 970

Told you. Bedragen kloppen (mocht ik niet vertellen :) )

[ Voor 9% gewijzigd door The Source op 15-06-2016 16:11 ]


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Ze waren dus helaas al actief die prijzen. Hoopte op een prijsdaling op de huidige prijzen..
Wordt dus geen 980 Ti.

Acties:
  • 0 Henk 'm!

  • schumi1986
  • Registratie: Februari 2014
  • Laatst online: 00:12
zozo 25 dollar verlaging op een 970 :P

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
The Source schreef op woensdag 15 juni 2016 @ 16:10:
[...]


Nvidia heeft prijzen GTX 980 Ti, 980 en 970 verlaagd
http://nl.hardware.info/n...utm_campaign=hardwareinfo

125 dollar op een 980 Ti
75 dollar op een 980
25 dollar op een 970

Told you. Bedragen kloppen (mocht ik niet vertellen :) )
Dit volgende zin lijkt mij nog het meest interessante:
De promo loopt vanaf 13 juni t/m 31 juli.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
Dat wil zeggen tegen die tijd zijn we alle stock waar we vanaf willen kwijt en daarna geven wij geen prijs protecties meer aan resellers. De nieuwe prijzen waartegen fabrikanten het verkopen blijfen laag.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
The Source schreef op woensdag 15 juni 2016 @ 17:01:
Dat wil zeggen tegen die tijd zijn we alle stock waar we vanaf willen kwijt en daarna geven wij geen prijs protecties meer aan resellers. De nieuwe prijzen waartegen fabrikanten het verkopen blijfen laag. zijn en dat dan de GTX 1060 verkocht kan worden en de GTX 970, GTX 980 en GTX 980 Ti EOL gaan.
:Y) Dat lees ik.

Dus ik zeg 2 juli voor de GTX 1060. :P

[ Voor 9% gewijzigd door -The_Mask- op 15-06-2016 17:19 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
:) :)

Nop, NV wacht all reviews, comments af op de 480 en zorgt dat een eventuele 1060 beter is qua prijs / performance, en ze zijn arrogant genoeg om erboven te gaan zitten. Maar uiteraard zal dat geen maand duren. Zal spannend worden :)

[ Voor 12% gewijzigd door The Source op 15-06-2016 17:28 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Beter qua prijs/performance doen ze nooit eigenlijk. Hun gedachtegang is wij zijn nVidia dus wij kunnen meer vragen. Toen de GTX 960 uitkwam was de prijs/prestatie ook niet beter, maar vergelijkbaar of minder dan een R9 285 en R9 280X.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
-The_Mask- schreef op woensdag 15 juni 2016 @ 17:46:
Beter qua prijs/performance doen ze nooit eigenlijk. Hun gedachtegang is wij zijn nVidia dus wij kunnen meer vragen. Toen de GTX 960 uitkwam was de prijs/prestatie ook niet beter, maar vergelijkbaar of minder dan een R9 285 en R9 280X.
en dat kunnen ze helaas ook zonder problemen elke keer doen met hun marketshare..
aan de andere kant, als de 1060 beter zou zijn qua price/performance dan de rx480 dan is dat ook niet goed voor de marketshare, want dan wordt het alleen maar erger voor de consument :>

[ Voor 21% gewijzigd door SmokingCrop op 15-06-2016 20:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op woensdag 15 juni 2016 @ 17:46:
Beter qua prijs/performance doen ze nooit eigenlijk. Hun gedachtegang is wij zijn nVidia dus wij kunnen meer vragen. Toen de GTX 960 uitkwam was de prijs/prestatie ook niet beter, maar vergelijkbaar of minder dan een R9 285 en R9 280X.
Ik denk dat ze de 1060 gaan marketen samen met Simultaneous multi-projection waarmee theoretish 70% winst kan worden gehaald in VR
Deze feature mist AMD en ook al is er geen enkele game die het ondersteunt is het toch een extra troef voor bij de 1060

Beetje net zoals AMD async promoot...

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Alleen heeft async natuurlijk voor iedereen nut, SMP (kort het maar even af) heeft daarentegen maar een heel geringe doelgroep.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Als AMD pech heeft dropt nVidia bij elke developer van VR titels een zak geldt voor de implementatie van SMP, mits deze vorm van overtuiging voor het gebruik ervan überhaupt nodig is. Enfin, aangezien nVidia bereid is te betalen, en developers en uitgevers dit weten, zie ik dat niet gratis gebeuren.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
madmaxnl schreef op woensdag 15 juni 2016 @ 23:50:
Als AMD pech heeft dropt nVidia bij elke developer van VR titels een zak geldt voor de implementatie van SMP, mits deze vorm van overtuiging voor het gebruik ervan überhaupt nodig is. Enfin, aangezien nVidia bereid is te betalen, en developers en uitgevers dit weten, zie ik dat niet gratis gebeuren.
Die zakken geld zijn nog nooit opgedoken in de jaarverslagen. Lijkt mij ook helemaal niet nodig. Een ontwikkelaar is al lang blij als ze on-site ondersteuning krijgen van een aantal Nvidia engineers. Tijd kost immers geld.
Verwijderd schreef op woensdag 15 juni 2016 @ 22:04:
[...]


Ik denk dat ze de 1060 gaan marketen samen met Simultaneous multi-projection waarmee theoretish 70% winst kan worden gehaald in VR
Deze feature mist AMD en ook al is er geen enkele game die het ondersteunt is het toch een extra troef voor bij de 1060

Beetje net zoals AMD async promoot...
Daar zou dan roet in het eten gooien voor de plannen van AMD
"The reason Polaris is a big deal, is because I believe we will be able to grow that TAM [total addressable market] significantly," said Taylor. "I don't think Nvidia is going to do anything to increase the TAM, because according to everything we've seen around Pascal, it's a high-end part. I don't know what the price is gonna be, but let's say it's as low as £500/$600 and as high as £800/$1000. That price range is not going to expand the TAM for VR. We're going on the record right now to say Polaris will expand the TAM. Full stop."

[ Voor 47% gewijzigd door sdk1985 op 16-06-2016 00:13 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
sdk1985 schreef op donderdag 16 juni 2016 @ 00:10:
[...]

Die zakken geld zijn nog nooit opgedoken in de jaarverslagen. Lijkt mij ook helemaal niet nodig. Een ontwikkelaar is al lang blij als ze on-site ondersteuning krijgen van een aantal Nvidia engineers. Tijd kost immers geld.
zakken geld hoeft ook niet in letterlijke cash bonussen te zijn. Zoals je zelf al zegt, hulp van Nvidia. Dat kan je ook als een zak geld zien.

[ Voor 4% gewijzigd door SmokingCrop op 16-06-2016 00:12 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
SmokingCrop schreef op donderdag 16 juni 2016 @ 00:12:
[...]

zakken geld hoeft ook niet in letterlijke cash bonussen te zijn. Zoals je zelf al zegt, hulp van Nvidia. Dat kan je ook als een zak geld zien.
Alleen doen Intel en AMD het ook :). Verder is helpen een stuk minder negatief dan iemand omkopen. Als je concurrent helpt, dan help jij toch meer? Dan wint uiteindelijk de consument.

[ Voor 19% gewijzigd door sdk1985 op 16-06-2016 00:14 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
sdk1985 schreef op donderdag 16 juni 2016 @ 00:13:
[...]

Alleen doen Intel en AMD het ook :).
Maar AMD heeft misschien minder geld om zo te investeren in games.
En als Nvidia aan komt kloppen met "hey, wij hebben 75+% discrete GPU market share en we willen jullie helpen". Dan zullen publishers wellicht snel toehappen :9

Acties:
  • +2 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
SmokingCrop schreef op donderdag 16 juni 2016 @ 00:14:
[...]

Maar AMD heeft misschien minder geld om zo te investeren in games.
Als nvidia aan komt kloppen met "hey, wij hebben 75+% discrete GPU market share en we willen jullie helpen". Dan zullen publishers wellicht snel toehappen :9
Oxide heeft recentelijk iets gepost mbt hoe dat precies werkt:
Wow, there are lots of posts here, so I'll only respond to the last one. The interest in this subject is higher then we thought. The primary evolution of the benchmark is for our own internal testing, so it's pretty important that it be representative of the gameplay. To keep things clean, I'm not going to make very many comments on the concept of bias and fairness, as it can completely go down a rat hole.

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD wink.gif As you've pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I've ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.

If you use this metric, however, given Nvidia's promotions with Unreal (and integration with Gameworks) you'd have to say that every Unreal game is biased, not to mention virtually every game that's commonly used as a benchmark since most of them have a promotion agreement with someone. Certainly, one might argue that Unreal being an engine with many titles should give it particular weight, and I wouldn't disagree. However, Ashes is not the only game being developed with Nitrous. It is also being used in several additional titles right now, the only announced one being the Star Control reboot. (Which I am super excited about! But that's a completely other topic wink.gif).

Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only 'vendor' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don't think it ended up being very significant. This isn't a vendor specific path, as it's responding to capabilities the driver reports.

From our perspective, one of the surprising things about the results is just how good Nvidia's DX11 perf is. But that's a very recent development, with huge CPU perf improvements over the last month. Still, DX12 CPU overhead is still far far better on Nvidia, and we haven't even tuned it as much as DX11. The other surprise is that of the min frame times having the 290X beat out the 980 Ti (as reported on Ars Techinica). Unlike DX11, minimum frame times are mostly an application controlled feature so I was expecting it to be close to identical. This would appear to be GPU side variance, rather then software variance. We'll have to dig into this one.

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?

In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)

--
P.S. There is no war of words between us and Nvidia. Nvidia made some incorrect statements, and at this point they will not dispute our position if you ask their PR. That is, they are not disputing anything in our blog. I believe the initial confusion was because Nvidia PR was putting pressure on us to disable certain settings in the benchmark, when we refused, I think they took it a little too personally.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +3 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Prima, geen zak geld, maar een handje vol nVidia engineers die de boel komen flessen. AMD vraagt niet aan Oxide om nVidia nadelig te behandelen, maar nVidia vraagt Oxide wel om AMD nadelig te behandelen. Of is het slopen van functies uit hun "benchmark" ten faveure van nVidia niet het nadelig behandelen van AMD? Arrogant even vragen om iets te doen wat ten nadelen van de concurrent komt, wordt gelukkig niet altijd opgevolgd. Helaas weten we niet hoe vaak dit wel wordt gedaan.

Nu is de vraag wat er gebeurt zou zijn als nVidia daar als eerste een voet tussen de deur had. Juist ja, dan komt AMD er ook gewoon niet in. nVidia dreigt wat en de kous is af. Wellicht dat ze het een en het ander vast hebben laten leggen en dus in zekere zin ook nog een poot hebben om op te staan mocht het tot een juridisch geschil komen.

Je kunt er vrij zeker van zijn dat bij elke samenwerking nVidia sowieso contractueel laat vast leggen dat een developer zich niet negatief mag uiten over nVidia en de samenwerking.

Enfin, Ashes wordt gezien als het parade paardje van AMD, terwijl het dat niet eens perse is. Niet in de zin zoals bij nVidia er de parade paardjes zijn. Ashes gebruikt Async maar een beetje en de verbeteringen die AMD boekt zitten hem voornamelijk in de drawcalls. Daar waar nVidia het op DX11 al prima voor mekaar heeft met drawcalls, maar ook zij profiteren.

Ik ben gewoon erg sceptisch wat betreft nVidia en de relaties met game developers.

[ Voor 4% gewijzigd door madmaxnl op 16-06-2016 03:40 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op woensdag 15 juni 2016 @ 22:04:
[...]

Ik denk dat ze de 1060 gaan marketen samen met Simultaneous multi-projection waarmee theoretish 70% winst kan worden gehaald in VR
Deze feature mist AMD en ook al is er geen enkele game die het ondersteunt is het toch een extra troef voor bij de 1060
...
Klinkt logisch.
madmaxnl schreef op woensdag 15 juni 2016 @ 23:50:
Als AMD pech heeft dropt nVidia bij elke developer van VR titels een zak geldt voor de implementatie van SMP, mits deze vorm van overtuiging voor het gebruik ervan überhaupt nodig is. Enfin, aangezien nVidia bereid is te betalen, en developers en uitgevers dit weten, zie ik dat niet gratis gebeuren.
Zouden ze SMP niet gewoon in Gameworks stoppen?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
madmaxnl schreef op donderdag 16 juni 2016 @ 03:30:
Ik ben gewoon erg sceptisch wat betreft nVidia en de relaties met game developers.
Ach, want wat ik veelvoudig van echte game-developers* hoor , is dat AMD (en Intel) het vaak allemaal niet zo interesseert kwa contacten, tenzij je EA-DICE, Square-Enix, of Ubisoft heet.

Er is zat te vinden zodra je in de technischere hoeken van het internet zit, maar toch maar een voorbeeldje van de CEO van Warthunder, een van de populairste F2P titels op Steam:
Frankly, AMD is not good in communicating with developers. We have very tight relationship with NVIDIA, they fix drivers and give us a lot of insights on how their HW is working - but neither of other two vendors do the same. There is not even a working contact from AMD, and the only answer from Intel driver engineer about bug in their drivers we ever got was "I am too busy to look into that".

Sometimes they still fix or optimize their drivers for our game, but it is never happening with communicating with us, and always is the same surprise for us as it is for players.

So, it is likely AMD would be under-performing with Dagor4.0 as it was with Dagor3.0 on PC, until they will again release optimized version of drivers for our game (if ever).

In the same time, on PlayStation4 we have AMD GPU and excellent tools (much better than anything we have on PC!) and so, frankly, we are mostly optimizing for PS4 GCN (which is AMD chip). However, most of the issues on PC are drivers.
We have tens(!) of workarounds in our engine code, which looks like "if it is AMD card and driver version is ... than ..."

There is even no damn email where we can send such info/report bug.
Also, there is such email for Intel, but they don't respond :)

We never did anything like "special slowdown path for AMD", and I never heard of developers which had.

But NVIDIA guys are really great in communicating with developers and helping them, and I think it may be and explanation why NVIDIA have better performance in many games and almost three times bigger PC market share than AMD.
* Oxide behoort daar, IMHO, dus niet bij, gezien het vanzelf sprekend is dat die AMD's volledige aandacht hebben, gezien ze een van de eersten waren met een AMD Mantle Techdemo, die ze dus later praktisch 1:1 naar DX12 konden porten, inclusief alle mogelijke GCN optimalisaties die ze van AMD dev's kregen, en door het volgen van Mantle "Best Practice Guidelines".

[ Voor 14% gewijzigd door SirNobax op 16-06-2016 11:34 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
madmaxnl schreef op woensdag 15 juni 2016 @ 23:50:
Als AMD pech heeft dropt nVidia bij elke developer van VR titels een zak geldt voor de implementatie van SMP, mits deze vorm van overtuiging voor het gebruik ervan überhaupt nodig is. Enfin, aangezien nVidia bereid is te betalen, en developers en uitgevers dit weten, zie ik dat niet gratis gebeuren.
Daar is toch ook niets mis mee? Features die simpelweg wel of niet werken lijkt mij alleen maar beter. SMP is juist wel een van de weinige nVidia-exclusives die ook echt iets doet waar je wat aan hebt.

[ Voor 8% gewijzigd door Paprika op 16-06-2016 11:36 ]


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
SirNobax schreef op donderdag 16 juni 2016 @ 11:06:
Ach, want wat ik veelvoudig van echte game-developers* hoor , is dat AMD (en Intel) het vaak allemaal niet zo interesseert kwa contacten, tenzij je EA-DICE, Square-Enix, of Ubisoft heet.

...

* Oxide behoort daar, IMHO, dus niet bij, gezien het vanzelf sprekend is dat die AMD's volledige aandacht hebben, gezien ze een van de eersten waren met een AMD Mantle Techdemo, die ze dus later praktisch 1:1 naar DX12 konden porten, inclusief alle mogelijke GCN optimalisaties die ze van AMD dev's kregen, en door het volgen van Mantle "Best Practice Guidelines".
En Gaijin wel, die vanaf dag 1 met PhysX werken? Zelfde soort non-argument ;)

Nvidia heeft zeker meer developer relations, dat is zonder meer waar. Waar deze knakker van Gaijin een fout maakt is het feit dat hij het via publieke kanalen probeert; mensen van AMD/Intel via Twitter benaderen? Kom op zeg. AMD heeft gewoon een heel programma hiervoor.


De verschillen tussen Nvidia en AMD zitten op andere vlakken. Het grootste verschil is dat AMD nog nooit een developer heeft beperkt qua samenwerking met andere vendors (ongeacht of dat Intel of Nvidia is). Zelfs in hun grootste marketing deal, met EA/DICE, niet. Er zit ook nooit iets in dat niet werkt op Nvidia omdat het gesloten API's gebruikt (even los van Mantle). Sterker nog, BF3 en BF4 lopen allebei gewoon beter op Nvidia omdat DICE daar meer uit geperst krijgt dankzij de lagere overhead. AMD's marketing deals zijn niets meer dan dat: marketing deals. Spel wordt gepromoot in combinatie met AMD hardware, maar AMD oefent geen invloed uit op het product zelf.

Nvidia doet dit anders. Ten eerste gebruiken zij wél regelmatig gesloten API's waardoor AMD benadeeld wordt. Je kunt dit proberen te verdraaien hoe je wilt, maar feit is dat GameWorks en PhysX gesloten API's zijn waar je niet veel mee kunt behalve wat Nvidia toe laat. Als een developer vervolgens meer betaalt om de bron code in te zien, mogen ze alsnog niet met AMD communiceren over eventuele optimalisaties. Dit moeten developers zelf uitvogelen.

In sommige gevallen geeft Nvidia deze licenties gratis aan developers als ze het Nvidia logo voeren en Nvidia hun game mag gebruiken voor marketing doeleinden - dit is in feite niets meer dan een zak geld op het bureau van de developer. Je kunt dit zien als quid-pro-quo, maar het is Nvidia die hier het meeste mee wint. De licenties zijn niet goedkoop, maar nog steeds goedkoper dan de gemiddelde marketing deal met uitgevers (Nvidia's deal met Ubisoft en AMD's deal met EA/DICE kosten beiden miljoenen). En die marketing deals omhelzen in de meeste gevallen, je raadt het al, het gebruik van GameWorks/PhysX. Ik weet ook uit betrouwbare bron dat men bij Ubisoft bijvoorbeeld geen reet om AMD geeft tijdens de ontwikkeling. Dat volgt pas na release. Nvidia wel, want daar hebben ze een deal mee. Is dat Nvidia's schuld? Nee, niet per se, maar het gebruik van hun zwarte dozen helpt niet bepaald. Want het speelgoed in die zwarte dozen speelt in op Nvidia's sterke punten, zoals hun lagere overhead in DX11 of het feit dat ze meer tessellators hebben.


En ja, dan wordt AMD's budget een probleem. AMD heeft simpelweg niet de middelen om op hetzelfde niveau als Nvidia campagne te voeren. Dat zou niet zo'n probleem zijn zonder Nvidia's gesloten shit. Maar dat is het dus wel.

Daarnaast is AMD veel stiller over wat ze wel of niet doen met developers. De succesverhalen van AMD doen om de een of andere reden ook nooit de ronde. Juist kleinere developers krijgen heel snel ondersteuning van AMD; AMD doet ook niet moeilijk over hardware sturen. Bij Nvidia gaat dat minder snel dan het lijkt; als je klant of partner van ze bent wel, maar anders ook niet.

Acties:
  • 0 Henk 'm!

Verwijderd

SirNobax schreef op donderdag 16 juni 2016 @ 11:06:
[...]


Ach, want wat ik veelvoudig van echte game-developers* hoor , is dat AMD (en Intel) het vaak allemaal niet zo interesseert kwa contacten, tenzij je EA-DICE, Square-Enix, of Ubisoft heet.

Er is zat te vinden zodra je in de technischere hoeken van het internet zit, maar toch maar een voorbeeldje van de CEO van Warthunder, een van de populairste F2P titels op Steam:

[...]


[...]


* Oxide behoort daar, IMHO, dus niet bij, gezien het vanzelf sprekend is dat die AMD's volledige aandacht hebben, gezien ze een van de eersten waren met een AMD Mantle Techdemo, die ze dus later praktisch 1:1 naar DX12 konden porten, inclusief alle mogelijke GCN optimalisaties die ze van AMD dev's kregen, en door het volgen van Mantle "Best Practice Guidelines".
Ik denk dat het simpelweg te maken heeft met het kleinere budget waar AMD het mee moet doen. Ze hebben het geld niet om met iedere studio nauw samen te werken en contacten de onderhouden dus dat doen ze alleen met grote studio's en/of speciale relaties zoals oxide.

Toch zie ik een kleine verandering in AMD zijn campagne, de devolopers van de nieuwe doom hadden niks anders dan lof voor AMD/480.

[ Voor 5% gewijzigd door Verwijderd op 16-06-2016 12:35 ]


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 20:36
TPU heeft nu ook een review van de 1080 Strix, bij dit model is er maar 1 heatpipe die geen contact maakt met de die...

Afbeeldingslocatie: https://www.techpowerup.com/reviews/ASUS/GTX_1080_STRIX/images/cooler2.jpg

Temperatuur en geluid lijkt ook gelijk aan de MSI en Gigabyte versie, bij TPU natuurlijk.

Wordt het dan nu een loterij met hoeveel heatsinks de die contact heeft, of had computerbase pech..
Laat maar, ik zie dat er bij computerbase er ook eentje niet contact heeft. Ik dacht dat het er twee waren...

[ Voor 12% gewijzigd door Zeara op 16-06-2016 13:12 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Werelds schreef op donderdag 16 juni 2016 @ 12:05:

En Gaijin wel, die vanaf dag 1 met PhysX werken? Zelfde soort non-argument ;)
Een developer die een gratis te gebruiken API in hun engine implementeren, nog stammend uit de tijd dat deze van AGEIA was, 2 jaar voordat Nvidia uberhaupt om de hoek kwam kijiken. Of een developer die praktisch als AMD partner, ver voordat Mantle publiek te gebruiken viel, een compleet render-path specifiek voor AMD kaarten implementeerd, zodat ze deze als Mantle Techdemo kunnen gebruiken, is toch wel even andere koek, maargoed, ik gok dat je zelf ook wel snap dat dat een kul argument is. Zeker gezien er in War Thunder nergens gebruik word gemaakt van PhysX/Gameworks met GPU acceleratie.
Werelds schreef op donderdag 16 juni 2016 @ 12:05:
Nvidia heeft zeker meer developer relations, dat is zonder meer waar. Waar deze knakker van Gaijin een fout maakt is het feit dat hij het via publieke kanalen probeert; mensen van AMD/Intel via Twitter benaderen? Kom op zeg. AMD heeft gewoon een heel programma hiervoor.
Die mannen bij Gaijin hebben ook gewoon via interne wegen contact, die sleutelen al meer dan 10 jaar aan hun eigen engine. Maar als AMD niets doet, en AMD's OpenGL developers niet eens op hun Twitter reageren, dan houdt het inderdaad op gegeven moment gewoon op.

Maargoed, dat OpenGL bij AMD een drama is, is niets nieuws. Dat is al minstens 10 jaar zo. AMD's affiniteit met OpenGL kwam bij Doom bijvoorbeeld ook bovenspelen.

Pentaxiaan


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
SirNobax schreef op donderdag 16 juni 2016 @ 13:25:
Een developer die een gratis te gebruiken API in hun engine implementeren, nog stammend uit de tijd dat deze van AGEIA was, 2 jaar voordat Nvidia uberhaupt om de hoek kwam kijiken. Of een developer die praktisch als AMD partner, ver voordat Mantle publiek te gebruiken viel, een compleet render-path specifiek voor AMD kaarten implementeerd, zodat ze deze als Mantle Techdemo kunnen gebruiken, is toch wel even andere koek, maargoed, ik gok dat je zelf ook wel snap dat dat een kul argument is. Zeker gezien er in War Thunder nergens gebruik word gemaakt van PhysX/Gameworks met GPU acceleratie.
X-Blades had geen PhysX in de oorspronkelijke release, ik had wellicht "Nvidia PhysX" moeten zeggen. Pas vanaf IL2 gebruiken ze PhysX voor zover ik weet; X-Blades is later geupdate. Daarnaast zijn delen van gameworks inherent GPU accelerated als je de binaries gebruikt. De RGB lopen via de CPU (omdat die niet versneld kúnnen worden), maar dingen als particles worden op Nvidia standaard via de GPU versneld, daar heb je niets over te zeggen. Mantle was daarnaast oorspronkelijk bedoeld om uiteindelijk open te worden, de architectuur koppelde de implementatie (driver) los van de API zelf. Omdat Mantle Vulkan is geworden en ze bezig waren met MS is dat er nooit van gekomen.

Als jij dat echter als reden wil aanvoeren om Oxide/AotS als "oneerlijk" te bestempelen, dan mag je alles dat op UE draait ook zo bestempelen. Immers is PhysX daar een first-class citizen en worden vrijwel alle technieken van Nvidia gedemonstreerd in privé versies van UE.
Die mannen bij Gaijin hebben ook gewoon via interne wegen contact, die sleutelen al meer dan 10 jaar aan hun eigen engine. Maar als AMD niets doet, en AMD's OpenGL developers niet eens op hun Twitter reageren, dan houdt het inderdaad op gegeven moment gewoon op.

Maargoed, dat OpenGL bij AMD een drama is, is niets nieuws. Dat is al minstens 10 jaar zo. AMD's affiniteit met OpenGL kwam bij Doom bijvoorbeeld ook bovenspelen.
Nvidia's devs reageren ook niet op Twitter. Dat soort dingen doe je niet in het openbaar. Sterker nog, AMD heeft wat dat betreft waarschijnlijk meer aanwezigheid dan Nvidia, je ziet veel meer AMD mensen op forums en dergelijke dan van Nvidia. Ook Intel overigens, die hebben ook meer man op forums rondhangen.

En AMD bracht 4 dagen na release van DOOM een nieuwe driver uit om die problemen te fixen. 290/390 presteren nu gewoon naar behoren, op gelijke hoogte met een 970/980. Fury presteert wel nog ondermaats en dat zal aan AMD's overhead liggen.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Werelds schreef op donderdag 16 juni 2016 @ 13:52:
Pas vanaf IL2 gebruiken ze PhysX voor zover ik weet; X-Blades is later geupdate.


Daarnaast zijn delen van gameworks inherent GPU accelerated als je de binaries gebruikt. De RGB lopen via de CPU (omdat die niet versneld kúnnen worden), maar dingen als particles worden op Nvidia standaard via de GPU versneld, daar heb je niets over te zeggen.
Gaijin was sinds 2006 al AGEIA's support-partner voor Russische marktondersteuning van PhysX. Dus dat ze dat ze Physx er niet zomaar uithalen zodra Nvidia ruim 2 jaar later de boel opkoopt lijkt mij logisch. Verder maken ze geen gebruik van APEX binaries, ze hebben (nu ondertussen open-source) Gameworks componenten in hun eigen engine/render pipeline geimplementeerd. Binaries zou alleen maar meer werk opleveren gezien WT ook voor PS4 is, met crossplay, waardoor ze dus hun patches tegelijk moeten uitrollen en niet op Nvidia kunnen wachten als er iets mis is met hun externe libraries.
Werelds schreef op donderdag 16 juni 2016 @ 13:52:
Als jij dat echter als reden wil aanvoeren om Oxide/AotS als "oneerlijk" te bestempelen, dan mag je alles dat op UE draait ook zo bestempelen. Immers is PhysX daar een first-class citizen en worden vrijwel alle technieken van Nvidia gedemonstreerd in privé versies van UE.
Ik snap je punt niet echt, sowieso vind ik de hele "oneerlijke performance-vergelijkingen" discussie een beetje nutteloos en kinderachtig.

Misschien moet je m'n vorige posts nog eens doorlezen. Ik heb het erover dat tenzij je een grote publisher achter je rug heb staan, of je Oxide heet, de game-dev support van AMD gewoon zeer ondermaats is, en dat toont. Dan kunnen mensen in dit topic wel gaan zeiken dat er teveel games uitrollen die gebruikmaken van Nvidia's SDK's, maar dat heeft AMD enkel aan zichzelf te danken.

En tja, dat de mannen bij Epic af en toe een paar Nvidia developers over de vloer krijgen lijkt mij duidelijk, net als dat Oxide behoorlijke support heeft gekregen van AMD.

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 20:36
Oei oei oei, betrapt...

http://www.techpowerup.co...-clocks-than-retail-cards
MSI and ASUS have been sending us review samples for their graphics cards with higher clock speeds out of the box, than what consumers get out of the box. The cards TechPowerUp has been receiving run at a higher software-defined clock speed profile than what consumers get out of the box. Consumers have access to the higher clock speed profile, too, but only if they install a custom app by the companies, and enable that profile. This, we feel, is not 100% representative of retail cards, and is questionable tactics by the two companies. This BIOS tweaking could also open the door to more elaborate changes like a quieter fan profile or different power management.
Ok, het ziet er allemaal erger uit dan het is. Scheelt waarschijnlijk maar een paar procent. Maar is toch een beetje suf om te doen. Waarom maak je het dan niet gewoon standaard.

Ik neem aan dat elke kaart die 'OC' kan hebben.

[ Voor 12% gewijzigd door Zeara op 16-06-2016 16:05 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
SirNobax schreef op donderdag 16 juni 2016 @ 14:56:
Gaijin was sinds 2006 al AGEIA's support-partner voor Russische marktondersteuning van PhysX. Dus dat ze dat ze Physx er niet zomaar uithalen zodra Nvidia ruim 2 jaar later de boel opkoopt lijkt mij logisch. Verder maken ze geen gebruik van APEX binaries, ze hebben (nu ondertussen open-source) Gameworks componenten in hun eigen engine/render pipeline geimplementeerd. Binaries zou alleen maar meer werk opleveren gezien WT ook voor PS4 is, met crossplay, waardoor ze dus hun patches tegelijk moeten uitrollen en niet op Nvidia kunnen wachten als er iets mis is met hun externe libraries.
Hmm, vreemd, ik kan me niet herinneren dat X-Blades PhysX mee installeerde.

Ik volg WT verder niet dus ik heb geen flauw benul hoe ver ze tegenwoordig gaan met hun gebruik, maar bij lange na niet alles van GW is inmiddels open source. Er mist nog behoorlijk wat (APEX valt overigens gewoon onder GameWorks, is gewoon 1 van de componenten). In het bijzonder de GPU versnellingen, alleen de delen die op de CPU lopen zijn open.

Wees verder asjeblieft niet zo naïef om te denken dat ze dit voor niets krijgen. Zij betalen grof geld voor die toegang, dan mag je ook verwachten dat Nvidia helpt. En dat is ook nodig, want Nvidia's documentatie is op sommige punten op z'n zachtst gezegd ontoereikend. Dat geldt dubbel zo hard voor de delen die "open" zijn; er zit maar verdomd weinig commentaar in de code en een groot deel van de samples werkt niet eens.
Misschien moet je m'n vorige posts nog eens doorlezen. Ik heb het erover dat tenzij je een grote publisher achter je rug heb staan, of je Oxide heet, de game-dev support van AMD gewoon totaal ontbreekt, en dat showd. Dan kunnen mensen in dit topic wel gaan zeiken dat er teveel games uitrollen die gebruikmaken van Nvidia's SDK's, maar dat heeft AMD enkel aan zichzelf te danken.
Welke grote publishers zijn dat dan? Ubisoft doet namelijk helemaal niets met AMD, bij EA draait het alleen om marketing. Square-Enix? Ook marketing. Dat staat allemaal volledig los van wat AMD wel of niet met individuele developers doet. Dat is juist hoe Oxide hier bij betrokken is geraakt. Hun samenwerking met DICE stamt al van vóór EA.

Ik denk dat jij mij juist niet goed begrijpt. Nogmaals, ja, AMD doet het op een kleinere schaal omdat ze simpelweg het budget niet hebben. Ze zullen minder snel een programmeur op de stoep zetten. Neemt niet weg dat ze wel op afstand helpen met code te optimaliseren voor GCN; als je ze source toegang geeft leveren ze ook gewoon patches aan. En wederom, het meeste van AMD's spul is gewoon open en je hoeft er niet voor te betalen; bij Nvidia moet je dat wel en dan mag je ook gewoon meer support verwachten. Er zijn juist tal van kleine indie developers die gratis ondersteuning van AMD krijgen. Zo klopte War Horse bij ze aan voor wat hulp bij het optimaliseren van hun engine voor GCN; die hulp kregen ze en zonder er om gevraagd te hebben lagen er vervolgens prompt een stel videokaarten op de mat.

Het verschil is dat AMD's marketing deals geen technologie gebruik omhelzen, waar dat bij Nvidia wel het geval is. Studio's die onder uitgevers vallen die een deal met Nvidia hebben krijgen die ondersteuning omdat dat deel van de deal is. AMD heeft vrijwel niets meer dat gesloten is. Documentatie is niet perfect, maar wel completer dan voor Nvidia.

Oxide's situatie is wel speciaal omdat zij inderdaad al heel vroeg met Mantle aan de slag gingen; maar dat is ook omdat het juist voor een game zoals die van hen uitermate toepasselijk was. Dat AMD daar vervolgens een marketing deal achteraan plakt is niet meer dan logisch. De ontwikkeling ging daar echter al aan vooraf.

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
De meegekregen clock-frequenties zijn al sinds de GTX670 afhankelijk van ASIC quality. Dat je dan verschillende getallen krijg als je 2 verschillende GPU's (uit verschillende batches) check is vanzelfsprekend.

Die 20mhz die dat custom profiel er bovenop doet is natuurlijk te verwaarlozen.

[ Voor 10% gewijzigd door SirNobax op 16-06-2016 16:22 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 20:36
SirNobax schreef op donderdag 16 juni 2016 @ 16:19:
[...]


De meegekregen clock-frequenties zijn al sinds de GTX670 afhankelijk van ASIC quality. Dat je dan verschillende getallen krijg als je 2 verschillende GPU's (uit verschillende batches) check is vanzelfsprekend.

Die 20mhz die dat custom profiel er bovenop doet is natuurlijk te verwaarlozen.
Beter lezen. Er wordt een andere bios geleverd bij de retailversies. Bij de retailversies staat standaard de gaming optie aan, bij de reviewsites werd een bios meegeleverd waarbij de OC optie standaard aan staat. Heeft dus niks met asic waardes te maken.

Daarbij weet ik zelf ook wel dat het allemaal verwaarloosbaar klein is. Maar waarom kan MSI niet gewoon de OC optie standaard aanzetten?

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Zeara schreef op donderdag 16 juni 2016 @ 16:25:
Daarbij weet ik zelf ook wel dat het allemaal verwaarloosbaar klein is. Maar waarom kan MSI niet gewoon de OC optie standaard aanzetten?
Ging er mij om dat het artikel allemaal sensatiemakerij is, terwijl het overduidelijk geen fluit uit ga maken in benchmarks, zeker zodra ASIC quality daar nog eens een laag RNG overheen gooit. De MSI GTX670 die ik heb liggen is bijvoorbeeld standaard 144mhz hoger geclocked dan waar ze mee adverteren.

Pentaxiaan


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20:29
nieuws: Rift-versie van Myst-opvolger Obduction ondersteunt Nvidia's smp-tech...

Dat is wel cool. Juist ook omdat ik Myst nog wel kan herinneren, omdat mijn moeder dat speelde. :+

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Zeara schreef op donderdag 16 juni 2016 @ 15:58:
Oei oei oei, betrapt...

http://www.techpowerup.co...-clocks-than-retail-cards


[...]


Ok, het ziet er allemaal erger uit dan het is. Scheelt waarschijnlijk maar een paar procent. Maar is toch een beetje suf om te doen. Waarom maak je het dan niet gewoon standaard.

Ik neem aan dat elke kaart die 'OC' kan hebben.
Tsja.. Het verschil met de Mhz hangt nog meer af van de sample lottery dan dit.. Bios'n veranderen het hele jaar door, een 970 die je nu koopt, gaat niet meer dezelfde bios hebben als de mensen die hem in 2014 gekocht hebben.
Daarnaast is het heel duidelijk dat deze versies meerdere modi hebben, dat staat letterlijk zo op de website. Ik vind dit eerder een dikke fout van al de reviewers die dit niet wisten. Mooie review heb je dan..

Het eerste wat je ziet bij MSI bovenaan:
1847 MHz / 1708 MHz (OC Mode)
1822 MHz / 1683 MHz (Gaming Mode)
1733 MHz / 1607 MHz (Silent Mode)
https://www.msi.com/Graphics-card/G...-8G.html#hero-overview

Zolang ze geen hogere clock krijgen dan de OC stand bij consumenten kaarten, is er helemaal niets aan de hand. Ze zullen bij de consument misschien eerder een stillere/koelere kaart standaard willen leveren en om te voorkomen dat reviewers niet vergeten de OC stand te gebruiken, zetten ze die standaard op OC mode.. (en gelijk hebben ze, zoals je met dit bericht kan zien, kijken reviewers er nauwelijks naar, behalve deze dan)

Als je als consument niet weet dat deze kaart 3 modi heeft, dan zal die paar Mhz verschil ook niet uitmaken.. Uiteindelijk kan je toch niet uit gaan van een review om te weten hoeveel performance je gaat hebben. Je kaart kan evengoed clocken naar 1860Mhz als naar 2000Mhz naargelang je geluk. Klagen kan je niet, want ze garanderen enkel minstens 1848Mhz.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
SirNobax schreef op donderdag 16 juni 2016 @ 11:06:
[...]


Ach, want wat ik veelvoudig van echte game-developers* hoor , is dat AMD (en Intel) het vaak allemaal niet zo interesseert kwa contacten, tenzij je EA-DICE, Square-Enix, of Ubisoft heet.

Er is zat te vinden zodra je in de technischere hoeken van het internet zit, maar toch maar een voorbeeldje van de CEO van Warthunder, een van de populairste F2P titels op Steam:

[...]


[...]


* Oxide behoort daar, IMHO, dus niet bij, gezien het vanzelf sprekend is dat die AMD's volledige aandacht hebben, gezien ze een van de eersten waren met een AMD Mantle Techdemo, die ze dus later praktisch 1:1 naar DX12 konden porten, inclusief alle mogelijke GCN optimalisaties die ze van AMD dev's kregen, en door het volgen van Mantle "Best Practice Guidelines".
Die quote geeft eigenlijk ook meteen waarom het problematisch is als kaarten snel legacy gaan. Er waren nu best wat nieuwe AMD kaarten die grote problemen hadden met The Division (niet de minste titel). Het is nu vooral hopen dat AMD het licht heeft gezien en nu met Crimson de kaarten beter en langer gaat ondersteunen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 22:55

Tomas Hochstenbach

Redacteur componenten
Dit probleem speelt al jááren en het is imo ook wel een beetje gênant dat sommige reviewers er nu achter komen dat ze MSI-videokaarten jarenlang op 'te hoge' kloks hebben getest. Dit is namelijk gewoon zichtbaar in GPU-Z en vergelijkbare tools. Wat overigens niet betekent dat ik het netjes vind van de fabrikanten. Eigenlijk is het ook reuze onnodig, want die kaarten zijn doorgaans prima in orde, ook in de 'normale' modus.

Zeker na de introductie van GPU Boost 2.0 maken de standaard kloks minder uit en ik vind het dan ook geen big deal, maar helemaal fair play is het natuurlijk niet.

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Er zijn weer een boel nieuwe kaarten op de websites van de fabrikanten gekomen;
Watergekoelde 1080:
Afbeeldingslocatie: http://www.gigabyte.com/fileupload/product/3/5919/20160617180233_src.png

Simpelere WindForce 1070:
Afbeeldingslocatie: http://www.gigabyte.com/fileupload/product/3/5922/20160616154921_src.png

MSI heeft in samenwerking met EK ook een nieuwe kaart:
Afbeeldingslocatie: https://asset.msi.com/resize/image/global/product/product_10_20160617174634_5763c6fa9f904.png62405b38c58fe0f07fcef2367d8a9ba1/1024.png

KFA2 heeft z'n 1080 HOF ook op de site gezet:
Afbeeldingslocatie: http://www.kfa2.com/images/products/gtx1080hof-bigger-2.jpg

Inno3D heeft een V2 van de 1080 X3 en X4 met een iets lagere clock (?), anders zie ik geen verschil op de site:
http://www.inno3d.com/products_detail.php?refid=237

Acties:
  • 0 Henk 'm!

  • Uberdude
  • Registratie: Mei 2011
  • Laatst online: 09-09 23:24
Waarom is galaxy ookalweer omgedoopt naar Galax /kfa2?

Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
Uberdude schreef op zaterdag 18 juni 2016 @ 15:17:
Waarom is galaxy ookalweer omgedoopt naar Galax /kfa2?
Oorspronkelijk was het Galaxy + KFA2, Galaxy voor de Amerikaanse markt en KFA2 voor de Europese markt.
Volgens nieuwsberichten zou Galaxy + KFA2 = Galax moeten geworden zijn, maar KFA2 blijft maar bestaan..

Acties:
  • +1 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 22:55

Tomas Hochstenbach

Redacteur componenten
SmokingCrop schreef op zaterdag 18 juni 2016 @ 15:20:
[...]

Oorspronkelijk was het Galaxy + KFA2, Galaxy voor de Amerikaanse markt en KFA2 voor de Europese markt.
Volgens nieuwsberichten zou Galaxy + KFA2 = Galax moeten geworden zijn, maar KFA2 blijft maar bestaan..
En dat komt weer door een rechtszaak om de naam, volgens mij in Duitsland. Uiteindelijk heet het in Europa weer KFA2 en het enige resultaat van die samenvoeging is dus dat Galaxy in de USA nu Galax heet.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
GTX1080 verkoopt blijkbaar zeer goed. Beter dan de 980 en 980Ti bron

[ Voor 43% gewijzigd door ColinZ op 22-06-2016 23:58 ]


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
Wanneer komen er weer wat GTX 1070's met de boot aan? Het aanbod is momenteel nog steeds dramatisch.
ColinZ schreef op woensdag 22 juni 2016 @ 23:57:
GTX1080 verkoopt blijkbaar zeer goed. Beter dan de 980 en 980Ti bron
Als je in 6 minuten door je stock heen bent, hoeveel kaarten heb je dan beschikbaar? Persoonlijk vindt ik het wel erg knullig gaan nu. Stel dan je launch 4 weken uit zodat je een beetje stock hebt.

[ Voor 74% gewijzigd door sdk1985 op 23-06-2016 01:08 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
sdk1985 schreef op donderdag 23 juni 2016 @ 01:05:
Wanneer komen er weer wat GTX 1070's met de boot aan? Het aanbod is momenteel nog steeds dramatisch.

[...]


Als je in 6 minuten door je stock heen bent, hoeveel kaarten heb je dan beschikbaar? Persoonlijk vindt ik het wel erg knullig gaan nu.
In Duitsland staan er in redelijk wat shops bij veel kaarten zo ongeveer 29 juni - 2 juli.
Stel dan je launch 4 weken uit zodat je een beetje stock hebt.
Dat zei de kerel van PcPer ook in de 2u+ durende livestream met een Nvidia Engineer/marketeer, maar het zicht van Nvidia is daar anders op. Zij willen het zo snel mogelijk uitbrengen. De 3rd party partners hebben hun eigen agenda en ze willen de hele launch niet vertragen tot alle partners klaar zijn.

De manier voelt misschien stom aan, maar uiteindelijk kan je zelf ook gewoon een maandje wachten om er een te kopen. Ondertussen krijg je (user)reviews waarbij je ook een beter beeld kan vormen van de kaart die je wil kopen.

Bv. voor de 1070 zal er een maand later wel vrijveel voorraad zijn op een normalere prijs. (10 juli+)

[ Voor 18% gewijzigd door SmokingCrop op 23-06-2016 01:30 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:04
Tja Nvidia is marktleider en kan doen wat ze willen. Deze oplossing is natuurlijk goedkoper (er bestaat niet voor niets Just-In-Time).

Wat betreft 10+ juli, de GTX 1080 is nu bijna een maand uit en nog steeds niet normaal leverbaar. Zou het met de 1070 dan niet ook zo gaan?

Wellicht is de stock wat groter maar door de prijs en leverbaarheid van de GTX 1080 hoor ik nu tweakers die vroeger voor een GTX 680 gingen nu liever een GTX 1070 halen. Dus wellicht is de vraag naar de GTX 1070 veel groter dan verwacht.

[ Voor 30% gewijzigd door sdk1985 op 23-06-2016 02:20 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +2 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het lijkt mij vrij sterk eigenlijk dat er veel kaarten beschikbaar zijn alleen dat ze gewoon heel snel verkocht worden. Er zijn amper voorraden, als er dan weer een aantal kaarten komen dan zijn het altijd maar een handje vol en de woekerprijzen schrikt ook heel veel mensen af natuurlijk.
SmokingCrop schreef op donderdag 16 juni 2016 @ 19:59:
[...]


Als je als consument niet weet dat deze kaart 3 modi heeft, dan zal die paar Mhz verschil ook niet uitmaken.. Uiteindelijk kan je toch niet uit gaan van een review om te weten hoeveel performance je gaat hebben. Je kaart kan evengoed clocken naar 1860Mhz als naar 2000Mhz naargelang je geluk. Klagen kan je niet, want ze garanderen enkel minstens 1848Mhz.
Ook de power target wordt veranderd en daarnaast zijn de overkloks bij sommige MSI kaarten groter.
Vanaf hier en verder gaat het ook daarover tijmenvn in "nVidia GeForce GTX 10XX - Ervaringen"

[ Voor 55% gewijzigd door -The_Mask- op 23-06-2016 08:58 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
-The_Mask- schreef op donderdag 23 juni 2016 @ 08:52:
Ook de power target wordt veranderd en daarnaast zijn de overkloks bij sommige MSI kaarten groter.
Vanaf hier en verder gaat het ook daarover tijmenvn in "nVidia GeForce GTX 10XX - Ervaringen"
Power target is onderdeel van de OC mode, zit ook in de Gaming app.
De verhoogde power target zou geen invloed moeten hebben op overklokken want de max power target is voor de OC mode en Gaming mode hetzelfde.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik zeg ook niet dat de maximaal in te stellen power target hoger zou liggen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 23:42
-The_Mask- schreef op donderdag 23 juni 2016 @ 13:54:
Ik zeg ook niet dat de maximaal in te stellen power target hoger zou liggen.
We zijn wat benchmarks aan het draaien met verschillende powerlimits, dus dan kun je zien wat de verschillen zijn; nihil. Zal voor begin volgende week zijn.

[ Voor 5% gewijzigd door The Source op 23-06-2016 20:13 ]


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

nieuws: GTX 1000-gpu's leveren opstartproblemen op bij dvi met hoge 'pixel cl...

Mja, mja... Had je toch wel op kunnen anticiperen met de overklokmonitoren van vandaag de dag? DP is dan wel een oplossing, maar er zijn ook andere exemplaren die dat dus niet hebben.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Racing_Reporter schreef op maandag 27 juni 2016 @ 19:14:
nieuws: GTX 1000-gpu's leveren opstartproblemen op bij dvi met hoge 'pixel cl...

Mja, mja... Had je toch wel op kunnen anticiperen met de overklokmonitoren van vandaag de dag? DP is dan wel een oplossing, maar er zijn ook andere exemplaren die dat dus niet hebben.
Het gebruik van een refreshrate en een resolutie die resulteert in een hogere pixel clock valt dus buiten de specificatie

Dus als je een cheape Koreaanse monitor hebt gekocht: vandaar dat prijsverschil. Elke andere monitor met 1440p en >100Hz is gewoon DP.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • SmokingCrop
  • Registratie: Januari 2012
  • Niet online
De Palit GTX 1070 GameRock is hier binnen.
Kan hem echt aanraden als je stilte/koeling belangrijk vindt!
Is zonder zelf een fanprofiel in te stellen even stil als m'n MSI GTX 970 Gaming met een fanprofiel en blijft nog koeler ook (900RPM en 67°C na 30 minuten firestrike extreme loop in een Define R5 case waar de casefans op 450~RPM lopen met kamer temperatuur van 23-24°C). Als je de ruimte hebt voor deze 2,5 slot koeler, lekker doen <3

Review komt wellicht vrijdag of in het weekend.

[ Voor 34% gewijzigd door SmokingCrop op 27-06-2016 20:25 ]


Acties:
  • +1 Henk 'm!

  • Balance
  • Registratie: Januari 2013
  • Laatst online: 14-09 21:48
Dual-link DVI heeft een maximale netto bandbreedte van 7.92 Gbit/s. 1 frame = 2560*1440*8*3 = 88.473,6 Mb. 7.92 / 0.88473 = 89 frames per seconden. Als je dus meer dan die 89 frames per seconde probeert te halen is er dus simpelweg te weinig bandbreedte in het protocol, en stop beeldscherm ermee.
Pagina: 1 ... 30 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.