Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op zaterdag 20 mei 2017 @ 14:38:
Nee, daar valt niks over te discussiëren. Het is gewoon een octacore voor zowel de XBONE als de PS4.
Daar valt wel degelijk over te discussiëren aangezien het afhangt van je definitie van een kern en die definitie is echt niet eenvoudig te geven. Behoort een FPU wel of niet tot een kern? Jij vindt blijkbaar van niet maar kom maar eens met objectieve criteria die rechtvaardigen om te stellen dat het objectief bezien zo is.
Verder is Mantle ook gewoon een API, alleen wel eentje die lange tijd AMD only was, en dus ook niet van de grond kwam. Vulkan is de doorontwikkeling via de Kronos Group.
Kwestie van semantiek (omdat het niet open werd gesteld voor andere bedrijven en andere organisaties en individuele gebruikers) maar het klopt dat Mantle als API gebruikt zou kunnen worden als AMD dat toe zou staan. Het zou volstrekt nutteloos zijn aangezien Vulkan en DX12 hier meer geschikt voor zijn gemaakt maar in theorie zou het inderdaad kunnen. Of dat AMD Mantle uit handen gaf omdat het niet van de grond kwam is speculatief, zeker is dat bij een informele ontmoeting (je kan hier meer over vinden als je zoekt, ik heb het niet gebookmarkt) iemand van de KG iemand van AMD aangaf dat developers aan de KG vroegen om een opvolger van OpenGL te ontwikkelen en dat die medewerker van AMD vervolgens Mantle aanbood. Ik kan me voorstellen dat AMD dit o.a. deed vanuit de strategie dat de adoptie beter zou zijn als het breder ondersteund zou worden maar dat is speculatief.

Ik deel jouw optimisme m.b.t. de mogelijkkheden die Vulkan en DX12 bieden maar ik houd wel mijn hart vast voor het feit dat we meer afhankelijk worden van de developers. Op de lange termijn zullen die developers zich aanpassen maar als je weet dat AMD en Nvidia nu een hele reeks hacks in hun driver hebben ingebouwd die ze per spel aan- of uitzetten om fouten van developers (of beter gezegd, de programmeurs die voor hen werken) op te vangen...
Het kan rommelig worden tijdens de transitieperiode. Uiteindelijk zullen ze het wel leren, ze zullen wel moeten. :)

Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
DaniëlWW2 schreef op zaterdag 20 mei 2017 @ 19:41:
[...]


Maar juist dit jaar geld het wel degelijk dat AMD beter is. Vorig jaar, qua CPU absoluut niet, qua GPU een beetje. Ik qoute mezelf even van net. :)
[...]


Vega, mochten ze ooit nog uitkomen, kan die laatste stap zetten. Ik denk ook niet dat ze bedoeld zijn als reactie op Pascal, maar een voorzet op Volta. Moeten ze wel presteren. :P
Lol ga je je eigen nou quote?

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

foppe-jan schreef op zaterdag 20 mei 2017 @ 19:51:
[...]

Tja, het punt dat de meeste mensen negeerden is dat Intel het grootste deel v/d markt in handen had, en dat het dus problemen/klachten zou hebben opgeleverd om te gaan optimaliseren voor multicore/MT CPUs, omdat te veel mensen daar niet/nauwelijks over beschikten, en dat je markt dus verkleint. Dat kan nu veel makkelijker veranderen, aangenomen dat de verkoopcijfers laten zien dat dit goed wordt ontvangen.
Dat is echt een argument waar zo ongeveer iedereen gebruik van maakt naar eigen wensen, maar denk ik een totaal non issue is.

Wat is een CPU nu werkelijk? Het is een behoorlijk hoeveelheid, zeer domme transistoren die alleen seriële berekeningen aankunnen. Game heeft via de API instructies voor zoveel berekeningen, CPU rekent, en klaar. Natuurlijk bestaan er kleine optimalisaties, maar uiteindelijk zijn er geen CPU drivers. Het is gewoon brute force werk.

Tot dusver yay voor Intel fanboys. Nou nee, niet echt. Het maakt namelijk geen ene f uit of je een i5 quadcore hebt @3,4ghz of een R5 hexacore @3,2 in realistische applicaties. Dus 1080p en een RX580/GTX1060. Bij AMD krijg je alleen wel meer cores, die al worden aangesproken door moderne games en overclocking, en daarom is die dus beter. Niet zozeer voor gemiddelde, maar voor minima omdat ladingen beter verdeeld kunnen worden. Wederom, domme hoop transistoren die via de software van de game en API, extra lading op een lege core dumpen en dus geen bottleneck vormen. Dus yay AMD fanboys? Nee, dat ook niet. Ga je naar een totaal overkill scenario qua GPU, dan is een 7700k beter, dus 1080p/144hz met een GTX1080.

Dat brengt mij bij Vega. Ergens vermoed ik dat het bij Vega geen ene f uit gaat maken of je een 7700k of R5 1600 hebt voor 1080p/144hz, tenminste niet veel. Ik vermoed namelijk dat Nvidia haar software scheduler op een safe default draait met Ryzen. CPU niet herkent, dus geen extra cores in gebruik, maar wel extra driveroverhead wat frames kost. Dat lijkt het verschil in prestaties behoorlijk te verklaren, meer dan het geringe verschil in IPC tussen Intel en AMD op het moment. Ik verwacht dan ook op een gegeven moment een "super geweldige driver van Nvidia, die magisch alle Ryzen prestatieproblemen fixed, want Nvidia drivers zijn geweldig". Iedereen zing het gospel van Jen-Hsun Huang voor deze magische doorbraak. :+

Het bewijs voor mijn theorie zullen uiteraard 1080p testen zijn met Vega en Nvidia tegenhangers, met zowel een 7700k als Ryzen. Dus kom op AMD, gib Vega plox. :Y)
Verwijderd schreef op zaterdag 20 mei 2017 @ 20:03:
[...]

Daar valt wel degelijk over te discussiëren aangezien het afhangt van je definitie van een kern en die definitie is echt niet eenvoudig te geven. Behoort een FPU wel of niet tot een kern? Jij vindt blijkbaar van niet maar kom maar eens met objectieve criteria die rechtvaardigen om te stellen dat het objectief bezien zo is.
In beide consoles zitten custom Jaguar APU's. Jaguar heeft niks te maken met Bulldozer en is gewoon een normale quadcore. Voor beide custom Jaguar's geld twee CPU units van elk vier cores, en een GCN GPU. Octacores dus.
Kwestie van semantiek (omdat het niet open werd gesteld voor andere bedrijven en andere organisaties en individuele gebruikers) maar het klopt dat Mantle als API gebruikt zou kunnen worden als AMD dat toe zou staan.
Nee, het is gewoon een API. Niet erg wijdverbreid, maar dat was denk ik ook nooit de bedoeling. Het was meer een proof of concept.
Het zou volstrekt nutteloos zijn aangezien Vulkan en DX12 hier meer geschikt voor zijn gemaakt maar in theorie zou het inderdaad kunnen. Of dat AMD Mantle uit handen gaf omdat het niet van de grond kwam is speculatief, zeker is dat bij een informele ontmoeting (je kan hier meer over vinden als je zoekt, ik heb het niet gebookmarkt) iemand van de KG iemand van AMD aangaf dat developers aan de KG vroegen om een opvolger van OpenGL te ontwikkelen en dat die medewerker van AMD vervolgens Mantle aanbood. Ik kan me voorstellen dat AMD dit o.a. deed vanuit de strategie dat de adoptie beter zou zijn als het breder ondersteund zou worden maar dat is speculatief.
Vulkan = Mantle 2.0. Zo simpel is het. De code voor Vulkan komt voornamelijk van Mantle. In de Kronos Group gegooid zodat Nvidia het ook zou ondersteunen en standaard maken. OpenGL was nooit echt een succes tegenover DX van Microsoft. Vulkan is een nieuwe poging met iets meer kans. Denk dat DX12 uiteindelijk nog steeds wint, maar Vulkan is ook niet kansloos.
Ik deel jouw optimisme m.b.t. de mogelijkkheden die Vulkan en DX12 bieden maar ik houd wel mijn hart vast voor het feit dat we meer afhankelijk worden van de developers. Op de lange termijn zullen die developers zich aanpassen maar als je weet dat AMD en Nvidia nu een hele reeks hacks in hun driver hebben ingebouwd die ze per spel aan- of uitzetten om fouten van developers (of beter gezegd, de programmeurs die voor hen werken) op te vangen...
Het kan rommelig worden tijdens de transitieperiode. Uiteindelijk zullen ze het wel leren, ze zullen wel moeten. :)
De meeste developers pakken gewoon een engine van de plank en die moet de nieuwe API ondersteunen. EA gaat zo goed als kan Frostbite exclusief, daar zijn ze al jaren mee bezig. Gaat ook niet altijd goed, zie Mass Effect Andromeda, maar de focus blijft. Wel op DX12. Vanuit EA komt het wel goed met de ondersteuning. CryEngine gaat ook Vulkan ondersteunen, Id tech 6 is natuurlijk Vulkan, Unreal 4.0 ook. Ubisoft kan door de stront zakken met hun Gameworks voorliefde. De laatste jaren was het trainwreck release na trainwreck release en elke keer was het een Gameworks titel.

Een CoD port draait bizar goed op AMD want extra cores en hardware scheduler en totaal geen optimalisaties. Daarnaast zijn er nog de minder bijzondere games. Het ligt eraan of er focus ligt op zeer goede graphics. Zo ja, dan loop je vanzelf tegen een limiet aan, en moet je wel. Zo nee, dan kan menig GPU de game al draaien met weinig driveroptimalisaties en in brute force mode.

Alles bij elkaar maak ik me weinig zorgen. Elke keer als er meer rekenkracht beschikbaar kwam, werd het bij de volgende cyclus van games al gebruikt. Werd er tegen een limiet aangelopen, dan werd er een manier omheen gevonden. Nu lopen de nieuwste games tegen een limiet aan qua aantal CPU cores, en een enorme sprong in resolutie waar het lastig is geworden om de GPU te voorzien met een CPU core. De oplossingen zijn er al, in rest implementatie. Tot die tijd gewoon gamen. Je kan je tot in den treuren dood staren op een paar frames verschil, maar waarom zou je? Als het goed draait, dan ga je echt niet panisch benches opzoeken hoe het met andere GPU's gesteld is. Dat is het enige dat Vega moet doen, draaien, en wat bieden over Nvidia. Is dit alles van prijs tot DX12/Vulkan zoals AMD hoopt? Mooi voor AMD. Is het want minder, dan is het ook goed genoeg. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
DaniëlWW2 schreef op zaterdag 20 mei 2017 @ 20:45:
Dat is echt een argument waar zo ongeveer iedereen gebruik van maakt naar eigen wensen, maar denk ik een totaal non issue is.
Praktisch gezien lijkt het me toch wel relevant dat de rek er qua pure snelheid / IPC-verbeteringen er al jaren uit is (even aangenomen dat Intel niet compleet op zijn lauweren a/h rusten is geweest, wat zeker wel een deel van het probleem is) -- multicore CPUs maken is gewoon de meest logische manier om de algehele prestaties per socket te verbeteren: daarom doet intel dat het haar HEDT assortiment ook, zij het tegen navenante (bespottelijke) prijzen. Nu ontstaat er eindelijk een kans dat daar iets aan gaat veranderen.

[ Voor 4% gewijzigd door foppe-jan op 20-05-2017 20:52 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Intel heeft denk ik niet op zijn lauweren gerust maar kon door gebrek aan concurrentie, althans op de x86 markt, haar energie op andere zaken richten.

Het is ook positief, je kon in principe heel lang met je cpu doen :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Help!!!! schreef op zondag 21 mei 2017 @ 08:59:
Het is ook positief, je kon in principe heel lang met je cpu doen :)
Dat is een gevolg, maar ook het begin van het einde:

Minimale vooruitgang --> langere vervangcyclus --> lagere verkopen per jaar --> lagere investeringen per jaar --> nog minder vooruitgang
En dan begint de vicieuze cirkel. Uiteindelijk sterft die markt dan zelf uit doordat consumenten elders gaan zoeken voor innovatie. Ik ben blij dat AMD op tijd terug concurrend is kunnen worden, Intel heeft al te vaak laten vallen "dat de desktopmarkt dood is", wat volgens mij een excuus is om desktop computing compleet te laten vallen voor andere, meer winstgevendere markten zoals mobile.

Een gezonde concurrentie in de consumentenmarkt is de beste situatie, dat levert innovatie, correcte prijzen en keuze op.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

foppe-jan schreef op zaterdag 20 mei 2017 @ 20:52:
[...]

Praktisch gezien lijkt het me toch wel relevant dat de rek er qua pure snelheid / IPC-verbeteringen er al jaren uit is (even aangenomen dat Intel niet compleet op zijn lauweren a/h rusten is geweest, wat zeker wel een deel van het probleem is) -- multicore CPUs maken is gewoon de meest logische manier om de algehele prestaties per socket te verbeteren: daarom doet intel dat het haar HEDT assortiment ook, zij het tegen navenante (bespottelijke) prijzen. Nu ontstaat er eindelijk een kans dat daar iets aan gaat veranderen.
Nu de rest lezen. ;)
Het gaat niet om IPC of singlethread prestaties. Het gaat erom dat er nu vanuit zowel software als hardware, ondersteuning bestaat om eindelijk rendercalls over meer CPU cores te verdelen, veel meer berekeningen op de GPU te laten draaien, en er is hier nu ook eindelijk vraag naar. Vega moet deze deal gaan sluiten. Lukt dit, dan is Pascal weg, en Nvidia kan dan maar beter een goed antwoord hebben met Volta, waar ze ook inspelen op de veranderende vraag vanuit gameontwerpers.

Een moderne GPU moet twee dingen kunnen doen voor gaming. De rendercalls van een DX11 titels kunnen verdelen over interne pipelines, en door een combinatie van brute force en driver optimalisaties dit allemaal laten draaien, met als limiet een enkele CPU core.

Ook moet een moderne GPU DX12/Vulkan API's volledig ondersteunen, waarbij meerdere CPU cores, elk hun eigen render pipeline aan kunnen sturen. Een AMD GCN GPU kan beide, een Nvidia Pascal alleen het eerste. Gaat Vega dus matchen in DX11, laat staan eroverheen bij de GTX1070/80/Ti, dan moet Nvidia sterk reageren met Volta, door zowel DX11 prestaties, als het gat met DX12/Vulkan te dichten. Dat vraagt om een andere architectuur, waar DX11 prestaties opgeofferd zullen worden voor DX12/Vulkan, omdat Nvidia dan niet meer ontsnapt aan een hardware scheduler.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
DaniëlWW2 schreef op zondag 21 mei 2017 @ 10:30:
[...]


Nu de rest lezen. ;)
Het gaat niet om IPC of singlethread prestaties. Het gaat erom dat er nu vanuit zowel software als hardware, ondersteuning bestaat om eindelijk rendercalls over meer CPU cores te verdelen, veel meer berekeningen op de GPU te laten draaien, en er is hier nu ook eindelijk vraag naar. Vega moet deze deal gaan sluiten. Lukt dit, dan is Pascal weg, en Nvidia kan dan maar beter een goed antwoord hebben met Volta, waar ze ook inspelen op de veranderende vraag vanuit gameontwerpers.

Een moderne GPU moet twee dingen kunnen doen voor gaming. De rendercalls van een DX11 titels kunnen verdelen over interne pipelines, en door een combinatie van brute force en driver optimalisaties dit allemaal laten draaien, met als limiet een enkele CPU core.

Ook moet een moderne GPU DX12/Vulkan API's volledig ondersteunen, waarbij meerdere CPU cores, elk hun eigen render pipeline aan kunnen sturen. Een AMD GCN GPU kan beide, een Nvidia Pascal alleen het eerste. Gaat Vega dus matchen in DX11, laat staan eroverheen bij de GTX1070/80/Ti, dan moet Nvidia sterk reageren met Volta, door zowel DX11 prestaties, als het gat met DX12/Vulkan te dichten. Dat vraagt om een andere architectuur, waar DX11 prestaties opgeofferd zullen worden voor DX12/Vulkan, omdat Nvidia dan niet meer ontsnapt aan een hardware scheduler.
:) Ik heb de rest gelezen, maar je maakt daarin een ander punt, dat enigszins aan het mijne (over game logic) voorbij gaat. Nl dat een groot veel van de reden waarom NVidia en game devs inzetten op single-core performance was dat dit was wat Intel bood, en wat het grootste deel van de gamers kocht/bezat.
Ondertussen (o.a. omdat steeds meer mensen 4c+ hebben, en omdat het onhoudbaar werd om alle logic te laten afhandelen door core#1) heeft men al een beetje MC support ingebouwd, maar een van de redenen waarom hier lange tijd weinig energie in werd gestoken was omdat een te klein deel van de markt AMD (of intel, hoge core/thread-count) CPUs bezat. NVidia ging hiermee om door softwarmatig draw calls te verschuiven naar andere cores (die nauwelijks gebruikt werden voor logica/AI/enz.) terwijl AMD dat niet deed, waardoor NV strikt genomen meer overhead heeft, maar je daar tot dusver minder last van had, omdat de extra cores pas nu verzadigd beginnen te worden.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

foppe-jan schreef op zondag 21 mei 2017 @ 10:56:
[...]

:) Ik heb de rest gelezen, maar je maakt daarin een ander punt, dat enigszins aan het mijne (over game logic) voorbij gaat. Nl dat een groot veel van de reden waarom NVidia en game devs inzetten op single-core performance was dat dit was wat Intel bood, en wat het grootste deel van de gamers kocht/bezat.
Ondertussen (o.a. omdat steeds meer mensen 4c+ hebben, en omdat het onhoudbaar werd om alle logic te laten afhandelen door core#1) heeft men al een beetje MC support ingebouwd, maar een van de redenen waarom hier lange tijd weinig energie in werd gestoken was omdat een te klein deel van de markt AMD (of intel, hoge core/thread-count) CPUs bezat. NVidia ging hiermee om door softwarmatig draw calls te verschuiven naar andere cores (die nauwelijks gebruikt werden voor logica/AI/enz.) terwijl AMD dat niet deed, waardoor NV strikt genomen meer overhead heeft, maar je daar tot dusver minder last van had, omdat de extra cores pas nu verzadigd beginnen te worden.
Dat weet ik, maar dat is het punt niet. Een game zoals BF1 loopt tegen een limiet aan als het gaat om wat een enkele CPU core kan leveren aan rendercalls, en alsnog de extra cores heeft voor alle andere berekeningen. Een sprong in singlecore prestaties, en extra cores tegelijkertijd zit er ook niet in. Dat is het einde van DX11 als standaard omdat je anders tegen een limiet aanloopt. Dan moet je wel naar DX12/Vulkan voor de volgende sprong in grafische pracht en praal.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14-09 17:20
Toch is ook de multithreading met "moderne APIs" beperkt. Ja, het is nu niet meer [begin]->[draw everything 1 by 1]->[end]->[present], maar je gaat ook niet alles even over XX threads verdelen. Zie het een beetje als navigeren. Je kunt niet het laatste deel van het pad berekenen als je niet weet waar je start punt is voor het laatste deel van je pad.

Acties:
  • +4 Henk 'm!
foppe-jan schreef op zondag 21 mei 2017 @ 10:56:
[...]

:) Ik heb de rest gelezen, maar je maakt daarin een ander punt, dat enigszins aan het mijne (over game logic) voorbij gaat. Nl dat een groot veel van de reden waarom NVidia en game devs inzetten op single-core performance was dat dit was wat Intel bood, en wat het grootste deel van de gamers kocht/bezat.
Ondertussen (o.a. omdat steeds meer mensen 4c+ hebben, en omdat het onhoudbaar werd om alle logic te laten afhandelen door core#1) heeft men al een beetje MC support ingebouwd, maar een van de redenen waarom hier lange tijd weinig energie in werd gestoken was omdat een te klein deel van de markt AMD (of intel, hoge core/thread-count) CPUs bezat.
Dit klopt niet helemaal.

Zelfs met DX11MT is er niet veel aan multithreading te doen. Devs zetten niet in op single-core performance omdat Intel dat bood, maar juist omdat er met DX11 niet veel aan te doen viel. Het grootste deel van het werk dat een game moet doen is nog steeds renderen; dingen als geluid en het grootste deel van de game logic kunnen makkelijk op een enkele core draaien, daar zijn ze meer dan snel genoeg voor. "AI" ook, maar dat is dan wel weer omdat dat nauwelijks interessant is in de meeste games. Het is allemaal scripted, dus erg veel intelligentie zit er niet in ;)

Zelfs met extensief gebruik van command lists moet het uiteindelijk allemaal door D3D11's hoofd thread heen. Hetzelfde geldt voor DirectCompute. Dit gebeurt allemaal nog vóórdat (belangrijk, kom ik zo op terug) de driver iets van dit geheel te zien krijgt. Het kost de devs extra werk voor weinig winst in veel gevallen. Dat is wat met DX12 en Vulkan radicaal anders is.

Vipeax heeft gelijk dat het niet meteen zo is dat je nu ineens alles over 32 threads kunt verdelen, dat is uiteraard onzin.

Wel is het zo dat het de bedoeling is (ook hier kom ik zo op terug) dat je nu je queues aan maakt en dat die ook individueel verwerkt worden. In de setup van je scene alleen al kan dat een hoop schelen omdat er dan een hoop onafhankelijke kleine dingen moeten gebeuren. Het belangrijkste is echter dat een engine nu tijdens het hoofddeel van een frame dingen kan opsplitsen. Er zijn genoeg "rand" zaken die je normaal gesproken pas aan het eind doet terwijl die wellicht al eerder kunnen voor kleine objecten waar je al "klaar" mee bent. Ook kun je nu dingen als geometry en compute veel beter in de hand houden. Of simpelweg dingen laden.

Resulteert dat meteen in het gebruik van <aantal queues> threads vanuit de engine? Nee, want dat is waar het lastiger wordt voor devs. Die zullen nu zelf moeten zorgen dat ze de synchronisatie in de hand houden.

Als laatste kunnen die queues ook in principe 1:1 naar de GPU verstuurd worden, mits die dat aan kan. De driver hoeft er niet per se iets mee te doen. In het geval van GCN gebeurt dat ook grotendeels.
foppe-jan schreef op zondag 21 mei 2017 @ 10:56:
[...]

NVidia ging hiermee om door softwarmatig draw calls te verschuiven naar andere cores (die nauwelijks gebruikt werden voor logica/AI/enz.) terwijl AMD dat niet deed, waardoor NV strikt genomen meer overhead heeft, maar je daar tot dusver minder last van had, omdat de extra cores pas nu verzadigd beginnen te worden.
Inderdaad, Nvidia onderschept veel van wat devs doen en verschuift daarna een hoop draw call batching naar andere cores.

Hoewel dat slim klinkt, is het dat niet. Ten eerste is dat eigenlijk precies wat DX11MT is - het is niet zo dat Nvidia een briljant mechanisme heeft bedacht; ze hebben alleen wel goed bedacht dat zij dit wellicht stiekem kunnen doen voor DX11ST games. Het verbetert dingen ietwat omdat je niet meer op een enkele core zit te werken, maar het is nog steeds beperkt. Nvidia's main thread overhead is lager, hun algehele overhead is inderdaad hoger.

Belangrijker is echter dat Nvidia's aanpak ook voor problemen zorgt. Als je de afgelopen jaren bekijkt heeft Nvidia veel meer render bugs gehad. Met veel meer bedoel ik ook echt honderden meer. Dat komt doordat Nvidia maar wat "gokt" van wat er wel of niet ergens anders kan. Daardoor is het soms zo dat er net twee dingen in de verkeerde volgorde terecht komen en dan krijg je van die dingen dat de ogen van je character ineens door het achterhoofd te zien zijn zoals in Guild Wars 2 :P

Het is ook de reden waarom bij Nvidia de drivers harder nodig zijn om problemen op te lossen en waarom met nieuwere drivers oudere games soms ineens gekke dingen doen. AMD's drivers zijn vooral performance gericht, die van Nvidia op bugs.

Daarnaast heeft Nvidia uiteraard alles op die aanpak toegespitst en zijn ze heel afhankelijk van hun scheduling in software. Dus met DX12/Vulkan betekent dat dat zij nog steeds relatief veel werk in de driver moeten doen om alles maar soepel te laten verlopen, terwijl AMD in hun driver juist niet veel hoeft te doen. Hoe meer werk een driver doet of moet doen, hoe fout gevoeliger het geheel wordt. Nvidia kan heel makkelijk een driver uit brengen waardoor een game ineens volledig in kakt in DX12/Vulkan puur omdat er iets mis gaat met het schedulen. Die kans is bij AMD vrijwel nihil omdat zij dat niet in software doen.

Daarnaast moet Nvidia queues samen gaan voegen omdat ze aan de hardware kant een stuk beperkter zijn. Stel nu dus dat jij 64 queues in een keer vol kunt gooien, dan zal AMD die fijn doorzetten en zal een Fury X die gewoon tegelijkertijd verorberen. Nvidia moet hier aan de hardware kant eerst even kijken hoeveel ze er daadwerkelijk gelijk aan kunnen en vervolgens een aantal queues achter elkaar naar dezelfde partities sturen.

[ Voor 3% gewijzigd door Werelds op 21-05-2017 13:31 ]


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Heel apart maar momenteel is er geen RX 580 8GB in webshops te vinden.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:14
Amazigh_N_Ariff schreef op zondag 21 mei 2017 @ 14:23:
Heel apart maar momenteel is er geen RX 580 8GB in webshops te vinden.
Moet je toch wat beter kijken;

pricewatch: Gigabyte AORUS Radeon RX 580 8GB

Bij Megekko nog 4 op voorraad.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
Ik had willen zeggen haal een 480 want dat is een betere kaart, maar die lijkt ook slecht beschikbaar te zijn.

Is minen opeens weer lucratiever geworden ofzo?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Blackboard
  • Registratie: Oktober 2014
  • Laatst online: 21:17
haarbal schreef op zondag 21 mei 2017 @ 14:33:
Is minen opeens weer lucratiever geworden ofzo?
Prijzen van diverse cryptocoins zijn in de afgelopen maanden fors omhoog gegaan, zou de tekorten wel verklaren inderdaad.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op zondag 21 mei 2017 @ 11:35:
Toch is ook de multithreading met "moderne APIs" beperkt. Ja, het is nu niet meer [begin]->[draw everything 1 by 1]->[end]->[present], maar je gaat ook niet alles even over XX threads verdelen. Zie het een beetje als navigeren. Je kunt niet het laatste deel van het pad berekenen als je niet weet waar je start punt is voor het laatste deel van je pad.
Dat begrijp ik ook wel. We zijn alleen bij het punt aanbeland waar vier cores niet meer voldoen, vier cores en 4 threads, is net afdoende. Aan de andere kant zien we een muur ontstaan qua rendercalls die geleverd kunnen worden aan een GPU. De verschillen tussen een 7700k en een veel lager geclockte i5 zijn nu al merkbaar, met een volgende generatie ga je daar problemen krijgen. Clockspeeds gaan ook niet meer stijgen, zeker niet nu Intel ook naar de hexacore gaat. Twee extra cores, extra hitteproductie, de componenten dichter op elkaar want het zijn er meer, dus nog meer hitteproductie en weg extreme clocks. Lijkt me geen gezonde basis om een nieuwe generatie aan GPU's aan te sturen. :)

Dan heb je het alternatief, DX12/Vulkan. Qua developmentcyclus kan het dit jaar al, of volgend jaar. De hardware is er nu ook eindelijk, voor zowel CPU als GPU. Ik denk dat het dus niet zo lang meer gaat duren. AMD hintte er ook al flink op. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

we hebben het hier vaak over consumenten pc's maar wat betekenen de recente ontwikkelingen voor game servers ?

Vaak lopen ze nu ook tegen limieten aan waardoor 64 spelers op 1 Server vaak de max is. Er zijn natuurlijk uitzonderingen zoals zoals planetside 2 of squad, en mmo's in het algemeen. Maar ik kan me zo voorstellen dat deze ook zitten te wachten op meer processor kracht zodat je serverside meer berekeningen kan doen waardoor je tickrates en aantal spelers kan verhogen. (Persoonlijk hou ik van volle servers met veel spelers, mount and blade warband met 200 spelers <3 ).

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14-09 17:20
Verwijderd schreef op zondag 21 mei 2017 @ 16:30:
we hebben het hier vaak over consumenten pc's maar wat betekenen de recente ontwikkelingen voor game servers ?

Vaak lopen ze nu ook tegen limieten aan waardoor 64 spelers op 1 Server vaak de max is. Er zijn natuurlijk uitzonderingen zoals zoals planetside 2 of squad, en mmo's in het algemeen. Maar ik kan me zo voorstellen dat deze ook zitten te wachten op meer processor kracht zodat je serverside meer berekeningen kan doen waardoor je tickrates en aantal spelers kan verhogen. (Persoonlijk hou ik van volle servers met veel spelers, mount and blade warband met 200 spelers <3 ).
Vrij weinig. Servers zijn vaak helemaal niet zo zwaar. Het 'gewicht' is voornamelijk afhankelijk van hoeveel er server-side berekend wordt om cheaters tegen te gaan. Het probleem is dat het natuurlijk gewoon meer oplevert om zoveel mogelijk gameservers op 1 fysieke node te draaien. 200 is niets, zie bijvoorbeeld ook de vele private servers van populaire MMOs die soms gewoon 10-20.000 concurrent users hebben. Bij veel shooters geldt dat iedere extra slot die je toevoegd een exponentiële groei zal laten zien, omdat je cross-referenties hebt die bij hogere slot counts met iedere slot complexer wordt. Voor schaalbaarheid hebben zij ook liever de load verdeelt over 1 of 2 cores, omdat ze zo makkelijk 8-16 servers kunnen verdelen op een server met 16 threads.

Een hoster heeft dus liever 2x 64 slots dan 1x 128 slots.

[ Voor 15% gewijzigd door Paprika op 21-05-2017 16:58 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Je kan in principe een flinke server draaien op je extra, 8ste core als je een Ryzen 7 hebt. :P
Moet de game dit wel ondersteunen, oh wait...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Even iets anders. Wie beheert die Cryengine nu Crytek niet meer bestaat?
DaniëlWW2 , een van mijn meer schaamtevolle geneugten is dat ik graag sommige spellen van Ubisoft speel; vooral Assassin's Creed en Far Cry. Ik weet het, de spellen zijn reterepetitief en eigenlijk zijn de beide spellen een variatie op hetzelfde maar toch speel ik ze graag. De obsessie om voor elke race goud te halen, elk kamp te veroveren zonder een alarmbel af te laten gaan, alle objectives te halen bij AC, de zeegevechten tegen de legendary schepen...
I have a problem. |:(
Maar goed, als het spel niet lekker draait op AMD-kaarten dan koop ik geen licentie om het mogen spelen totdat ze dat gefixt hebben. Wat betreft Ubisoft en Gameworks, ik vond het veelzeggend dat AC3 op mijn computer soepeler draait dan AC Brotherhood en AC Revelations. Puur door dat slecht uitgewerkte rookeffect van Nvidia. In Far Cry merk je ook lags door de rook. Sowieso word ik er schijtziek van, om meerdere redenen (roken moet je vooral niet aanmoedigen!), dat je in sommige spellen veel NPC's ziet roken omdat Nvidia dat rookeffect pusht.
madmaxnl schreef op zaterdag 20 mei 2017 @ 16:19:
Lijkt me niet. Het is of een quadcore met acht threads of een octacore met zestien threads. Natuurlijk kan Sony of Microsoft vragen aan AMD om een SoC opmaat te maken voor hun console met zes Zen cores ofwel twee Zen CCX'en met elk drie cores. Het lijkt me dat AMD dan gewoon zegt: 'joh! Doe niet zo moeilijk! Hier heb je twee CCX'en met elk 4 cores en 8 threads.' Alle moeite om z'n CCX te modificeren naar een triple core is het imo niet waard om er vervolgens 11mm2 per CCX aan die size mee te besparen. Laat staan om een veel complexere enkele CCX met zes Zen cores te ontwerpen 8)7

AMD heeft die CCX'en niet voor niets zo ontwikkeld. Die kan zo opgenomen worden in een SoC ontwerp voor bijvoorbeeld een console. Voor hetzelfde geld blijft het bij één CCX en dus vier cores acht threads. Zen cores zijn aanzienlijk sneller dan Puma+ cores. Dus het nut van 8 cores en 16 threads is misschien wat overkill, nu, maar later? Kunnen developers ook rekening houden met die vervelende CCX to CCX latency :+ Is geen enkel probleem trouwens, maar goed 8)7

Het zou ook kunnen dat de console bouwers, logisch ook, de Zen CPUs flink onderclocken t.o.v. wat we op desktops hebben gezien. Die Puma en Puma+ cores liepen ook niet hoger dan hun desktop SoC equivalenten. De AMD Athlon 5350 loopt op 2,05 GHz. Ja het is een quadcore en ja de PS4 Pro gaat daar met 0,08GHz overheen en de Scorpio gaat daar met 0,250GHz overheen maar die AMD Athlon 5350 is wel min of meer een mobile SoC.
Ik bedoelde minstens 6 kernen, een slordigheid van mij. Tja, het hangt af van hoeveel 6k-CPU's er zijn, blijkbaar zijn er genoeg defecte kernen dat ze er veel kunnen verkopen aangezien juist de 1600 en de 1600X zeer interessant zijn voor gamers gezien de prijs en de prestaties. Ze zullen inderdaad niet bewust een CCX met 3 kernen gaaan ontwikkelen en kernen inactiveren zou m.i. ook niet logisch zijn voor een console. Zeker zo gauw 7 nm. FinFET standaard wordt kan het heel erg interessant worden om 8 kernen in consoles te stoppen, wat dat betreft hoop ik dat het nog even duurt voordat de PS5 komt want dat zal pas in 2019 of 2020 mogelijk zijn. Helaas lijkt het voor Sony en MS een soort van prestigekwestie te zijn om niet na 2 of 3 jaar alweer met een nieuwe generatie te komen, dan krijg je weer zo'n slap tussenmodelletje en moeten alle spellen die daarop draaien ook op de laatste volwaardige nieuwe generatie kunnen draaien omdat consoleboys anders boos worden wat inhoudt dat de spellen nog steeds geschikt moeten zijn voor pre-Ryzen CPU's en dus niet meer dan een quadcore van Intel of een Ryzen quadcore zullen eisen. In het beste geval gaan ze wel extra functies voor de CPU inbouwen zoals ze nu voor de grafische kaarten doen: AI+, collission detection, physics...het zou leuk zijn.
Het is trouwens nog niet helemaal duidelijk welke CPU architectuur er is gebruikt in de nieuwe Xbox Scorpio SoC.
Waarschijnlijk een pre-Ryzen CPU. Ook omdat de spellen die daarop draaien op de X1 moeten kunnen draaien.
http://www.tweaktown.com/...pu-heres-proof/index.html
Dit daarentegen is een bron die de noodzaak voor het hebben van een veel krachtigere CPU onderbouwt.
Dat wisten we toch al. Kijk naar de benchmarks met pre-Ryzen CPU's van AMD, hetzelfde probleem, vooral voor de zogenaamde minima FPS.

[ Voor 13% gewijzigd door Verwijderd op 21-05-2017 22:00 ]


Acties:
  • 0 Henk 'm!

  • Julian-AMD
  • Registratie: Maart 2016
  • Laatst online: 24-02-2024

Julian-AMD

RTX 3080Ti | 3900X

haarbal schreef op zondag 21 mei 2017 @ 14:33:
Ik had willen zeggen haal een 480 want dat is een betere kaart, maar die lijkt ook slecht beschikbaar te zijn.

Is minen opeens weer lucratiever geworden ofzo?
Waar basseer jij op dat een RX 480 een betere kaart is dan een RX 580 eigenlijk?

https://www.3dmark.com/spy/21686019 - RX 6900XT 21K+


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
madmaxnl schreef op zaterdag 20 mei 2017 @ 16:19:
Het is trouwens nog niet helemaal duidelijk welke CPU architectuur er is gebruikt in de nieuwe Xbox Scorpio SoC.
Volgens Digital Foundry is het een door MS aangepaste Jaguar architectuur.

"All signs point to the upclocked Jaguar cores we find in Xbox One, and Scorpio's CPU set-up is indeed an evolution of that tech, but subject to extensive customisation and the offloading of key tasks to dedicated hardware."

[ Voor 17% gewijzigd door ColinZ op 21-05-2017 22:52 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou, daarom zijn de RX580's niet aan te slepen. Miners weer...
http://nos.nl/artikel/217...gaat-de-koers-omhoog.html

Ik hoop echt dat Vega op prijstechnisch vlak niet interessant zal zijn. Ik heb echt geen zin in schaarste vanwege miners...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ArmEagle
  • Registratie: Oktober 2001
  • Laatst online: 22-07 07:24

ArmEagle

Duzz.

DaniëlWW2 schreef op zondag 21 mei 2017 @ 23:33:
Nou, daarom zijn de RX580's niet aan te slepen. Miners weer...
http://nos.nl/artikel/217...gaat-de-koers-omhoog.html

Ik hoop echt dat Vega op prijstechnisch vlak niet interessant zal zijn. Ik heb echt geen zin in schaarste vanwege miners...
Ja, het zou leuk zijn als er een wat meer - voor de gamer - voordelige manier van verkoop/verpsreiding is. Maar dat wordt gewoon weer ordinair hoge prijzen op webshopjes zetten, totdat de vraag van de miners voldaan is.

Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op zondag 21 mei 2017 @ 23:33:
Nou, daarom zijn de RX580's niet aan te slepen. Miners weer...
http://nos.nl/artikel/217...gaat-de-koers-omhoog.html

Ik hoop echt dat Vega op prijstechnisch vlak niet interessant zal zijn. Ik heb echt geen zin in schaarste vanwege miners...
Die kloteminers.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Miners zijn een symptoom van speculatie, wat weer een gevolg is van het feit dat er veel te veel geld rondzweeft op zoek naar "renderende" investeringen. Totdat overheden weer iets gaan doen om dat in te perken, zal dit zo blijven..

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ArmEagle schreef op zondag 21 mei 2017 @ 23:36:
[...]

Ja, het zou leuk zijn als er een wat meer - voor de gamer - voordelige manier van verkoop/verpsreiding is. Maar dat wordt gewoon weer ordinair hoge prijzen op webshopjes zetten, totdat de vraag van de miners voldaan is.
Dat hoeft niet eens. Ze hoeven prijstechnisch alleen maar niet interessant te zijn. Dus te weinig opbrengsten voor de aanschaf en stroomkosten. High end GPU's zijn vaak al minder interessant, omdat de prijs exponentieel oploopt ten aanzien van de extra prestaties. Daarom zijn het nu ook RX580's en RX570's die massaal worden gekocht. Het verklaard alleen niet de 8GB modellen. Ik vraag me toch af of ze nu echt zo populair zijn, of het alleen miners zijn en of er niet toch ergens productieproblemen zijn bij GF. Misschien in combinatie met Ryzen en Vega productie. Ja, Vega is allang in productie, maak daar geen illusies over.

Ook vraag ik me wel af hoe groot het percentage eigenlijk is dat naar miners gaat. Het zou misschien een deel van het afgenomen marktaandeel van AMD kunnen verklaren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
NitroX infinity schreef op zondag 21 mei 2017 @ 14:33:
[...]

Moet je toch wat beter kijken;

pricewatch: Gigabyte AORUS Radeon RX 580 8GB

Bij Megekko nog 4 op voorraad.
Ik heb net VEGA11 opgegeven, ik ga daar niet meer op wachten, miners mogen hun gang gaan. Ik heb een Aorus RX580 XTR besteld voor 277 euro met 4-10 dagen levertijd. Ik hoop dat ie binnen twee weken binnen komt. Misschien 2-3 maanden nadat VEGA 11 uit is, RX 580 verkopen en VEGA 11 kopen.

Net pc kast voor de zekerheid gemeten. Ik heb ongeveer 1 cm (275.5mm vs 290mm) ruimte voordat de GPU de HHD bay raakt en moet 2 HHD verplaatsen naar andere slot. Deze ding is groot! vergelijken met een HD7770 :+ .

[ Voor 51% gewijzigd door Amazigh_N_Ariff op 22-05-2017 00:29 ]


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
Amazigh_N_Ariff schreef op maandag 22 mei 2017 @ 00:18:
Ik heb net VEGA11 opgegeven, ik ga daar niet meer op wachten, miners mogen hun gang gaan. Ik heb en Aorus RX580 XTR besteld for 277 met 4-10 dagen levertijd. Ik hoop dat ie binnen twee weken binnen komt. Misschien 2-3 maanden na dat VEGA 11 uit is, RX 580 verkopen en VEGA 11 kopen.
Mocht je nog budget overhebben, doe je zelf een plezier en koop een Freesync scherm.

Ik heb sinds een aantal maanden een Freesync scherm de Nixeus Vue 24 met een Freesync range van 30-144hz. Dit in combinatie met een R9-380X werkt perfect. Mij mond viel open toen ik GTA 5 en Metal Gear Solid Phantom Pain voor de eerste opstarten met Freesync net als je of je film bekijkt. Wereld van verschil met een niet Freesync scherm en icm Fury X.

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
polli_ schreef op maandag 22 mei 2017 @ 00:30:
[...]


Mocht je nog budget overhebben, doe je zelf een plezier en koop een Freesync scherm.

Ik heb sinds een aantal maanden een Freesync scherm de Nixeus Vue 24 met een Freesync range van 30-144hz. Dit in combinatie met een R9-380X werkt perfect. Mij mond viel open toen ik GTA 5 en Metal Gear Solid Phantom Pain voor de eerste opstarten met Freesync net als je of je film bekijkt. Wereld van verschil met een niet Freesync scherm en icm Fury X.
Zit momenteel op 1920*1200 en wil naar 1440 144mhz met freesync gaan, maar hij is een beetje duur. Ik hoop dat deze eind van het jaar goedkoper word. Budget is er zeker, alleen met gezin moet ik elke euro twee keer omdraaien om het aan mijzelf te verkopen :P .

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
JulianI-Intel schreef op zondag 21 mei 2017 @ 22:11:
[...]

Waar basseer jij op dat een RX 480 een betere kaart is dan een RX 580 eigenlijk?
Als ik de reviews lees en dan vergelijk met reviews van aftermarket 480's dan is de 580 maar een heel klein beetje sneller maar verbruikt wel een stuk meer.

Natuurlijk heb je dat altijd als je een chip hoger wilt klokken en je het voltage moet verhogen, dan wordt je verbruik/snelheid curve op een gegeven moment wel heel steil, en daar zijn ze net wat te ver gegaan voor een mainstream kaart vind ik.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!
Het is geen verplichting om de spanning te verhogen. Je kunt de spanning ook prima verlagen als dat je voorkeur heeft. Om zo een betere performance per watt te krijgen dan een standaard RX 480.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Gelunox
  • Registratie: April 2010
  • Laatst online: 15-06 10:16

Gelunox

Hardware addicted

Amazigh_N_Ariff schreef op maandag 22 mei 2017 @ 00:48:
[...]

Zit momenteel op 1920*1200 en wil naar 1440 144mhz met freesync gaan, maar hij is een beetje duur. Ik hoop dat deze eind van het jaar goedkoper word. Budget is er zeker, alleen met gezin moet ik elke euro twee keer omdraaien om het aan mijzelf te verkopen :P .
Dat scherm is het geld btw zeker wel waard hoor. Ik heb er nu al bijna een half jaar veel plezier van gehad. Hier alvast een freesync tip als je 'm gaat ooit nog gaat aanschaffen: http://nils.schimmelmann....s-with-60-144-hz-freesync

PC: R9 5950X | 32GB | VEGA 64 Liquid Edition


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 21 mei 2017 @ 21:50:
Even iets anders. Wie beheert die Cryengine nu Crytek niet meer bestaat?
Hoe kom je er bij dat CryTek niet meer bestaat? Ze hebben een hoop studios gesloten, maar niet alles.

Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
haarbal schreef op maandag 22 mei 2017 @ 00:50:
[...]

Als ik de reviews lees en dan vergelijk met reviews van aftermarket 480's dan is de 580 maar een heel klein beetje sneller maar verbruikt wel een stuk meer.

Natuurlijk heb je dat altijd als je een chip hoger wilt klokken en je het voltage moet verhogen, dan wordt je verbruik/snelheid curve op een gegeven moment wel heel steil, en daar zijn ze net wat te ver gegaan voor een mainstream kaart vind ik.
Zo'n 10 tot 15% sneller en zuiniger!
Zet de 580 maar op dezelfde clock als de 480, zal je zien dat die zuiniger is. Maar omdat die gemiddeld tot 1460 clockt (OC) sommige zelfs 1500+, lijkt het verbruik hoger te zijn.

Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 14-09 13:02
jeroen079 schreef op maandag 22 mei 2017 @ 10:11:
[...]


Zo'n 10 tot 15% sneller en zuiniger!
Zet de 580 maar op dezelfde clock als de 480, zal je zien dat die zuiniger is. Maar omdat die gemiddeld tot 1460 clockt (OC) sommige zelfs 1500+, lijkt het verbruik hoger te zijn.
Alleen bij weinig load en idle is hij zuiniger

Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
DoubleYouPee schreef op maandag 22 mei 2017 @ 10:16:
[...]

Alleen bij weinig load en idle is hij zuiniger
Clock voor clock is hij zuiniger als de 480. Hij lijkt meer te verbruiken omdat die ook hoger geclockt is.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 22 mei 2017 @ 10:00:
[...]

Hoe kom je er bij dat CryTek niet meer bestaat? Ze hebben een hoop studios gesloten, maar niet alles.
Dat was een aanname omdat ze een half jaar geleden reeds vele maanden achter elkaar personeel niet meer betaalden. Ze stonden toen al op het randje van een failissement, ik had niet verwacht dat ze nu nog iets open zouden hebben.

[ Voor 18% gewijzigd door Verwijderd op 22-05-2017 10:53 ]


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Verwijderd schreef op maandag 22 mei 2017 @ 10:52:
[...]

Dat was een aanname omdat ze een half jaar geleden reeds vele maanden achter elkaar personeel niet meer betaalden. Ze stonden toen al op het randje van een failissement, ik had niet verwacht dat ze nu nog iets open zouden hebben.
Wikipedia: Crytek

Crytek GmbH is a German video game and software developer, founded in 1999 by Turkish German brothers Cevat, Avni, and Faruk Yerli, headquartered in Frankfurt. Crytek has one other studio in Kiev.

Subsidiaries
Current

Crytek Kiev in Kiev, Ukraine — founded in 2006.
Crytek Istanbul in Istanbul, Turkey — founded in 2012.

Former

Crytek Black Sea in Sofia, Bulgaria — founded in 2001 as Black Sea Studios; acquired and renamed in 2008; sold to Sega in 2017.
Crytek Budapest in Budapest, Hungary — founded in 2007, closed in 2016.
Crytek Seoul in Seoul, South Korea — founded in 2008, closed in 2016.
Crytek Shanghai in Shanghai, China — founded in 2012, closed in 2016.
Crytek UK in Nottingham, England — founded in 1999 as Free Radical Design; acquired and renamed in 2009; closed in 2014.
Crytek USA in Austin, Texas, U.S. — founded in 2013, closed in 2014.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
crytek zal denk ik nog wel even bestaan de turkse overheid heeft flink in hun geinvesteerd.
http://www.tweaktown.com/...nt-turkish-gov/index.html

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Volgens mij is de enige reden dat Crytek nog bestaat, is omdat ze behoorlijk wat zullen verdienen voor hun engine licenties. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Unreal engine 4 ziet er beter uit hoor.

YouTube: Architecture Real-time - Unreal Engine 4

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14-09 17:20
Tja, ze zijn hun grootste spelers kwijt (EA, Ubisoft). Zeker EA probeert zoveel mogelijk op hun eigen engine te leunen (en terecht).

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Unreal Engine 4 ondersteunt inherent geen multi-GPU dus van mij mag die engine opzouten. Ook is één van de hoofdontwikkelaars zo'n immense Nvidia fanboy die wel omgekocht lijkt, dat we met die engine niet hoeven te hopen op neutrale performance.

Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Phuncz schreef op maandag 22 mei 2017 @ 15:43:
Unreal Engine 4 ondersteunt inherent geen multi-GPU dus van mij mag die engine opzouten. Ook is één van de hoofdontwikkelaars zo'n immense Nvidia fanboy die wel omgekocht lijkt, dat we met die engine niet hoeven te hopen op neutrale performance.
Klopt maar had het puur over de mooiheid ervan. Dat het een 100% Nvidia engine is dat wist ik, helaas.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Phuncz schreef op maandag 22 mei 2017 @ 15:43:
Unreal Engine 4 ondersteunt inherent geen multi-GPU dus van mij mag die engine opzouten. Ook is één van de hoofdontwikkelaars zo'n immense Nvidia fanboy die wel omgekocht lijkt, dat we met die engine niet hoeven te hopen op neutrale performance.
UE4 gaat wel Multi GPU ondersteunen met Vulkan en/of DX12 ( de laatste versie loopt momenteel onofficieel eigenlijk heel goed met AFR) maar ze slapen idd met nVidia in één bed.
Toch heb ik altijd al een zwak gehad voor UE. Hun implementatie van bepaalde effecten lijkt soms zoveel beter dan andere engines (al gaat de artist natuurlijk ook niet altijd vrijuit).

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Leuk van die tech-demo's, maar welke PC game is ook effectief grafisch zo indrukwekkend ?
Wikipedia: List of Unreal Engine games

Juist.

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
How to build a 10/7nm chip 101 for advanced dummies :+

https://semiengineering.com/racing-to-107nm/

Als ik dit doorlees heb ik een hard hoofd dat Glofo een mooie nette 7 nm productie proces heeft voor AMD in 2018.

Een grote probleem is dat de cycletime wordt erg lang oftewel de start van een chip productie tot deze klaar is. Doordat het langer duurt voor je weet wat je gemaakt heb, heb je meer tijd nodig om dit repareren. Ook moet je veel meer wafers start beginnen om een bepaalde productie te halen met als risico dat een fout een veel grotere batch verpest. Voor 7nm moet men LELELELE gaan toepassen dit is wat cycletime gigantische vergroot, met EUV is een LE algenoeg.

Natuurlijk EUV en meer specifiek de Pelicals. Pelicals zijn een soort stoffilter die tussen de laserstraal na de mask wordt geplaatst om de defecte te verminderen. Er zijn momenteel geen goede Pelicals voor 14.5nm licht. Want in het begin werd er vanuit gegaan dat EUV zonder pelicels gedaan kon worden, maar defects zijn/waren te groot/veel. Door verplichte gebruik van pelicals moet het aantal watt van de source verder stijgen.

En het is duuuuuuuuuur! AMD kan dat momenteel niet betalen.

Ee en het is heel erg klein.

[ Voor 5% gewijzigd door Amazigh_N_Ariff op 22-05-2017 19:48 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Phuncz schreef op maandag 22 mei 2017 @ 17:23:
Leuk van die tech-demo's, maar welke PC game is ook effectief grafisch zo indrukwekkend ?
Wikipedia: List of Unreal Engine games

Juist.
Dat ligt toch aan de devs/artists? Bij sommige UE4-games maken ze letterlijk gebruik van de beschikbare standaard library's i.p.v. dat ze daar eigen content voor mappen. Zijn ook wel veel Indie games, dus kan ze het niet geheel kwalijk nemen.

offtopic:
Ik vind bv. UT, Kholat, Paragon, Inner Chains, Agony en Syndrome er goed/geweldig uitzien

[ Voor 14% gewijzigd door edward2 op 22-05-2017 20:38 ]

Niet op voorraad.


Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14-09 17:20
12.30...
You didn't talk much about the timing of your next generation .. (cut, hij zoekt de juiste woorden) enthusiast Vega architecture. When should we expect the Vega based gaming cards to be launched and how should we view Vega's performance for this segment relative to - I think NVIDIA just launched their 1080Ti platform back in March?
Yeah, so uh... we're very exited about Vega. Vega is a brand new architecture and actually has really the world's most advanced memory architecture for GPUs. What we did announce at our analysts day is that the first shipping Vega will be the Frontier Editions, which will ship with 16GBs of memory and it will ship towards the latter half of June. You will see the enthusiast gaming platform, the machine learning platform, the professional graphics paltform very soon thereafter. So we will be launching Vega across all of the marketsegments over the next couple of months.
https://jpmorgan.metameet...micro-devices-inc/webcast

Ik heb dit even zelf genotuleerd op basis van de recording... Fouten voorbehouden :+.

[ Voor 4% gewijzigd door Paprika op 22-05-2017 20:54 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
UE speelt al veel langer echt in op de indie kant. Is al sinds de make something unreal contest zo.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

tomcatha schreef op maandag 22 mei 2017 @ 20:53:
UE speelt al veel langer echt in op de indie kant. Is al sinds de make something unreal contest zo.
tomcatha schreef op maandag 22 mei 2017 @ 20:53:
UE speelt al veel langer echt in op de indie kant. Is al sinds de make something unreal contest zo.
Ja het verdienmodel en het aanbieden van een grote bibliotheek met allerlei assets/dev. kits verlaagt de drempel behoorlijk voor wie niet zo'n groot ontwikkelbudget heeft.
Paprika schreef op maandag 22 mei 2017 @ 20:53:
12.30...

[...]

https://jpmorgan.metameet...micro-devices-inc/webcast

Ik heb dit even zelf genotuleerd op basis van de recording... Fouten voorbehouden :+.
Very soon klinkt goed, a couple of mouths, in het ongunstigste geval wat minder. Over de perf t.ov. de Ti zeggen dus nog niks :D Maar hopelijk komen ze medio juli.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

edward2 schreef op maandag 22 mei 2017 @ 17:23:
[...]


UE4 gaat wel Multi GPU ondersteunen met Vulkan en/of DX12 ( de laatste versie loopt momenteel onofficieel eigenlijk heel goed met AFR) maar ze slapen idd met nVidia in één bed.
Toch heb ik altijd al een zwak gehad voor UE. Hun implementatie van bepaalde effecten lijkt soms zoveel beter dan andere engines (al gaat de artist natuurlijk ook niet altijd vrijuit).
Behalve dan dat UE4 nog lang niet af is. Geen fatsoenlijk AA opties, audio problemen (gebrek aan surround opties) etc..

Dat zijn toch dingen die frostbite en ander engines beter voor elkaar hebben. En die naar mijn gevoel ook een stuk beter van de hardware gebruik maken.

Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 14-09 13:02
Paprika schreef op maandag 22 mei 2017 @ 20:53:
12.30...

[...]

https://jpmorgan.metameet...micro-devices-inc/webcast

Ik heb dit even zelf genotuleerd op basis van de recording... Fouten voorbehouden :+.
https://streamable.com/9p5fo

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Verwijderd schreef op maandag 22 mei 2017 @ 21:14:
[...]


Behalve dan dat UE4 nog lang niet af is. Geen fatsoenlijk AA opties, audio problemen (gebrek aan surround opties) etc..

Dat zijn toch dingen die frostbite en ander engines beter voor elkaar hebben. En die naar mijn gevoel ook een stuk beter van de hardware gebruik maken.
offtopic:
zat in UE4 V4.15 inmiddels geen 7.1 Dolby surround? Ja Frostbite is een pareltje en plat gezegd zie ik hier ook meestal de beste perf./kwaliteit. En ook de Redengine(3 en 4), Unity en Dunia doen het goed

Niet op voorraad.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic



Choo choo? -O-
Maar ik denk dat hij een punt heeft. Onderhand zou Vega al richting de GTX1080Ti moeten zijn als ze deze gaan verslaan. Verder zullen de goede GPU's gewoon naar de professionele edities gaan, en wij krijgen cut down chips met hogere clocks. Voor Volta gaat het ook een probleem worden. Geforse Volta als Pascal refresh zie ik ook wel gebeuren. Pascal is gewoon goed, en kom je nu met een grotere GPU en wat tweaks, dan kan je GTX1080Ti prestaties krijgen, als GTX2080. Dat zal de Vega concurrent zijn, en dan gaat lastig worden. Een Vega 2 is dan ook wel gewenst als refresh, ergens volgend jaar. Daarboven presteren, tja, daarvoor zullen we denk ik moeten wachten op Navi...

Voor mij is het niet erg. Ik ga toch niks hogers dan een GTX1070 equivalent overwegen, laat staan kopen. Kan dit nu voor €400-, dan ben ik helemaal tevreden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Bazziek
  • Registratie: December 2011
  • Laatst online: 00:42
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 09:12:
[video]

Voor mij is het niet erg. Ik ga toch niks hogers dan een GTX1070 equivalent overwegen, laat staan kopen. Kan dit nu voor €400-, dan ben ik helemaal tevreden. :)
Een 1070 is regelmatig voor onder de 400 te koop. Ik denk dat AMD wat betere prestaties moet bieden voor €400 of lager moet zitten qua prijs voor een 1070 equivalent.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Bazziek schreef op dinsdag 23 mei 2017 @ 11:01:
[...]

Een 1070 is regelmatig voor onder de 400 te koop. Ik denk dat AMD wat betere prestaties moet bieden voor €400 of lager moet zitten qua prijs voor een 1070 equivalent.
Niet hier in Nederland. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Bazziek
  • Registratie: December 2011
  • Laatst online: 00:42
Dat is waar. En hoewel het niet uit zou moeten maken, doet dat het natuurlijk wel. Echter zitten er volgens de pricewatch wel enkele heel dicht op de 400. Zeker als je de MSI cashback meeneemt valt er een onder en komen er nog een aantal dichter in de buurt van de 400. Stiekem hoop ik dan ook wel dat AMD en kaartenboeren een 1070 equivalent neer weten te zetten voor rond de 350 euro. Dat zou hopelijk toch mooi wat marktaandeel opleveren zonder dat daar een (in mijn ogen) onrealistische prijs voor nodig is.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Bazziek schreef op dinsdag 23 mei 2017 @ 11:09:
[...]

Dat is waar. En hoewel het niet uit zou moeten maken, doet dat het natuurlijk wel. Echter zitten er volgens de pricewatch wel enkele heel dicht op de 400. Zeker als je de MSI cashback meeneemt valt er een onder en komen er nog een aantal dichter in de buurt van de 400. Stiekem hoop ik dan ook wel dat AMD en kaartenboeren een 1070 equivalent neer weten te zetten voor rond de 350 euro. Dat zou hopelijk toch mooi wat marktaandeel opleveren zonder dat daar een (in mijn ogen) onrealistische prijs voor nodig is.
Ik denk niet eens dat €350 hoeft, €370 zal afdoende zijn. Verder vermoed ik wel dat de GTX1070 tegenhanger van AMD sneller zal zijn, GTX1080 ook wel, en daar stopt het denk ik. Een GTX1080Ti tegenhanger, laat staan een snellere zou geweldig zijn voor AMD, maar denk niet dat het erin zit. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Bazziek
  • Registratie: December 2011
  • Laatst online: 00:42
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 11:12:
[...]


Ik denk niet eens dat €350 hoeft, €370 zal afdoende zijn. Verder vermoed ik wel dat de GTX1070 tegenhanger van AMD sneller zal zijn, GTX1080 ook wel, en daar stopt het denk ik. Een GTX1080Ti tegenhanger, laat staan een snellere zou geweldig zijn voor AMD, maar denk niet dat het erin zit. :/
Dat laatste vrees ik ook. En hoewel het aantal top kaarten dat wordt verkocht ongetwijfeld lager zal zijn dan het aantal mid range en low end kaarten, vraag ik me wel af in hoeverre het "Halo Car" effect ook bij grafische kaarten speelt.

Acties:
  • 0 Henk 'm!

  • BlackCurry
  • Registratie: September 2011
  • Laatst online: 27-08 11:22
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 09:12:
Voor mij is het niet erg. Ik ga toch niks hogers dan een GTX1070 equivalent overwegen, laat staan kopen. Kan dit nu voor €400-, dan ben ik helemaal tevreden. :)
Zo denk ik er ook over, ik wacht op Vega en zet hem dan af tegen de GRX 1070.
En degene die de beste prijs perform ratio heb zal ik dan wel kopen.

Game PC>>>>FreeNAS (Supermicro X11SSH-F)


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

BlackCurry schreef op dinsdag 23 mei 2017 @ 11:17:
[...]


Zo denk ik er ook over Ik wacht op Vega en zet hem dan af tegen de GRX 1070.
En degene die de beste prijs perform ratio heb zal ik dan wel kopen.
Het is ook wel de verschuiving van het segment en het volwassen worden, letterlijk, van deze markt. Ooit was €350+ het enthousiast niveau, en €250-350 het high end niveau. Niet zo vreemd aangezien het vaak om tieners en studenten ging. Nu is €250-350 mainstream, en €350+ is nu high end. Het nieuwe enthousiast segment is €600+. Je wil als bedrijf een GPU in dat laatste segment hebben voor per unit winsten, maar qua volume moet je sterk zijn in mainstream en high end. Zo kan je omzet draaien, marktaandeel pakken, en je investering gedeeltelijk terugverdienen. Een enthousiast GPU helpt enorm omdat hier gewoon betere marges zijn. Dat maakt een GTX1080Ti tegenhanger wenselijk, maar niet noodzakelijk. Dit omdat het geld gewoon niet meer zit in echt graphics werk, maar in compute, AI, etc.

Als AMD de volle Vega 10 GPU's kan verkopen voor €5000 per stuk of meer, en eindelijk eens een voet in deze markt krijgt, dan kan je het wel vergeten dat wij een GTX1080Ti tegenhanger krijgen, tenminste dat er veel GPU's zijn. Nee, dat zullen de afdankertjes zijn die de hogere standaarden van professioneel niet halen maar wel werken. Ik vermoed ook dat we voor gaming wel Vega 11 gaan zien, voordat we Vega 10 krijgen. Vega 11 zal meer een volume gebaseerde GPU zijn, Vega 10 is een professionele die in theorie sneller is dan de Nvidia GP100. Daar kan AMD op cashen, en dat moeten ze ook gewoon doen. Zo kunnen ze ook voor de gaming markt weer meedoen, door de investering er elders in de RTG eruit te halen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +6 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Ik zal blij zijn als er eindelijk wat concreets aan informatie is. Speculeren is leuk maar als je pagina's achter elkaar hetzelfde leest met iets andere woorden is ook niet om vrolijk van te worden.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • BlackCurry
  • Registratie: September 2011
  • Laatst online: 27-08 11:22
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 11:30:
Het is ook wel de verschuiving van het segment en het volwassen worden, letterlijk, van deze markt. Ooit was €350+ het enthousiast niveau, en €250-350 het high end niveau. Niet zo vreemd aangezien het vaak om tieners en studenten ging. Nu is €250-350 mainstream, en €350+ is nu high end. Het nieuwe enthousiast segment is €600+.
Dat de prijzen opgevoerd werden had niet alleen te maken met het volwassen worden van de markt.
Maar ook zeker met het gebrek aan concurrentie, Nvidia verhoogt al jaren systematisch de prijzen.
Daarom hoop ik nu ook dat AMD op de goede weg zit met ''ZEN & Vega'' en eindelijk gaan verkopen in de pro markt. Daar zullen wij dan als consument uiteindelijk de vruchten van plukken.

Game PC>>>>FreeNAS (Supermicro X11SSH-F)


Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Bazziek schreef op dinsdag 23 mei 2017 @ 11:14:
[...]

Dat laatste vrees ik ook. En hoewel het aantal top kaarten dat wordt verkocht ongetwijfeld lager zal zijn dan het aantal mid range en low end kaarten, vraag ik me wel af in hoeverre het "Halo Car" effect ook bij grafische kaarten speelt.
Heel erg helaas :-( GTX480, GTX470 en GTX460 vs HD5970, HD5870 en HD5850. Genoeg volk dat destijds gewoon een nVidia kaart kocht. Ze waren wel de snelste inderdaad :+ Wat een pauper nVidia kaarten waren dat dan, maar goed. Toont alleen maar weer aan hoe belachelijk ongeïnformeerd de gemiddelde nVidia koper is.

Ook nu weer mensen die het verstandig vinden een GTX1060 of lager te halen??? Volgens mij hebben die mensen echt een flinke tik van een molen gehad; alla Don Quichot. Zijn blijkbaar kopers die niet van het bestaan van Freesync afweten? 50FPS en Freesync met een AMD kaart is dan gewoon aanzienlijk soepeler dan 60FPS met een nVidia kaart zonder Freesync en toch is die nVidia kaart 20% sneller. Enfin, ik kan me zo voorstellen dat de nVidia boys allemaal met een 144Hz monitor zitten _O-

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
madmaxnl schreef op dinsdag 23 mei 2017 @ 12:06:
[...]


Heel erg helaas :-( GTX480, GTX470 en GTX460 vs HD5970, HD5870 en HD5850. Genoeg volk dat destijds gewoon een nVidia kaart kocht. Ze waren wel de snelste inderdaad :+ Wat een pauper nVidia kaarten waren dat dan, maar goed. Toont alleen maar weer aan hoe belachelijk ongeïnformeerd de gemiddelde nVidia koper is.
Denk dat dat heel veel te maken heeft met OEMs, en veel minder met retail sales. Ik keek 3 dagen geleden in de Duitse en NL MM websites, en van de ca. 80 "game"-systemen waren in DE 0, en in NL er welgeteld 2 met een RX GPU, waarvan 1 met een rx480+ryzen. Overigens 9 Ryzen systemen, allemaal met een NV GPU. Geen idee waar dat aan ligt (te weinig samenwerking vanuit AMD? Iets schimmigers?), en of de ervaringen van nu direct vertalen naar het verleden, maar aanbod bepaalt vraag in dit geval.

[ Voor 3% gewijzigd door foppe-jan op 23-05-2017 12:12 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

winwiz schreef op dinsdag 23 mei 2017 @ 11:55:
Ik zal blij zijn als er eindelijk wat concreets aan informatie is. Speculeren is leuk maar als je pagina's achter elkaar hetzelfde leest met iets andere woorden is ook niet om vrolijk van te worden.
Fair enough. Ik wil wel opmerken dat dit volledig de schuld is van AMD. :+
madmaxnl schreef op dinsdag 23 mei 2017 @ 12:06:
[...]


Heel erg helaas :-( GTX480, GTX470 en GTX460 vs HD5970, HD5870 en HD5850. Genoeg volk dat destijds gewoon een nVidia kaart kocht. Ze waren wel de snelste inderdaad :+ Wat een pauper nVidia kaarten waren dat dan, maar goed. Toont alleen maar weer aan hoe belachelijk ongeïnformeerd de gemiddelde nVidia koper is.
Echt, welke volslagen idioot heeft een GTX480, a.k.a de eitjesbakker op de heatsink gekocht. 8)7
Ook nu weer mensen die het verstandig vinden een GTX1060 of lager te halen??? Volgens mij hebben die mensen echt een flinke tik gehad van een molen alla Don Quichot. Zijn blijkbaar kopers die niet van het bestaan van Freesync afweten? 50FPS en Freesync met een AMD kaart is dan gewoon aanzienlijk soepeler dan 60FPS met een nVidia kaart zonder Freesync en toch is die nVidia kaart 20% sneller. Enfin, ik kan me zo voorstellen dat de nVidia boys allemaal met een 144Hz monitor zitten _O-
Stiekem is de RX580 sneller dan de GTX1060. Maar niet doorvertellen hoor. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
foppe-jan schreef op dinsdag 23 mei 2017 @ 12:11:
[...]

Denk dat dat heel veel te maken heeft met OEMs, en veel minder met retail sales. Ik keek 3 dagen geleden in de Duitse en NL MM websites, en van de ca. 80 "game"-systemen waren in DE 0, en in NL er welgeteld 2 met een RX GPU, waarvan 1 met een rx480+ryzen. Overigens 9 Ryzen systemen, allemaal met een NV GPU. Geen idee waar dat aan ligt (te weinig samenwerking vanuit AMD? Iets schimmigers?), en of de ervaringen van nu direct vertalen naar het verleden, maar aanbod bepaalt vraag in dit geval.
Voor de ongeïnformeerde koper lijkt het zo alsof nVidia 'je van het' is. Een vicieuze cirkel waar je moeilijk uitkomt. Let wel, er is zeker het een en het ander te zeggen voor bepaalde nVidia kaarten. Zeker nu. Als je nu performance boven een RX580 wil hebben dan kun je geen kant uit behalve een GTX1070 of hoger van nVidia.

[ Voor 12% gewijzigd door madmaxnl op 23-05-2017 12:33 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14-09 17:20
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 11:30:
[...]
Het is ook wel de verschuiving van het segment en het volwassen worden, letterlijk, van deze markt. Ooit was €350+ het enthousiast niveau, en €250-350 het high end niveau. Niet zo vreemd aangezien het vaak om tieners en studenten ging. Nu is €250-350 mainstream, en €350+ is nu high end. Het nieuwe enthousiast segment is €600+. Je wil als bedrijf een GPU in dat laatste segment hebben voor per unit winsten, maar qua volume moet je sterk zijn in mainstream en high end. Zo kan je omzet draaien, marktaandeel pakken, en je investering gedeeltelijk terugverdienen. Een enthousiast GPU helpt enorm omdat hier gewoon betere marges zijn. Dat maakt een GTX1080Ti tegenhanger wenselijk, maar niet noodzakelijk. Dit omdat het geld gewoon niet meer zit in echt graphics werk, maar in compute, AI, etc.
Ach, het enthusiast segment is altijd al duur geweest. Zoek maar eens op kaarten als de XFX 8800 Ultra XXX V2. Die hadden ook gewoon een MSRP van 1200 USD. Dat scheelt niet veel met is de MSRP van een Titan Xp.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
madmaxnl schreef op dinsdag 23 mei 2017 @ 12:29:
[...]


Voor de ongeïnformeerde koper lijkt het zo alsof nVidia 'je van het' is. Een vicieuze cirkel waar je moeilijk uitkomt. Let wel, er is zeker het een en het ander te zeggen voor bepaalde nVidia kaarten. Zeker nu. Als je nu performance boven een RX580 wil hebben dan kun je geen kant uit behalve een GTX1070 of hoger van nVidia.
Sure, maar dat kan imo niet verklaren waarom OEMs zo goed als geen enkel systeem met een Polaris GPU aanbieden.. Er zijn toch altijd wel een paar mensen, zelfs in OEM-land, die gaan voor de 'andere'?
Paprika schreef op dinsdag 23 mei 2017 @ 12:39:
[...]

Ach, het enthusiast segment is altijd al duur geweest. Zoek maar eens op kaarten als de XFX 8800 Ultra XXX V2. Die hadden ook gewoon een MSRP van 1200 USD. Dat scheelt niet veel met is de MSRP van een Titan Xp.
En de r9 295x2 was zelfs nog iets duurder. :)

[ Voor 22% gewijzigd door foppe-jan op 23-05-2017 12:47 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Wees maar blij dat er een 4870 en later een 5870 is geweest, anders had je nu het dubbele betaald voor de top kaarten van het groene kamp

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op dinsdag 23 mei 2017 @ 12:39:
[...]

Ach, het enthusiast segment is altijd al duur geweest. Zoek maar eens op kaarten als de XFX 8800 Ultra XXX V2. Die hadden ook gewoon een MSRP van 1200 USD. Dat scheelt niet veel met is de MSRP van een Titan Xp.
Oke, uitzonderingen daargelaten als ATi/AMD geen antwoord had op Nvidia voor een generatie. :+
winwiz schreef op dinsdag 23 mei 2017 @ 12:48:
Wees maar blij dat er een 4870 en later een 5870 is geweest, anders had je nu het dubbele betaald voor de top kaarten van het groene kamp
Juist niet. Juist vanwege de 4870 en 5870 ging Nvidia inzetten op efficiëntie en nu verkopen ze alsnog GPU's voor veel te veel geld, en maken ze er ook nog eens enorme winsten op...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Ja zo kan ik dingen recht praten die krom zijn... Met jouw redenering kan ik dus mijn stelling uitbreiden door te zeggen dat we anders het dubbele zouden moeten betalen en daarbij een voeding van 1 KW als minimum verplicht was.

Edit

Nou kunnen we Vega ook wel op de hoop gooien.... Bij de buren: Foto van nieuwe Nvidia Titan X Volta gelekt

https://nl.hardware.info/...idia-titan-x-volta-gelekt

[ Voor 31% gewijzigd door winwiz op 23-05-2017 13:18 ]

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 09:12:
[video]

Choo choo? -O-
Maar ik denk dat hij een punt heeft. Onderhand zou Vega al richting de GTX1080Ti moeten zijn als ze deze gaan verslaan. Verder zullen de goede GPU's gewoon naar de professionele edities gaan, en wij krijgen cut down chips met hogere clocks. Voor Volta gaat het ook een probleem worden. Geforse Volta als Pascal refresh zie ik ook wel gebeuren. Pascal is gewoon goed, en kom je nu met een grotere GPU en wat tweaks, dan kan je GTX1080Ti prestaties krijgen, als GTX2080. Dat zal de Vega concurrent zijn, en dan gaat lastig worden. Een Vega 2 is dan ook wel gewenst als refresh, ergens volgend jaar. Daarboven presteren, tja, daarvoor zullen we denk ik moeten wachten op Navi...

Voor mij is het niet erg. Ik ga toch niks hogers dan een GTX1070 equivalent overwegen, laat staan kopen. Kan dit nu voor €400-, dan ben ik helemaal tevreden. :)
Vega 10 gaat het opnemen tegen de volta. Vreemd want volta komt pas 2018. In begin 2018 komt Vega 20 op 7nm die zal een stuk boven de (titan) Volta komen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

winwiz schreef op dinsdag 23 mei 2017 @ 13:16:
Ja zo kan ik dingen recht praten die krom zijn... Met jouw redenering kan ik dus mijn stelling uitbreiden door te zeggen dat we anders het dubbele zouden moeten betalen en daarbij een voeding van 1 KW als minimum verplicht was.
Behalve dat ik hier tegenin kan brengen dat er een limiet is aan hoe groot je een GPU kan maken, of hoeveel deze kan gebruiken, is er nog el een argument tegenin te brengen.

Nvidia produceerde eerst een serie aan behoorlijk grote, zeer krachtige GPU's. 8800 en de vele rebrands, GTX2xx serie, Fermi zat eraan te komen. AMD kwam hiertussen met de welbekende 4870 die op prijs de GTX2xx serie gewoon sloopte. Er werd door AMD ook goed geanticipeerd dat 40nm problemen zou geven, dus eerst kwam de 4770 om te testen. Toen de 5xxx series wat al helemaal winnaars waren. Fermi was rampzalig, veel te groot, te duur, te heet etc. Nvidia heeft toen het roei omgegooid en is meer de AMD strategie gaan volgen. Nvidia ging toen niet alleen kleinere GPU's ontwerpen, maar ook GPU's die zeer goed presteerde in gaming. Dankzij de ingegraven status van Cuda kon Nvidia ook twee aparte lijnen van GPU's ontwerpen, Geforce en Tesla. Tesla financiert de investeringen in Geforce nu ook, terwijl Geforce zichzelf gewoon kan redden, en voor de omzet zorgt. Dat geeft Nvidia nu haar enorme voordeel in cashflow en R&D.

AMD heeft dit ook een beetje aan zichzelf te danken door de slecht doordachte overname van ATi en omdat ze op GCN bleven hangen, en niet de ondersteuning boden die een professionele speler eist van een GPU bedrijf. Zo verloren ze marktaandeel bij gaming toen Maxwell verscheen, en konden ze alsnog niet op de professionele markt doordringen. Die fout lijken ze nu geleerd te hebben, maar het gaat jaren duren voordat ze helemaal bij zijn. Vega zal de eerste stap zijn, concurreren in de high end markt en een nieuwe aanval op de professionele.
jeroen079 schreef op dinsdag 23 mei 2017 @ 13:23:
Vega 10 gaat het opnemen tegen de volta. Vreemd want volta komt pas 2018. In begin 2018 komt Vega 20 op 7nm die zal een stuk boven de (titan) Volta komen.
Ik betwijfel of het gaat gebeuren. Nvidia lijkt zich al neergelegd te hebben bij Volta op 16nm, ze noemen het 12nm, maar het is verbeterd 16nm. Of GF dan opeens naar 7nm kan, ik moet het nog zien. Verder denk ik dat Vega haar inzet zal zijn om preventief de aanval op Volta te openen. Een jaar na dato matchen, en na een aantal maanden weggeblazen worden door Volta is geen winnende strategie. Nu moet AMD Pascal overmatchen, redelijk bijblijven met Volta, en dan matchen of verslaan met Vega 2.0. Dan komt Navi, en ik denk dat Navi pas op 7nm zal zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
jeroen079 schreef op dinsdag 23 mei 2017 @ 13:23:
[...]


Vega 10 gaat het opnemen tegen de volta. Vreemd want volta komt pas 2018. In begin 2018 komt Vega 20 op 7nm die zal een stuk boven de (titan) Volta komen.
Dat kan niet, aangezien er begin 2018 geen geschikt 7nm productieproces zal zijn. Een geschikt 7nm productieproces hoef je pas in 2019 te verwachten.

[ Voor 108% gewijzigd door -The_Mask- op 23-05-2017 13:41 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
-The_Mask- schreef op dinsdag 23 mei 2017 @ 13:34:
[...]

Dat kan niet, aangezien er begin 2018 geen geschikt 7nm productieproces zal zijn. Een geschikt 7nm productieproces hoef je pas in 2019 te verwachten.
14nm+ het is alweer verandert zie ik.
https://videocardz.com/specials/roadmaps

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 13:32:
[...]

Ik betwijfel of het gaat gebeuren. Nvidia lijkt zich al neergelegd te hebben bij Volta op 16nm, ze noemen het 12nm, maar het is verbeterd 16nm.
TSMC heeft in 2018 een 12nm FinFET productieproces beschikbaar en schijnbaar is nVidia ook al één die daar orders voor heeft geplaatst.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op dinsdag 23 mei 2017 @ 13:34:
[...]

TSMC heeft in 2018 een 12nm FinFET productieproces beschikbaar en schijnbaar is nVidia ook al één die daar orders voor heeft geplaatst.
Ja, en dat is kennelijk geen 12, maar een geoptimaliseerde 16nm. Niet dat de waarde in nm nog wat zegt tegenwoordig, maar toch. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • TheBrut3
  • Registratie: Maart 2013
  • Laatst online: 23:12
Ik hoop echt dat AMD komende week met een goede presentatie komt. Zit zelf nu 2 maanden te wachten met het bestellen van een nieuwe PC. Maar als AMD komende week niet met een goed verhaal komt dan ga ik waarschijnlijk toch voor een GTX1070. Ik kan anders wel blijven wachten tot ik een ons weeg, maar eens houdt het op.

Dit zal trouwens niet alleen voor mij gelden, maar ik denk dat meerdere gamers die een nieuwe game PC willen bestellen met dit euvel zitten en toch voor een GTX1070/GTX1080 gaan wanneer AMD geen goed verhaal heeft volgende week.
madmaxnl schreef op dinsdag 23 mei 2017 @ 12:29:
Voor de ongeïnformeerde koper lijkt het zo alsof nVidia 'je van het' is. Een vicieuze cirkel waar je moeilijk uitkomt.
Is dat niet altijd zo wanneer er merken om de hoek komen kijken? Er zijn ook mensen die een VW kopen omdat die een status hebben 8)7 Iedereen weet ook dat die dingen leuk zijn als leasebakken, maar als privé auto ben je rationeel beter af met bijvoorbeeld een Toyota of andere Jap. Zelfs VW geeft zelf in hun reclame op de radio al aan dat ze niet de goedkoopste zijn (en de betrouwbaarste zijn ze al zeer zeker niet). :+

En zo ook Samsung (of Android in het algemeen) vs. Apple als het gaat om smartphones.

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 23 mei 2017 @ 13:41:
[...]


Ja, en dat is kennelijk geen 12, maar een geoptimaliseerde 16nm. Niet dat de waarde in nm nog wat zegt tegenwoordig, maar toch. :P
Het is 12nm omdat het 12nm heet, zo simpel is het. De tijd dat werkelijk te maken had met de lengte van de transistor is al meer dan een decennia terug.
TheBrut3 schreef op dinsdag 23 mei 2017 @ 13:55:

Dit zal trouwens niet alleen voor mij gelden, maar ik denk dat meerdere gamers die een nieuwe game PC willen bestellen met dit euvel zitten en toch voor een GTX1070/GTX1080 gaan wanneer AMD geen goed verhaal heeft volgende week.
Dat kun je altijd wel zeggen. Als Vega beschikbaar is kun je hetzelfde zeggen over Volta. nVidia moet nu echt wel komen met Volta anders koop in een Vega. Ja duh, gelukkig heb je die keuze anders stond de tijd stil en komt er niks nieuws meer.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SpiceWorm
  • Registratie: November 2000
  • Laatst online: 23-07 14:10
TheBrut3 schreef op dinsdag 23 mei 2017 @ 13:55:
Ik hoop echt dat AMD komende week met een goede presentatie komt. Zit zelf nu 2 maanden te wachten met het bestellen van een nieuwe PC. Maar als AMD komende week niet met een goed verhaal komt dan ga ik waarschijnlijk toch voor een GTX1070. Ik kan anders wel blijven wachten tot ik een ons weeg, maar eens houdt het op.

Dit zal trouwens niet alleen voor mij gelden, maar ik denk dat meerdere gamers die een nieuwe game PC willen bestellen met dit euvel zitten en toch voor een GTX1070/GTX1080 gaan wanneer AMD geen goed verhaal heeft volgende week.
Is een 2e hands r9 290 niet een optie voor tijdelijk? Bijna rx480 prestaties, koop je voor +/- 125 euro en je kan hem voor hetzelfde geld weer kwijt als je een vega hebt aangeschaft.

Acties:
  • 0 Henk 'm!

  • TheBrut3
  • Registratie: Maart 2013
  • Laatst online: 23:12
SpiceWorm schreef op dinsdag 23 mei 2017 @ 14:25:
Is een 2e hands r9 290 niet een optie voor tijdelijk? Bijna rx480 prestaties, koop je voor +/- 125 euro en je kan hem voor hetzelfde geld weer kwijt als je een vega hebt aangeschaft.
Wel over gedacht, maar op de spellen die ik momenteel het meest speel (WoT en WoWs) levert dat mij te weinig voordeel t.o.v. mijn GTX770.

Acties:
  • 0 Henk 'm!

  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
TheBrut3 schreef op dinsdag 23 mei 2017 @ 13:55:
Ik hoop echt dat AMD komende week met een goede presentatie komt. Zit zelf nu 2 maanden te wachten met het bestellen van een nieuwe PC. Maar als AMD komende week niet met een goed verhaal komt dan ga ik waarschijnlijk toch voor een GTX1070. Ik kan anders wel blijven wachten tot ik een ons weeg, maar eens houdt het op.

Dit zal trouwens niet alleen voor mij gelden, maar ik denk dat meerdere gamers die een nieuwe game PC willen bestellen met dit euvel zitten en toch voor een GTX1070/GTX1080 gaan wanneer AMD geen goed verhaal heeft volgende week.
Heb het al opgegeven en vorige week al een PC besteld met een RX 580. Misschien dat ik die nog verkoop als vega ECHT onweerstaanbaar goed is. In ieder geval maakt freesync al heel veel goed.

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
-The_Mask- schreef op dinsdag 23 mei 2017 @ 13:34:
[...]

Dat kan niet, aangezien er begin 2018 geen geschikt 7nm productieproces zal zijn. Een geschikt 7nm productieproces hoef je pas in 2019 te verwachten.
https://www.reddit.com/r/...om_yesterdays_event_will/

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus ze gaan testen met het proces (tape-out). Ja, zien we eind 2018 misschien verschijnen in producten...
TheBrut3 schreef op dinsdag 23 mei 2017 @ 14:30:
[...]

Wel over gedacht, maar op de spellen die ik momenteel het meest speel (WoT en WoWs) levert dat mij te weinig voordeel t.o.v. mijn GTX770.
Volgens mij heb je dan uberhaupt geen Vega GPU nodig. :+
Ondertussen hebben alle cryptominers ook een voordeel. Je kan onderhand geen RX580 meer krijgen, dus kan je ook niet in de verleiding komen er eentje te kopen in plaats van Vega. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Je kunt gewoon geen GPU uitbrengen op een productieproces dat niet beschikbaar is, alleen daarom al zal het 2019 worden. 2018 zal Vega 20 met een beter productieproces zijn en ongetwijfeld nog enkele andere GPU's.

[ Voor 27% gewijzigd door -The_Mask- op 23-05-2017 19:07 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Nederlandseman
  • Registratie: Februari 2017
  • Laatst online: 01-02-2024
https://www.reddit.com/r/...ource=reddit&utm_name=Amd in deze AMA zijn ook wel wat interessante dingen aangegeven

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op dinsdag 23 mei 2017 @ 19:05:
Je kunt gewoon geen GPU uitbrengen op een productieproces dat niet beschikbaar is, alleen daarom al zal het 2019 worden. 2018 zal Vega 20 met een beter productieproces zijn en ongetwijfeld nog enkele andere GPU's.
Vega 2.0 zie ik gewoon als refresh komen. Nu bijvoorbeeld 1600mhz base clock, volgend jaar 1800mhz ofzo. Als dit afdoende is om Volta te beconcurreren, dan zie ik AMD dit gewoon doen. De komende tijd gaat het om matchen en overmatchen indien mogelijk. Bij Navi kan AMD waarschijnlijk weer echt de aanval inzetten. Dit is meer een "38xx" vs de 8800, Navi is dan hopelijk voor AMD, en voor concurrentie een "58xx". :)

Maar nu doe ik het weer, speculeren om niks. Ik heb info nodig AMD, en snel. :X
Die was al langs gekomen. ;)
Maar deze viel wel op toen ik er nogmaals doorheen ging. Toch een heel klein beetje "choo choo". :+
https://www.reddit.com/r/..._at_amd_and_were/dhqmpq8/
Details. :P

Edit: nog eentje die wat fijner is. Kennelijk is er geen speciale codering nodig om de primitive shaders te benutten. Verder inderdaad optimalisaties om meer berekeningen per clock te halen, bovenop de waarschijnlijk hogere clocks. Dat zou het Fiji probleem ook moeten oplossen. :)
https://www.reddit.com/r/..._at_amd_and_were/dhqn1qb/

Een andere over de HBCC, inderdaad vooral als inzet om betere minimale framerates te halen.
https://www.reddit.com/r/..._at_amd_and_were/dhqmo0t/

[ Voor 44% gewijzigd door DaniëlWW2 op 23-05-2017 19:48 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14-09 17:20
Oud nieuws :p.

Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Ik heb de opmerking verwijderd omdat deze niets toevoegt maar was net te laat.

[ Voor 199% gewijzigd door Amazigh_N_Ariff op 23-05-2017 20:19 ]


Acties:
  • 0 Henk 'm!
Amazigh_N_Ariff schreef op dinsdag 23 mei 2017 @ 20:01:
[...]


Dus jij weet beter dan wat een AMD CEO zegt?
Aan een willekeurig verwijderde post ergens op het internet kan ik niet herleiden wat de mening van een CEO is. Wat ik wel kan is het bekijken van de roadmaps van bedrijven als Global Foundries, TSMC en Samsung.

Edit, maar trouwens:
Dr. Lisa Su, President & CEO at AMD “Navi will launch in 2019"
Bron: een verwijderde blog post op AMD.com

Ah zie daar, de bevestiging Navi in 2019. :9

[ Voor 19% gewijzigd door -The_Mask- op 23-05-2017 20:11 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

madmaxnl schreef op dinsdag 23 mei 2017 @ 12:06:
Heel erg helaas :-( GTX480, GTX470 en GTX460 vs HD5970, HD5870 en HD5850. Genoeg volk dat destijds gewoon een nVidia kaart kocht. Ze waren wel de snelste inderdaad :+ Wat een pauper nVidia kaarten waren dat dan, maar goed. Toont alleen maar weer aan hoe belachelijk ongeïnformeerd de gemiddelde nVidia koper is.
De HD 5870 was wel een pareltje eerlijk gezegd : Misschien wel de beste videokaart die ik ooit heb gehad :)

Maar de 5970 was voor zover ik nog weet niks anders dan een veel te warm, veel te vaak kapot gaande videokaart die uiteindelijk al gauw allemaal tweedehands voor veel te weinig tekoop waren gezet toen er wat nieuws uit was :?

Kon je beter mijn 4x HD5870 setup hebben : Dat was dan nog beter gekoeld dan de 5970 :+
Ook nu weer mensen die het verstandig vinden een GTX1060 of lager te halen??? Volgens mij hebben die mensen echt een flinke tik van een molen gehad; alla Don Quichot. Zijn blijkbaar kopers die niet van het bestaan van Freesync afweten? 50FPS en Freesync met een AMD kaart is dan gewoon aanzienlijk soepeler dan 60FPS met een nVidia kaart zonder Freesync en toch is die nVidia kaart 20% sneller. Enfin, ik kan me zo voorstellen dat de nVidia boys allemaal met een 144Hz monitor zitten _O-
Ik kon sowieso wel lachen om de 480/1060 hype : Overpriced meuk die bijna net zo duur waren op een bepaald moment als hun 290/390 of 980 voorgangers _O-
Tegen een minimale meerprijs had je al een Fury die veel beter is/was :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Waar kan ik zo'n FURY X vinden :P .

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Kijk toch maar weer eens de laatste Adored. In het kort: Hij verwacht dat de consumenten Vega ergens tussen de 1080 en 1080Ti gaat zitten, wel veel mooiere techniek on board (dat weten we al jaren), maar de concurrent smijt er gewoon brute force tegen aan. (en ook dat weten we al even)

[ Voor 18% gewijzigd door winwiz op 23-05-2017 23:31 ]

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

Verwijderd

Op reddit claimt iemand dat 7nm yield al erg goed zijn en al in de buurt van 14nm komt. En dat GF dus al een half jaar voor op schema ligt. Bron ? Via via an ok de juiste personen letten etc.

Lijkt mij ook erg onwaarschijnlijk allemaal.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik lees het nu voor het eerst, het meest interessante tot nu toe vind ik dat AMD geen virtualized graphics technologieën lijkt te ondersteunen voor de gramingkaarten. Ik ben benieuwd naar de reden, Is er een trade-off voor als je de kaart zonder virtualisatie gebruikt? Kost het teveel werkuren voor de software-werknemers? Ik heb er zelf ook veel interesse in om W10 enkel in een virtuele machine te draaien maar dan moet die grafische kaart dat wel ondersteunen. In theorie kan je een tweede grafische kaart in je computer stoppen maar dat heeft nadelen. Ryzen is nu nog niet geschikt voor zulke virtualisatie (IOMMU) maar AMD heeft aangegeven hieraan te werken.

Will Vega FE support hardware virtualization via MxGPU/SR-IOV?
Furthermore, if a follow-up question about the same thing with regard to "gaming Vega" is possible... Will Vega consumer/gaming GPUs support it too? It would be pretty awesome and a decisive feature over Nvidia for people gaming with Linux + Windows VM, eliminating the need for more complex solutions with 2 physical GPUs and PCI passthrough. This would be a real unique selling point for Linux users.

Raja Koduri zijn reactie.
Our Pro Graphics solutions for servers like our current Multiuser GPU will focus on hypervisors that utilize virtualized graphics technologies.
Verwijderd schreef op dinsdag 23 mei 2017 @ 23:59:
Op reddit claimt iemand dat 7nm yield al erg goed zijn en al in de buurt van 14nm komt. En dat GF dus al een half jaar voor op schema ligt. Bron ? Via via an ok de juiste personen letten etc.

Lijkt mij ook erg onwaarschijnlijk allemaal.
Ik neem aan dat jij dat interview met de CEO van AMSL hier op Tweakers van enkele maanden hebt gelezen, alvorens zij betaalbaar 7 nm. kunnen leveren moeten ze beter leren werken (veel grotere output per tijdseenheid) met de HEV-machines die ze hebben. Echter weten we tegenwoordig niet meer zo gemakkelijk wat die schalen precies inhouden. 8)7

Offtopic, dat Intel laatst HEV-machines kocht van ASML vind ik wat dat betreft interessant, het is voer voor speculatie.

[ Voor 20% gewijzigd door Verwijderd op 24-05-2017 01:08 ]


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
Wait for VEGA. Reactie van de CEO of Nvidia :P :

YouTube: Jensen Talks about RX Vega Delay

[ Voor 8% gewijzigd door Amazigh_N_Ariff op 24-05-2017 00:08 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Als navi inderdaad zoiets is al meerder kleine chips verbonden via infinity fabric dan kunnen ze wel sneller naar een nieuwe node. Kleinere chips zijn immers makkelijker te maken.
Pagina: 1 ... 6 ... 15 Laatste