Zelfcensuur is de meest schadelijke vorm van censuur.
Natuurlijk wil AMD graag dat Vulkan en DX12 meer wordt gebruikt, bij die API's zijn ze machteloos, voor nu. Voor DX11 kunnen ze wel nog CF ondersteunen en wie weet wat AMD achter de schermen aan het doen is zoals ze jaren geleden met Mantle bezig waren waar Vulkan en DX12 uit zjin voortgekomen. Misschien hebben ze een plannetje om ervoor te zorgen dat Vulkan en DX12 in de toekomst wel multi-GPU support kunnen krijgen van AMD en Nvidia in plaats van dat het per se van de developer moet komen.Amazigh_N_Ariff schreef op dinsdag 2 mei 2017 @ 23:41:
[...]
AMD gaat niet CFX meer ondersteunen maar juist DX12/Vulkan multiGPU. Ik ben het met je eens het is lastig nuanceren.
Of misschien gaan develolpers eindelijk eens lerren om wel fatsoenlijk te coderen nu AMD en Nvidia niet meer hun rotzooi kunnen opruimen. Dit wordt vaak vergeten als het over Vulkan en DX12 gaat, al die driveroptimalisaties worden ook veel lastiger bij deze API's, het valt en staat meer met hoe goed of slecht de programamers van die developers hun werk doen. Volgens een anonieme Nvidia-programmeur maken die developers er meestal nogal een zooitje van.
Zelfcensuur is de meest schadelijke vorm van censuur.
Je bent net te laat.r100 schreef op dinsdag 2 mei 2017 @ 23:30:
Hier een score in Time Spy die voor Vega aannemelijker is dan het bericht van gisteren.

Maar de vraag is, welke GPU is dit? Is dit een Vega 10, Vega 11? Volle GPU of cut down? Is dit een cut down Vega 11, dan hebben we een winnaar. No way dat AMD haar drivers nu al optimaal heeft, kan dus alleen maar beter worden. Ik vermoed dat het de volle Vega 11 is, maar dat is uiteraard pure speculatie. Zo ja, dan zit AMD op het pat om de GTX1080 uitdager te positioneren. Deze zit nu namelijk al bijna op GTX1070 niveau.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Daarom zei ik ook GTX1080.Anoniem: 298195 schreef op woensdag 3 mei 2017 @ 00:03:
hmm een 1080ti haalt al snel 11000 punten geloof ik dan zitten ze er nog een stuk vanaf.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
snap ik daar doelde ik ook op maar had toch hoger verwacht.
Zoals ik al zei, ik vermoed dat dit Vega 11 is, en de drivers zijn bij lange na nog niet klaar. Drivers doen zo tientallen procenten extra. Is dit de volle Vega 11 GPU, en zit die met vroege drivers al bijna op GTX1070 niveau, dan gaat de release GPU de GTX1080 wel halen qua prestaties, als die er niet gewoon overheen gaat. Het blijft DX12.Anoniem: 298195 schreef op woensdag 3 mei 2017 @ 00:19:
[...]
snap ik daar doelde ik ook op maar had toch hoger verwacht.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
CFX en SLI zijn gewoon grotendeels geautomatiseerde multi-GPU rendering implementaties, in principe op basis van een AFR (Alternate Frame Rendering) algoritme.Apoca schreef op dinsdag 2 mei 2017 @ 22:57:
Snap wat je bedoelt, echter is het ook een stukje achterliggende info die ik zoek hoe dat CF tegenwoordig wel of niet nog werkt. En dat past wel in dit topic. Dat het aan een platform gekoppeld is maakt de vraag misschien een beetje twijfelachtig voor dit topic dat snap ik
[...]
Dat is niet wat ik bedoelde, bedoelde dus meer de hands-on informatie over hoe bruikbaar het nog is etc na al die tijd. Gezien het in het verleden veel problemen had altijd die maar moeizaam opgelost konden worden
AFR is heel eenvoudig te implementeren maar ook inherent relatief inefficiënt en problematisch. Het is eenvoudig omdat je gewoon de GPU's om de beurt een frame laat renderen. Poep eenvoudig. Inefficiënt omdat alle GPU's ook alle data in hun geheugen moeten hebben en je dus niets aan geheugen of bandbreedte wint. Problematisch omdat als één van die GPU's een iets lastiger frame heeft en iets langer nodig heeft, de rest moet wachten. Dat is waar microstuttering door veroorzaakt wordt.
Technisch gezien kunnen er wel andere algoritmes toegepast worden (SFR en scissor bijvoorbeeld), maar die zijn nog inefficiënter en problematischer. AFR werkt veruit het beste omdat de drivers en GPU's daar niets hoeven te weten van hoe de engine z'n werk doet.
Beide gaan ook nergens heen. In D3D 9-11 blijven SLI/CFX de enige manier om multi-GPU te doen.
In D3D12 (en ik gok ook Vulkan, maar ik heb de multi-GPU dingen daar nog niet echt gelezen) zit dat anders...soort van. In D3D12 heb je 3 manieren om meerdere GPU's aan te spreken. Allereerst heb je Implicit Multi Adapter (IMA), wat gewoon CFX/SLI is en ook gewoon AFR toe past. En daar zullen Nvidia/AMD nog steeds profielen voor moeten maken. Dus dat is het directe antwoord op je vraag: games die IMA gebruiken zullen nog steeds dezelfde problemen hebben.
Daarnaast heb je echter Explicit Multi Adapter (EMA), wat vervolgens ook twee modes kent: linked en unlinked. Met EMA komt de verantwoordelijkheid bij de developers te liggen. EMA Linked betekent dat alle GPU's als één grote GPU worden behandeld - ze dienen dan ook gelijk te zijn. Dat lijkt in eerste instantie op SLI/CFX, maar dat is niet helemaal zo: vanuit de applicatie wordt het dan wel als 1 GPU behandeld, in de werkelijkheid worden verschillende command lists bijvoorbeeld naar verschillende GPU's gestuurd en heeft de developer daar ook enige controle over. Ook kent EMA linked bijvoorbeeld het principe dat data direct tussen GPU's verstuurd kan worden, zonder dat het door het systeem geheugen moet. Met andere woorden: in plaats van AFR, wordt elk frame dus gesplitst over meerdere GPU's. Nadeel is dus ook wel meteen duidelijk: schaling kan heel vies tegenvallen. Bij mijn weten heeft niemand hier nog een implementatie van.
De laatste variant is de leukste: EMA Unlinked. Daarbij zien developers alle GPU's in het systeem volledig apart en mogen ze er mee doen wat ze willen - de driver en Direct3D doen dan helemaal niets. Er zijn al een aantal games die dat doen (Deus Ex, Tomb Raider). Het mooiste hieraan is dat het dan ook geen reet uit maakt welke fabrikanten je gebruikt. In theorie kan een game gewoon de iGPU van je Intel CPU gebruiken, je GTX 1080 TI en je Vega (


Beantwoordt dit je vraag volledig genoeg?

*vanaf nul is niet waar. Reken er maar op dat Frostbite, Unreal, Unity en dergelijke daar allemaal relatief eenvoudige basis implementaties voor zullen hebben. Ik zet dan wel mijn geld op Frostbite als de engine met de beste resultaten, vooral met cross-vendor setups

Zou het kunnen zijn dat het zoals met de fury is?DaniëlWW2 schreef op woensdag 3 mei 2017 @ 00:21:
[...]
Zoals ik al zei, ik vermoed dat dit Vega 11 is, en de drivers zijn bij lange na nog niet klaar. Drivers doen zo tientallen procenten extra. Is dit de volle Vega 11 GPU, en zit die met vroege drivers al bijna op GTX1070 niveau, dan gaat de release GPU de GTX1080 wel halen qua prestaties, als die er niet gewoon overheen gaat. Het blijft DX12.
Fury X = WC > Vega X
Fury Nano= air > Vega Nano
Fury = Big Air > Vega
Ha die scores kloppen wel tegenover een fury XAmazigh_N_Ariff schreef op dinsdag 2 mei 2017 @ 23:06:
[...]
Een tijdje geleden heeft RTG(Raja) gezegd dat CFX een dood lopende weg is. Dus is de vraag of er in de toekomst nog energie in wordt gestopt om CFX te optimaleren. Novideo heeft al SLI uit haar Mainstream GPU's gesloopt. Mijn CFX HD7770(R5 250X) werkt goed op alle Mainstream big budget games, maar veel MMO low bugdet hebben er ''hekel'' aan. Maar voor twee euro zou ik de gezeik van CFX wel waard vinden.
https://www.pcper.com/new...er-GPU-dies-HBM2-and-more
http://forums.guru3d.com/...?p=5426676&postcount=1172 <-----Choo CHoo!
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Ik heb een tweede 290X bij het aanschaffen van een Ryzen CPU in gebruik genomen, omdat ik 3440x1440 wou voorzien van genoeg framerate. Heb niet zoveel games getest, maar sommige games lopen drastisch beter (GTA V bv.) en sommige games maakt het niets uit. Heb FreeSync en merk niks van micro stutter zelf, weet niet of het één het ander oplost. Sommige games werken er erg slecht mee, zoals slecht geporte games (The Division). Bethesda games lijken het meest belovend voor AMD eigenaars en ik kijk hard uit naar goede DX12 multi GPU implementatie.Apoca schreef op dinsdag 2 mei 2017 @ 22:51:
Zijn der nog mensen die met CrossFire in de weer zijn op het R9 290 platform? Ik kan voor een paar euro een extra R9 290 erbij prikken, echter ben ik na mijn HD 4850 setup niet meer met CF in aanraking geweest. En zou graag weten of CF nog een beetje goed werkt tegenwoordig of dat ik beter er ver van kan blijven gezien de bevindingen van destijds niet echt zijn opgelost.
Ik betwijfel het een beetje. Dan komt Vega 11 niet en moet je een GTX1070, 1080 en 1080Ti tegenhanger uitbrengen met een 520mm die GPU met 8GB HBM2. De Ti lukt hopelijk voor AMD wel, gezien het formaat van Vega 10, die andere twee gaan lastiger worden qua prijs.Damic schreef op woensdag 3 mei 2017 @ 07:07:
[...]
Zou het kunnen zijn dat het zoals met de fury is?
Fury X = WC > Vega X
Fury Nano= air > Vega Nano
Fury = Big Air > Vega
[...]
Ha die scores kloppen wel tegenover een fury X
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hopelijk kunnen we over een tijd die stomme SLI licentie wegdoen voor moederborden omdat het niks meer doet. Sowieso doet het nu al niks en kost het ons alleen maar geld wat ik Nvidia in dit geval dus echt niet gunWerelds schreef op woensdag 3 mei 2017 @ 00:59:
[...]
De laatste variant is de leukste: EMA Unlinked. Daarbij zien developers alle GPU's in het systeem volledig apart en mogen ze er mee doen wat ze willen - de driver en Direct3D doen dan helemaal niets. Er zijn al een aantal games die dat doen (Deus Ex, Tomb Raider). Het mooiste hieraan is dat het dan ook geen reet uit maakt welke fabrikanten je gebruikt. In theorie kan een game gewoon de iGPU van je Intel CPU gebruiken, je GTX 1080 TI en je Vega () en ze allemaal 100% belasten. Schaling hierbij hangt volledig af van A) hoe snel je hardware is en
hoe goed de developer is. Dit is uiteraard ook wel de "duurste" optie, want ontwikkelaars zullen dit helemaal vanaf nul* moeten ontwikkelen.

Waarom niet nu al of beter gezegd een paar maanden geleden al? Nvidia was toch heel erg duidelijk dat het SLI niet meer ondersteunt. Aangezien 99% van de klanten die een moederbord met dat SLI het toch al nooit gebruikt en het fors de kosten verhoogt (gemiddeld zo'n 10 euro per licentie, eventueel nog zo'n SLI-brug erbij). Fuck de reviewers die een half punt aftrekken omdat het geen SLI bevat. Ik veronderstel dat voor oudere generaties Nvidia-kaarten SLI wel nog werkt maar die mensen kunnen dan extra betalen voor een moederbord wat het wel bevat als de moederbordfabrikanten gewoon een klein aantal modellen met SLI zouden uitbrengen in plaats van het overal op te stoppen.Sp3ci3s8472 schreef op woensdag 3 mei 2017 @ 11:33:
[...]
Hopelijk kunnen we over een tijd die stomme SLI licentie wegdoen voor moederborden omdat het niks meer doet. Sowieso doet het nu al niks en kost het ons alleen maar geld wat ik Nvidia in dit geval dus echt niet gun.
SLI is een smerige manier van Nvidia om geld uit de zakken van mensen te kloppen die dit nooit vrijwillig zouden kopen, het is een smerig zaakje. Het is bekend dat die SLI-brug niets toevoegt en dat het net zo goed gewoon via de PCIe kan gaan.
Ik mijd in het algemeen Bethesda spellen als de pest. Ik heb er 1 wat niet eens wil starten na de installatie. Nieuwste drivers, hardware die in orde is, gewoon automatisch geïnstalleerd, het scherm gaat op zwart met ene muispointer en een kwart seconde later crasht het naar de desktop zonder dat het programma ook maar een foutmelding geeft of dat Windows een foutmelding genereert. Met wat zoeken kwam ik erachter dat meer mensen dit probleem hebben, zowel bij W7 als bij W10.Phuncz schreef op woensdag 3 mei 2017 @ 07:31:
[...]
Ik heb een tweede 290X bij het aanschaffen van een Ryzen CPU in gebruik genomen, omdat ik 3440x1440 wou voorzien van genoeg framerate. Heb niet zoveel games getest, maar sommige games lopen drastisch beter (GTA V bv.) en sommige games maakt het niets uit. Heb FreeSync en merk niks van micro stutter zelf, weet niet of het één het ander oplost. Sommige games werken er erg slecht mee, zoals slecht geporte games (The Division). Bethesda games lijken het meest belovend voor AMD eigenaars en ik kijk hard uit naar goede DX12 multi GPU implementatie.
Veel Bethesda-spellen hebben gedwongen VSync omdat de spellen slecht zijn geprogrammeerd, zo gauw je het uitschakel gebeuren er rare dingen doordat van alles in de code gekoppeld is aan die vaste FPS. Doom is een uitzondering maar dat spel is dan ook niet door Bethesda gemaakt (op de multiplayer na die dan ook is afgebrand) en slechts door Bethesda uitgegeven.
[Voor 62% gewijzigd door CHBF op 03-05-2017 12:28]
Zelfcensuur is de meest schadelijke vorm van censuur.
Don't get me started...dat hele SLI licensing verhaal is een van de meest misselijkmakende dingen.Sp3ci3s8472 schreef op woensdag 3 mei 2017 @ 11:33:
[...]
Hopelijk kunnen we over een tijd die stomme SLI licentie wegdoen voor moederborden omdat het niks meer doet. Sowieso doet het nu al niks en kost het ons alleen maar geld wat ik Nvidia in dit geval dus echt niet gun.
Het is misschien wel de beste zwendelactie in de geschiedenis van de hardware.Werelds schreef op woensdag 3 mei 2017 @ 12:24:
[...]
Don't get me started...dat hele SLI licensing verhaal is een van de meest misselijkmakende dingen.

99% van de mensen zou het nooit gebruiken, 100% van de mensen moet onvrijwillig een flinke donatie aan Nvidia geven. 1 reden waarom ik niet eens overweeg om een Nvidia-kaart te kopen.
Laat het 97% of 98% zijn, dat boeit niet. Het percentage gamers wat twee grafische kaarten gebruikt is erg laag.
Mag je dan denken aan het specifiek verdelen van de taken per frame over de GPU's? Eentje die de belichting en schaduwen berekent, eentje die de textures en driehoekjes laadt, op het moment dat er geAA'd wordt de ene GPU het ene deel van het scherm geven en de andere GPU het andere deel...Werelds schreef op woensdag 3 mei 2017 @ 00:59:
De laatste variant is de leukste: EMA Unlinked. Daarbij zien developers alle GPU's in het systeem volledig apart en mogen ze er mee doen wat ze willen - de driver en Direct3D doen dan helemaal niets.
[Voor 44% gewijzigd door CHBF op 03-05-2017 12:36]
Zelfcensuur is de meest schadelijke vorm van censuur.
Sommige van de dingen die je noemt kunnen niet tegelijkertijd omdat het ene gedaan moet worden voor het andere, maar ja, in principe is dat wel het ideeCHBF schreef op woensdag 3 mei 2017 @ 12:29:
Mag je dan denken aan het specifiek verdelen van de taken per frame over de GPU's? Eentje die de belichting en schaduwen berekent, eentje die de textures en driehoekjes laadt, op het moment dat er geAA'd wordt de ene GPU het ene deel van het scherm geven en de andere GPU het andere deel...

Een praktischer voorbeeld is bijvoorbeeld het splitsen van taken afhankelijk van welke GPU daar beter in is. Stel dat je een 1080 en een RX 480 hebt. Dan zou een developer er bijvoorbeeld voor kunnen kiezen om de 1080 het gros van het werk te laten doen en de RX 480 te gebruiken voor FP16 werk. Of als je een 1080 + Vega zou hebben, een stel objecten door de geometry shaders van de 1080 te jagen voor tessellation (of bijvoorbeeld Hairworks daar op te laten draaien) terwijl het gros van het rekenwerk op Vega loopt omdat die sneller is. Of dat bijvoorbeeld rasterisation wordt afgeschoven op de GPU met de beste Conservative Rasterisation implementatie.
Dat zijn het soort dingen dat in principe mogelijk is met EMA Unlinked. Ik verwacht niet dat er al te veel games zijn die zo extreem zullen gaan, het zal meer gaan om het verdelen van rekenwerk in z'n algemeen in de basis implementaties. Dat is op zich al heel mooi, maar ik zou er niet raar van opkijken als Frostbite wel zulke optimalisaties gaat krijgen. Die engine heeft nu al extreme paden voor verschillende architecturen
Tja, of je geeft Intel de schuld voor de legal drama die ervoor zorgde dat Nvidia stopte met hun nForce chipsets lijn. Voor die periode was er een makkelijke splitsing en betaalde je er alleen voor als je een moederbord kocht met een chipset die SLI ondersteunde...CHBF schreef op woensdag 3 mei 2017 @ 12:29:
[...]
99% van de mensen zou het nooit gebruiken, 100% van de mensen moet onvrijwillig een flinke donatie aan Nvidia geven.
Dat was al langer bekend1 reden waarom ik niet eens overweeg om een Nvidia-kaart te kopen.

[Voor 6% gewijzigd door Paprika op 03-05-2017 12:57]
Eh, ja, voor schaduwen is het natuurlijk wel gemakkkelijk als het licht is afgewerkt en je weet waar objecten staan.Werelds schreef op woensdag 3 mei 2017 @ 12:55:
[...]
Sommige van de dingen die je noemt kunnen niet tegelijkertijd omdat het ene gedaan moet worden voor het andere, maar ja, in principe is dat wel het idee

Zelfcensuur is de meest schadelijke vorm van censuur.
Dat weet je al voordat je de GPU laat renderen.CHBF schreef op woensdag 3 mei 2017 @ 12:57:
[...]
Eh, ja, voor schaduwen is het natuurlijk wel gemakkkelijk als het licht is afgewerkt en je weet waar objecten staan.
Je zou een tool als RenderDoc kunnen gebruiken om wat meer inzicht te krijgen in de werking van 3D calls in applicaties.
[Voor 25% gewijzigd door Paprika op 03-05-2017 13:00]
Waar de objecten staan? Ik kan me voorstellen dat er weinig voor gerekend hoeft te worden maar moet dat niet netjes in een of andere matrix worden gestopt?Paprika schreef op woensdag 3 mei 2017 @ 12:58:
[...]
Dat weet je al voordat je de GPU laat renderen.
Interessant, ik bookmark het zodat ik er later eens een kaar naar kan gaan kijken.Je zou een tool als RenderDoc kunnen gebruiken om wat meer inzicht te krijgen in de werking van 3D calls in applicaties.
Ik denk dat we het daarvan zullen moeten hebben aangezien het best bewerkelijk is maar dit prima te verantwoorden is als je dat voor een engine doet die vervolgens voor misschien wel tientallen spellen of meer wordt gebruikt.Dat zijn het soort dingen dat in principe mogelijk is met EMA Unlinked. Ik verwacht niet dat er al te veel games zijn die zo extreem zullen gaan, het zal meer gaan om het verdelen van rekenwerk in z'n algemeen in de basis implementaties. Dat is op zich al heel mooi, maar ik zou er niet raar van opkijken als Frostbite wel zulke optimalisaties gaat krijgen. Die engine heeft nu al extreme paden voor verschillende architecturen
[Voor 10% gewijzigd door CHBF op 03-05-2017 13:02]
Zelfcensuur is de meest schadelijke vorm van censuur.
CHBF schreef op woensdag 3 mei 2017 @ 13:00:
[...]
Waar de objecten staan? Ik kan me voorstellen dat er weinig voor gerekend hoeft te worden maar moet dat niet netjes in een of andere matrix worden gestopt?
Je weet waar wat gaat staan en je zet bij het renderen juist die posities al goed en zegt 'alleen' maar teken nou maar dit modelletje op die plek met deze hoek


[Voor 12% gewijzigd door Paprika op 03-05-2017 13:05]
Waar haal je vandaan dat Nvidia sli ondersteuning staakt? Alleen 3/4-way sli krijgt geen officiële ondersteuning meer vanuit Nvidia. (op benchmarks na dan). Hoef je ook totaal niet rouwig over te zijn, aangezien het nooit echt fatsoenlijk heeft gewerkt.CHBF schreef op woensdag 3 mei 2017 @ 12:10:
Waarom niet nu al of beter gezegd een paar maanden geleden al? Nvidia was toch heel erg duidelijk dat het SLI niet meer ondersteunt.
Ja, ze gaven aan enkel voor 2 kaarten SLI te ondersteunen maar wat ik heb begrepen is dat voor de meeste nieuwe spellen zelfs die ondersteuning tegenwoordig ontbreekt bij Pascal. Zo heeft JayzTwoCents met twee TitanXP-kaarten tal van spellen uitgeprobeerd. Zoek dat maar eens op, het was geen succes. het lijkt erop dat Nvidia het nogal sterk aan het afbouwen is maar er niet eerlijk over is hoe weinig ze het nog ondersteunen voor twee kaarten. It's all about the money.ColinZ schreef op woensdag 3 mei 2017 @ 14:00:
[...]
Waar haal je vandaan dat Nvidia sli ondersteuning staakt?
Helaas.

[Voor 66% gewijzigd door CHBF op 03-05-2017 14:13]
Zelfcensuur is de meest schadelijke vorm van censuur.
Ik denk dat een Nvidia en een AMD GPU naast elkaar te veel gevraagd zal zijn. Ik zie Nvidia dit ook gewoon onmogelijk maken, als een game het ondersteunt. We hebben het PhysX precedent al...Werelds schreef op woensdag 3 mei 2017 @ 12:55:
[...]
Sommige van de dingen die je noemt kunnen niet tegelijkertijd omdat het ene gedaan moet worden voor het andere, maar ja, in principe is dat wel het idee
Een praktischer voorbeeld is bijvoorbeeld het splitsen van taken afhankelijk van welke GPU daar beter in is. Stel dat je een 1080 en een RX 480 hebt. Dan zou een developer er bijvoorbeeld voor kunnen kiezen om de 1080 het gros van het werk te laten doen en de RX 480 te gebruiken voor FP16 werk. Of als je een 1080 + Vega zou hebben, een stel objecten door de geometry shaders van de 1080 te jagen voor tessellation (of bijvoorbeeld Hairworks daar op te laten draaien) terwijl het gros van het rekenwerk op Vega loopt omdat die sneller is. Of dat bijvoorbeeld rasterisation wordt afgeschoven op de GPU met de beste Conservative Rasterisation implementatie.
Dat zijn het soort dingen dat in principe mogelijk is met EMA Unlinked. Ik verwacht niet dat er al te veel games zijn die zo extreem zullen gaan, het zal meer gaan om het verdelen van rekenwerk in z'n algemeen in de basis implementaties. Dat is op zich al heel mooi, maar ik zou er niet raar van opkijken als Frostbite wel zulke optimalisaties gaat krijgen. Die engine heeft nu al extreme paden voor verschillende architecturen
Interessanter is denk een dual GPU opzet met twee indentieke GPU's. Kan de game dan bijvoorbeeld afwisselend een frame op de ene GPU laten produceren en de volgende op de andere GPU? Dat zou namelijk nogal een doorbraak zijn. Geen Crossfire/SLI meer nodig met hun beperkingen, profielen etc etc. Gewoon twee GPU's die de game, via de API en de driver afwisselend aanspreekt voor een frame. Dan kan je in principe 100% schaling bereiken voor de tweede GPU, zonder alle problemen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat is wat crossfire en sli nu vrijwel altijd doet.DaniëlWW2 schreef op woensdag 3 mei 2017 @ 14:19:
Interessanter is denk een dual GPU opzet met twee indentieke GPU's. Kan de game dan bijvoorbeeld afwisselend een frame op de ene GPU laten produceren en de volgende op de andere GPU? Dat zou namelijk nogal een doorbraak zijn.
Mechwarrior Online: Flapdrol
https://www.reddit.com/r/...ification_in_south_korea/
https://www.reddit.com/r/...d_a_drm_driver_update_to/
Vreemde conclusie om meteen te gaan wijzen naar Nvidia. Grote kans dat die spellen ook geen cfx ondersteuning hebben. Betekent dat dan ook dat AMD support aan het afbouwen is?CHBF schreef op woensdag 3 mei 2017 @ 14:09:
[...]
Ja, ze gaven aan enkel voor 2 kaarten SLI te ondersteunen maar wat ik heb begrepen is dat voor de meeste nieuwe spellen zelfs die ondersteuning tegenwoordig ontbreekt bij Pascal. Zo heeft JayzTwoCents met twee TitanXP-kaarten tal van spellen uitgeprobeerd. Zoek dat maar eens op, het was geen succes. het lijkt erop dat Nvidia het nogal sterk aan het afbouwen is maar er niet eerlijk over is hoe weinig ze het nog ondersteunen voor twee kaarten. It's all about the money.
Helaas.
Multi-gpu ondersteuning inbouwen is tijdrovend en gezien de kleine userbase niet echt zinvol voor developers. Dat heeft weinig te maken met afbouwen of daar niet eerlijk over zijn.
Over vreemde conclusies gesproken. Omdat Nvidia het niet implementeert voor spel X doet AMD dat ook niet?ColinZ schreef op woensdag 3 mei 2017 @ 14:38:
Grote kans dat die spellen ook geen cfx ondersteuning hebben.

De beide bedrijven hebben hun eigen afwegingen. Ik heb nog relatief weinig klachten gehoord over CF-support voor nieuwe spellen en de Polaris-kaarten maar dat doet er weinig toe, we hadden het nu over Nvidia wat niet of weinig meer CF ondersteunt.
Correct, daarom ligt het vooral bij AMD en Nvidia op dit moment en daarom is het te verwachten dat in eerste instantie veel Vulkan- en DX12-spellen geen multi-GPU ondersteuning zullen krijgen. Ik vind zelf momenteel multi-GPU support ook niet de beste investering (al zal het bij Nvidia meer te maken hebben met winstoptimalisatie dan met het moeten maken van moeilijke keuzesMulti-gpu ondersteuning inbouwen is tijdrovend en gezien de kleine userbase niet echt zinvol voor developers.

Het vertellen dat je SLI voor 2 kaarten ondersteunt maar dan vervolgens voor (nagenoeg?) geen enkel nieuw spel het ondersteunen is niet eerlijk. Dat is alles wat ik zei.Dat heeft weinig te maken met afbouwen of daar niet eerlijk over zijn.
[Voor 14% gewijzigd door CHBF op 03-05-2017 14:54]
Zelfcensuur is de meest schadelijke vorm van censuur.
Nee hoorDaniëlWW2 schreef op woensdag 3 mei 2017 @ 14:19:
Ik denk dat een Nvidia en een AMD GPU naast elkaar te veel gevraagd zal zijn. Ik zie Nvidia dit ook gewoon onmogelijk maken, als een game het ondersteunt. We hebben het PhysX precedent al...

Zie hier voor Ashes.
Tuurlijk kan Nvidia dit lastig maken, maar dan schieten ze zichzelf toch echt in de voet. PhysX zullen ze wel blijven blokkeren, omdat dat via hun eigen blobs loopt.
Uhh..dat heet AFR en is wat CFX/SLI/IMA doen?Interessanter is denk een dual GPU opzet met twee indentieke GPU's. Kan de game dan bijvoorbeeld afwisselend een frame op de ene GPU laten produceren en de volgende op de andere GPU? Dat zou namelijk nogal een doorbraak zijn.

Je moet mijn post misschien nog eens lezen

Vervang "nog eens" maar met "alsnog" voor het betreffende stuk.

Nietwaar, Daniël?
[Voor 9% gewijzigd door CHBF op 03-05-2017 15:00]
Zelfcensuur is de meest schadelijke vorm van censuur.
Als beide partijen geen sli/cfx ondersteuning bieden voor een game, dan ligt de oorzaak hoogstwaarschijnlijk bij een derde partij (de ontwikkelaar zelf).CHBF schreef op woensdag 3 mei 2017 @ 14:50:
[...]
Over vreemde conclusies gesproken. Omdat Nvidia het niet implementeert voor spel X doet AMD dat ook niet?
De beide bedrijven hebben hun eigen afwegingen. Ik heb nog relatief weinig klachten gehoord over CF-support voor nieuwe spellen en de Polaris-kaarten maar dat doet er weinig toe, we hadden het nu over Nvidia wat niet of weinig meer CF ondersteunt.
Misschien dat Nvidia minder vaak met een zak geld langsgaat bij ontwikkelaars om SLI adoptie te stimuleren, maar dat valt verder moeilijk te bewijzen.
Alle GTX1070 kaarten en hoger ondersteunen 2-way SLI ook. Of nieuwe games SLI ondersteunen is een heel ander verhaal.CHBF schreef op woensdag 3 mei 2017 @ 14:50:
Het vertellen dat je SLI voor 2 kaarten ondersteunt maar dan vervolgens voor (nagenoeg?) geen enkel nieuw spel het ondersteunen is niet eerlijk. Dat is alles wat ik zei.

Nvidia is alleen niet het soort bedrijf dat werkelijk om de beste prestaties voor de consument geeft. Nee, Nvidia geeft vooral om haar eigen winstmarges en heeft er geen enkel probleem mee om dit te verkopen met marketing, geanticipeerde games voorzien van "optimalisaties" en vooral enorme marges op hun producten draaien.Werelds schreef op woensdag 3 mei 2017 @ 14:51:
[...]
Nee hoor
Zie hier voor Ashes.
Tuurlijk kan Nvidia dit lastig maken, maar dan schieten ze zichzelf toch echt in de voet. PhysX zullen ze wel blijven blokkeren, omdat dat via hun eigen blobs loopt.
Verder heeft Nvidia een heel ander probleem. Zoek de beurskoers van Nvidia van de afgelopen 5 jaar maar eens op. Het afgelopen jaar is die koers van $30 naar over de $100 gestegen. Vijf jaar geleden was het nog $12...
De waarde van het bedrijf is helemaal opgeblazen met opgekochte aandelen omdat er veel te veel dollars op de markt zijn vanwege idiote stimuleringsmaatregelen, de winsten en dus winstuitkeringen en de marketshare ten opzichte van AMD. Is Vega een succes en verkopen die goed, dan stort Nvidia haar waarde volledig in. Met alle liqiditeit in de markten wereldwijd worden ze dan een heel makkelijke overname kandidaat, in een tijd dat er kapitaal is. Dat zie je nu ook bij Akzo Nobel gebeuren. Het enige dat Nvidia beschermt zijn overnamebeschermingen die het voor een niet Amerikaans bedrijf moeilijk zullen maken Nvidia over te nemen. Een Amerikaans bedrijf kan het zo doen als Nvidia wegzakt. Denk aan Apple als ze willen of IBM.
Dat is een veel sterkere verklaring voor Nvidia hun hebzucht, en het blokkeren van samenwerking met AMD op elke manier denkbaar. Ze zijn klein in zowel personeel als omzet, kwetsbaar en overpriced door gebrek aan concurrentie en hele goede marketing die niet in verhouding staat tot de kwaliteit van hun product. Vallen ze nu weg qua waarde vanwege een Vega succes, dan zijn ze een prooi om snel, flink mee te verdienen. Er hoeft zich alleen maar een koper te melden met een aardig bod.
AMD is heel anders en bijna niet over te nemen. Financieel matige prestaties en schulden waardoor ze onaantrekkelijk zijn, maar ook in twee markten de underdog. Buiten de VS kan je het wel vergeten en binnen de VS willen Intel en Nvidia niet dat AMD overgenomen wordt, en IBM eigenlijk ook niet denk ik zo. Valt AMD dan ontstaan er twee monopolies en dan komen de antitrustwaakhonden in actie om Intel en Nvidia behoorlijk in de problemen te brengen. Dreigt AMD echt om te vallen, dan zal IBM de boel overnemen en dan vallen er ook klappen bij Intel en Nvidia. IBM is ook groter dan Intel en Nvidia is maar een dwergje. IBM heeft meer dan genoeg middelen om AMD tot een serieuze concurrent van Intel en Nvidia te maken.
Ik bedoelde eigenlijk wat anders, wat ik spectaculair slecht heb uitgelegd denk ik zo.Uhh..dat heet AFR en is wat CFX/SLI/IMA doen?
Je moet mijn post misschien nog eens lezen

Ga je werken met twee verschillende GPU's, hoe moet de game dan bepalen welke beter is voor welke taak? Dat lijkt me een nogal omslachtig proces waardoor het niet realistisch is...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wat een verrassing dat bij een beursgenoteerd bedrijf met een omzet van 7 miljard en een beurswaarde van 60 miljard de focus ligt op het maken van winst.DaniëlWW2 schreef op woensdag 3 mei 2017 @ 16:02:
[...]
Nvidia is alleen niet het soort bedrijf dat werkelijk om de beste prestaties voor de consument geeft.

[Voor 16% gewijzigd door Paprika op 03-05-2017 16:47]
Bethesda als uitgever was niet de beste uiting van mij, neeCHBF schreef op woensdag 3 mei 2017 @ 12:10:
Ik mijd in het algemeen Bethesda spellen als de pest.
[rant rant rant]
Doom is een uitzondering maar dat spel is dan ook niet door Bethesda gemaakt (op de multiplayer na die dan ook is afgebrand) en slechts door Bethesda uitgegeven.

Moet ik echt opmerken dat Geforce voor ongeveer 62% van alle omzet zorgt en dat hier ook enorme toenamen te zien zijn geweest? De automarkt is klein voor Nvidia en de toename niet enorm. Datacentra is meer, maar een markt waar Nvidia uiteindelijk ook tegen een limiet aan zal lopen, zeker als AMD met een all in one package komt van Naples en Vega dat competitief is in prestaties en prijs. De monopoly van CUDA zal hiervoor doorbroken moeten worden, en daar is AMD al jaren mee bezig met GCN. Dan zijn er nog de steeds terugkomende geruchten van verregaande integratiemogelijkheden tussen Naples en Vega voor professionele applicaties.Paprika schreef op woensdag 3 mei 2017 @ 16:41:
[...]
Wat een verrassing dat bij een beursgenoteerd bedrijf met een omzet van 7 miljard en een beurswaarde van 60 miljard de focus ligt op het maken van winst.De marktwaarde van het bedrijf is juist extra hard gestegen door hun datacenter en automotive producten... Daar komt ook de piek vandaan eind afgelopen jaar.
Maar Nvidia hun opzet etc:
http://www.anandtech.com/...17-results-record-revenue
Je kan er verder wel cynisch over gaan doen, maar jij mist de boodschap hier. Nvidia heeft hele andere problemen dan AMD die met Vega komt. Dat is een symptoom van het probleem. Verder probeer ik hier ook duidelijk te maken waarom Nvidia zo handelt, buiten simpelweg beursgenoteerd zijn en winst willen maken.
Voor ons als consument heeft het zo zijn gevolgen ten aanzien van Vega. Bij AMD zijn ze echt niet gek meer als het om marktstrategie gaat. Ik schat zo in dat ze daar heel goed weten dat Nvidia haar koers volledig opgeblazen is, en dat een prijzenoorlog Nvidia in gigantische problemen kan brengen, tot het punt waar ze een overnameprooi kunnen worden. Daar heeft AMD ook niks aan.
AMD kan eigenlijk twee dingen doen als het om het op de markt brengen van Vega gaat. Ze kunnen een zeer agressieve strategie inzetten zoals met Ryzen of een sluipstrategie zoals met Polaris. Ik denk dat AMD voor de sluipstrategie zal kiezen.
Waarom? Nou, omdat ik de Ryzen strategie zeer onwaarschijnlijk acht in dit geval. Ryzen is maar een 196mm stukje silicon, kleiner dan menig GPU. Je hoeft geen duur PCB te ontwerpen en mee te leveren in het eindproduct, of een groot koelblok en je hebt ook geen partners die ook hun marges moeten maken. Wat ook helpt is de concurrent. Intel heeft op alles van de 7700k en lager een IGP zitten. Mislukt die, dan kan je alles weggooien. Werkt de IGP, dan is het iets van ongeveer 40% van je silicon dat besteed is aan iets dat in veel gevallen totaal nutteloos is. Je moet ze alleen wel blijven maken en daar maakt AMD handig gebruik van.
De allerduurste Ryzen en de goedkoopste R3 zijn allemaal hetzelfde stukje silicon. Dat begreep ik eerst ook niet, maar nu wel. Een 1800X zal voor enorme per eenheid winsten verkocht kunnen worden. Dat kan zo een paar honderd euro zijn per CPU. Is die niet helemaal optimaal dan heb je nog twee mogelijkheden om deze als een volle octacore te verkopen. Dan heb je nog twee hexacore opties, en weet ik veel hoeveel quadcore variaties met alles van clocks, minder cache tot wel of geen SMT. Alleen de totale mislukte CPU's worden weggegooid. Dat is vanuit een productieoogpunt enorm aantrekkelijk. Zelfs als je op de goedkoopste Ryzen 3 CPU's verlies maakt, dan is dit nog minder dan weggooien. Dan apart komen de APU's waar volume belangrijker zal zijn dan prijs. Deze lijken ook nog eens schaalbaar te worden voor zowel de CPU als GPU kant, waardoor wederom het meeste verkocht zal kunnen worden.
Intel kan hier tegenover geen prijzenoorlog beginnen, omdat ze simpelweg de architectuur niet hebben voor dergelijke schaling. Verder zit het ook wel goed met productievolume van GF aangezien er qua CPU's geen tekorten zijn, en ik betwijfel of ze slecht verkopen. Zo kan AMD marktaandeel terugwinnen, en goede marges draaien op hun hoofdproduct, de CPU.
Vega en ook Polaris zijn anders en vragen om een andere marktstrategie. Nvidia zou hier op prijs kunnen concurreren, maar gaan dat niet doen vanwege hun eigen moeilijkheden, dat zou verdamping van hun beurswaarde betekenen en heel veel boze aandeelhouders die een verandering van leiderschap best wel eens wenselijk zouden gaan vinden, als ze niet de boel willen verkopen aan een derde partij om nog wat terug te zien van hun inleg...
AMD kan hier natuurlijk net zoals bij Ryzen met de sloopkogel komen aanzetten maar waarom zouden ze? Marges op GPU's zijn slechter, er is hoogst waarschijnlijk niet een GPU die perfect schaalbaar is, en uiteindelijk is Radeon niet de core business van AMD, maar een leuke bijverdienste die hun CPU tak voordelen moet opleveren via APU's, console sales of een all in one pakket voor professionele applicaties. Ik verwacht dus eerder een sluipstrategie ten opzichte van Nvidia, of een hybride strategie. Bijvoorbeeld wel wat agressiever insteken voor Vega 10 om Nvidia haar GP102 GPU behoorlijk te saboteren, en qua prijzen voor Vega 11 zo te gaan zitten dat Nvidia er net niet op zal willen reageren, en zo op een betere prijs marktaandeel veroveren. Die prijzen zijn afhankelijk van prestaties. Vergelijkbaar, dan gaat AMD er net een paar tientjes onder zitten. Is Vega merkbaar beter dan zie ik ze gelijk inzetten met Nvidia.
Als potentieel consument zie ik natuurlijk liever de sloopkogel methode, maar ik reken er eigenlijk niet op. Ga er maar vanuit dat de goedkoopste Vega 11, de GTX1070 tegenhanger, rond de €400 uit gaat komen. Dan kan het altijd nog meevallen. En zo is dit hele verhaal toch relevant en ontopic.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De toenname is al die tijd gelijk gestegen... Totdat Nvidia deals begon te winnen in alle segmenten van de markt.DaniëlWW2 schreef op woensdag 3 mei 2017 @ 17:52:
[...]
Moet ik echt opmerken dat Geforce voor ongeveer 62% van alle omzet zorgt en dat hier ook enorme toenamen te zien zijn geweest? De automarkt is klein voor Nvidia en de toename niet enorm. Datacentra is meer, maar een markt waar Nvidia uiteindelijk ook tegen een limiet aan zal lopen, zeker als AMD met een all in one package komt van Naples en Vega dat competitief is in prestaties en prijs. De monopoly van CUDA zal hiervoor doorbroken moeten worden, en daar is AMD al jaren mee bezig met GCN. Dan zijn er nog de steeds terugkomende geruchten van verregaande integratiemogelijkheden tussen Naples en Vega voor professionele applicaties.
Zelfs uit je eigen link:"We had a breakout quarter -- record revenue, record margins and record earnings were driven by strength across all product lines," explained NVIDIA founder and CEO Jen-Hsun Huang. "Our new Pascal GPUs are fully ramped and enjoying great success in gaming, [virtual reality], self-driving cars and datacenter AI computing."
Datacenter has been a big focus from NVIDIA in diversifying their portfolio, and this quarter they had some announcements here as well, with a collaboration with Microsoft on the Microsoft Cognitive Toolkit, powered by Microsoft Azure cloud running on NVIDIA DGX-1 deep learning system. They unveiled the DGX SATURNV AI supercomputer, and partnered with the National Cancer Institute and US Department of Energy to build CANDLE to “advance cancer research”. The growth of NVIDIA’s Datacenter segment has been almost exponential, and it is now the second largest source of revenue for the company. For Q4 2017, NVIDIA reported $296 million in revenue from this segment, up from $97 million a year ago, or an increase of 205.1%.
Automotive continues to be a solid performer for NVIDIA too, and they’ve released quite a few SoCs specifically for this market. NVIDIA announced that it has an agreement to supply Tesla Motors the DRIVE PX 2 platform to power a new AutoPilot system in the Model S, X, and upcoming 3. With a maximum TDP of 250 Watts, DRIVE PX 2 casts off the mobile SoC constraints of the previous design, despite still having NVIDIA’s Denver CPU paired with Cortex-A57. With the continued investment in this sector, NVIDIA has seen strong growth here, and revenue for this quarter was $127 million, which is up from $79 million a year ago, or a gain of 60%.
http://www.anandtech.com/...record-q3-fy-2017-resultsThe diversification of NVIDIA from a purely GPU company has clearly paid dividends, especially when their core market is doing as well as it is. The datacenter growth is clearly very high margin as well, considering the jump in net income for the quarter.
Investors happen hier wel op. Het bedrijf staat hardstikke sterk in de markt, wordt breed ingezet en de concurrent spartelt er de laatste paar jaren een beetje achteraan als je het totaalplaatje bekijkt.
Een kleine 7 miljard aan omzet en hier draai je een net income van dik 1.5 miljard (24%, ) op en dat is geen marge? Dat is een betere marge dan Intel in 2016, 2015, 2014, 2013, ..., ....Marges op GPU's zijn slechter,
Het bedrijf begon al met de markt te 'belemmeren' als we het zo even gaan noemen jaren voordat Pascal uitkwam. Crysis 2 bv met het tesselation verhaal vond plaats in 2011. PhysX begon nog veel eerder. Juist het afgelopen jaar heeft het bedrijf weinig vreemds gedaan. Ze zijn juist meer open source gaan doen dan in het verleden. 2002 was een sterk jaar, de G80-G92 periode was sterk (2006-2008) en nu alweer sinds de GTX700 series, maar de echte stijging vond pas plaats eind 2016 en dat is omdat ze juist breed inzetbaar zijn.
Ik ben het overigens hardstikke met je eens dat ze overvalued worden, maar die conclusie zal iedere analyst ook trekken. Wel denk ik dat je de kracht van AMD in deze overschat. Het groene kamp heeft de laatste jaren gewoon meerdere keren een sterk product op de markt gezet.
Het zou in ieder geval fijn zijn als Vega flinke klappen kan uitdelen, maar ik ben te vaak in het verleden teleurgesteld door de uiteindelijke release (zowel door groen als door rood) dat ik liever niet op de hypetrain stap. Ik heb toch eigenlijk geen haast om mijn GPU te vervangen, dus ik kan rustig de reviews afwachten en dan zien we wel weer verder.

[Voor 61% gewijzigd door Paprika op 03-05-2017 18:50]

Meer dan

Dat zocht ik bedankt voor je feedback

[Voor 23% gewijzigd door Apoca op 03-05-2017 18:18]
Asus C6E / Ryzen 7 5700X / AMD RX 6900 XT / G.Skill Flare X 16GB / Noctua NH-U12A / Corsair HX750i

Vega's specs grow less vague
AMD "Vega 10" Bears Core-Config Similarities to "Fiji"
[Voor 49% gewijzigd door Help!!!! op 03-05-2017 19:20]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dit is echter geen verhaal van zorgen voor de prestaties voor de consument. Het punt is juist dat tenzij zij dit actief tegen werken, er niet veel mis kan gaan. Daar hebben ze echter zichzelf ook mee, want op het moment dat ze EMA Unlinked alleen met 2xNvidia toe zouden laten en dat dus blokkeren als er een AMD GPU gedetecteerd wordt -Intel kunnen ze onmogelijk blokkeren, te veel Intel iGPU's- dan heeft iedereen dat meteen door. Alternatief is dan helemaal blokkeren, maar dan is Nvidia + Nvidia dus ook niet meer mogelijk. Linked is weer niet zo flexibel als Unlinked en IMA is het oude verhaal weer.DaniëlWW2 schreef op woensdag 3 mei 2017 @ 16:02:
Nvidia is alleen niet het soort bedrijf dat werkelijk om de beste prestaties voor de consument geeft. Nee, Nvidia geeft vooral om haar eigen winstmarges en heeft er geen enkel probleem mee om dit te verkopen met marketing, geanticipeerde games voorzien van "optimalisaties" en vooral enorme marges op hun producten draaien.
Feature flagsDaniëlWW2 schreef op woensdag 3 mei 2017 @ 16:02:
Ik bedoelde eigenlijk wat anders, wat ik spectaculair slecht heb uitgelegd denk ik zo.![]()
Ga je werken met twee verschillende GPU's, hoe moet de game dan bepalen welke beter is voor welke taak? Dat lijkt me een nogal omslachtig proces waardoor het niet realistisch is...

Er zitten in Direct3D een hele hoop feature flags waar je op kan testen. Vervolgens kun je voor veel van die features ook nog opvragen welk niveau deze op zit. Dus je kunt als developer heel eenvoudig zien dat en GTX 1060 bijvoorbeeld 3D tiled textures kan doen (Tiled Resources Tier 3) terwijl je RX 480 dat niet kan. Hoef je geen lijst van GPU's en hun mogelijkheden voor bij te houden.
Daar staat wel tegenover dat AMD de neiging heeft features niet meteen op "ja" te zetten in hun DX feature flags (dus sommige features zijn er wel in hardware, maar staan nog niet "aan"), terwijl Nvidia dat juist vaak te vroeg doet. Wat je dus wel bij zult moeten houden is als er nieuwe GPU's zijn, welke features daar wellicht juist niet lekker op werken ook al geeft de driver aan van wel. Zo zal de driver voor Kepler aan geven dat er ondersteuning is voor Tiled Resources Tier 1, maar wat die dan niet duidelijk maakt is dat dat een emulatie is en geen hardware ondersteuning. Blijkbaar vond MS dat goed genoeg, dus als je TR op een Kepler GPU toe past loopt dat niet zo lekker als het op GCN of Maxwell/Pascal doet.
Ik doel er eigenlijk meer op dat ze vanuit marketing oogpunt dus niet zouden willen dat je met een theoretische RX580 en een GTX1060 sneller af bent dan twee GTX1060's via SLI. Dan verliest Nvidia hun SLI inkomsten, en komt er aan dacht voor een mogelijkheid waar je niet (exclusief) met Nvidia hardware en software moet werken. Dat willen ze absoluut niet bij Nvidia waardoor ik het uiterst onwaarschijnlijk acht. Ja, ik weet dat de 1060 geen SLI ondersteunt etc, hou maar op.Werelds schreef op woensdag 3 mei 2017 @ 19:42:
Dit is echter geen verhaal van zorgen voor de prestaties voor de consument. Het punt is juist dat tenzij zij dit actief tegen werken, er niet veel mis kan gaan. Daar hebben ze echter zichzelf ook mee, want op het moment dat ze EMA Unlinked alleen met 2xNvidia toe zouden laten en dat dus blokkeren als er een AMD GPU gedetecteerd wordt -Intel kunnen ze onmogelijk blokkeren, te veel Intel iGPU's- dan heeft iedereen dat meteen door. Alternatief is dan helemaal blokkeren, maar dan is Nvidia + Nvidia dus ook niet meer mogelijk. Linked is weer niet zo flexibel als Unlinked en IMA is het oude verhaal weer.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Denk dat er verschillende versie van Vega komen met alleen een bij passende geheugen configuratie. Minimaal 4 stacks HBM2 geheugen 8GB/16GB voor de high end versies.CHBF schreef op dinsdag 2 mei 2017 @ 22:34:
[...]
AMD gaf maanden geleden aan dat HBM2 inmiddels voor kaarten van rond die prijs haalbaar zou moeten zijn, voor wat het waard is. De vraag is dan wel of dat het over 4 GB of over 8 GB ging. Kaarten van 4 GB zie ik niet zitten, problemen met longevity en bottlenecking bij hogere resoluties, betere textures en zo. Tenzij AMD een konijn uit de hoge hoed zou toveren en zelf de helft van de data die in de RAM moet zou kunnen wegfilteren, dat lijkt me erg onwaarschijnlijk. Zou AMD een jaar geleden al harde afspraken hebben gemaakt met de leverancier dat AMD het eerste kooprecht heeft in dit stadium?
Wij zijn hier al lang aan het speculeren maar nog steeds weet niemand hier wat dat HBM2 ongeveer kost per 4/8 GB. Hell, we weten niet eens wat 4 GB GDDR5 kost, we kunnen een bovenste grens bepalen (<25 euro voor AMD sowieso, in de winkel bedraagt uiteindelijk het verschil ongeveert $30-35) maar niemand hier weet het precies. Heb jij het ooit wel eens proberen te vinden met een zoekmachine? Het valt niet mee. Het zal duurder zijn dan GDDR5 maar hoeveel duurder per 8 GB?
Ja, de throughput ligt hoger bij HBM2 maar eveneens heeft nog niemand hier onderbouwd dat je daar iets aan hebt, de data moet wel snel genoeg vanuit de systeem-RAM naar de RAM van de grafische kaart kunnen gaan. Die hogere througput stelt me dus ook onvoldoende gerust om 4 GB voldoende te vinden.
Onderstaande tabel geeft de kostenplaatje weer tussen HBM en GDDR5.
Geen hoge verschil voor het gebruik van HBM geheugen ten opzichte van GDDR5 geheugen.
Ik vind die kosten bepaling van GDDR5 vs HBM maar vaag, ik heb m eerder al gezien maar vond het hier posten niet waardpolli_ schreef op woensdag 3 mei 2017 @ 19:55:
[...]
Denk dat er verschillende versie van Vega komen met alleen een bij passende geheugen configuratie. Minimaal 4 stacks HBM2 geheugen 8GB/16GB voor de high end versies.
[afbeelding]
Onderstaande tabel geeft de kostenplaatje weer tussen HBM en GDDR5.
[afbeelding]
Geen hoge verschil voor het gebruik van HBM geheugen ten opzichte van GDDR5 geheugen.

Uh, loop eens na wanneer Ryzen 7, 5 en Polaris 20 uitgebracht werden de afgelopen maanden.wouterg00 schreef op woensdag 3 mei 2017 @ 19:57:
Ik denk dat Vega pas 1 juni komt. Omdat AMD hun producten altijd op de 1e van de maand lanceert en hij in Q2 gelanceerd wordt, en de enige eerste van de maand over in Q2 is 1 juni...

Is dat het echt? Oke, niet haalbaar voor een sub €300 GPU, maar daarboven zeker wel haalbaar als het extra prestaties oplevert.polli_ schreef op woensdag 3 mei 2017 @ 19:55:
Geen hoge verschil voor het gebruik van HBM geheugen ten opzichte van GDDR5 geheugen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Die specs zijn al meer dan een jaar bekend en staan ook al heel lang in de topicstart.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
https://compubench.com/co...VIDIA+GeForce+GTX+1080+Ti
https://compubench.com/co...2=NVIDIA+GeForce+GTX+1080
https://i.imgur.com/eyppvHk.jpg
Plaatje in de eerste link vergelijkt OSX met Windows, gebruik de linkjes eronder

[Voor 74% gewijzigd door Paprika op 03-05-2017 21:15]
Verder kunnen we denk ik wel concluderen dat AMD 687F:C1 een Vega 10 is. Die gaat de GTX1080 nu al voorbij in die compubench testen.
Maar kom op AMD, kom eens met release dates ofzo.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
ja wordt tijd voor een release, ik zou van de week een 580 kopen maar de twijfel is er al weer in..DaniëlWW2 schreef op woensdag 3 mei 2017 @ 21:13:
Het gaat nu opeens wel hard met de lekken, zo lijkt het.
Verder kunnen we denk ik wel concluderen dat AMD 687F:C1 een Vega 10 is. Die gaat de GTX1080 nu al voorbij in die compubench testen.
Maar kom op AMD, kom eens met release dates ofzo.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021
Ik heb zelf de afgelopen jaren heel wat Crossfire actie meegemaakt :Apoca schreef op dinsdag 2 mei 2017 @ 22:51:
Zijn der nog mensen die met CrossFire in de weer zijn op het R9 290 platform? Ik kan voor een paar euro een extra R9 290 erbij prikken, echter ben ik na mijn HD 4850 setup niet meer met CF in aanraking geweest. En zou graag weten of CF nog een beetje goed werkt tegenwoordig of dat ik beter er ver van kan blijven gezien de bevindingen van destijds niet echt zijn opgelost.
- 2x HD5870 met later een upgrade naar zelfs 4x HD5870

- 2x HD6970 van een vriend.
- 7990 van een vriend.
- 2x R9 290X waarvan nu helaas 1 kaart RMA is

Over het algemeen zou ik zeggen "Gewoon doen!" maar check eerst welke games je het meest speelt en of deze Crossfire goed ondersteunen. Zolang de game het goed voor elkaar heeft dan heb je niks te vrezen en werkt het gewoon geweldig

Bovenstaande is trouwens allemaal i.c.m. Eyefinity gebruikt met 3x 1080p of 3x 1200p monitoren!
|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Als je je multi monitor setup daarentegen gebruikt voor browsen tijdens het gamen (denk level loading, respawn timer, verveeld halfassed gamen, metagaming statistieken, chatten) dan is crossfire een pain in the ass omdat het alleen werkt in exclusive fullscreen en niet in borderless.nero355 schreef op woensdag 3 mei 2017 @ 22:50:
[...]
Ik heb zelf de afgelopen jaren heel wat Crossfire actie meegemaakt :
- 2x HD5870 met later een upgrade naar zelfs 4x HD5870
- 2x HD6970 van een vriend.
- 7990 van een vriend.
- 2x R9 290X waarvan nu helaas 1 kaart RMA is
Over het algemeen zou ik zeggen "Gewoon doen!" maar check eerst welke games je het meest speelt en of deze Crossfire goed ondersteunen. Zolang de game het goed voor elkaar heeft dan heb je niks te vrezen en werkt het gewoon geweldig
Bovenstaande is trouwens allemaal i.c.m. Eyefinity gebruikt met 3x 1080p of 3x 1200p monitoren!
PC: R9 5950X | 32GB | VEGA 64 Liquid Edition
Dat is wel waar inderdaad, maar ik neem effe aan dat iemand die Crossfire of SLI overweegt dat al weet, want dat is merk onafhankelijkGelunox schreef op woensdag 3 mei 2017 @ 23:03:
Als je je multi monitor setup daarentegen gebruikt voor browsen tijdens het gamen (denk level loading, respawn timer, verveeld halfassed gamen, metagaming statistieken, chatten) dan is crossfire een pain in the ass omdat het alleen werkt in exclusive fullscreen en niet in borderless.

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
polli_ schreef op woensdag 3 mei 2017 @ 19:55:
[...]
Denk dat er verschillende versie van Vega komen met alleen een bij passende geheugen configuratie. Minimaal 4 stacks HBM2 geheugen 8GB/16GB voor de high end versies.
[afbeelding]
Onderstaande tabel geeft de kostenplaatje weer tussen HBM en GDDR5.
[afbeelding]
Geen hoge verschil voor het gebruik van HBM geheugen ten opzichte van GDDR5 geheugen.

Dat is nuttige informatie.
Zelfcensuur is de meest schadelijke vorm van censuur.
Nieuwe functionaliteit gevonden in de drivers.
Turbo V-sync: dynamische V-sync gebaseerd op de frame rates.
Prime Efficiency: nieuwe efficiency methode gebaseerd op live data.
Zelfcensuur is de meest schadelijke vorm van censuur.
Algemene instellingen en dan algemene wattman dan zou er onderaan ergens chill.CHBF schreef op donderdag 4 mei 2017 @ 00:29:
Waar staat Chill eigenlijk? Ik kan die namelijk nog steeds niet vinden in AMD settings, ik heb echter van iemand anders begrepen dat die het wel had met een HD 7850.
Erg interessant. Ik zie het in Radeon Settings niet staan, welke driverversie heb je?polli_ schreef op donderdag 4 mei 2017 @ 00:19:
[afbeelding]
Nieuwe functionaliteit gevonden in de drivers.
Turbo V-sync: dynamische V-sync gebaseerd op de frame rates.
Prime Efficiency: nieuwe efficiency methode gebaseerd op live data.
Wat ik vooral interessant vond was dat het op dit moment efficiënter is om de framelimit in de games op te geven dan in Radeon relive GUI.
SLI werkt vaak wel in een (borderless) Window.nero355 schreef op woensdag 3 mei 2017 @ 23:07:
[...]
Dat is wel waar inderdaad, maar ik neem effe aan dat iemand die Crossfire of SLI overweegt dat al weet, want dat is merk onafhankelijk
Verder is de hoofdmoot aan games nog steeds dx11, dus hopelijk worden de traditionele Multi GPU-vormen van AFR(2), SFR ed. nog even gesupport

Hopelijk deze maand eens echt nieuws over Vega.
Niet op voorraad.
AFR bloedt dood omdat men steeds vaker de vorige frame gebruikt om een volgend frame te renderen ipv iedere X de gehele scène en dat laatste is waar AFR juist hard op steunt.edward2 schreef op donderdag 4 mei 2017 @ 10:03:
[...]
SLI werkt vaak wel in een (borderless) Window.
Verder is de hoofdmoot aan games nog steeds dx11, dus hopelijk worden de traditionele Multi GPU-vormen van AFR(2), SFR ed. nog even gesupport
Hopelijk deze maand eens echt nieuws over Vega.
Als je reviews bekijkt zie je tegenwoordig ook vaker maar 50% increases of zelfs minder (tot negatief aan toe) ipv de bijna 200% scaling zoals in de 8800GT tijden.
[Voor 13% gewijzigd door Paprika op 04-05-2017 13:11]
Dat zal ook wel zo blijven denk.Pikkemans schreef op donderdag 4 mei 2017 @ 08:07:
Wat ik vooral interessant vond was dat het op dit moment efficiënter is om de framelimit in de games op te geven dan in Radeon relive GUI.
muis pollen -> frame uitrekenen -> frame weergeven -> wachten
geeft minder latency dan:
Muis pollen ->frame uitrekenen -> wachten -> frame weergeven.
omdat de latency van muis pollen tot frame weergeven is.
Mechwarrior Online: Flapdrol
https://www.3dmark.com/spy/21686019 - RX 6900XT 21K+
MooiJulianI-Intel schreef op donderdag 4 mei 2017 @ 13:59:
Al gelezen iedereen?
https://nl.hardware.info/...ega-hoger-dan-gtx-1080-ti
Sneller dan 1080ti!

De launch komt waarschijnlijk nu wel dichterbij... ik denk nog steeds dat hij gelanceerd wordt op Computex van 30-5 tot 6-6
https://www.reddit.com/r/...lated_using_polaris_fiji/Aight, so I love doing super basic algebra using known variables to extrapolate GPU performance, in this case: clock speed, die size and transistor count.
390 X= 438 mm2/ 6200x106 transistors/ 1050 core clock
Fury X= 596 mm2/ 8900x106 transistors/ 1050 core clock
580 = 232 mm2/ 5700x106 transistors / 1417 core clock (for easy math)
So first we find that the 28nm node could fit roughly 14 (ignore sig figs) transistors per nm2 of die size while 14nm can fit roughly 24 per mm2. Then we take the improved core clock of Polaris which results in a 35% boost. Now assuming linear scaling with clock speed and transistor count which is wrong in so many ways (ignoring architecture improvements and non-linear performance scaling) but fuck it we can ballpark with it, we get...
Vega matches Fury X performance with a die size of 370 mm2 @ Fury stock clock
Vega matches 1080 performance with a dies size of 400 mm2 + 35% Polaris clock speed bump
Vega matches 1080Ti performance with a die of 470 mm2 + 35% Polaris clock speed bump
Vega matches an OC'd 1080Ti with a die of 500 mm2 + 35% Polaris clock speed bump
Vega rapes the world with a Fury X sized die of 600 mm2 + 35% Polaris clock speed bump
Based on costs alone I don't see AMD dropping a Vega chip over 500 mm2 so the 450-470 mm2 range seems most likely (471 mm2 = GP102/ Titan Xp). At that size we'll finally get a heads up comparison of architectures and optimization differences between AMD and Nvidia
Vooral die kloksnelheid van 1600mhz vind ik bijzonder hoog voor wat AMD tot dusver heeft laten zien.JulianI-Intel schreef op donderdag 4 mei 2017 @ 13:59:
Al gelezen iedereen?
https://nl.hardware.info/...ega-hoger-dan-gtx-1080-ti
Sneller dan 1080ti!

Verder even wat Time Spy benches opgezocht. Deze kwam nog het dichtste in de buurt want een 4ghz/stock GTX1080Ti kan ik zo snel niet vinden.
http://www.3dmark.com/spy/1530296
We zitten dus inderdaad in de buurt, voor de officiële releasedatum, met drivers die echt nog niet klaar zijn voor release en nog in ontwikkeling zullen zijn. Misschien niet zozeer voor Time Spy, maar AMD kennende worden ze de komende maanden beter.
Verder moeten we nu ook concluderen dat AMD niet lief doet als het om ID's gaat. Zit eens niet de volgwoorden om te draaien zeg AMD waardoor 3 nu sneller is dan 1.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021
Is dat ooit door AMD beweerd? AMD is al haar beloften nagekomen hoor. Het zijn inderdaad dit soort 'uitgelekte' benchmarks en geruchten die loze beloften deden.winwiz schreef op donderdag 4 mei 2017 @ 14:28:
Hype hype hype warning... Weten we nog van de 480? Overklok monster, zuinig, snel....
Inderdaad..... zolang het niet uit een echt betrouwbare bron krijgen gewoon negeren. En die betrouwbare bronnen laten pas na de NDA lift de zaken zien zoals het is.Richh schreef op donderdag 4 mei 2017 @ 14:34:
[...]
Is dat ooit door AMD beweerd? AMD is al haar beloften nagekomen hoor. Het zijn inderdaad dit soort 'uitgelekte' benchmarks en geruchten die loze beloften deden.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021
Dual-GPU kaart?JulianI-Intel schreef op donderdag 4 mei 2017 @ 13:59:
Al gelezen iedereen?
https://nl.hardware.info/...ega-hoger-dan-gtx-1080-ti
Sneller dan 1080ti!
Lijkt mij stug, als het echt is is het gewoon volledige vega
Wattman wordt niet ondersteund voor de 7000-serie. Ik had gekeken bij de algemene instellingen (die onlogisch is geplaatst aangezien die naast de spellen staat in de GUIpolli_ schreef op donderdag 4 mei 2017 @ 00:36:
[...]
Algemene instellingen en dan algemene wattman dan zou er onderaan ergens chill.
[afbeelding]

Wat doet die global switch? Zet dat Wattman/Chill aan voor alle spellen?
[Voor 5% gewijzigd door CHBF op 04-05-2017 15:07]
Zelfcensuur is de meest schadelijke vorm van censuur.
Vergeet niet dat fury X timespy scores niet echt 1 op 1 vertalen naar game prestaties. AMD doet het goed in 3D benches.DaniëlWW2 schreef op donderdag 4 mei 2017 @ 14:27:
Uh, Vega 10 is een 520mm die. Als die berekeningen kloppen, absoluut geen reden om die erg serieus te nemen because drivers maar voor het gemak toch even, dan zitten we dus tussen een GTX1080Ti OC, en de wereld verkrachten.
Verder even wat Time Spy benches opgezocht. Deze kwam nog het dichtste in de buurt want een 4ghz/stock GTX1080Ti kan ik zo snel niet vinden.
http://www.3dmark.com/spy/1530296
We zitten dus inderdaad in de buurt, voor de officiële releasedatum, met drivers die echt nog niet klaar zijn voor release en nog in ontwikkeling zullen zijn. Misschien niet zozeer voor Time Spy, maar AMD kennende worden ze de komende maanden beter.
Verder moeten we nu ook concluderen dat AMD niet lief doet als het om ID's gaat. Zit eens niet de volgwoorden om te draaien zeg AMD waardoor 3 nu sneller is dan 1.
Welke 480? De GTX of de RX?winwiz schreef op donderdag 4 mei 2017 @ 14:28:
Hype hype hype warning... Weten we nog van de 480? Overklok monster, zuinig, snel....

Verder wat is het probleem nu? Al maanden zijn de verwachtingen ongeveer dat de volle Vega 10 GPU rond de 1080Ti uit zal komen, of misschien Titan Xp. Dat lijkt nu te gebeuren. Dat heeft niks met hype te maken. Verkoopt AMD deze GPU vervolgens voor €500, oke, dan mag je hypen. Ga ik niet vanuit.
Veel interessanter is dat er nu drie GPU's in de pijnlijn lijken te zitten. De vraag is dan hoe het zit met Vega 10 en 11. Gaat AMD het hierbij laten en drie Vega 10 GPU's lanceren die het op moeten nemen tegen de GTX1070, 1080 en Ti of toch Vega 10 en 11 en zit er nog een vierde GPU in de pijnlijn die het echt moet opnemen tegen de Titan Xp. Of komt er maar een Vega 10, en twee Vega 11 GPU's? Een cut down Vega 10 nu en later de volle GPU?
Daarom zeg ik ook drivers. Brute prestaties zullen er wel zijn, nu realistische prestaties in games.Anoniem: 298195 schreef op donderdag 4 mei 2017 @ 15:07:
[...]
Vergeet niet dat fury X timespy scores niet echt 1 op 1 vertalen naar game prestaties. AMD doet het goed in 3D benches.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat is waar maar Vega10 zou toch met mature drivers een stukje hoger dan de FuryX moeten uitkomen, zou je denken. Hetzelfde aantal units, betere architectuur, tot 2 keer zo'n kleine node. Zelfs al zou je bij sommige tweaks wat performance in die benchmark verminderen maar de performance voor spellen verbeteren dan zou je een aanzienlijke winst verwachten.Anoniem: 298195 schreef op donderdag 4 mei 2017 @ 15:07:
[...]
Vergeet niet dat fury X timespy scores niet echt 1 op 1 vertalen naar game prestaties. AMD doet het goed in 3D benches.
Bij al die benchmarks moeten we niet vergeten dat we niet weten hoe er werd gebenchmarkt. Stel dat die benchmarks echt zijn en dat ze van AMD of een AIB-partner komen dan is het best mogelijk dat ze bewust de kaart bottlenecken door iets uit te schakelen of de klokfrequentie te verlagen. Ook is het mogelijk dat ze bewust verschillende drivers - oude en nieuwere - vergelijken. Nog een paar weken geduld en we zullen het wel weten.
PCPerspective had dit een jaar geleden al onderzocht met een oscilloscoop.Pikkemans schreef op donderdag 4 mei 2017 @ 08:07:
Gisteren is deze uitgebreide freesync latency test gepubliceerd op YouTube.
YouTube: Dissecting G-Sync and FreeSync - How the Technologies Differ
Merk op dat dit inmiddels achterhaald omdat AMD nu via software ook voor lage FPS hetzelfe trucje uithaalt als wat Nvidia via hardware doet.
Pluspuntjes van het door jou gelinkte filmpje: deze jongen test de input-lag (bijna niemand doet dat, helaas) en de inputlag bij de framelimiter van AMD was aanzienlijk groter dan die van Rivatuner, goed om te weten.
[Voor 30% gewijzigd door CHBF op 04-05-2017 15:46]
Zelfcensuur is de meest schadelijke vorm van censuur.
Niet verkeerd, maar niet sneller dan een 1080Ti met een adequate koeler.JulianI-Intel schreef op donderdag 4 mei 2017 @ 13:59:
Al gelezen iedereen?
https://nl.hardware.info/...ega-hoger-dan-gtx-1080-ti
Sneller dan 1080ti!
Hopelijk kan het nog wat omhoog.
Mechwarrior Online: Flapdrol
Ik kan wel een uitslag maken in Photoshop die sneller is dan de Titan Xp in 3x SLI configuratie. En als hij dan uitkomt, en hij is maar net Titan Xp in 2x Sli ( als dat zou kunnenDaniëlWW2 schreef op donderdag 4 mei 2017 @ 15:10:
[...]
Welke 480? De GTX of de RX?![]()
Verder wat is het probleem nu? Al maanden zijn de verwachtingen ongeveer dat de volle Vega 10 GPU rond de 1080Ti uit zal komen, of misschien Titan Xp. Dat lijkt nu te gebeuren. Dat heeft niks met hype te maken. Verkoopt AMD deze GPU vervolgens voor €500, oke, dan mag je hypen. Ga ik niet vanuit.
Veel interessanter is dat er nu drie GPU's in de pijnlijn lijken te zitten. De vraag is dan hoe het zit met Vega 10 en 11. Gaat AMD het hierbij laten en drie Vega 10 GPU's lanceren die het op moeten nemen tegen de GTX1070, 1080 en Ti of toch Vega 10 en 11 en zit er nog een vierde GPU in de pijnlijn die het echt moet opnemen tegen de Titan Xp. Of komt er maar een Vega 10, en twee Vega 11 GPU's? Een cut down Vega 10 nu en later de volle GPU?
[...]
Daarom zeg ik ook drivers. Brute prestaties zullen er wel zijn, nu realistische prestaties in games.

Dit soort leaks is wel zo veel non - informatie.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021
Vraag is dan ook meer wat de overclockbaarheid van Vega wordt aangezien we nu al overlockte 1080ti resultaten aan het vergelijken zijn met vega, waar vega het "net" van verliest.haarbal schreef op donderdag 4 mei 2017 @ 15:19:
[...]
Niet verkeerd, maar niet sneller dan een 1080Ti met een adequate koeler.
Hopelijk kan het nog wat omhoog.
Toch verwacht ik dat als vega even snel als de 1080ti er toch veel negatief nieuws zal zijn in de trend van "ze zijn laat" omdat ze na 2 jaar pas een 1080ti kunnen evenaren.
[Voor 9% gewijzigd door CHBF op 04-05-2017 15:49]
Zelfcensuur is de meest schadelijke vorm van censuur.
Ik vraag me vooral af wat die kaart moet gaan kosten.Anoniem: 298195 schreef op donderdag 4 mei 2017 @ 15:27:
[...]
Vraag is dan ook meer wat de overclockbaarheid van Vega wordt aangezien we nu al overlockte 1080ti resultaten aan het vergelijken zijn met vega, waar vega het "net" van verliest.
Toch verwacht ik dat als vega even snel als de 1080ti er toch veel negatief nieuws zal zijn in de trend van "ze zijn laat" omdat ze na 2 jaar pas een 1080ti kunnen evenaren.
Mechwarrior Online: Flapdrol
Ik zou weinig headroom verwachten in lijn met vorige generaties. High end AMD kaarten zitten vaak al redelijk tegen het plafond aan bij release.Anoniem: 298195 schreef op donderdag 4 mei 2017 @ 15:27:
[...]
Vraag is dan ook meer wat de overclockbaarheid van Vega wordt aangezien we nu al overlockte 1080ti resultaten aan het vergelijken zijn met vega, waar vega het "net" van verliest.
Je kunt er vanuit gaan dat begin 2018 een nieuwe serie van Nvidia lijn gaat verschijnen. Dat is immers alweer 2 jaar na introductie 1080/1070. Anderhalf jaar lang wachten op een gelijkwaardige concurrent voor de 1080 is ook achter de feiten aan lopen. Tegen de tijd dat de drivers van Vega goed zijn plaatsen mensen alweer een Volta kaart in hun pci express poort. Die kritiek is dus best logisch. Vega had er al een half jaar moeten zijn.Toch verwacht ik dat als vega even snel als de 1080ti er toch veel negatief nieuws zal zijn in de trend van "ze zijn laat" omdat ze na 2 jaar pas een 1080ti kunnen evenaren.
Ik snap niet waarom je als site je zelf zo voor schut wil zetten door elke dag totaal iets anders te posten. De ene dag zeg je x en de volgende dag y en de dag daarna is het weer z.JulianI-Intel schreef op donderdag 4 mei 2017 @ 13:59:
Al gelezen iedereen?
https://nl.hardware.info/...ega-hoger-dan-gtx-1080-ti
Sneller dan 1080ti!
Dat is al ongeveer een half jaar bekend, aangezien je alleen dan op 12,5Tflop kan komen met 4096 stream processors.Richh schreef op donderdag 4 mei 2017 @ 14:23:
[...]
Vooral die kloksnelheid van 1600mhz vind ik bijzonder hoog voor wat AMD tot dusver heeft laten zien.
Er zijn ook heel wat mensen die Vega 10 onder een GTX 1080 Ti zetten qua prestaties.DaniëlWW2 schreef op donderdag 4 mei 2017 @ 15:10:
[...]
Al maanden zijn de verwachtingen ongeveer dat de volle Vega 10 GPU rond de 1080Ti uit zal komen, of misschien Titan Xp. Dat lijkt nu te gebeuren. Dat heeft niks met hype te maken.
Als het zou kloppen, meestal is het gewoon nep namelijk, dan komt het waarschijnlijk niet van AMD, maar van andere fabrikanten, zoals boardpartners of OEMs.CHBF schreef op donderdag 4 mei 2017 @ 15:48:
Is het mogelijk dat AMD dezelfde kaart (volle Vega10) met een verschillend aantal units ingeschakeld testte om te achterhalen wat nodig is om on par te zijn met een GTX 1070, GTX 1080... en dit om te beslissen hoe groot de cut gaat worden?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ja, en bijna niemand zal dit geloven. Dan gaan mensen eens goed kijken naar je screenschot en blijkt het toch een photoshop te zijn.winwiz schreef op donderdag 4 mei 2017 @ 15:20:
[...]
Ik kan wel een uitslag maken in Photoshop die sneller is dan de Titan Xp in 3x SLI configuratie. En als hij dan uitkomt, en hij is maar net Titan Xp in 2x Sli ( als dat zou kunnen) is het een kaart die totaal niet aan de verwachtingen voldoet.
Dit soort leaks is wel zo veel non - informatie.
Verder zijn dit soort leaks juist geen non informatie. Niet herleidbaar naar de bron, maar overduidelijk gecreëerd door iemand met toegang tot de hardware. Dit is opzettelijk om een hype te creëren, en alles te kunnen ontkennen tot release. Ook manipuleerbaar omdat opzettelijk downclocken, stream processors uitzetten of minder dan optimale drivers gebruiken, de concurrent kan verwarren. Nee, ik denk dus niet dat deze nep zijn, maar sluw uitgedokterd.
Onderhand zullen de GPU's al tenminste in preproductie moeten zijn, als ze niet al in volle productie zijn. Tussen silicon wafers produceren, uitsnijden, testen, naar een AIB met de chips, PCB produceren, weer testen, inpakken en verschepen, daar zitten zo weken tussen. Voor elke stap moeten er voorraden worden aangelegd omdat een productiestop omdat een onderdeel mis, duur is. De productielijnen zelf opzetten door dan wel wat meer dan weken voor de lastige onderdelen die speciaal ontworpen moeten worden voor de kaart.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Eens met alleen als kantekening dat Vega wellicht prijstechnisch wel concurerend kan zijn.sjekneck schreef op donderdag 4 mei 2017 @ 16:51:
Je kunt er vanuit gaan dat begin 2018 een nieuwe serie van Nvidia lijn gaat verschijnen. Dat is immers alweer 2 jaar na introductie 1080/1070. Anderhalf jaar lang wachten op een gelijkwaardige concurrent voor de 1080 is ook achter de feiten aan lopen. Tegen de tijd dat de drivers van Vega goed zijn plaatsen mensen alweer een Volta kaart in hun pci express poort. Die kritiek is dus best logisch. Vega had er al een half jaar moeten zijn.
We wetens nog niks over Volta en ik vewacht een minder grote jump in prestaties zoals maxwell>pascal tenzij ze de 3ghz richting op gaan of ze moeten meer cuda cores toevoegen.... Dus Volta zal wellicht ook de aanwezige IPC en Tflops optimaler moeten gebruiken en dat is nou juist ook waar een aantal features in Vega voor bedoeld zijn. Daardoor is het zomaar mogelijk dat Vega performance meegroeit afhankelijk van de sofware die er gebruik van gaat maken.
Je denkt dat het niet nep is, omdat je graag wil dat het klopt. Dat is helaas een slechte raadgever. Kijken wat realistisch is, zonder daarbij door je voorkeur te laten beïnvloeden geeft een veel beter beeld.DaniëlWW2 schreef op donderdag 4 mei 2017 @ 17:15:
[...]
Niet herleidbaar naar de bron, maar overduidelijk gecreëerd door iemand met toegang tot de hardware. Dit is opzettelijk om een hype te creëren, en alles te kunnen ontkennen tot release. Ook manipuleerbaar omdat opzettelijk downclocken, stream processors uitzetten of minder dan optimale drivers gebruiken, de concurrent kan verwarren. Nee, ik denk dus niet dat deze nep zijn, maar sluw uitgedokterd.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Een AMD kaart performed tussen Nvidia's aanbod van 700 tot 1350 euro ?haarbal schreef op donderdag 4 mei 2017 @ 16:43:
[...]
Ik vraag me vooral af wat die kaart moet gaan kosten.
Daar verwacht ik tussen de 650 en 850 euro voor, naargelang hoe kort de performance zal leunen op die eerste.
Je typeert wel het overgrote deel van de hedendaagse journalistiek hiermee-The_Mask- schreef op donderdag 4 mei 2017 @ 17:08:
[...]
Ik snap niet waarom je als site je zelf zo voor schut wil zetten door elke dag totaal iets anders te posten. De ene dag zeg je x en de volgende dag y en de dag daarna is het weer z.

Journalistiek, los van winst, religie of politiek is de droom maar lijkt nog nooit zo ver af te zijn geweest.
Wat moet een techsite dan? Alleen maar officiële berichten van AMD zelf posten?
Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc
Ja, maar niet veel game hebben er support voorCHBF schreef op donderdag 4 mei 2017 @ 15:06:
Wat doet die global switch? Zet dat Wattman/Chill aan voor alle spellen?
Nee gewoon nadenken wat je post en dus niet elke dag iets totaal anders wat je vorige berichten volledig tegenspreekt. Daarnaast ook een goed onderbouwde mening erbij of een aantal nuttige feiten over het nieuwsbericht in plaats van een inhoudsloos bericht. Ze posten nu een screenshot met een score en vergelijken die met een test van hunzelf zonder verdere uitleg wat ze nu posten en waarom.The Chosen One schreef op donderdag 4 mei 2017 @ 17:31:
Zie niet hoe ze zich voor schut zetten. Ze zeggen nergens dat het gegarandeerd zo is. Beetje gezond verstand gaat ook ver.
Wat moet een techsite dan? Alleen maar officiële berichten van AMD zelf posten?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Aan de ene kant vind ik het fijn dat ze snel infomatie posten maar het zou inderdaad beter zijn als ze een paar dagen wachten en ook andere geruchten/bronnen/informatie erbij betrekken. nu heb je ene dag dit verhaal en de andere dag een nieuwe verhaal wat het andere weer tegenspreekt. Maar tja nieuwe informatie 3 dagen later als nieuws brengen is geen nieuws meer tgenwoordig.-The_Mask- schreef op donderdag 4 mei 2017 @ 17:40:
[...]
Nee gewoon nadenken wat je post en dus niet elke dag iets totaal anders wat je vorige berichten volledig tegenspreekt. Daarnaast ook een goed onderbouwde mening erbij of een aantal nuttige feiten over het nieuwsbericht in plaats van een inhoudsloos bericht. Ze posten nu een screenshot met een score en vergelijken die met een test van hunzelf zonder verdere uitleg wat ze nu posten en waarom.
Een 1080Ti met een acceptabele koeler is 800 euro, rest van het "aanbod" is niet zo relevant imo.Phuncz schreef op donderdag 4 mei 2017 @ 17:28:
Een AMD kaart performed tussen Nvidia's aanbod van 700 tot 1350 euro ?
Daar verwacht ik tussen de 650 en 850 euro voor, naargelang hoe kort de performance zal leunen op die eerste.
Mechwarrior Online: Flapdrol
Of je legt eens geen woorden in mijn mond en denkt zelf na.-The_Mask- schreef op donderdag 4 mei 2017 @ 17:27:
[...]
Je denkt dat het niet nep is, omdat je graag wil dat het klopt. Dat is helaas een slechte raadgever. Kijken wat realistisch is, zonder daarbij door je voorkeur te laten beïnvloeden geeft een veel beter beeld.
Hoe lijken ze niet realistisch te zijn? Een 520mm, 14nm GPU van geoptimaliseerd GCN ontwerp met 4096 stream processors, met een gezien de Instinct MI25 realisctische clockspeed van 1600mhz zal rond de GTX1080Ti uit moeten komen tenzij AMD iets gigantisch verknalt. Wat zien we hier? Die GPU die dit inderdaad lijkt te doen.
Het kan mij verder echt helemaal niks schelen of Vega echt sneller is dan de Titan Xp. Het zal wel, beide kanten op. Voor AMD zou het leuk zijn, maar het is niet noodzakelijk. Marktaandeel terugwinnen terwijl er nog redelijke marges worden gedraaid voor deze zijtak van AMD, dat is hier belangrijk. Als wij als consument hierdoor een betere deal krijgen, nou mooi voor ons. AMD krijgt zijn marktaandeel, wij onze nieuwe GPU's. Niks filantropisch, AMD fanboy of wil iets geloven. Gewoon een harde, zakelijke deal. Geld voor een product en de bijbehorende diensten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De feiten bespreken ipv. de uit de duim gezogen geruchten herkauwen ? Wat heb je aan al die geruchten die telkens een ander beeld schetsen ? Hetzelfde met de iPhone geruchten: er zal wel iemand iets juist hebben (per toeval of oprecht geweten), maar met al die geruchten-spam weet je toch niet wat waar is en wat niet.The Chosen One schreef op donderdag 4 mei 2017 @ 17:31:
Wat moet een techsite dan? Alleen maar officiële berichten van AMD zelf posten?
Het ligt er maar aan wat je eraan hebt met al die "informatie". Ik zou het eerder meer als "ruis" omschrijven, aangezien het letterlijk en masse geplaatst wordt en willekeurig is qua inhoud én oorsprong.Anoniem: 298195 schreef op donderdag 4 mei 2017 @ 17:57:
[...]
Aan de ene kant vind ik het fijn dat ze snel infomatie posten
Dan zal wellicht de RX Vega voor jou ook duurder uitvallenhaarbal schreef op donderdag 4 mei 2017 @ 18:00:
[...]
Een 1080Ti met een acceptabele koeler is 800 euro, rest van het "aanbod" is niet zo relevant imo.

D'r is nog een infinitesimale kans dat ik er 1 winPhuncz schreef op donderdag 4 mei 2017 @ 18:07:
Dan zal wellicht de RX Vega voor jou ook duurder uitvallen

Mechwarrior Online: Flapdrol
Van de kloksnelheid weten we echt nog heel weinig. Dat doe op 1600 lag in een benchmark zegt niet dat dat bij de release ook zo is. Verder spreken andere geruchten over een die size van rond de 470-480 mm2 dus dat weten we ook niet zeker. Het enige dat we echt weten is dat Vega bij de demo een aantal maanden geleden 10-20 procent sneller was dan een GTX 1080.DaniëlWW2 schreef op donderdag 4 mei 2017 @ 18:04:
[...]
Hoe lijken ze niet realistisch te zijn? Een 520mm, 14nm GPU van geoptimaliseerd GCN ontwerp met 4096 stream processors, met een gezien de Instinct MI25 realisctische clockspeed van 1600mhz zal rond de GTX1080Ti uit moeten komen tenzij AMD iets gigantisch verknalt. Wat zien we hier? Die GPU die dit inderdaad lijkt te doen.
Het kan mij verder echt helemaal niks schelen
Overigens gaan de geruchten dat hij rond de $650 wordt, dat is inclusief belasting in euro's €730. De 1080 Ti is nu aan het zakken richting de €750, dus veel verschil zou dat dan niet uitmaken. Voor die prijs verwacht ik dan ook 1080 Ti prestaties.
[Voor 12% gewijzigd door wouterg00 op 04-05-2017 19:52]
Dit topic is gesloten.