Garwinski schreef op woensdag 24 februari 2016 @ 20:23:
Erg interessant dat ze het hebben over twee GPU's die automatisch samen gaan werken. Hier en daar hoorde je al wel dat onder dx12 crossfire of sli beter zou moeten lukken, maar dat de ontwikkelaar van het het spel/ de engine daar nu 100% voor verantwoordelijk was in plaats van AMD of Nvidia zelf. Als dit echter al sowieso AUTOMATISCH gebeurt binnen dx12, ben ik blij.
Dat gebeurt niet automatisch, denk dat je deze zin van HWI verkeerd begrijpt:
Ten slotte de betere implementatie van de multi-GPU mogelijkheid. DirectX 12 kan zelf verschillende videokaarten aansturen, zonder hulp van de drivers.
Wat ze bedoelen is dat multi-GPU ondersteuning niet meer de verantwoordelijkheid van de drivers is. Ze bedoelen niet dat dit
automatisch gebeurt.
Het is juist het eerste dat je zegt: engine bouwers zijn er verantwoordelijk voor. In DX11 hadden ze niet veel aan meerdere GPU's. Via wat omwegen is het wel mogelijk om een 2e GPU voor
iets in te zetten, maar niet renderen. Qua renderen kwam het er min of meer op neer dat ze de driver vertelden dat er een nieuw frame begon en de driver bepaalde vervolgens welke GPU de rendertaken voor dat frame uitvoerde. Heel lomp gezegd kwam het er op neer dat ze wel konden zien dat er "meerdere" GPU's aanwezig zijn, maar ze kunnen er maar 1 aansturen. Het werkt meer zoals load balancing op het web: 1 entry point (de driver) met meerdere backends (GPU's). En dat gebeurde vervolgens in principe via AFR (de ene GPU de oneven frames, de andere de even frames). Er zijn door de jaren heen wel enkele andere technieken kortstondig beschikbaar geweest (al dan niet via de drivers of hacks), maar AFR was tot nog toe de meest nuttige.
Met DX12 zit dat anders. De developer "ziet" daar gewoon 2 GPU's en kan beide volledig onafhankelijk aansturen. Als ze de ene triangle op GPU A en de andere op GPU B willen renderen, mag dat gewoon. De taak die de driver voorheen had valt nu volledig op de engine.
Dit is wat DX12 kan / doet met meerdere GPU's:
- Implicit Multi Adapter: kort gezegd, DX11 modus. Laat alles aan de driver over.
- Explicit Multi Adapter, unlinked: volledige controle over
alle GPU's. Geen beperkingen op de GPU's qua vendor of snelheid (men kan gewoon een Fury, 750 Ti en Iris combineren als men dat wil)
- Explicit Multi Adapter, linked: volledige controle over
alle GPU's, maar met wat beperkingen. De GPU's moeten min of meer dezelfde capaciteiten hebben (feature level vooral, vendor is voor zover ik weet niet beperkt).
kuusj98 schreef op donderdag 25 februari 2016 @ 00:33:
Dat het idle verbruik zo ontzettend hoog is bij de AMD GPU's was ook mijn beweegreden om nu voor nVidia te gaan, en een Fury was ofwel niet beschikbaar ofwel zodanig buiten een in mijn ogen redelijke prijs dat er bijna geen andere optie was.
RobinHood schreef op donderdag 25 februari 2016 @ 01:10:
Probleem bij AMD en multimonitor is [oa.] dat de memoryclock op 100% blijft staan, en dat trekt best wat prik bij zoveel ramchips. Volgens mij is dat ook echt iets voor die generatie chips, je ziet dat de Fury's wel gewoon naar beneden klokken, en dat idle-niet-multimonitor een 390 ook gewoon zuinig is [wel 4w zuiniger dan een GTX970]
Er moet eigenlijk ook bij vermeld worden dat Nvidia's zuinige implementatie andere problemen heeft. Als je een kaart volledig stock draait en hij dus naar P8 mag zakken in Windows dan heb je een hoop lag. Zolang je niets op je 2e/3e scherm hebt staan heb je nergens last van, maar zodra daar iets op staat kakt de hele handel in naar bijzonder onprettige framerates (Windows draait normaal gesproken gewoon netjes 60 FPS). De fix is simpel, zorgen dat de GPU niet zo laag zakt. Ik durf niet te zeggen of dat nu met de huidige driver en Maxwell nog steeds het geval is (aangezien ik deze nooit stock heb gedraaid

), maar in elk geval met m'n 770 had ik er nog last van en dat verhaal begon al met G80.
Dat zuinige is dus leuk op papier, maar in de praktijk is het niet zo

Nee joh, helemaal niet
50W zou nog mee vallen. Met een 290X (512-bit, 1250 MHz) mag je al op die 50W rekenen. Met die 384-bit/1750 MHz op een 980 Ti zit je eerder naar zo'n 70-80W te kijken.
Edit om je een idee te geven van hoe hongerig GDDR5 is: een "normale" GDDR5 chip is een 170-pins package. Van die 170 zijn er slechts 67 voor data. De andere 100+ zijn allemaal voor power+aarde.