Acties:
  • 0 Henk 'm!

  • nlootens
  • Registratie: Maart 2020
  • Laatst online: 14-03-2023
Beste tweakers,

Ik ben een jonge computer fanaat die graag van alles onderzoekt en uitprobeert. Alleen zit ik met mijn huidig projectje een beetje vast en schakel ik daarom jullie hulp in.

WAT:
Dit zijn mijn specs: AMD Ryzen 5 3600, 16GB ram DDR4, GTX 1060 6GB, 2x SSD, PRIME B450-Plus, externe focusrite geluidskaart. In dit systeem wil ik een R9 280x bijsteken. Beide videokaarten worden herkent door windows en ik heb achteraf de drivers opnieuw geïnstalleerd. De R9 280x word weergevel als GPU0 en de GTX 1060 word weergevel als GPU1. En mijn doel is om de 1060 te gebruiken voor gaming en de R9 280x te gebruiken voor de achtergrond taken zoals Discord, Medal, YT,... De 1060 heb ik in het bovenste PCIE slot gestopt en de R9 280x daar onder, omdat ik denk dat dat beter is met de koeling.

PROBLEEM:
Het probleem is nu dat die R9 280x momenteel voor saus in mijn systeem zit want die doet helemaal niets. Alle taken worden uitgevoerd door de 1060 ook al staat de R9 280x als eerste GPU.

Wat ik al heb geprobeerd:
Ik heb al van alles opgezocht en 1 van die oplossing was dat ik naar mijn grafische instellingen moest gaan en daar de game of programma moest toevoegen en met opties wijzigen welke prestaties ik wil wat dan zo een gpu moet kiezen. Maar dat werkt dus niet want dan krijg ik dit
Afbeeldingslocatie: https://tweakers.net/i/P7gDR7JIjJss1dAdqZiEcJ9q-SM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/TcGXhQB2KeTbPrregDxkSleD.png?f=user_large


OPLOSSING?
Hoe kan ik er voor zorgen dat ik bepaalde programma's aan mijn 280x toewijs zodat ik volle bak kan gamen op mijn 1060?
Bestaat er toevallig geen programma waar ik kan kiezen welke gpu ik voor welk wil gebruiken?


Alle oplossingen, ideeën en opmerkingen zijn welkom, maar pls spaar me een beetje :*)
Jullie zijn alvast bedankt!

Lotus


Acties:
  • +1 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Voor zover ik weet, en ik je vraag goed begrijp, kan dit niet. Je kan wel twee kaarten op verschillende aansluitingen op je monitor aansluiten, maar je kan er maar 1 tegelijk weergeven (even afgezien van iets als splitscreen of picture in picture dat sommige monitoren vast ondersteunen).

Makkelijkste is om 2 schermen te nemen. Op de ene sluit je die GTX 1060 aan en gebruik je om te gamen. Op de andere die 280x en gebruik je voor die andere software. Zo deden we dat vroeger ook, toen kaarten nog maar 1 output hadden (VGA toen :P).

Vermoedelijk is het wel mogelijk om een 2e kaart, die niet is aangesloten op een scherm, taken als renderen of mining te laten doen. Daarbij gaat het namelijk puur om het uitvoeren van 'berekeningen' en niet om het weergeven van informatie op een scherm.

Vraag me wel af hoe zinvol dit is. Maar als je lekker wilt experimenteren moet je het natuurlijk vooral doen!

[ Voor 11% gewijzigd door sOid op 19-02-2022 11:23 ]


Acties:
  • 0 Henk 'm!

  • Uszka
  • Registratie: Maart 2018
  • Laatst online: 21:48
Ivm drivers is het sws niet aan te raden 2 totaal verschillende videokaarten in één systeem te gebruiken. 2x GeForce of 2x Radeon gaat prima maar een GeForce en een Radeon met elkaar werkt zelden goed. Verkoop de 280X en haal een GT 1030 of GTX 1050.

Acties:
  • +1 Henk 'm!

  • d22wth
  • Registratie: Juni 2015
  • Laatst online: 16-05 20:51

d22wth

... 𝗁𝖾𝗍 𝗁𝗈𝖾𝖿𝗍 𝗇𝗂𝖾𝗍 𝗉𝖾𝗋𝖿𝖾𝖼𝗍

Snap sowieso niet helemaal waarom je voor discord/yt/enz. een aparte GPU wilt?

𝚒𝙿𝚑𝚘𝚗𝚎 16 𝙿𝚛𝚘 - 𝖱7 5800𝖷3𝖣 - 𝖷63 - 𝖬𝖲𝖨 𝖱𝖳𝖷2070𝖲 - 32𝖦𝖡-3800 - 2𝖳𝖡 𝖲𝖲𝖣 - 𝖧510 𝖤𝗅𝗂𝗍𝖾


Acties:
  • 0 Henk 'm!

  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 21:06
d22wth schreef op zaterdag 19 februari 2022 @ 15:50:
Snap sowieso niet helemaal waarom je voor discord/yt/enz. een aparte GPU wilt?
Inderdaad. Alsof het de Geforce GTX 1060 ook maar iets kan schelen dat er nog een 2e monitor aanhangt met wat 2D-beeld.

Acties:
  • 0 Henk 'm!

  • d22wth
  • Registratie: Juni 2015
  • Laatst online: 16-05 20:51

d22wth

... 𝗁𝖾𝗍 𝗁𝗈𝖾𝖿𝗍 𝗇𝗂𝖾𝗍 𝗉𝖾𝗋𝖿𝖾𝖼𝗍

White Feather schreef op zaterdag 19 februari 2022 @ 16:50:
[...]

Inderdaad. Alsof het de Geforce GTX 1060 ook maar iets kan schelen dat er nog een 2e monitor aanhangt met wat 2D-beeld.
Voor je ‘game-prestaties’ gaat een gpu load van discord niks schelen

𝚒𝙿𝚑𝚘𝚗𝚎 16 𝙿𝚛𝚘 - 𝖱7 5800𝖷3𝖣 - 𝖷63 - 𝖬𝖲𝖨 𝖱𝖳𝖷2070𝖲 - 32𝖦𝖡-3800 - 2𝖳𝖡 𝖲𝖲𝖣 - 𝖧510 𝖤𝗅𝗂𝗍𝖾


Acties:
  • 0 Henk 'm!

  • skelleniels
  • Registratie: Juni 2005
  • Laatst online: 14:42
Het is eerder je CPU die "last" heeft van die achtergrondtaken. Het zal meer opleveren als je cpu en videokaart 5% overclocked.

http://specs.tweak.to/16567


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:59

Damic

Tijd voor Jasmijn thee

Dus je hebt maar 1 scherm?

In ieder geval moet er een scherm of scherm dongle aan de kaart hangen anders kun je er niets mee (driver moet een scherm zien), maar dan nog kan het niet want de kaart zou in een modus moeten werken dat de taken terug naar de eerste gpu gaan.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • nlootens
  • Registratie: Maart 2020
  • Laatst online: 14-03-2023
Ik heb op het moment 2 beeldschermen, en ik heb al geprobeerd mijn 2de aan te sluiten op mijn 280x. Het gevolg was dan dat alles niet echt heel smooth liep. Wat ik wel heb kunnen doen is Medal (opname software) kunnen instellen op mijn 280x waardoor mijn gameplay al verbeterd was. Alleen is mijn temperatuur van mijn 1060 boven de 80° gestegen tijdens het gamen wat niet zo heel gezond is. Dus voorlopig hou ik de 280x even uit mijn pc tot ik extra fans heb geïnstalleerd om zo hopelijk de koeling te verbeteren. Ik ben nu aan het kijken om de 280x te verkopen en mogelijks een andere Nvidia in de plaats te halen. En voor de mensen die afvragen wat het doel ervan is? Het is gewoon een experiment en ik ben maar wat aan het uitproberen. En nu heb ik weer iets bijgeleerd en ben ik een ervaring rijker. Dankjewel daarvoor!

Maar ik wil jullie bedanken voor jullie reacties en het snelle reageren!

Lotus


Acties:
  • +2 Henk 'm!

  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 21:06
Als je nu eens gewoon die 10 jaar oude kaart (280x is een opgevoerde 7970 uit januari 2012) uit je systeem gooit en gewoon met je 4 jaar jongere kaart aan de slag gaat?

De 280x heeft veel slechtere ondersteuning voor video-encoding dan de NVidia en die encoding heeft nauwelijks invloed op 3-d prestaties.

Bovendien zit hij in een pci-2.0-4x-slot, dat ook nog eens via de chipset loopt. Geen wonder dat het voor geen meter draait. En door deze combi heb je ook nog eens 2 verschillen gpu-drivers op je systeem draaien.

Er is een reden dat deze constructie nooit gebruikt wordt.

1) schoon je systeem met DDU.
2) gooi de 280x er uit. Die vreet stroom en zit je 1060 op te stoken
3) installeer een verse driver voor de 1060.

Klaar

Acties:
  • 0 Henk 'm!

  • JEROENrgfgf
  • Registratie: November 2009
  • Laatst online: 14-05 14:14
Waarom gebruik je geen ShadowPlay om op te nemen trouwens? Heeft nauwelijks impact op performance en je kunt hem zo instellen dat je automatisch clips kunt opslaan van recente gameplay.

Acties:
  • 0 Henk 'm!

  • Umbrah
  • Registratie: Mei 2006
  • Nu online

Umbrah

The Incredible MapMan

... of gewoon OBS waar je kan configureren of je CPU, of GPU encoding gebruikt.

Ben het overigens eens met de rest van de posters hier:

- Twee merken GPU's door elkaar is in consumenten-wereld best lastig
- De oude GPU slurpt nogal wat stroom en mist wat features waardoor het niet de beste 'versneller' is
- Je GPU's kunnen onderling geen framebuffer uitwisselen: hoewel je taken misschien "GPU-voor-compute" kan uitbesteden (renderen, video encoden -- wat de 280x niet echt kan) door een GPU te assignen (wat overigens in de app zelf gebeurd dan, ken Medal niet maar het lijkt me nogal bloatware wat niks kan wat iets lichters als OBS niet kan). In OBS kan ik bijvoorbeeld kiezen tussen NVENC, QSV, CPU, etc, etc... QSV is de Intel IGP, NVENC heeft meer opties waar je mocht ik een tweede NVENC-capable nVidia GPU hebben (momenteel niet, een van mijn rigs heeft af-en-toe een Quadro) dan kan je ook kiezen welke GPU het doet (net zoals je in een CUDA app de CUDA-GPU kan toewijzen). Echte rendering taken kan alleen maar door de vensters op een monitor te zetten die aangesloten is op de GPU: je hebt géén nVidia Optimus oid.

Let wel op dat je slechts 16 PCIe lanes vanaf je CPU hebt voor je GPU, ik weet niet waar je 'onderste slot' op is aangesloten, maar de kans bestaat op de PCH en dat er dus elektrisch 4 lanes aangesloten zijn (en nog indirect, gedeeld met S-ATA/USB ook), en je één van je GPU's dus op de handrem hebt. Mocht het gedeeld zijn met de andere GPU (in een "SLI" 2x8 configuratie) dan heb je beiden op de handrem.

Persoonlijk raad ik dit project puur voor praktisch af; de 1060 is meer dan capabel om met iets als OBS alles te doen qua gpu encoding, en de RX280x kan dat niet. Bovendien is het verre van een energie zuinige oplossing, de RX280x heeft een TDP van 250W. De 1060 zit op 120W maar kan turbo-en. Net zoals je CPU: een stevige 800W voeding zal ineens geen luxe zijn in zo'n configuratie.

Als tweakproject is het misschien wel boeiend :D -- maar verwar het niet met optimus zoals de screenshot die je toonde.
Pagina: 1