Crossfire setup: R9 290x met Gigabyte g1 sniper b5 bord

Pagina: 1
Acties:

  • LAGMK
  • Registratie: December 2013
  • Laatst online: 22-02 14:59
Hey!

Ik wil binnenkort mijn oude Dell S2309W monitor gaan vervangen, waarschijnlijk voor de Iiyama ProLite B2888UHSU - 4K HD Monitor. Dat verschil ga ik wel zien ;-)
(Doel is trouwens gaming en films)

Nu heb ik de volgende build:

#ProductPrijsSubtotaal
1Intel Core i5 4570 Boxed€ 169,99€ 169,99
1Gigabyte G1.Sniper B5€ 66,95€ 66,95
1MSI Radeon R9 290X 4GD5€ 505,-€ 505,-
1Seagate Barracuda Green ST2000DL003, 2TB€ 0,-€ 0,-
1Gelid Solutions Tranquillo Rev.2€ 21,95€ 21,95
1Crucial Ballistix Tactical BLT2C4G3D1608ET3LX0CEU€ 67,95€ 67,95
1Samsung SH-224DB Zwart€ 13,-€ 13,-
1Cooler Master VS V650S€ 81,95€ 81,95
1Samsung 840 EVO 500GB€ 192,-€ 192,-
Bekijk collectie
Importeer producten
Totaal€ 1.118,79


Ik heb uiteraard al het forum etc doorgeploegd, en ik ben me ervan bewust dat 1 videokaart onvoldoende is om 4k te gaan draaien. Daarom ben ik van plan een tweede R9 290x in crossfire erbij te gaan zetten.
Met 500,- voor het scherm en 300,- voor de kaart zie ik dan een hele verbetering voor een redelijke prijs denk ik zo.

Voor zover de intro; komt ie:

Is het Sniper moederbord wel geschikt voor deze setup? Ik weet dat het qua ingangen voor de kaarten mogelijk is. Ik ben wel een beetje technisch, maar als het over mogelijke problemen in de snelheid van PCI lanes gaat - in combinatie met crossfire begin ik de draad kwijt te raken zeg maar :P

  • 3L3ktr1k
  • Registratie: December 2013
  • Laatst online: 12:07
Dat gaat prima, dan draaien beide kaarten in 8x, in plaats van 1 in 16x.

Dan heb je een hele goede game ervaring hoor!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 24-02 21:21
Als je het optimale uit een Crossfire-opstelling wilt halen kun je beter investeren in een ander moederbord. De Gigabyte G1.Sniper B5 biedt 'slechts' ondersteuning voor Crossfire-opstellingen in x16/x4 en dat is volgens velen op het internet (lees bijvoorbeeld: Guru3D) niet aan te raden i.v.m. tegenvallende prestaties en schijnbaar opvallende 'stuttering' in het beeld.

[ Voor 5% gewijzigd door Yonix op 22-09-2014 18:31 ]


  • TerrorDanny94
  • Registratie: Mei 2014
  • Laatst online: 10-07-2022
Heb je wel een goeie psu? Want die coolermaster gaat het niet treken. Dus word nog is 150 voor goeie voeding 800watt klink beter voor zo heet hoofd je heb msi r9 290x he misschien slim om die 290x te verkopen en 2x 290 te kopen en van dat geld dat je bespaard in dikkere voeding en kan je als nog je 4k schermpje hebben

  • dion_b
  • Registratie: September 2000
  • Laatst online: 10:30

dion_b

Moderator Harde Waren

say Baah

Ahum:
Aankoopadvies vragen mag weer.. (maar lees eerst dit!)

Lees het dan ook... :o

Aankoopadviesvragen horen in de aankoopadviesfora.

Move VB->CAA

Oslik blyat! Oslik!


  • MacPoedel
  • Registratie: Oktober 2007
  • Laatst online: 17:32
De B85 chipset kan de 16 PCIe 3 lanes niet splitsen naar x8/x8. Je sluit dus de eerste videokaart aan op PCIe 3.0 x16 en de tweede op PCIe 2.0 x4. PCIe 2.0 heeft maar ongeveer de helft van de bandbreedte per lane van PCIe 3.0, dus de tweede videokaart gaat maar een 8ste van de bandbreedte van de eerste hebben. Op zich is dat nog steeds best veel bandbreedte, denk niet dat je veel fps hiermee gaat verliezen, maar door het verschil tussen de videokaarten ga je frame pacing problemen krijgen. Bij de R9 290X gaat de Crossfire verbinding ook nog via XDMA (de PCIe verbinding dus en geen Crossfire brug), dus dat belast je PCIe 2.0 nog meer.

Ik zou dat bordje verkopen, volgens mij krijg je er nog een mooi prijsje voor want die G1.Sniper B5 is nog heel goed (voor wie niet overklokt en geen Crossfire of SLI wilt doen), en in de plaats een Z87 of Z97 moederbord kopen. Voordeel is dat je waarschijnlijk al de laatste BIOS update hebt, dus iemand die je moederbord wilt combineren met een Haswell Refresh processor moet zich geen zorgen maken.

@dion_b: Ik zag in deze post eerlijk gezegd geen aankoopadvies, de vraag was eerder of je Crossfire kunt toepassen op dat moederbord (dat ie dus al heeft), niet welke monitor/videokaart/moederbord het beste is. Maar mod is baas en anders had ik de vraag waarschijnlijk toch niet zien passeren.

[ Voor 12% gewijzigd door MacPoedel op 24-09-2014 09:52 ]


  • Imprezzion
  • Registratie: Juni 2010
  • Laatst online: 23-02 10:19

Imprezzion

E92 320i & 307CC

Je gaat wel flink performance missen hoor met een 290X op 2.0 x4. Ander bord zal sowieso moeten.
Maar, de voeding kan het op zich wel trekken zo lang je niet overclocked. Je zit op het randje maar het kan wel.

[ Voor 7% gewijzigd door Imprezzion op 24-09-2014 09:57 ]

~ 9800X3D @ 5.5Ghz eCLK + PBO ~ Arctic LF2 240 CPU ~ Crosshair X670E Gene ~ 32GB Dominator Titanium @ 6400C26 FCLK 2200 ~ Zotac RTX 5080 SOLID OC @ 3285 core 18000 VRAM ~ Corsair 2500X ~ Dark Power Pro 11 1000w ~


  • LAGMK
  • Registratie: December 2013
  • Laatst online: 22-02 14:59
Dank voor de intelligente opmerkingen! :-)

Ik had uiteraard stiekem gehoopt op iets beter nieuws (2e kaartje erin en gáán :p) maar helaas.
De meerkosten van een extra bord (waarbij ik dan misschien voor t gemak de processor ook mee verkoop) en voeding maken dat het totaalplaatje om op 4k te kunnen gamen nu uitkomt op +1100 euro. Dat is me nu nog iets te gortig, dus dat wordt sparen denk ik. Beetje de tweedehandsjes in de gaten houden.

Weer wat geleerd over de crossfire en PCI lanes :p

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 17:13

DeNachtwacht

youtube.com/@hisrep

Mag ik je ook eraan herinneren dat de MSI R9 290X alleen 4K ondersteunt op 50Hz. ook geen onbelangrijk detail als je er 2 naast elkaar zou zetten.

youtube.com/@hisrep


  • Thomg
  • Registratie: September 2010
  • Laatst online: 24-02 21:37

Thomg

Aww yiss

Imprezzion schreef op woensdag 24 september 2014 @ 09:56:
Je gaat wel flink performance missen hoor met een 290X op 2.0 x4. Ander bord zal sowieso moeten.
Maar, de voeding kan het op zich wel trekken zo lang je niet overclocked. Je zit op het randje maar het kan wel.
Mwa, schat dat dit wel overschat wordt.

Heb wel eens een 7970 Lightning Boost crossfire gedraaid, eigenlijke verbruik lag zo rond de 550 Watt, lager dan verwacht.

  • LAGMK
  • Registratie: December 2013
  • Laatst online: 22-02 14:59
Dank voor de tip Nachtwacht.

Met betrekking tot power consumption: met 2x een R9 290x in crossfire heb je gewoon behoefte aan een 1000W voeding. In onderstaande review komen ze met de iets zuinigere R9 290 al op een voeding van 800W.
http://www.guru3d.com/art...-review-benchmarks,4.html

  • Thomg
  • Registratie: September 2010
  • Laatst online: 24-02 21:37

Thomg

Aww yiss

LAGMK schreef op vrijdag 26 september 2014 @ 21:42:
Dank voor de tip Nachtwacht.

Met betrekking tot power consumption: met 2x een R9 290x in crossfire heb je gewoon behoefte aan een 1000W voeding. In onderstaande review komen ze met de iets zuinigere R9 290 al op een voeding van 800W.
http://www.guru3d.com/art...-review-benchmarks,4.html
Je misspelde 700.

  • LAGMK
  • Registratie: December 2013
  • Laatst online: 22-02 14:59
Met een r9 290x die nog eens meer verbruikt dan de 290, zit je zo aan de 1000w... (Zie review) Als ik dat mis heb hoor ik het uiteraard graag, maar aub ietsjes meer bijdragen Thomg ;-)

  • Thomg
  • Registratie: September 2010
  • Laatst online: 24-02 21:37

Thomg

Aww yiss

LAGMK schreef op zondag 28 september 2014 @ 03:53:
Met een r9 290x die nog eens meer verbruikt dan de 290, zit je zo aan de 1000w... (Zie review) Als ik dat mis heb hoor ik het uiteraard graag, maar aub ietsjes meer bijdragen Thomg ;-)
http://www.guru3d.com/art..._review_benchmarks,4.html

550W voor twee kaarten, 1000W voor twee kaarten is dus overkill.

  • LAGMK
  • Registratie: December 2013
  • Laatst online: 22-02 14:59
Touché, my bad!

Dat is in ieder geval wel goed nieuws. Denk er nu over om een tweedehands Republic of Gamers scherm te kopen, met dan misschien wél een tweede 290x in crossfire. Niet de meest efficiënte setup, maar wel qua kosten :P

  • maks11223344
  • Registratie: Juni 2011
  • Laatst online: 03-02-2023
Als je 2 kaarten heb (500/700watt afhankelink van je clocks en je heb een i7 overclocked draaien /400/500watt denk ik dat een 1200watt voedinkie lang zo gek nog niet is

  • Thomg
  • Registratie: September 2010
  • Laatst online: 24-02 21:37

Thomg

Aww yiss

maks11223344 schreef op zondag 28 september 2014 @ 23:43:
Als je 2 kaarten heb (500/700watt afhankelink van je clocks en je heb een i7 overclocked draaien /400/500watt denk ik dat een 1200watt voedinkie lang zo gek nog niet is
Je wilt een crossfire setje nog meer gaan overklokken dan ze geleverd worden?
Dat lijkt me niet erg verstandig qua hitte en geluid.

En sowieso, een intel proc verbruikt niet zo veel vermogen.

700W is voldoende, 800W is safe.

  • MacPoedel
  • Registratie: Oktober 2007
  • Laatst online: 17:32
maks11223344 schreef op zondag 28 september 2014 @ 23:43:
Als je 2 kaarten heb (500/700watt afhankelink van je clocks en je heb een i7 overclocked draaien /400/500watt denk ik dat een 1200watt voedinkie lang zo gek nog niet is
Als je een i7 zodanig overclocked krijgt dat ie 400-500W verstookt in plaats van de oorspronkelijke 85-95W, dan ben je ook al bezig met extreme koeling. Is helemaal geen realistisch scenario dus. Een Crossfire setup overklokken is verder ook alleen mogelijk als de videokaarten ver genoeg uit elkaar staan dat ze niet elkaars warme lucht opzuigen. De TS heeft een B85 moederbord en mag al blij zijn als de stock snelheden haalbaar zijn, en overklokken van de cpu zit er daar dus ook niet in. Een extreme voeding aanraden is dus niet nodig.

@LAGMK: Ik zou geen RoG scherm aanraden, dat is een TN paneel (voor zover ik weet is er tot nu toe alleen de RoG Swift PG278Q?). Er is wel wat belangrijkers dan 1ms refresh rates en 144Hz is weinig haalbaar op 1440p tenzij je instellingen terugschroeft, zelfs met 2 R9 290X'en. Dan heb je misschien een vloeiend beeld, maar de kleuren moeten ook juist zijn en kijkhoek is ook belangrijk zelfs al zit je recht voor het scherm, zeker bij een groter scherm. En wat imo het grootste voordeel is van dat scherm is de ondersteuning voor GSync, maar je hebt toch geen Nvidia gpu.
Pagina: 1