CJ's Radeon Info & Nieuwsdiscussie - Deel 129 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 ... 12 Laatste
Acties:
  • 53.105 views

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 02-10 20:06
Hier een plaatje van de E3 conferentie tijden (AMD zit bij de laatste)
Afbeeldingslocatie: https://i.imgur.com/wlOxbhu.png

EDIT

Hieronder nog een uitleg over de DX12 feature levels en DX12 Tier levels. Hopelijk is dan de kous af.
http://www.bitsandchips.i...-levels-of-the-directx-12

[ Voor 47% gewijzigd door LongBowNL op 07-06-2015 16:41 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Werelds schreef op zondag 07 juni 2015 @ 11:59:
[...]

Dat ze tegen Resource Binding Tier 3 (denk dat je dat bedoelde?) hebben gelobbyd zal vast wel.
Dat bedoelde ik inderdaad. Het is namelijk frappant dat dit op een gegeven moment dus simpelweg verdwijnt.
ROV komt echter bij Intel vandaan (zoals ik al zei, ROV = PixelSync = Intel) :)

Zie ook https://forum.beyond3d.com/posts/1848876/
Ik vrees dat het nVidia geen ene malle moer doet waar het vandaan komt, maar wel dat ze er een 'voordeeltje' mee kunnen krijgen/grijpen. Door het voor elkaar te krijgen dat Microsoft een DX12.1 extentie uitbrengt met daarin een paar technieken waarvan ze weten/denken dat AMD er mijn zijn nieuwe GPU niet aan kunnen voldoen (hardwarematig), creeeren ze een marketingvoorsprong. Het maakt hen niet uit of het een gefabriceerde voorsprong is, want de mindset is al in hun voordeel.

Boven alles is het eigenlijk bijzonder dat een extentie al uit is nog voordat de hoofd-API uberhaupt officieel gelanceerd is. Voor zover ik mij kan heugen is dat nog nooit eerder gebeurd.

Acties:
  • 0 Henk 'm!

  • Maffie500
  • Registratie: Januari 2010
  • Laatst online: 30-09 19:25
enchion schreef op zondag 07 juni 2015 @ 12:25:
[...]


Misschien wel maar dat zijn dan reviews waar je met enige waarschijnlijkheid weinig aan hebt, reviews kunnen dan nog niet door de grote populatie geverifieerd worden.

De echte test begint pas met 29Juli- en daarna nl.

Gaat er dus wel naar uitzien dat door deze vaagheids actie er voor gaat zorgen dat het aankopen van een nieuwe GPU-Kaart het beste nog ongeveer 3 maanden uitgesteld kan worden wat niet fijn is voor AMD wat dat betreft. (we weten eigenlijk niet wie wat ondersteunt en in hoeverre wat ze ondersteunen relevant is)

AMD zou deze slag moeten winnen vanwege de XBOX en Playstation, maarja het is dus nog afwachten wat de game developers echt gaan doen.

Verder zal de E3 wel alleen (bijna uitsluitend) gaan over Windows 10 en DX12,
maw genoeg "informatie" oftewel ->marketing-presentaties<- omtrent die twee factoren.
Komt deze kaart dan pas eind juli op de markt?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

dahakon schreef op zondag 07 juni 2015 @ 16:43:
Ik vrees dat het nVidia geen ene malle moer doet waar het vandaan komt, maar wel dat ze er een 'voordeeltje' mee kunnen krijgen/grijpen. Door het voor elkaar te krijgen dat Microsoft een DX12.1 extentie uitbrengt met daarin een paar technieken waarvan ze weten/denken dat AMD er mijn zijn nieuwe GPU niet aan kunnen voldoen (hardwarematig), creeeren ze een marketingvoorsprong. Het maakt hen niet uit of het een gefabriceerde voorsprong is, want de mindset is al in hun voordeel.
Blijft natuurlijk aparte situatie dat AMD met mantle de basis heeft gelegd voor DX12 maar in de pers het tot nu toe lijkt of nVidia de beste suppport heeft. Toch knap van nVidia. Soort koekoeksjong is het :+

Waar ging dit mis.... :?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:21
Help!!!! schreef op zondag 07 juni 2015 @ 19:21:
[...]

Blijft natuurlijk aparte situatie dat AMD met mantle de basis heeft gelegd voor DX12 maar in de pers het tot nu toe lijkt of nVidia de beste suppport heeft. Toch knap van nVidia. Soort koekoeksjong is het :+

Waar ging dit mis.... :?
Maxwell 2 heeft ook de "beste support" als het gaat om features.

Maar goed, de 290 en 285 supporten het merendeel ook, fiji voegt er waarschijnlijk nog wat aan toe, en de vraag is natuurlijk wanneer die features in games gebruikt gaan worden. Tegen die tijd heb je misschien wel 980Ti performance voor 250,-

Laat ze eerst maar eens dx12 games maken met lage cpu overhead zonder de mantle kinderziektes.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

haarbal schreef op zondag 07 juni 2015 @ 19:41:
[...]

Maxwell 2 heeft ook de "beste support" als het gaat om features.

Maar goed, de 290 en 285 supporten het merendeel ook, fiji voegt er waarschijnlijk nog wat aan toe, en de vraag is natuurlijk wanneer die features in games gebruikt gaan worden. Tegen die tijd heb je misschien wel 980Ti performance voor 250,-

Laat ze eerst maar eens dx12 games maken met lage cpu overhead zonder de mantle kinderziektes.
Maar zelfs Maxwell 2 heeft nog niet alles, dat zal waarschijnlijk pas weer de volgende generatie worden.
..... tadum "Battle of the Features!".

Vond deze post nog http://www.gamedev.net/to...ulkanmantle/#entry5215116.
While feature level 12.0 looks reasonable (All GCN 1.1/1.2 and Maxwell 2.0 should support this - dunno about first generation of Maxwell), feature level 12.1 adds only ROVs (OK) and tier 1 of conservative rasterization (the most useless!) mandatory support.
I will not go into explicit details (detailed information should be still under NDA), however the second feature level looks tailor-made for a certain particular hardware (guess what!).
Op wie zou hij hier duiden? Pascal of Fiji?

Heeft Vulkan feature levels? Voor zover ik het begrijp hebben ze een van de oudere OpenGL gepakt en dat als minimale voor Vulkan te nemen om daarmee een groot gedeelte van de markt aan te kunnen spreken. Ik dacht dat dit OpenGL 4.1 en hoger was.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

Maffie500 schreef op zondag 07 juni 2015 @ 18:51:
[...]


Komt deze kaart dan pas eind juli op de markt?
Grr, ik ging er ook vanuit dat hij gewoon gereleased word op of kort na de 16de juni.
Ik heb echt een kalender gemaakt en ben iedere dag aan het afstrepen tot de 16'de en dan staat er de 24'ste JULI in een post?

Was dat een foutje of moeten we echt nog 1,5 maand wachten?

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:21
Ik hoop de dag na dat e3 pc gaming ding.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
kuusj98 schreef op zondag 07 juni 2015 @ 20:40:
Was dat een foutje of moeten we echt nog 1,5 maand wachten?
29 juli is de publieke release van Windows 10 en ook de eerste datum dat je met DX12 kan spelen, aangezien MS heeft besloten DX12 pas op de release datum toe te voegen.

Daarbij, voordat je weet welke reviews te vertrouwen zijn of volledig zijn ben je zelfs wel een aantal weken verder.

Maw half Augustus weet je pas wat de werkelijkheid is. (als er dan al spellen beschikbaar zijn die DX12 goed gebruiken, zoniet dan wordt het misschien nog een maandje erbij.)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • r3solution
  • Registratie: Juni 2010
  • Niet online
LongBowNL schreef op donderdag 04 juni 2015 @ 19:23:
*Dum tumdumdumdum (Met een beetje fantasie is dit het Intel deuntje)

Ik denk dat heel veel mensen die wel kennen. Dat is dus een goede zet geweest van Intel op marketinggebied. Ik zou persoonlijk niet eens weten wat de slagzin van AMD is.......
Ik moet denken wat hier aan het eind gezegd wordt: >:)

Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op zondag 07 juni 2015 @ 19:21:
[...]

Blijft natuurlijk aparte situatie dat AMD met mantle de basis heeft gelegd voor DX12 maar in de pers het tot nu toe lijkt of nVidia de beste suppport heeft. Toch knap van nVidia. Soort koekoeksjong is het :+

Waar ging dit mis.... :?
Dit ging mis bij de AMD marketing afdeling die nooit wat te besteden heeft..... :'(
AMD heeft daar altijd al een goede basis gehad in het niet weten te verkopen en promoten van hun meuk. :F

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
dahakon schreef op zondag 07 juni 2015 @ 16:43:
Boven alles is het eigenlijk bijzonder dat een extentie al uit is nog voordat de hoofd-API uberhaupt officieel gelanceerd is. Voor zover ik mij kan heugen is dat nog nooit eerder gebeurd.
Dat is inderdaad nog niet gebeurd nee. Wel is het al vaker gebeurd dat extensies bij Intel, Nvidia of AMD vandaan kwamen. Sterker nog, dat is met de meeste dingen in DX11 gebeurd.
haarbal schreef op zondag 07 juni 2015 @ 19:41:
de vraag is natuurlijk wanneer die features in games gebruikt gaan worden
Dat zal sneller zijn dan je denkt. Developers zitten al heel lang te wachten op veel van deze features.
Sp3ci3s8472 schreef op zondag 07 juni 2015 @ 20:24:
Heeft Vulkan feature levels? Voor zover ik het begrijp hebben ze een van de oudere OpenGL gepakt en dat als minimale voor Vulkan te nemen om daarmee een groot gedeelte van de markt aan te kunnen spreken. Ik dacht dat dit OpenGL 4.1 en hoger was.
Vulkan gaat op feature flags werken; zelfde als D3D, maar dan zonder feature level gezever.

OpenGL werkt met extensies; stukjes code die "buiten" de "standaard" API werken, maar wel aan de API standaarden voldoen. Die extensies krijgen vaak wel een vendor prefix, maar elke vendor mag ze implementeren. In de praktijk is het meestal zo dat Intel en AMD elkaars extensies wel implementeren; Nvidia vaak juist niet. Ik heb er hierboven al twee genoemd, maar ik zal ze er weer even uit pikken.

TR zit in een OpenGL extensie genaamd AMD_sparse_texture. Intel ondersteunt deze ook als ik me niet vergis. Deze extensie is equivalent aan TR Tier 2; Nvidia heeft deze nooit ondersteund maar heeft inmiddels wel EXT_sparse_texture2 toegevoegd, wat dan weer Tier 3 is (of Intel en AMD deze ondersteunen weet ik eerlijk gezegd niet, is ook niet zo boeiend momenteel :P).

ROV zit in INTEL_fragment_shader_ordering - AMD ondersteunt deze ook, Nvidia niet.

Er wordt vaak beweerd dat Nvidia "achter" OpenGL staat, maar dat is maar het halve verhaal. Zij zijn sneller met het ondersteunen van nieuwe OpenGL versies, dat is helemaal waar. Maar waar de andere twee elkaar vooral volgen als het op nieuwe features aan komt, doet Nvidia dit niet. Alle drie voegen regelmatig nieuwe extensies toe aan OpenGL, die uiteindelijk ook vaak als "algemene" extensie terug komen. GL_ARB_bindless_texture bijvoorbeeld komt van NV_bindless_texture; bindless texture is een deel van dat resource binding ;)

Waar het bij Nvidia mis gaat is dat zij het vertikken de extensies van anderen te ondersteunen. AMD_sparse_texture (TR) hierboven is een geweldig voorbeeld. Het zou voor OpenGL zo veel beter geweest zijn als Nvidia dat gewoon ondersteund had. In plaats daarvan doen ze er geen flikker mee tot ze het zelf ook in hun hardware hebben en voegen dan een iets uitgebreidere versie toe. Alle hardware die EXT_sparse_texture2 ondersteunt, ondersteunt ook AMD_sparse_texture, maar omdat Nvidia niet mee wil werken kunnen OpenGL ontwikkelaars er nog steeds geen donder mee.

Dat is ook de reden waarom OpenGL zo veel in populariteit is verloren. Voor sommige dingen moet je gewoon 4 of 5 feature flags controleren omdat je de oorspronkelijke vendor implementatie hebt, een uitbreiding daar op, wellicht een andere vendor's versie en dan uiteindelijk de "algemeen" geaccepteerde ARB* implementatie. Het kost gewoon heel veel tijd om met de kleine verschillen om te gaan, dat gezeik heb je in D3D niet. En ik wil nu niet zeggen dat het Nvidia's schuld is, maar zij zijn wel degenen die er het minst aan hebben gedaan om OpenGL in leven te houden.


* ARB was het "Architecture Review Board" - een groep mensen die nieuwe features goedkeurden. Tegenwoordig ligt dit bij de Khronos group, maar in de praktijk is het nog allemaal hetzelfde.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op zondag 07 juni 2015 @ 22:04:
[...]

Dat zal sneller zijn dan je denkt. Developers zitten al heel lang te wachten op veel van deze features.
Wat voor termijn denk je dan aan? Het gros van de games wordt op third party engines (Unreal, Unity, etc.) gemaakt. Die ontwikkelaars beginnen pas over DX12 na te denken nadat die engines het ondersteunen. Nou vermoed ik dat zeker Epic (makers Unreal) door MS wel op een of andere manier bij de ontwikkeling van DX12 betrokken zullen zijn, maar een dergelijke API in je engine inbouwen is toch behoorlijk ingrijpend, zeker omdat het CtM is, wat vorige DX versies niet waren. DX12 zal ongetwijfeld in een nieuwe versie van Unreal 4 ondersteund gaan worden, maar het zou mij verbazen als het binnen een paar weken na de release van Windows 10 al zo ver is.

Alle games voor dit najaar zijn al ver in hun ontwikkeling, die moeten zo eind augustus/begin september af zijn. Om daar na 29 juli nog DX12 support in te gaan bouwen is veel te laat, dat is al te kort om het nog fatsoenlijk te kunnen testen. Voor games voor voorjaar 2016 zou het in theorie kunnen, maar dat is ook al erg kort dag. Dat zullen hooguit basale dingen zijn. Het zou mij persoonlijk verbazen als games waarbij je echt een duidelijk verschil tussen DX11 en DX12 kunt zien eerder dan najaar 2016 gaan verschijnen, maar misschien heb ik het mis.

Hoe dan ook, volledige hardware ondersteuning komt sowieso pas in 2016. De performance van mijn 290 voldoet voor mij nog prima dus ik sla deze generatie lekker over. ;)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Verwijderd schreef op maandag 08 juni 2015 @ 00:08:
Wat voor termijn denk je dan aan? Het gros van de games wordt op third party engines (Unreal, Unity, etc.) gemaakt. Die ontwikkelaars beginnen pas over DX12 na te denken nadat die engines het ondersteunen. Nou vermoed ik dat zeker Epic (makers Unreal) door MS wel op een of andere manier bij de ontwikkeling van DX12 betrokken zullen zijn, maar een dergelijke API in je engine inbouwen is toch behoorlijk ingrijpend, zeker omdat het CtM is, wat vorige DX versies niet waren. DX12 zal ongetwijfeld in een nieuwe versie van Unreal 4 ondersteund gaan worden, maar het zou mij verbazen als het binnen een paar weken na de release van Windows 10 al zo ver is.

Alle games voor dit najaar zijn al ver in hun ontwikkeling, die moeten zo eind augustus/begin september af zijn. Om daar na 29 juli nog DX12 support in te gaan bouwen is veel te laat, dat is al te kort om het nog fatsoenlijk te kunnen testen. Voor games voor voorjaar 2016 zou het in theorie kunnen, maar dat is ook al erg kort dag. Dat zullen hooguit basale dingen zijn. Het zou mij persoonlijk verbazen als games waarbij je echt een duidelijk verschil tussen DX11 en DX12 kunt zien eerder dan najaar 2016 gaan verschijnen, maar misschien heb ik het mis.

Hoe dan ook, volledige hardware ondersteuning komt sowieso pas in 2016. De performance van mijn 290 voldoet voor mij nog prima dus ik sla deze generatie lekker over. ;)
In sommige gevallen slechts weken. SMS heeft intern al builds van pCARS op DX12 lopen, met zo'n 40% winst. Je hebt gelijk dat veel AAA games voor dit najaar op third party engines draaien en waarschijnlijk geen DX12 zullen hebben.

Sommige echter wel, met name de studio's die iets meer vrijheid hebben. DICE bijvoorbeeld is er ook al lang mee bezig en hoewel het niet naar BF4 komt, schrijf ik Battlefront niet af. Ze hebben Mantle al, de stap is voor hen minder groot. Ik zal Andersson morgen eens een tweet sturen, kijken of hij iets los laat. Hij heeft trouwens wel gezegd dat hij "hun" (Frostbite) games met DX12 als minimum wil hebben draaien met Holiday 2016; zegt genoeg over hoe belangrijk het is. Stardock is ook ergens mee bezig.

Unreal games zullen het langst duren helaas, omdat die games zelden zulke grote patches krijgen. Het zou in theorie echter wel kunnen, maar veel van die games krijgen überhaupt geen patches. Aan de andere kant heeft Nvidia daar wel en vinger in de pap. Afwachten dus.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

Het mooie deze keer met next directX is dat DX12 vooral de API vernieuwd is, dus zonder flinke GPU Hardware feature set. AL zijn er wel wat extra optionele features.

Dat houd in dat zowat de helft van de target groep al de hardware heeft.
Alleen dan vooral de lagere feature set.

Dat houd in dat voor DX12 ontwikkelen al van af release van de API al meer aantrekkelijk is voor dev's en de DX12 games dus ook wat rapper er komen.
Maar de DX 12_1 die markt is stuk kleiner.

Punt is er is in dit geval niet het kip en ei problem.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 28-09 09:11

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Ik snap niet dat ze de 390X durven uitbrengen met maar één DisplayPort aansluiting en aangezien er verder met geen woord over wordt gerept zal het wel gewoon weer DP1.2a zijn en niet DP1.3.

Het wordt tijd dat ze DVI net als VGA gewoon helemaal uitfaseren, in ieder geval op videokaarten. Als je nog schermen hebt die geen HDMI of DP hebben gebruik je maar een adapter... Het is absurd dat je op een high-end kaart als deze op twee van de vier aansluitingen zo wordt gelimiteerd. Zo kunnen de onderstaande resoluties/modi allemaal niet over dual link DVI (en dan is de kans nog vrij groot dat één van de twee aansluitingen maar single link DVI is).
  • 2560x1440 @ 144 Hz
  • 3440x1440
  • 3840x2160
  • 4096x2160
  • 5120x2880

Acties:
  • 0 Henk 'm!
Het probleem is ook dat veel mensen nog een monitor hebben met DVI en die adapters zijn soms verschrikkelijk duur. DisplayPort naar dual link DVI zit volgens mij nog altijd rond de 100 euro, dat is natuurlijk een vrij belachelijke prijs.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Maar er zijn maar weinig beeldschermen die dual link DVI nodig hebben en geen DisplayPort hebben (of een HDMI aansluiting die native resolutie ondersteunt). Dat zijn eigenlijk alleen maar de oude 30" schermen. De nieuwste daarvan waarvoor dat nog geldt is de Eizo ColorEdge CG303W. Een scherm dat al vierenhalf jaar oud is en ruim twee jaar niet meer wordt verkocht.

Maar dan nog, doe dan op z'n minst 2x DVI, 1x HDMI en 2x mDP. Dat heb ik ook op m'n XFX Radeon HD 7970 Black Edition Double Dissipation. En ik denk dat 1x DVI, 1x HDMI en 4x mDP of (3x DP) ook wel zou moeten passen. Het slaat nergens op om 2x DVI te hebben, zeker als je dan maar 1x DP hebt.

Acties:
  • 0 Henk 'm!
pricewatch: Qnix QX2710 Evolution II Zwart heb 'm zelf ook.

Maar ik zou zeggen schrijf een briefje naar de fabrikanten dat je meer DisplayPort wil zien. :p

[ Voor 25% gewijzigd door -The_Mask- op 08-06-2015 14:15 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 28-09 22:57
Ik denk niet dat Koreaanse import monitoren hiervoor mee tellen The Mask ;).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Of je gaat daisychainen met Displayport kabels.

http://multimonitorcomput...-monitors-quick-guide.php

http://tweakers.net/categ...ytjpKhibEJkriFqZklULy2FgA

Ik weet het, ondersteuning van de monitors is ook nog niet bepaald je van het, maar het is toch 1 van de sterke punten van Displayport, waardoor je technisch niet meer tich poorten achter op je videokaart of moederbord nodig hebt.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 04-10 15:25

Edmin

Crew Council

get on my horse!

Niet bepaald je van het... Voor een feature uit 2009 is de ondersteuning van monitoren eerder bedroevend te noemen: http://www.displayport.or...tal-displays-multi-stream

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 03-10 15:24
Kid Jansen schreef op maandag 08 juni 2015 @ 13:34:
Ik snap niet dat ze de 390X durven uitbrengen met maar één DisplayPort aansluiting en aangezien er verder met geen woord over wordt gerept zal het wel gewoon weer DP1.2a zijn en niet DP1.3.

Het wordt tijd dat ze DVI net als VGA gewoon helemaal uitfaseren, in ieder geval op videokaarten. Als je nog schermen hebt die geen HDMI of DP hebben gebruik je maar een adapter... Het is absurd dat je op een high-end kaart als deze op twee van de vier aansluitingen zo wordt gelimiteerd. Zo kunnen de onderstaande resoluties/modi allemaal niet over dual link DVI (en dan is de kans nog vrij groot dat één van de twee aansluitingen maar single link DVI is).
  • 2560x1440 @ 144 Hz
  • 3440x1440
  • 3840x2160
  • 4096x2160
  • 5120x2880
wat een belachelijke opmerking, er zijn meer schermen in omploop met vga,dvi,hdmi dan met display port. die is lang niet zo common onder goedkope schermen als je denkt. dus dan moet iedereen maar gewoon een nieuw scherm kopen?

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 04-10 15:25

Edmin

Crew Council

get on my horse!

Rustig aan, denk aan je bloeddruk.

Kid Jansen heeft natuurlijk wel een punt. DVI is behoorlijk legacy. Bovendien werkt DVI met een verloopje ook prima vanaf een HDMI poort, aangezien HDMI gewoon DVI+audio is. DVI poorten kosten ontzettend veel ruimte EN ze ondersteunen de moderne resoluties en refresh rates niet. Simpel toch?

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Daarnaast is DP > HDMI gewoon als kabel verkrijgbaar, daarvoor is niet eens een passieve adapter nodig, aangezien DP aansluitingen op videokaarten eigenlijk altijd DP++ zijn. Hetzelfde geldt voor DP > DVI-D single link.

Een nieuw scherm moeten kopen slaat sowieso nergens op, want je kan het altijd oplossen met adapterkabels. Dat is ook vrijwel altijd nog wel rendabel, want de schermen die DVI-D dual link nodig hebben en dus niet met een simpele en goedkope kabel afkunnen zijn zelf ook een heel stuk duurder.

Verder heb ik er vooral problemen mee dat er op de 390X maar 1x DP zit, niet dat er DVI op zit. DVI is wat mij betreft alleen een probleem als je daardoor niet minimaal 2x DP kan hebben, maar ik heb al laten zien dat dat gewoon mogelijk is, aangezien mijn videokaart 2x DVI, 1x HDMI en 2x mDP heeft.

Daarnaast is het nogal logisch dat er meer schermen zijn met DVI en VGA dan DP, want ze bestaan al veel langer en schermen kunnen behoorlijk lang mee gaan in vergelijking tot andere PC componenten. Maar als je op die manier gaat denken krijg je nooit iets nieuws door. Full HD TV's hadden ook al vrij snel meer HDMI aansluitingen dan SCART aansluitingen, terwijl er destijds waarschijnlijk ook nog meer AV-apparatuur was met SCART dan met HDMI.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Om dezelfde reden dat Kid Jansen het spijtig vind dat er maar 1 DisplayPort zit op de 390X, ben ik blij dat op de Fury er bijna alleen maar DisplayPorts zitten. En ik gebruik momenteel enkel DVI op mijn main PC. Af en toe moet je toch meegaan met de evolutie, niet stil blijven staan bij oude praktijken. Dan is een adaptertje van DP naar DVI niet zo'n issue.

[ Voor 38% gewijzigd door Phuncz op 08-06-2015 17:51 ]


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

Kid Jansen schreef op maandag 08 juni 2015 @ 13:34:
Ik snap niet dat ze de 390X durven uitbrengen met maar één DisplayPort aansluiting en aangezien er verder met geen woord over wordt gerept zal het wel gewoon weer DP1.2a zijn en niet DP1.3.

Het wordt tijd dat ze DVI net als VGA gewoon helemaal uitfaseren, in ieder geval op videokaarten. Als je nog schermen hebt die geen HDMI of DP hebben gebruik je maar een adapter... Het is absurd dat je op een high-end kaart als deze op twee van de vier aansluitingen zo wordt gelimiteerd. Zo kunnen de onderstaande resoluties/modi allemaal niet over dual link DVI (en dan is de kans nog vrij groot dat één van de twee aansluitingen maar single link DVI is).
  • 2560x1440 @ 144 Hz
  • 3440x1440
  • 3840x2160
  • 4096x2160
  • 5120x2880
Nou ja, ik heb het geluk 3 monitor te hebben met HDMI, maar aangezien ik maar 1x HDMI op mijn kaart heb was dat een maand of 3 puzzelen met allerhande adapters waarna ik uit ellende maar 35 euro heb betaald voor een actieve DP naar HDMI adapter.

Denk dat nog steeds het merendeel van de mensen op monitoren zit met DVI/VGA, en sowieso: hoeveel procent draait triple screen? Zal ook niet meer dan 5% zijn, en dan heb ik het niet eens over de low-end markt. De problemen die ik had zullen ze echt niet hun kaart voor gaan ombouwen omdat die 5% allemaal adapters moet kopen om het werkend te krijgen...
Kid Jansen schreef op maandag 08 juni 2015 @ 14:10:
Maar er zijn maar weinig beeldschermen die dual link DVI nodig hebben en geen DisplayPort hebben (of een HDMI aansluiting die native resolutie ondersteunt). Dat zijn eigenlijk alleen maar de oude 30" schermen. De nieuwste daarvan waarvoor dat nog geldt is de Eizo ColorEdge CG303W. Een scherm dat al vierenhalf jaar oud is en ruim twee jaar niet meer wordt verkocht.

Maar dan nog, doe dan op z'n minst 2x DVI, 1x HDMI en 2x mDP. Dat heb ik ook op m'n XFX Radeon HD 7970 Black Edition Double Dissipation. En ik denk dat 1x DVI, 1x HDMI en 4x mDP of (3x DP) ook wel zou moeten passen. Het slaat nergens op om 2x DVI te hebben, zeker als je dan maar 1x DP hebt.
Doe maar niet, een mini-DP naar HDMI (actieve) is nog moeilijker uit te halen en bovendien duurder. Is het nu werkelijk waar zo moeilijk om de 2 slots vol te zetten met aansluitingen? 2x HDMI, 2x DP, 2X DVI past er makkelijk op, en die 1 euro extra productiekosten zal het verschil ook niet maken, je zit natuurlijk met clockgen's maar dat is ook een belachelijk verhaal en mede oorzaak waarom mensen actieve adapters nodig hebben.

Ik snap het helemaal, wat is nu de moeite om zo'n kabeltje te halen? Tja, voor het gros is dat helemaal geen probleem omdat die geen actieve nodig hebben omdat men een enkel scherm (of 2) moet aansluiten.
Punt blijft dat merendeel van de monitoren gewoonweg geen DP heeft en zolang dit zo blijft zullen er ook overwegend meer DVI en HDMI poorten op zitten als DP. VGA mogen ze wat mij betreft wel helemaal uitfaseren, dit is wel opgelost met een adapter van 2 euro en moest ik in 2006 al gebruiken.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Je krijgt anders ook steeds meer schermen die juist alleen maar met DP aangesloten kunnen worden (in ieder geval voor de native modus). In de meeste gevallen gaat het dan ook om schermen die teveel bandbreedte nodig hebben om meer dan één scherm over één aansluiting aan te sturen.
Doe maar niet, een mini-DP naar HDMI (actieve) is nog moeilijker uit te halen en bovendien duurder.
kost €25
Punt blijft dat merendeel van de monitoren gewoonweg geen DP heeft en zolang dit zo blijft zullen er ook overwegend meer DVI en HDMI poorten op zitten als DP.
En op deze manier blijft dat ook zo...

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

HDMI vermijd je best als het mogelijk is, deze durven nog wel eens met beperkte chroma subsampling te gaan werken waardoor bijvoorbeeld tekst onscherp wordt. Zo moet ik voor mijn scherm met enkel HDMI input specifiek een monitor driver gebruiken die de HDMI audio functie uitschakelt, anders krijg ik maar RGB 4:2:0 door ipv. 4:4:4.

Wat betekent dat in de realiteit ? Tekst is onscherp en sommige combinaties (rode tekst op zwart bv.) zijn simpelweg zeer wazig.

Meer info: http://www.avsforum.com/f...a-subsampling-thread.html

[ Voor 4% gewijzigd door Phuncz op 08-06-2015 18:44 ]


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Ook niet aan te passen bij CCC>My Digital Flat Panels>Pixel Format? Maar is inderdaad vaak zo dat je bij HDMI eerder problemen hebt met overscan/underscan, scaling en chroma subsampling.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Van mij mogen ze best "Eyefinity / Surround" editions van kaarten uitbrengen die goedkoper zijn dan kaarten met een hele reeks DVI/HDMI poorten. Wil je meer van die ouderwetse TMDS poorten, mag je er ook voor betalen ;)

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 00:08

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

"retro-costs" ;)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Lijkt mij een prima idee, gewoon 4x full size DP of 6x mDP. Dat zie je ook op veel AMD FirePro kaarten.

6x mDP:
  • W9100
  • W9000
4x DP
  • W8100
  • W8000
  • W7900
  • W7100
  • W7000
  • W5100
Die W9100 is overigens ook echt een beest, want die kan 6x 4096x2160 aansturen.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Kid Jansen schreef op maandag 08 juni 2015 @ 19:10:
Ook niet aan te passen bij CCC>My Digital Flat Panels>Pixel Format?
Nope, niet meer sinds midden 2014 geloof ik. Het heeft geen effect of je 4:4:4 pakt, maar dit is een specifiek probleem. Echter als mijn scherm DisplayPort had, zou dit geen issue zijn geweest, want daar wordt zover ik weet helemaal geen chroma subsampling uitgevoerd.

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Phuncz schreef op maandag 08 juni 2015 @ 19:37:
want daar wordt zover ik weet helemaal geen chroma subsampling uitgevoerd.
Hangt af van wat je scherm via EDID doorgeeft aan je videokaart. Als je scherm zegt dat het ook over DisplayPort YCbCr 4:4:4 of YCbCr 4:2:2 ondersteunt dan kan dat soms ook. Maar niet elke videokaart wil dat doen over DP, ook al zegt het EDID dat het kan.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 00:08

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Kid Jansen schreef op maandag 08 juni 2015 @ 19:36:
Lijkt mij een prima idee, gewoon 4x full size DP of 6x mDP. Dat zie je ook op veel AMD FirePro kaarten.

6x mDP:
  • W9100
  • W9000
4x DP
  • W8100
  • W8000
  • W7900
  • W7100
  • W7000
  • W5100
Die W9100 is overigens ook echt een beest, want die kan 6x 4096x2160 aansturen.
pricewatch: Asus HD 5870 EYEFINITY 6/6S/2GD5

5 jaar geleden zagen ze dat wel (al) goed in, ze hadden die glazen ATi bol mee moeten nemen na de overname door AMD.

[ Voor 5% gewijzigd door SAiN ONeZ op 08-06-2015 20:52 ]

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:21
Ik vind die gigabyte g1 gaming nvidia kaarten wel geinig. 3x dp, hdmi, dvi-d en dvi-i. Ze werken niet allemaal tegelijk, maar je hoeft iig niet met active converters aan de gang.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op maandag 08 juni 2015 @ 19:21:
Van mij mogen ze best "Eyefinity / Surround" editions van kaarten uitbrengen die goedkoper zijn dan kaarten met een hele reeks DVI/HDMI poorten. Wil je meer van die ouderwetse TMDS poorten, mag je er ook voor betalen ;)
Ik zie de negatieve publiciteit nu al komen "AMD laat gebruikers DVI monitoren in de steek", net zoals toen de HD4xxx en HD5xxx kaarten naar legacy support gingen. Doe maar niet. ;)

Persoonlijk denk ik dat een DVI poort door heel veel gebruikers wel gewaardeerd wordt (zo vaak vervang je je monitor niet), maar twee DVI poorten gaat ten koste van DP en HDMI dus dat is wat overdreven. Ik zou dan eerder kiezen voor 1x DVI, 1x HDMI en 3x DP. Dat lijkt me een mooi compromis tussen het blijven ondersteunen van legacy en tegelijkertijd een mooi aantal moderne poorten aan bieden.

Als alternatief zou je ook de DVI poort weg kunnen laten en meer DP poorten op kunnen nemen en dan standaard een DP->DVI adapter meeleveren, net zoals de eerste kaarten zonder VGA standaard een DVI-VGA adapter meegeleverd kregen. Maar ik vermoed dat dat duurder is en fabrikanten dat liever niet doen. Misschien is het bij high-end kaarten wel een optie, dat zijn dan ook meteen de kaarten waar je rekening kunt houden met het gebruik van 3+ schermen.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 02-10 20:06
Waarom geen HDMI naar DVI adapter meegeven? (Volgens mij heb ik die ook bij mijn HD7870 gekregen)

Edit

Nog een nutteloze hype video van AMD

[ Voor 34% gewijzigd door LongBowNL op 08-06-2015 23:15 . Reden: formatting foutje ]


Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 22:20

ikt

Holy shit, kijk eens naar de prijzen!

http://wccftech.com/amd-r...ing-confirmed-aggressive/

$330 voor een 390, $390 voor een 390X! Dat lijkt mij belachelijk agressief geprijsd. Als dit waar zou zijn, zou dit een behoorlijk aantrekkelijke reeks kunnen worden.

Let wel, het is een wccftech confirm, maar de mensen op Reddit lijkt dit artikel betrouwbaar.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 02-10 20:06
Nou, ik weet niet hoor. Maar de reacties op Reddit zijn juist heel sceptisch. WccfTech levert niet eens een bron aan. Zoals ik zelf al op Reddit zei: Als het woord "confirmed" en WccfTech in 1 zin staan, dan is het niet "confirmed." Tenzij er een andere betrouwbare bron dit ook beweerd...

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 04-10 15:25

Edmin

Crew Council

get on my horse!

Ze geven ook aan dat de 390X een gepimpte Hawaii aan boord heeft. Dan zal de performance boost t.o.v. de 290X ook wel wat tegenvallen.

Als dit allemaal klopt, natuurlijk.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:06

XanderDrake

Build the future!

Edmin schreef op dinsdag 09 juni 2015 @ 08:33:
Ze geven ook aan dat de 390X een gepimpte Hawaii aan boord heeft. Dan zal de performance boost t.o.v. de 290X ook wel wat tegenvallen.

Als dit allemaal klopt, natuurlijk.
Ik dat geval klopt de prijs wel.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!
Die prijzen zijn een stuk hoger dan de huidige prijzen, lijkt mij niet echt realistisch, maar ja het is wccftech, dus ja wat wil je. :p

O dit zijn andere prijzen als de vorige keer. Nou ja ze wisselen gewoon elke keer, misschien gokken ze vanzelf een keer goed. :z

[ Voor 33% gewijzigd door -The_Mask- op 09-06-2015 10:22 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • !mark
  • Registratie: November 2013
  • Laatst online: 02:01
Edmin schreef op maandag 08 juni 2015 @ 16:56:
Bovendien werkt DVI met een verloopje ook prima vanaf een HDMI poort, aangezien HDMI gewoon DVI+audio is. DVI poorten kosten ontzettend veel ruimte EN ze ondersteunen de moderne resoluties en refresh rates niet. Simpel toch?
Niet helemaal, Dual Link DVI krijg je niet zomaar via een passief verloopje vanaf HDMI. Mensen die een scherm hebben die alleen de maximale resolutie halen via DVI Dual Link jaag je dan toch op hogere kosten dan je denkt.

Over het algemeen wel eens, de grootste ergernis aan mijn huidige kaart is de enkele DisplayPort aansluiting, mijn volgende kaart moet er toch zeker 2 hebben.

Het liefste zie ik op een moderne kaart:
1x DVI- Dual Link (DVI-I hoeft niet, als je nog VGA gebruikt heb je pech)
1x HDMI 2.0
3x DP

Is er trouwens al iets bekend of de 390x wel een update krijgt richting HDMI2.0, anders heb je maar één poort die fatsoenlijk UHD aankan :X

[ Voor 7% gewijzigd door !mark op 09-06-2015 09:44 ]


Acties:
  • 0 Henk 'm!
Zoals ik al zei, stuur een mailtje naar de fabrikanten. Het lijkt mij altijd nog hun keuze en niet die van AMD.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:49

Format-C

Tracing Rays

ikt schreef op dinsdag 09 juni 2015 @ 08:16:
Holy shit, kijk eens naar de prijzen!

http://wccftech.com/amd-r...ing-confirmed-aggressive/

$330 voor een 390, $390 voor een 390X! Dat lijkt mij belachelijk agressief geprijsd. Als dit waar zou zijn, zou dit een behoorlijk aantrekkelijke reeks kunnen worden.

Let wel, het is een wccftech confirm, maar de mensen op Reddit lijkt dit artikel betrouwbaar.
Edmin schreef op dinsdag 09 juni 2015 @ 08:33:
Ze geven ook aan dat de 390X een gepimpte Hawaii aan boord heeft. Dan zal de performance boost t.o.v. de 290X ook wel wat tegenvallen.

Als dit allemaal klopt, natuurlijk.
Inderdaad...

En dat "agressieve prijzen" valt toch mee?

Je hebt nu ook al een 290X voor €330,- en een 290 voor €275,-

Tuurlijk heeft die 390(X) 8GB VRAM, maar is dat nodig? Maakt dat wat uit? Volgens deze review niet.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Boost9898
  • Registratie: Februari 2013
  • Laatst online: 04-10 16:43

Boost9898

Software developer

Even een snelle vraag tussendoor. Zelf heb ik nu 2x een GTX 780. Blijkbaar gaat deze DX12 deels supporten. Maar waar het mij vooral om gaat, kan ik VRAM stacken?

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 04-10 15:25

Edmin

Crew Council

get on my horse!

Nope

Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 22:16
Format-C schreef op dinsdag 09 juni 2015 @ 10:36:
Inderdaad...

En dat "agressieve prijzen" valt toch mee?

Je hebt nu ook al een 290X voor €330,- en een 290 voor €275,-

Tuurlijk heeft die 390(X) 8GB VRAM, maar is dat nodig? Maakt dat wat uit? Volgens deze review niet.
Nouja, als de bron WCCFTech is dan krijg ik al snel jeuk, die roepen te pas en onpas maar wat. Zij schrijven in dit geval dat een 390X een "enhanced" versie is van een 290X, maar ja wat betekent dat? Wellicht meer stream processors, wellicht alleen een hogere base clock, of bedoelen ze alleen dat de 390X standaard 8GB geheugen krijgt?

Of je 8GB nodig hebt, dat blijft een punt van discussie. Die review van Tweaktown zag ik gisteren ook en daar is het verschil zowat onmerkbaar. In het verleden heb ik echter wel tests gezien, deze van Tomshardware bijvoorbeeld, waar je wel wat voordeel eruit haalt, pak m beet 5-10% op hogere resoluties.
Nu denk ik wel eens terug aan mijn eigen situatie zo'n 3 jaar geleden. Ik twijfelde toen of ik een "normale" 2GB versie van de GTX670 zou halen, of de 4GB versie. Uiteindelijk heb ik een 2GB kaart gehaald omdat het in benchmarks nog geen voordeel leek op te leveren. Later heb ik hier echter wel spijt van, want surround gaming met een flink modded Skyrim in surround is niet te doen met 2GB. Als er ~1.9GB VRAM gebruikt wordt met mods zijn de framerates nog matig/oke (25-35fps regionen), tik ik de 2GB aan door een extra mod aan te zetten dan stort alles in naar sub-10 FPS.

Mijn komende pc wordt er een die echt bedoeld is voor surround gaming (waarschijnlijk 3x1440p) en aan een 4GB kaart (of kaarten) ga ik echt niet meer aan beginnen. Ik wil minimaal 6 of liefst 8GB kaarten om niet over een jaar weer hetzelfde gedoe te hebben. Er zijn al tekenen, en het is ook logisch, dat op hogere resoluties (4K, 3x1440p etc.) meer VRAM gunstig kan zijn en ik verwacht dat dit de komende jaren alleen maar duidelijker wordt. En ja, je kan ook zeggen van "dan koop je tzt toch een nieuwe kaart met meer VRAM" en dat is een optie, maar als je nu al een 8GB kaart hebt houdt je dan de optie tot Crossfire open. Zolang je in Crossfire het VRAM nog niet kunt optellen blijf je met 4GB zitten bij twee 4GB kaarten.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:49

Format-C

Tracing Rays

Moi_in_actie schreef op dinsdag 09 juni 2015 @ 11:44:
[...]

Nouja, als de bron WCCFTech is dan krijg ik al snel jeuk, die roepen te pas en onpas maar wat. Zij schrijven in dit geval dat een 390X een "enhanced" versie is van een 290X, maar ja wat betekent dat? Wellicht meer stream processors, wellicht alleen een hogere base clock, of bedoelen ze alleen dat de 390X standaard 8GB geheugen krijgt?

Of je 8GB nodig hebt, dat blijft een punt van discussie. Die review van Tweaktown zag ik gisteren ook en daar is het verschil zowat onmerkbaar. In het verleden heb ik echter wel tests gezien, deze van Tomshardware bijvoorbeeld, waar je wel wat voordeel eruit haalt, pak m beet 5-10% op hogere resoluties.
Nu denk ik wel eens terug aan mijn eigen situatie zo'n 3 jaar geleden. Ik twijfelde toen of ik een "normale" 2GB versie van de GTX670 zou halen, of de 4GB versie. Uiteindelijk heb ik een 2GB kaart gehaald omdat het in benchmarks nog geen voordeel leek op te leveren. Later heb ik hier echter wel spijt van, want surround gaming met een flink modded Skyrim in surround is niet te doen met 2GB. Als er ~1.9GB VRAM gebruikt wordt met mods zijn de framerates nog matig/oke (25-35fps regionen), tik ik de 2GB aan door een extra mod aan te zetten dan stort alles in naar sub-10 FPS.

Mijn komende pc wordt er een die echt bedoeld is voor surround gaming (waarschijnlijk 3x1440p) en aan een 4GB kaart (of kaarten) ga ik echt niet meer aan beginnen. Ik wil minimaal 6 of liefst 8GB kaarten om niet over een jaar weer hetzelfde gedoe te hebben. Er zijn al tekenen, en het is ook logisch, dat op hogere resoluties (4K, 3x1440p etc.) meer VRAM gunstig kan zijn en ik verwacht dat dit de komende jaren alleen maar duidelijker wordt. En ja, je kan ook zeggen van "dan koop je tzt toch een nieuwe kaart met meer VRAM" en dat is een optie, maar als je nu al een 8GB kaart hebt houdt je dan de optie tot Crossfire open. Zolang je in Crossfire het VRAM nog niet kunt optellen blijf je met 4GB zitten bij twee 4GB kaarten.
Het ligt er idd maar net aan wat je zelf wil.

Als je op 4K gamed, of met Surround/ Eyefinity zou je volgens die Toms Hardware review in wat games idd meer performance hebben, met een enkele kaart, echter zijn de framerates dan verre van speelbaar. Tussen de 30 en 40 FPS. Dus dan schiet je er (imho) alsnog weinig mee op. Zou wel eens willen zien wat het verschil is met 8GB CFX vs 4GB CFX.

Tevens zegt HWI dat 8GB geen enkele meerwaarde heeft.

Ook hier geen meerwaarde gevonden:
http://www.hardwareheaven...90x-8gb-vapor-x-oc-review
http://www.overclock3d.ne..._r9_290x_8gb_dd_review/22
http://hexus.net/tech/rev...290x-vapor-x-8gb/?page=12

Dus ik neem de review van Tom met een korreltje zout.

Dan heb je nog het "future proof" argument. Persoonlijk koop ik daar niks voor. En al helemaal niet als je op 4K gamed, of surround/ Eyefinity. Dan zou je, imho, zodra er een betere kaart is, moeten upgraden om fatsoenlijke framerates te halen.

Kan me niet voorstellen dat 8GB dit jaar nog significante voordelen heeft tov 4GB. En vlgend jaar hebben we weer iets nieuws, en zal 8GB wel gemeengoed zijn.

(Maar goed. Het verschilt voor iedereen, en wat de wensen zijn van die persoon. Ik kan niet gamen met minder dan 60FPS, want dan word ik knettergek. Dus 4K gamen zou ik alleen daarom al niet doen. :) ;) >:) )

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:06

XanderDrake

Build the future!

Een andere vraag, voor Werelds et al:

Zijn FreeSync en G-Sync nou een degelijke oplossing voor de microstutters die je nog steeds kan ervaren bij multi-GPU opstellingen onder zware grafische instellingen? Immers, elke frame wordt gemetered en gesynced met hoe de monitor er mee om gaat.
Of zijn de adaptive frame sync methodes zo dynamisch dat ze de pieken en dalen van frametimes binnen de seconde ook gewoon meegeven?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Mocht je interesse in Freesync hebben dan is het handig om in je achterhoofd te houden dat dit nog niet werkt met Crossfire.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:06

XanderDrake

Build the future!

Help!!!! schreef op dinsdag 09 juni 2015 @ 12:40:
Mocht je interesse in Freesync hebben dan is het handig om in je achterhoofd te houden dat dit nog niet werkt met Crossfire.
OK das al een ding. SLI werkt bijvoorbeeld wel met G-Sync, wat me wel een voordeel lijkt bij schermen van 1440p en hoger icm multi-screen of zeer zware games.

Toch ben ik benieuwd naar het antwoord :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 02:07
First Benchmarks of AMD’s Fiji GPU Surface – Open CL CompuBench Performance Beats Out the TITAN-X

One of our readers (Vladmir Lenin) stumbled onto what is probably the first legitimate benchmark of the AMD Fiji GPU. The benchmark hosted CompuBench tells us about the compute performance of the Fiji XT flagship. Related gaming benchmarks conducted in were also found but I think its worth noting that they cannot be completely relied upon given the inconsistent nature of GFXBench’s Manhattan tests.

[...]
Read more: http://wccftech.com/bench...ats-titanx/#ixzz3cYwBgVUN


http://videocardz.com/561...s-leaked-64-cus-confirmed

Zeker waardevolle informatie, maar hele artikelen copy-pasten wordt een beetje te gortig. Kopieer in het vervolg alleen de inleiding en link naar de rest :).

[ Voor 69% gewijzigd door br00ky op 10-06-2015 09:11 ]


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 22:16
Format-C schreef op dinsdag 09 juni 2015 @ 12:26:
[...]

Het ligt er idd maar net aan wat je zelf wil.

Als je op 4K gamed, of met Surround/ Eyefinity zou je volgens die Toms Hardware review in wat games idd meer performance hebben, met een enkele kaart, echter zijn de framerates dan verre van speelbaar. Tussen de 30 en 40 FPS. Dus dan schiet je er (imho) alsnog weinig mee op. Zou wel eens willen zien wat het verschil is met 8GB CFX vs 4GB CFX.

Tevens zegt HWI dat 8GB geen enkele meerwaarde heeft.

Ook hier geen meerwaarde gevonden:
http://www.hardwareheaven...90x-8gb-vapor-x-oc-review
http://www.overclock3d.ne..._r9_290x_8gb_dd_review/22
http://hexus.net/tech/rev...290x-vapor-x-8gb/?page=12

Dus ik neem de review van Tom met een korreltje zout.
Het ligt er maar net aan welke games ze testen en op welke settings. De meesten testen bijvoorbeeld al lang niet meer met Skyrim, iets wat ik nog wel speel en wat met mods een enorm zware game kan zijn. Hetzelfde is te zien in de review van Hexus die jij linkt, bij b.v. Shadow of Mordor. Daar is het verschil tussen een 4GB en 8GB kaart enorm; de minimum FPS van de 8GB kaart zijn gelijk of hoger dan de average FPS van de 4GB kaart, met een gemiddeld verschil in performance oplopend tot 25%. Ook hier kun je een duidelijk verschil zien bij bepaalde games.
Dan heb je nog het "future proof" argument. Persoonlijk koop ik daar niks voor. En al helemaal niet als je op 4K gamed, of surround/ Eyefinity. Dan zou je, imho, zodra er een betere kaart is, moeten upgraden om fatsoenlijke framerates te halen.
Upgraden naar een betere kaart, of naar SLI/Crossfire gaan. Ik heb een keer een Youtube review gezien waar dit mooi in getest werd (4GB vs 8GB), maar die kan ik op dit moment even niet vinden. In deze review van Tweaktown wordt de R9 290X 8GB in Crossfire getest tegen een GTX980 SLI setup. Wederom is heel duidelijk te zien dat bij bepaalde games (BF 4 Ultra, Thief, Metro Last Light) de GTX980 SLI setup ineens hard onderuit gaat (vooral op de minimum FPS), terwijl de AMD kaart het wel vrij aardig blijft doen (ineens beter dan de 980's).

Dit gecombineerd met mijn eigen ervaring van destijds 2GB vs 4GB wil ik best nu best wel 50 euro extra per kaart betalen (ongeveer het verschil tussen een R9 290X 4GB en 8GB). Uiteindelijk is het gewoon een prijs/performance afweging afgezet tegen de games die ik graag speel. Mijn conclusie is dat ik daar op dit moment al deels en waarschijnlijk over 1 of 2 jaar flink veel voordeel kan behalen door niet meer voor 4GB kaarten te gaan.
Daarbij ben ik ook niet van plan om nu per direct nieuwe GPU's te kopen, maar later dit jaar of begin volgend jaar (ik wacht op Skylake of AM4). Tegen die tijd zijn de R9 390X en Fury kaarten al uit, waarvan hopelijk die laatste fors beter presteert dan de huidige R9 290X. Ook zullen de prijzen dan al wat gedaald zijn en zullen 2 Fury kaarten een stuk betaalbaarder zijn.

edit: kleine toevoeging op het einde.

[ Voor 6% gewijzigd door Moi_in_actie op 09-06-2015 13:37 ]

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:21
polli_ schreef op dinsdag 09 juni 2015 @ 13:17:
The maximum compute units given is 64, from which we can conclude that the Fiji die does indeed have 4096 stream processors. We also know that this particular prototype was running on a core clock of 1000 Mhz.
Op zich zit je daarmee wel op 980Ti / Titan X performance, even aangenomen dat de stream processors vergelijkbaar presteren met 290x.

Zal wel een slokje lusten, maar met waterkoeling is dat niet erg.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 00:08

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

1000mhz core is mss ook wel wat terughoudend, ben benieuwd of dat onderdeel is van Operation Smokescreen, want ik meen me te herinneren dat hij zelfs nog hoger geclockt is, of had dit betrekking op de 390X variant, want dan komt hij nóg mooier uit de bus?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
XanderDrake schreef op dinsdag 09 juni 2015 @ 13:01:
[...]

OK das al een ding. SLI werkt bijvoorbeeld wel met G-Sync, wat me wel een voordeel lijkt bij schermen van 1440p en hoger icm multi-screen of zeer zware games.

Toch ben ik benieuwd naar het antwoord :)
Kort antwoord: soms.

Lang antwoord: volgt later ;)

Wellicht dat ik één dezer dagen eens een thread over VRR aan maak want er is nog veel onduidelijk voor velen volgens mij.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:49

Format-C

Tracing Rays

Als de games die jij speelt met een 8GB beter draaien, zou ik zeker ook voor zo'n kaart gaan.

En ik speelde zelf ook Skyrim met mods, en nog bijvoorbeeld Crysis, en Fallout 3, en ja, dat slurpt zéker een hoop VRAM. :D

SSAA lust ook wel een slokje VRAM overigens. :D

Maar goed. Heb zelf nog geen ervaring met 4K gaming, dus daarover kan ik nog niet meepraten. Binnenkort weer iets aanschaffen denk ik. Maar denk niet dat ik een 4K monitor neem. Om mn portemonnee nog een klein beetje te ontzien. Hoef niet zo nodig meer uber dikke CFX of SLi bakken. En als ik een 4K monitor zou nemen weet ik precies wat er gebeurt... Haha. :) :+

[ Voor 37% gewijzigd door Format-C op 09-06-2015 15:33 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 22:21
Werelds schreef op dinsdag 09 juni 2015 @ 14:49:
[...]

Kort antwoord: soms.

Lang antwoord: volgt later ;)

Wellicht dat ik één dezer dagen eens een thread over VRR aan maak want er is nog veel onduidelijk voor velen volgens mij.
tftcentral heeft vorige week iets online gezet
http://www.tftcentral.co.uk/articles/variable_refresh.htm

Maar goed, vrr is niet de oplossing voor slechte framepacing, het maakt het alleen niet nog erger zoals normale schermen doen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 02:07
AMD Radeon Fury X And Fury Specs Confirmed – Immensely Powerful Cards Powered By Fiji, World’s First HBM GPU

Today we’re bringing you the confirmed specs for AMD’s upcoming Fiji powered enthusiast graphics cards. The Radeon Fury X and Radeon Fury. We’ve been working very closely with our sources to confirm the specifications for AMD’s upcoming Fury X, powered by the Fiji XT GPU, and Fury powered by the Fiji Pro GPU.
AMD Radeon Fury

[...]
Read more: http://wccftech.com/amd-r...specs-fiji/#ixzz3cainm4Bl

ingekort, zie mbr in polli_ in "CJ's Radeon Info & Nieuwsdiscussie - Deel 129"

[ Voor 85% gewijzigd door br00ky op 10-06-2015 09:12 ]


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Zou super zijn als het waar is, klinkt goed allemaal! De Fury kaarten, ben benieuwd naar de benchmarks. Game tegenwoordig op 4k en als het echt zoveel uitmaakt dan word dit mijn volgende kaart, anders moet ik nog maar eens hard gaan rondneuzen...

[ Voor 125% gewijzigd door rikadoo op 09-06-2015 21:51 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 02-10 20:06
Je hoeft niet het hele artikel te quoten. Zeker niet als het van WccfTech komt. Een link is voldoende. (Ze hebben de specs al talloze keren "confirmed")

Acties:
  • 0 Henk 'm!

Verwijderd

offtopic:
Een (kort) citaat van het meest relevante deel is altijd wel prettig imho, ik heb niet altijd zin om een heel artikel door te spitten op zoek naar die ene alinea waar het om gaat. Is misschien een beetje lui, maar alleen een linkje dumpen is misschien ook een beetje lui. ;)

Maar idd een compleet artikel citeren is wat overdreven. Beetje asociaal ook, ze lopen ad-views mis op die manier. Strikt genomen mag 't ook niet (copyright wetgeving, 100% copy paste is geen fair use meer) maar goed daar maken weinigen zich echt druk om. 8)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:06

XanderDrake

Build the future!

Weet niet of dit plaatje al is langsgekomen:
Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2015/June/AMD-Radeon-300-series-roadmap1.jpg

Hier is het duidelijk welke GPU welke oude GPU moet vervangen. In het artikel
staat ook dit de 390(X) GPUs respins zijn van de Hawaii GPUs, dus niet direct rebrands. Redelijk goed, je zal er niet mee winnen maar het is iig een verbetering.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 02-10 20:06
Dat plaatje ziet er redelijk nep uit. Lettertype, kleuren, formaat, waar zijn de 370X en 380X etc.

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 02:07
AMD Radeon Fury X 3DMark performance

Afbeeldingslocatie: http://cdn.videocardz.com/1/2015/06/AMD-Radeon-Fury-X-3DMark-FireStrike.jpg

http://videocardz.com/562...fury-x-3dmark-performance

Acties:
  • 0 Henk 'm!

  • Sorki
  • Registratie: September 2002
  • Laatst online: 12-09 12:55

Sorki

world wide wubbish

Videocardz.com .. Ik zou nog even wachten op betrouwbare benchmarks. ;)

Sorki#2242


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 02-10 20:06
Op basis van geruchten, klopt het redelijk. Mist wel een balkje bij Fury in CF.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

Nou, kijk eens aan!
Als dit klopt, en die koelers worden ook goed, dan kunnen we goed overclocken en blazen we de TitanX en 980Ti sowieso weg.

Als die benchmark klopt, zitten we met één Fury X 29,7% hoger dan een GTX980, stel de prijs zit 10-20% boven de 980 (dus zeg 600 euro), dan heb je nog steeds 10% meer bang for buck.

Ben alleen bang dat ik geen 600 euro's voor een GPU over heb, maar de 390X ziet er ook absoluut niet verkeerd uit! 10% sneller, 5% extra clockspeed. Wellicht dat die extra mem speed het hem gedaan heeft, maar zoveel maakt mem normaal gezien niet uit.

En dan zal de Fury wel tussen de 980 en de 980Ti liggen, met de prijs rond de 980 zodat er weer veel bang 4 buck ontstaat. Koppel dit aan veel koeling, leuke overclocks, en je zit zo rond de 980Ti/TitanX met je 500 euro Fury.

Sorry, ik loop echt veel te hard van stapel, ben alleen al heel blij dat mijn berekening enigszins lijkt te kloppen en dat ik net mijn eerste rijles heb gehad

[ Voor 25% gewijzigd door Kuusj op 10-06-2015 19:38 ]

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zelf ga ik nog niet van stapel lopen voor een nieuwe GPU, eerst eens zien wat DX12 gaat brengen. Een R9 290X is ook geen straf voor 1080p.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

Phuncz schreef op woensdag 10 juni 2015 @ 20:17:
Zelf ga ik nog niet van stapel lopen voor een nieuwe GPU, eerst eens zien wat DX12 gaat brengen. Een R9 290X is ook geen straf voor 1080p.
Eigenlijk voldoet een 280X nog ruim aan 1080p, maar ja, men wil meer, hogere resoluties, hogere settings, en dan komt uiteindelijk toch dat moment dat je "moet" upgraden. Weet echt nog niet welke ik ga kopen, ligt geheel aan de prijs, de prestaties en hoeveel ik echt nodig heb. 5760x1080, daar zou in principe een 390X al voor moeten voldoen...

Voor DX12 ga ik niet speciaal GPU X of Y kopen, voordat het goed en wel in games zit zijn we toch maanden verder en vanuit een ander oogpunt: je kunt wel blijven wachten, maar daar schiet je ook niks mee op.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

Verwijderd

Prik er een tweede kaart gewoon bij. Sommige games bieden meer dan 50% extra performance in Crossfire. Stuttering valt echt wel mee. Ik heb 2x R7 270X's erin zitten, die zijn in sommige games sneller dan een single 290. Verbruik voor beide kaarten valt ook best mee. Soms verbruikt de 290 gewoon net wat meer.

Acties:
  • 0 Henk 'm!

  • TNJ
  • Registratie: Juni 2009
  • Laatst online: 30-09 08:29

TNJ

Frugalite

Phuncz schreef op woensdag 10 juni 2015 @ 20:17:
Zelf ga ik nog niet van stapel lopen voor een nieuwe GPU, eerst eens zien wat DX12 gaat brengen. Een R9 290X is ook geen straf voor 1080p.
Loop wel niet van stapel, maar met m'n eyefinity setup ga ik wel een Fury bestellen en de 290 vervangen. Zal ook goed zijn voor de ervaring in de HTC Vive.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 28-09 22:57
Verwijderd schreef op woensdag 10 juni 2015 @ 20:31:
Prik er een tweede kaart gewoon bij. Sommige games bieden meer dan 50% extra performance in Crossfire. Stuttering valt echt wel mee. Ik heb 2x R7 270X's erin zitten, die zijn in sommige games sneller dan een single 290. Verbruik voor beide kaarten valt ook best mee. Soms verbruikt de 290 gewoon net wat meer.
Ik kan het op zich ook nog prima redden met een enkele 270x op 1080p.... :)
En dat voor een chip uit 2012 :9

Acties:
  • 0 Henk 'm!

  • Vini-Vidi-Vici
  • Registratie: December 2013
  • Laatst online: 15-05-2024
Ik heb een Sapphire 290 Tri-X, en op 1080p kan je alles met gemak op high/ultra spelen. En als dat bij een enkel spel niet kan, verlaag je gewoon je MSAA, waardoor het weer soepeler loopt. Dus ik denk dat een 390(x) geen echte vooruitgang is voor mensen met een 290(x). Alleen de Fury GPU's zullen een echte verbetering worden.

*Ik ga hier wel uit van de benchmark van videocardz.

-


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 29-09 19:48
Als dat klopt en jij vergelijkt het met deze resultaten: http://www.techpowerup.co...Force_GTX_Titan_X/29.html

Dan zou Fiji X grofweg 5% boven Titan X uitkomen :)
-The_Mask- schreef op woensdag 10 juni 2015 @ 19:04:
Lijkt mij wel aardig te kloppen.
De vraag is of deze resultaten gehaald zijn met de driver en BIOS waar de reviews ook mee uitgevoerd zullen worden.

Acties:
  • 0 Henk 'm!
Houd er wel rekening mee dat het gaat om FireStrike op Extreme en Ultra. Dat is vrij zwaar is zo zwaar dat AMD er gemiddeld vaak net wat beter in is, bij games is het dan soms net weer andersom.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

Verwijderd schreef op woensdag 10 juni 2015 @ 20:31:
Prik er een tweede kaart gewoon bij. Sommige games bieden meer dan 50% extra performance in Crossfire. Stuttering valt echt wel mee. Ik heb 2x R7 270X's erin zitten, die zijn in sommige games sneller dan een single 290. Verbruik voor beide kaarten valt ook best mee. Soms verbruikt de 290 gewoon net wat meer.
En dan? Een 280X verbruikt zo 250-300W gaming load, hoef je geen gekke overclocks te draaien. Overbodig om te vermelden dat mijn voeding van 620W dit niet leuk vind aangezien er ook nog een FX8320 op loopt...

Ik heb al Crossfire ervaringen gehad met HD7850's en dat wil ik nooit meer, één en al ellende, en áls het al werkte dan was het echt geen verdubbeling (vaak niet eens 10%, maar wel stuttering). In Battlefield ja, daar hielp het, maar in zo ongeveer alle andere games werkte het voor mij in ieder geval voor geen 5 cent.
spNk schreef op woensdag 10 juni 2015 @ 22:36:
[...]

Ik kan het op zich ook nog prima redden met een enkele 270x op 1080p.... :)
En dat voor een chip uit 2012 :9
De 280X is feite ook geboren in 2012, en het zou dus betekenen dat hij het nóg een generatie vol moet gaan houden aangezien een 380(x) ook rebranded gaat worden. Misschien maken ze die Tonga chip wat groter, maar dan ben je nog niet gek veel sneller dan een 280X c.q. HD7970. Zelfde verhaal met de 270X, dat was toch een 7870XT of een gewone 7870? In ieder geval zul je daar ook wel weer een rebrand van zien.

Dat zegt natuurlijk ook iets over het niveau waarop we (niet) vooruit gaan, ja tuurlijk gaan we vooruit, dit is echter iedere keer in het enthousiast gedeelte van de kaarten en alles daaronder is minimaal 1 serie oud. Dit doet nVidia net zo goed, en het is financieel ook niet haalbaar om elke generatie nieuwe chips te ontwerpen (zeker voor AMD niet), maar het is wel een beetje jammer. Men zit al 3 jaar op dezelfde kaart en een nieuwe is 10% sneller, daar word je echt helemaal niet vrolijk van.

Realistisch gezien, heb je echt meer nodig dan een 280(X) voor 1080p voor de komende generatie kaarten en games? Nee, natuurlijk niet. 290X is 30% sneller voor 50% meer geld, dat is geen bang for buck en als we echt realistisch gaan redeneren: wie heeft er een 280X of hoger in zijn systeem zitten?
Ja, wij als Tweakers hebben Titan's en 290X's en 980Ti's, maar de gemiddelde gamer zit nog steeds op zijn OEM GT540 kaartje te gamen en heeft nog nooit gehoord van een videokaart.

Gelukkig is dit niet de eerste keer dat een kaart 3x rebranded word ge-released. *nVidia 8xxx serie* KUCH

[ Voor 0% gewijzigd door Kuusj op 11-06-2015 00:46 . Reden: Watt ]

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:05
kuusj98 schreef op woensdag 10 juni 2015 @ 23:49:
[...]

En dan? Een 280X verbruikt zo 300-350W gaming load...
Oh? http://www.techpowerup.co..._280X_Gaming_6_GB/22.html

Volgens TPU haalt ie die waardes alleen in furmark. Tijdens gamen ligt het zo rond de 210Watt, en dat is een kaart met 6GiB.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

NitroX infinity schreef op donderdag 11 juni 2015 @ 00:07:
[...]

Oh? http://www.techpowerup.co..._280X_Gaming_6_GB/22.html

Volgens TPU haalt ie die waardes alleen in furmark. Tijdens gamen ligt het zo rond de 210Watt, en dat is een kaart met 6GiB.
Nja ok (tabel iets te snel doorgekeken), maar core en geheugen overvolted en overclocked trekt ie echt wel meer hoor. Wat evident is, is dat ik geen twee 280X's kan draaien op mijn voeding, klaar.
OCCT PSU test en ik heb 80-85% load op de GPU en ~95% op de CPU, voeding vind het wel welletjes bij 600W uit de muur terwijl dit eigenlijk een stuk hoger zou moeten kunnen...

http://www.anandtech.com/...re-r9-280x-toxic-review/5
Haak hier nog een 8320 op 4.6Ghz bij en je zit aan de 450W gaming load.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26

Sp3ci3s8472

@ 12 graden...

kuusj98 schreef op woensdag 10 juni 2015 @ 23:49:
[...]

Ik heb al Crossfire ervaringen gehad met HD7850's en dat wil ik nooit meer, één en al ellende, en áls het al werkte dan was het echt geen verdubbeling (vaak niet eens 10%, maar wel stuttering). In Battlefield ja, daar hielp het, maar in zo ongeveer alle andere games werkte het voor mij in ieder geval voor geen 5 cent.

Gelukkig is dit niet de eerste keer dat een kaart 3x rebranded word ge-released. *nVidia 8xxx serie* KUCH
Dan heb je weinig geluk gehad met crossfire, het is tegenwoordig een heel stuk beter dan eerst. Ik heb een HD4870x2 gehad, deed het prima niet elk spel had toen ondersteuning maar mijn ervaring ermee was positief. De enige keer dat ik microstuttering merkte was tijdens benchmarks omdat je dan een "filmpje" bekijkt zonder interactie, je merkt het dan veel eerder op.

Haast niemand weet welke kaarten er gerebrand gaan worden en degene die het weten zitten onder een NDA, dus voor het bekend is het nutteloos om heisa te maken :P.

offtopic:
Wat ik zo vaag vind is dat op veel forums iedereen altijd zegt, AMD rebrand, AMD is altijd onzuinig en nog meer van die onzin. nVidia was in die twee dingen veel erger. Dit is de eerste generatie van AMD die meer dan de nVidia tegenhangers gebruikt en iedereen denkt dat het altijd zo is... vage shit.
Als nVidia het doet dan maakt het ze allemaal niet uit, ik doel op de meest onzuinige generatie ever de 4xx en 5xx, zelfs idle gebruikten ze veel stroom.
Was niet op jouw gericht kuusje98, is wat ik op andere forums lees.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 04-10 10:54

Kuusj

Ofwel varken in 't Limburgs

Sp3ci3s8472 schreef op donderdag 11 juni 2015 @ 00:46:
[...]


Dan heb je weinig geluk gehad met crossfire, het is tegenwoordig een heel stuk beter dan eerst. Ik heb een HD4870x2 gehad, deed het prima niet elk spel had toen ondersteuning maar mijn ervaring ermee was positief. De enige keer dat ik microstuttering merkte was tijdens benchmarks omdat je dan een "filmpje" bekijkt zonder interactie, je merkt het dan veel eerder op.

Haast niemand weet welke kaarten er gerebrand gaan worden en degene die het weten zitten onder een NDA, dus voor het bekend is het nutteloos om heisa te maken :P.

offtopic:
Wat ik zo vaag vind is dat op veel forums iedereen altijd zegt, AMD rebrand, AMD is altijd onzuinig en nog meer van die onzin. nVidia was in die twee dingen veel erger. Dit is de eerste generatie van AMD die meer dan de nVidia tegenhangers gebruikt en iedereen denkt dat het altijd zo is... vage shit.
Als nVidia het doet dan maakt het ze allemaal niet uit, ik doel op de meest onzuinige generatie ever de 4xx en 5xx, zelfs idle gebruikten ze veel stroom.
Ik speculeer op basis van de artikelen neergezet door andere gebruikers, de kans is groot, maar zeker weten we het in ieder geval niet.

offtopic:
Buiten dat, zeg ik dat ook helemaal niet (of het was niet direct tegen mij bedoeld?), en weet ik dat de 4xx en 5xx serie idiote hoeveelheden stroom gebruikten voor hun kunnen. Rebrands gaf ik ook aan met bijvoorbeeld de 8xxx serie. Ik citeer mezelf:
"Dat zegt natuurlijk ook iets over het niveau waarop we (niet) vooruit gaan, ja tuurlijk gaan we vooruit, dit is echter iedere keer in het enthousiast gedeelte van de kaarten en alles daaronder is minimaal 1 serie oud.Dit doet nVidia net zo goed, en het is financieel ook niet haalbaar om elke generatie nieuwe chips te ontwerpen (zeker voor AMD niet), maar het is wel een beetje jammer. Men zit al 3 jaar op dezelfde kaart en een nieuwe is 10% sneller, daar word je echt helemaal niet vrolijk van."

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • exodude
  • Registratie: December 2008
  • Laatst online: 08-08-2023
28nm zit tegen zijn limiet aan, nieuwe chips uitbrengen op dit proces terwijl finfets en HBM om de hoekstaan is onlogisch.

Las pas dat het ontwikkelen van een ontwerp voor finfets 3 maal duurder is dan voor het momentele 28 nm proces. [Vraag me niet naar de bron, kwam dit ergens tegen op het Anandtech forum]

AMD heeft zijn budget waarschijnlijk al besteed aan een volledig nieuwe finfet CPU en GPU reeks voor 2016.

Acties:
  • 0 Henk 'm!

Verwijderd

kuusj98 schreef op woensdag 10 juni 2015 @ 23:49:
[...]

En dan? Een 280X verbruikt zo 250-300W gaming load, hoef je geen gekke overclocks te draaien. Overbodig om te vermelden dat mijn voeding van 620W dit niet leuk vind aangezien er ook nog een FX8320 op loopt...

Ik heb al Crossfire ervaringen gehad met HD7850's en dat wil ik nooit meer, één en al ellende, en áls het al werkte dan was het echt geen verdubbeling (vaak niet eens 10%, maar wel stuttering). In Battlefield ja, daar hielp het, maar in zo ongeveer alle andere games werkte het voor mij in ieder geval voor geen 5 cent.
Ik weet het niet hoor, een 270 op 270x snelheden verbruikt hoogstens 150W? Dat is furmark of gewoon worst case load. In een game zit een GPU mischien voor 60 tot 90% belast en dat varieert nog wel eens. Een kaart zal dan ook niet de volle 150W gaan staan verbruiken. Toen ik de 270 erbij prikt ging ik zo goed als 50% vooruit in bijna elke game. Dat is BF3, BF4, L4D2, CSS en wat nog meer. Meer speel ik niet echt want veel gamen doe ik eigenlijk niet meer.

Je kunt een Crossfire set ook gewoon terugclocken in mijn geval. Ik heb geen 160FPS nodig als mijn monitor niet hoger dan 75Hz draait op 2560x1080. Van 1GHz naar 600Mhz en van 1200Mhz naar 1000Mhz merk ik niks van dan behalve een zuiniger verbruik.

Ik draai ook nog een 'ouderwetse' X6 op 4GHz. Per clocktick is die wel sneller dan de 8350 maar met zo'n snelheid zal de TDP ook wel richting de 175W gaan. Als je een goede voeding hebt met meer dan 700W dan zit je voor zo'n setup echt goed.

De 290x is een leuke kaart, toegegeven, maar dat is een chip die aardig hard draait en ook het nodige verbruik pakt. Qua drivers zit het bij AMD wel snor hoor. Nieuwe games draaien prima en je kunt altijd op de beta drivers van AMD zitten als je toch het laatste van het laatste hebben moet.

Toegegeven, crossfire moet je ook niet op limited hardware gaan staan draaien, de kans dat dat problemen geeft is gewoon groter.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
<3
Gaaf ding zeg!
609mm2 is serieus groot. (is dat Inc die hbm chips of alleen de gpu zelf?)
Ter vergelijking de Hawaii gpu is slechts 438mm2 en tot nu toe de grootste gpu die AMD/ATi gemaakt heeft.

GM200 is 601mm2 en Fermi was 576.

Ik ben erg benieuwd hoe snel hij is!
icegodd schreef op donderdag 04 juni 2015 @ 19:24:
wat een crap...van AMD.

rebrand van X290. oude saus verkopen tegen new prijs.

AMD :( :(
Leuk Dat iedereen geruchten meteen voor 100% waarheid aan neemt.

Straks is het een nieuwe revisie van Hawaii. Gezien clocks in de geruchten is dat niet onwaarschijnlijk. 1070mhz is voor de Hawaii Die wij nu hebben niet altijd haalbaar.

Heel misschien is er nog meer bijgeschaafd en wellicht ook niet. Laten we gewoon even tot volgende week af wachten. Als het dan tegen valt mag je zo reageren :)

[ Voor 33% gewijzigd door Astennu op 11-06-2015 07:49 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Wordt trouwens ook simpel van de mensen die niet snappen dat je niet even de hbm chips wat naar boven kan schuiven om vervolgens 8 van die dingen naast de gpu te plakken om 8gb te krijgen.

Die denken allemaal dat AMD voor de lol en om hun te presenteren voor 4gb gaat ipv 6 of 8.

Die denken het allemaal beter te weten dan AMD, Intel en nVidia. How can they be so naive... :)

[ Voor 15% gewijzigd door Astennu op 11-06-2015 08:37 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 29-09 19:48
-The_Mask- schreef op woensdag 10 juni 2015 @ 23:22:
Houd er wel rekening mee dat het gaat om FireStrike op Extreme en Ultra. Dat is vrij zwaar is zo zwaar dat AMD er gemiddeld vaak net wat beter in is, bij games is het dan soms net weer andersom.
Het lijkt er juist op dat AMD het wat minder goed doet in deze test dan in de meeste games.

Bij TPU zit een 290X op 70% van een Titan X en bij HWI zit een 290X op 68% van een Titan X, als alle gemiddelden worden opgeteld.
Terwijl in deze grafiek een 290X op 65% zit van een Titan X, en bij HWI zit een 290X op 63/64% van een Titan X in 3DMark Fire Strike Extreme

Grofweg zou je daar de conclusie uit kunnen trekken dat een 290X 5% beter presteert dan deze test doet geloven en daarmee zou je dezelfde conclusie kunnen trekken voor Fiji X.

Maar goed speculeren op basis van één test is vrij gevaarlijk. Ik ga er voorlopig maar vanuit dat het stuivertje wisselen word. :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Heb wel plaatjes gezien waar men geprobeerd heeft de grootte te schatten maar kan ik ze nu niet terug vinden.

Hopelijk nog wat extra leaks de komende dagen.

Weet iemand trouwens of de NDA voor reviews ook op de 18e verloopt ? Neem aan van wel.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Die perfomance voor officieel 599 dollar en ze zullen verkopen ;)

Alleen hopen dat er dan nog wat rek zit op de gpu voor OC (150-200 Mhz) zodat ze niet rap voorbij gestoken worden door een 980Ti die easy 1400 Mhz haalt. (zie trouwens grafiek)
En ben ook benieuwd of we het geheugen ook nog kunnen overclocken anders is de helft van de pret weg :/
Van 500 Mhz naar 600 Mhz is een whopping 20% ;)

Ben wel al blij dat ze 980Ti perfomance halen met hun kaart oef :)

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:06

XanderDrake

Build the future!

nvidia666 schreef op donderdag 11 juni 2015 @ 09:01:
Ben wel al blij dat ze 980Ti perfomance halen met hun kaart oef :)
Jep, dit zorgt voor een beetje druk op de ketel. Waar blijven die prijsverlagingen :P ?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 19:46
Wat een ongeduld, hij moet nog uitkomen. De prijsverlagingen komen vanzelf als er werkelijk geleverd gaat worden

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
nvidia666 schreef op donderdag 11 juni 2015 @ 09:01:
Die perfomance voor officieel 599 dollar en ze zullen verkopen ;)

Alleen hopen dat er dan nog wat rek zit op de gpu voor OC (150-200 Mhz) zodat ze niet rap voorbij gestoken worden door een 980Ti die easy 1400 Mhz haalt. (zie trouwens grafiek)
En ben ook benieuwd of we het geheugen ook nog kunnen overclocken anders is de helft van de pret weg :/
Van 500 Mhz naar 600 Mhz is een whopping 20% ;)

Ben wel al blij dat ze 980Ti perfomance halen met hun kaart oef :)
II vraag het me af.... GCN heeft tot Nu toe wel een sweetspot rond de 1ghz. De oudere komen wel wat hoger vaak rond de 1100.

Hawaii niet die heeft al wat meer moeite met 1100mhz.

Het hogere verbruik zal ook niet helpen. Met oc er bij ga je nog wat hoger.

Maar dit is wel een andere chip dus kan zo maar zijn dat deze het wel beter doet. Maar 200 mhz is bij AMD tegenwoordig wel veel.

100 mhz er bij voor hbm lukt Wellicht wel nu is het de vraag of je daar nog voordeel van ziet aangezien je standaard al veel bandbreedte hebt.

Volgende week weten we meer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ok het is fudzilla, hoop niet dat dat klopt:

http://www.fudzilla.com/n...th-benchmarks-on-the-24th

" We will see the card debut on June 16th at an AMD gaming event, but most of the information will come on the 18th. We expect to see first reviews before June 25th as people usually need a few days to test these cards. "

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • nvidia666
  • Registratie: November 2011
  • Laatst online: 13-04 21:43
Idd als je 640 ? GB/s hebt zal die 64 of 128 erbij niet veel meer uitmaken ;)
en idd 200 Mhz bij amd is idd niet eenvoudig ;) al kreeg ik m'n 8790M 250 Mhz hoger ;)

We zijn met z'n allen benieuwd :) Kuch pricedrop 980 Ti kuch ;)

Case Xpredator Black E , I7 3930K @4.6 (H100I) , 3090 Suprim X, Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz, 980pro 1TB, 1TB&512 GB 850 Pro WD Black 4TB , CM V1000 (PC2 3570K 6GB 3090 ,240 GB ssd) (Dell e6540@8790M)(Dell xps15 9560)


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 19:46
Kortom, stel dat de Fury iets minder zal presteren dan de 980Ti zal Nvidia toch iets moeten gaan doen qua prijs lijkt me. Je gaat geen 20 - 30 % meerprijs betalen voor een paar procent performance verschil.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD

Pagina: 1 ... 10 ... 12 Laatste

Dit topic is gesloten.