Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Toettoetdaan schreef op zaterdag 24 juni 2017 @ 11:35:
[...]

Mwua, het leuke van forums is dat mensen die het volgen en tussen de regels door lezen net wat meer weet dan de gemiddelde WC-Tech lezer. Dat dit nu in de nieuws echo kamer komt en kompleet uit verband word getrokken doet daar alleen maar afbreuk aan.

Het maakt ook de drempel hoger voor mensen met meer informatie om dat te delen. Dus laten we het vooral niet op de voorpagina zetten ;)
(en stiekem vind ik de persoon die dit 'getipt' heeft naar Videocardz niet lief)
Eens, maar ik zit wel op een andere lijn. Ik vind het namelijk totaal niet nieuwswaardig. Oh Vega gebruikt veel stroom. Well duh. :P
Als het Vega gebruikt veel stroom, en sloopt een GTX1080Ti is, kijk, dan is het nieuwswaardig. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
zo lang er ook maar stille varianten ervan komen vind ik het wel best. Ik zit te kijken om mijn ryzen build te laten lopen op die nieuwe 600w fanless psu van seasonic en 600w is meer dan genoeg voor een build met 1 videokaart.

Acties:
  • +2 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Waarom per se een fanless PSU? Tenzij de hele build fanless is lijkt een PSU met een stille fan een betere optie.

Acties:
  • 0 Henk 'm!
Fanless voeding betekend idd dat je de warmte van de voeding in de behuizing gooit, waardoor de videokaart en CPU koeler dus meer geluid gaat maken door de extra warmte. Vrij nutteloos dus als je bedenkt dat er onhoorbaar stille voedingen zijn.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
een paar redenen,
hele build is gericht op stilte, ik hoor bijna altijd de psu veel meer dan de gpu en ik heb ook gewoon ook nog nooit een fanless psu gehad.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit is behoorlijk offtopic, maar een echt stille PSU is ook echt stil. Dat merkte ik wel toen ik twee weken geleden mijn Seasonic 520W verving met een RMx 550W. Dat ding is echt stil. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Maar tenzij de rest van het systeem ook echt stil is, zie ik daar het nu niet van in. En je hebt ook semi-passieve PSUs..
-The_Mask- schreef op zaterdag 24 juni 2017 @ 13:57:
Fanless voeding betekend idd dat je de warmte van de voeding in de behuizing gooit,
Hangt er natuurlijk vanaf hoe je hem mount.

[ Voor 50% gewijzigd door Olaf van der Spek op 24-06-2017 15:05 ]


Acties:
  • 0 Henk 'm!
Olaf van der Spek schreef op zaterdag 24 juni 2017 @ 15:04:

Hangt er natuurlijk vanaf hoe je hem mount.
Als de opening onder komt kan de warmte er niet goed uit, dus weinig keuze of je moet een niet standaard mATX of ATX behuizing hebben natuurlijk.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
-The_Mask- schreef op zaterdag 24 juni 2017 @ 13:57:
Fanless voeding betekend idd dat je de warmte van de voeding in de behuizing gooit, waardoor de videokaart en CPU koeler dus meer geluid gaat maken door de extra warmte. Vrij nutteloos dus als je bedenkt dat er onhoorbaar stille voedingen zijn.
hoeveel watt komt er in de vorm van hitte uit een beetje goede gold+ voeding? In verhouding van de rest van de pc, vooral de gpu niet heel veel toch? Zou het in de praktijk met een beetje redelijke airflow in de behuizing veel uitmaken?

specs


Acties:
  • 0 Henk 'm!
Rond de 30 of 40W bij een high-end single GPU gaming PC. Het is niet extreem veel, maar het is gewoon niet nodig omdat er onhoorbaar stille voedingen zijn en die zijn dan ook nog eens goedkoper en zeker niet minder.

Overigens vind ik zelf zo'n 125W wel de max voor een high-end gaming CPU, dus topmodel van socket 1151 of AM4 en 250/275W voor de videokaart voor het snelste reference model van AMD of nVidia. Dan zal de PC zelf op zo'n 400W max uitkomen en dan is meestal wel goed weg te werken in een goede behuizing. Ga je echter naar 180W CPU's en 350/400W videokaarten dan kom je soms tot aan de 600W, voor een single GPU gaming systeem en dat is toch iets waar veel behuizingen moeite mee hebben, zonder waterkoeler die de warmte direct uit de behuizing blaast.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

Het zou wel eens leuk zijn als iedereen hier een gok zou doen over de perf. van (de snelste) RXVega t.o.v. de 1080Ti.
Ik gok op 4K en hoger met max ingame iq :

-dx11, 1080Ti niveau, met een marge van 10%, meer of minder
-dx12/vulkan (doom), 20% sneller.

Motivatie: 60% hogere clockfrequentie t.o.v. FuryX + IPC en frontend verbeteringen samen goed voor 10-20% extra(?)
Totaal 70-80% sneller dan de FuryX. Volgens de benchmarks op bv. computerbase is de 1080Ti 70% sneller dan de FuryX, natuurlijk afh. van de geteste games.

Natuurlijk is dit een heel simpele benadering, maar meer info en kennis heb ik niet tot m'n beschikking.
Over 5 weken de uitslag :D

[ Voor 4% gewijzigd door edward2 op 25-06-2017 01:18 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
60% hogere clockfrequentie en 10% of 20% IPC toenamen resulteert in 76% totale performance toenamen voor 10% IPC toenamen en 92% totale performance toenamen voor 20% IPC toenamen. Allemaal t.o.v. Fiji uiteraard.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 17-05 20:51

edward2

Schieten op de beesten

madmaxnl schreef op zondag 25 juni 2017 @ 01:26:
60% hogere clockfrequentie en 10% of 20% IPC toenamen resulteert in 76% totale performance toenamen voor 10% IPC toenamen en 92% totale performance toenamen voor 20% IPC toenamen. Allemaal t.o.v. Fiji uiteraard.
Je bedoelt dat bij een niet gelijke IPC de toename (of afname) niet linear is met de kloksnelheid? Ok, maar wat verwacht jij?

[ Voor 5% gewijzigd door edward2 op 25-06-2017 01:58 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nee, 80% en vervolgens 20% is 1,8*1,2 snappie? De IPC toenamen is ook over de toenamen van de clockfrequentie van toepassing. 50% hoger geclockt dan Fury en 20% IPC toenamen zou dus een totale toenamen van 80% zijn.

Geen idee wat er te verwachten valt qua IPC. Is gewoon nog niet te zeggen. Er zou verbetering inzitten, maar hoeveel? De kloksnelheden daarentegen verraden wel wat je minimaal mag verwachten imo. Dus sowieso 50% sneller dan Fury X.

[ Voor 99% gewijzigd door madmaxnl op 25-06-2017 03:38 ]


Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 16-03 00:22
mitsumark schreef op vrijdag 23 juni 2017 @ 01:42:
Zelfs als de MSI versie veel verbruikt zegt dat nog weinig/niks over VEGA.
Kennen we deze nog? https://www.techpowerup.c...SI/R9_390X_Gaming/28.html

Niet te snel conclusies trekken... zeker niet zonder te weten wat voor performance tegenover 'veel' verbruik staat.

Ik sta wel te trappelen om mn 290X te vervangen, laat maar komen!
Het verbruik zal misschien wel hoog zijn maar ook niet vergeten dat dit waarschijnlijk voor de 16 GB versie is, normaal gezien komen er ook versies met 8GB.

Iig biedt AMD met Vega 16 en 8GB versies aan en maken ze niet dezelfde fout als met Fury met te weinig geheugen. Het verbruik ligt hoog maar dat is voor de topkaart, tragere versies zullen minder verbruiken.

Ik vraag mij ook af, heb je vandaag al 16GB nodig voor games of is 8GB voldoende?

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@edward2
Verwacht dat de grote Vega 1080Ti niveau gaat halen over de gehele breedte. (Hopelijk nog een stuk meer maar dat is helaas waarschijnlijk niet realistisch.)

Tevens dat er weer een aantal zaken in zitten die veelbelovend zijn maar waar je nu nog niet echt voordeel uit lijkt te halen.

[ Voor 6% gewijzigd door Help!!!! op 25-06-2017 09:16 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zou willen durven gokken op Titan Xp prestaties in DX11, en nog veel sneller in DX12. Ik denk dat sneller in DX12 wel zal gebeuren, matchen in DX11, daar twijfel ik over, zeker bij lagere resoluties, en dat is denk ik het probleem. Acht shader pipelines voeden met rendercalls gaat nog wat worden als het van een CPU core moet komen. De 1080p testen gaan denk ik naar een nieuw niveau van stupide...

Vega 10 is waarschijnlijk een uitstekende 1440p kaart en 4k voor meer mensen betaalbaar maken. Als AMD dan agressief met de prijzen is, kan dan het wel wat worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:30
Fredi schreef op zondag 25 juni 2017 @ 08:06:
Ik vraag mij ook af, heb je vandaag al 16GB nodig voor games of is 8GB voldoende?
8GB is op dit moment zeker geen limiterende factor, maar alles is relatief: speel je op Eyefinity met 3-6 4k schermen dan kan het wel eens te weinig zijn :+...

Acties:
  • +2 Henk 'm!
Uitgaande van 1600 MHz (subtiele hint van "iemand" :+) zit je al op 52% theoretische winst puur op kloksnelheid. In DX12 en Vulkan is het verschil tussen Fiji en GP102 eerder 40-50% op zowel 1440p als 2160p. Dit omdat Fiji beter gevoed wordt in deze API's, hoewel ik vermoed dat er zelfs dan nog een deel van de chip stil ligt.

1080 Ti niveau moet makkelijk haalbaar zijn. Als ze dat niet halen met zo'n grote chip zal ik behoorlijk teleurgesteld zijn.

Ik reken onder DX12 Rise of the Tomb Raider overigens niet mee, ongeacht welke chip het is, omdat die game overduidelijk kapot is. Ik begrijp nog steeds niet dat reviewers die game nog steeds meenemen, het is gewoon een schaamteloze Nvidia plug. Het feit dat er een DX12 renderpath in zit praat de keuze voor die game niet goed. De reviewers zouden juist keihard op deze game moeten schijten om zo duidelijk te maken dat dit soort praktijken niet gewenst zijn, maar helaas betwijfel ik of iemand de ballen zal hebben dit te doen.

In Total War: Warhammer komt Fiji ook slecht uit de bus in verhouding tot Nvidia, maar de rest van de AMD kaarten niet; dat is dus een probleem aan AMD's kant specifiek met Fiji.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 25 juni 2017 @ 11:24:
Uitgaande van 1600 MHz (subtiele hint van "iemand" :+) zit je al op 52% theoretische winst puur op kloksnelheid. In DX12 en Vulkan is het verschil tussen Fiji en GP102 eerder 40-50% op zowel 1440p als 2160p. Dit omdat Fiji beter gevoed wordt in deze API's, hoewel ik vermoed dat er zelfs dan nog een deel van de chip stil ligt.

1080 Ti niveau moet makkelijk haalbaar zijn. Als ze dat niet halen met zo'n grote chip zal ik behoorlijk teleurgesteld zijn.
Ik maak mij dus wel enige zorgen over hoe Vega 10 functioneert. Acht shader pipelines, veel hogere clocks, totaal andere frontend zal allemaal voor serieuze prestatiewinsten moeten zorgen tegenover Fiji. Daarnaast kan AMD waarschijnlijk speciale titels nog verder optimaliseren met hun primitive shaders dus eigenlijk de grote releases nog even wat extra geven. Staat tegenover dat je een serieus beroep zal moeten doen op de CPU bij de meeste games, DX11 games, voor rendercalls. Ik vraag mij echt af hoe dat zal gaan met zelfs een 7700k @5ghz. 1080p testen lijken mij bij voorbaat al nuttelozer dan ze normaal zijn, en er zullen weer een hele hoop "reviewers" alleen hier naar wijzen en "Vega is kut" roepen. 1440p gaat al interessanter worden, maar de ultieme test zal 4k zijn.

Staat tegenover dat een goed geoptimaliseerde DX12/Vulkan game, tja, dat zou met gemak gewonnen moeten worden aangezien daar het volle potentieel van Fiji en alle andere GCN GPU's ook al meer tot uiting komt. Zelfs mijn "antieke" 7950 profiteert. In CiV 6 komt er al zo'n 15% fps bij door alleen maar naar DX12 te gaan, in plaats van DX11. Oke, dat is van 30 naar 35fps met mijn instellingen, dus beide matig, maar toch. :P
Ik reken onder DX12 Rise of the Tomb Raider overigens niet mee, ongeacht welke chip het is, omdat die game overduidelijk kapot is. Ik begrijp nog steeds niet dat reviewers die game nog steeds meenemen, het is gewoon een schaamteloze Nvidia plug. Het feit dat er een DX12 renderpath in zit praat de keuze voor die game niet goed. De reviewers zouden juist keihard op deze game moeten schijten om zo duidelijk te maken dat dit soort praktijken niet gewenst zijn, maar helaas betwijfel ik of iemand de ballen zal hebben dit te doen.
Tja, ik let er nu al even op. Gooi je bij een serie aan benchmarks tussen de GTX1060 en RX580, alle Gameworks titels eruit, dan wint de RX580 eigenlijk altijd van de GTX1060, en merkbaar ook. Verder heeft Tomb Raider wel een Ryzen patch gehad, waardoor het net iets minder hopeloos is.
In Total War: Warhammer komt Fiji ook slecht uit de bus in verhouding tot Nvidia, maar de rest van de AMD kaarten niet; dat is dus een probleem aan AMD's kant specifiek met Fiji.
Dat zouden we dus niet meer moeten hebben met Vega lijkt me. Het is niet alsof een RTS nu echt de 1024SP/16CU blokken van Fiji aan de slag gaat krijgen. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21-05 17:52

flessuh

Set sail for fail!

Reviewers die een kaart als deze op 1080p gaan testen verliezen bij mij ook direct geloofwaardigheid. Je moet een balans vinden waar juist de GPU zwaar belast zal worden.
Dit is de afgelopen tijd ook al veel te zien met bijvoorbeeld de Ryzen reviews. Gooi er wat meer single/dual core geoptimaliseerde taken in en Ryzen ziet er uit als een absolute faal vergeleken Intel.

(tuurlijk kan 1080p wel, maar dan met een game waar je hele hoge fps kunt halen zonder dat iets anders de bottleneck zal worden. Die games zijn er ook wel)

[ Voor 17% gewijzigd door flessuh op 25-06-2017 11:58 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:30
flessuh schreef op zondag 25 juni 2017 @ 11:58:
Reviewers die een kaart als deze op 1080p gaan testen verliezen bij mij ook direct geloofwaardigheid. Je moet een balans vinden waar juist de GPU zwaar belast zal worden.
240Hz?

Acties:
  • 0 Henk 'm!
Waarom 240 Hz?

Zat games waar zelfs 1080p120 niet gegarandeerd. Ik ben er inmiddels dusdanig aan gewend dat de volgende monitor sowieso 1440p120 of 2160p120 wordt (of 144/165/240 in plaats van 120 uiteraard) en we zijn nog lang niet op het punt waar 1440p120 relatief standaard is, laat staan "4K" ;)

Acties:
  • 0 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 20:49
Ik speel zelf op een 1080p scherm met een GTX 980. Ik heb hem ten tijde van de release gekocht zodat hij lang mee kon gaan. 1080p is voor mij genoeg, maar de instellingen zet ik graag wat hoger. Zodoende is de kaart zo'n 3 jaar later nog steeds voldoende voor ~60fps. Vega wordt mijn volgende upgrade en ik ga ook deze kaart weer op 1080p gebruiken. Wellicht dat ik wat later upgrade naar een 1440p paneel, maar dat heeft niet zo'n haast. Ik ben daarom wel geïnteresseerd in de 1080p scores.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

flessuh schreef op zondag 25 juni 2017 @ 11:58:
Reviewers die een kaart als deze op 1080p gaan testen verliezen bij mij ook direct geloofwaardigheid. Je moet een balans vinden waar juist de GPU zwaar belast zal worden.
Dit is de afgelopen tijd ook al veel te zien met bijvoorbeeld de Ryzen reviews. Gooi er wat meer single/dual core geoptimaliseerde taken in en Ryzen ziet er uit als een absolute faal vergeleken Intel.

(tuurlijk kan 1080p wel, maar dan met een game waar je hele hoge fps kunt halen zonder dat iets anders de bottleneck zal worden. Die games zijn er ook wel)
Je zegt dus eigenlijk dat je bijna geen reviewers meer kent die je geloofwaardig vind. :+

Maar 1440p zit er nu langzaam aan te komen, maar is nog niet de standaard. Dit is nog steeds 1080p/60hz. Hier moet je een GTX1060/RX580 testen ja. Zoiets als een GTX1080 is voor 1080p/1440hz, of eigenlijk gewoon 1440p. Alles daarboven is 1440p als minimum.

Het zou denk ik iets anders zijn als er een tussencategorie was tussen 1080p/75hz en 1080p/144hz. Dat mist eigenlijk wel. Iets van 100hz zou gewoon fijn zijn als optie.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Tja als zo'n kaart 60 fps haalt op 4k dan haal je gewoonweg ook wel 100 of 120 fps op 1080p.

En 100 -120fps is meer dan genoeg voor een goeie game ervaring.

Het grootste argument wat gebruikt wordt om 1080p te testen is dat volgens de steamcharts 1080p nog steeds de meest gebruikte resolutie is, diezelfde mensen gaan dan vervolgens ook straks weer zeuren wanneer de 1080ti 135 fps haalt en vega bijvoorbeeld 120fps waarbij ze dan plotseling vergeten dat steam ook aangeeft dat het merendeel nog steeds 60hz schermen heeft 8)7

Acties:
  • 0 Henk 'm!

Anoniem: 444127

foppe-jan schreef op zaterdag 24 juni 2017 @ 10:11:
[...]

offtopic:
Komt vast door al dat fake news in de MSM sinds Hillary's kansloze verkiezingscampagne waar niemand de verantwoordelijkheid voor wil nemen. :+
Don't get me started. ;)
Dat doen we wel een keer in een ander deel van het forum.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 02:24
Fredi schreef op zondag 25 juni 2017 @ 08:06:
[...]


Het verbruik zal misschien wel hoog zijn maar ook niet vergeten dat dit waarschijnlijk voor de 16 GB versie is, normaal gezien komen er ook versies met 8GB.

Iig biedt AMD met Vega 16 en 8GB versies aan en maken ze niet dezelfde fout als met Fury met te weinig geheugen. Het verbruik ligt hoog maar dat is voor de topkaart, tragere versies zullen minder verbruiken.

Ik vraag mij ook af, heb je vandaag al 16GB nodig voor games of is 8GB voldoende?
4GB was meer dan genoeg voor Fury, op 4k resoluties loopt de kaart nog steeds in/uit op de 8GB GDDR5 versies.

Bv. https://www.techpowerup.c.../GeForce_GTX_1070/24.html
op 1080p scoort de Fury X 82% van de 1070, op 4k 91%.

Zelfde gedrag vs de 390X en 580.
https://www.techpowerup.com/reviews/AMD/R9_Fury_X/31.html
https://www.techpowerup.c...RX_580_Nitro_Plus/30.html

Die 4GB HBM was dus méér dan genoeg, en is het eigenlijk nog steeds...

Ik hoop eerlijk gezegd dat er geen 16GB HBM op komt, wordt ie onnodig duur van.

[ Voor 6% gewijzigd door mitsumark op 25-06-2017 15:15 ]


Acties:
  • 0 Henk 'm!

Anoniem: 298195

Volgens mij komt die er ook niet, op de ama op reddit hadden ze het alleen over om daar eventueel naar te kijken. Dus bij voorbaat was 8gb al de bedoeling en als je dan ook nog eens tekorten hebt aan HBM2 dan kan je beter 8gb keuzen want dan verdubbel je de hoeveelheid kaarten die je kan verkopen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 18:24
Anoniem: 298195 schreef op zondag 25 juni 2017 @ 14:38:
Tja als zo'n kaart 60 fps haalt op 4k dan haal je gewoonweg ook wel 100 of 120 fps op 1080p.

En 100 -120fps is meer dan genoeg voor een goeie game ervaring.

Het grootste argument wat gebruikt wordt om 1080p te testen is dat volgens de steamcharts 1080p nog steeds de meest gebruikte resolutie is, diezelfde mensen gaan dan vervolgens ook straks weer zeuren wanneer de 1080ti 135 fps haalt en vega bijvoorbeeld 120fps waarbij ze dan plotseling vergeten dat steam ook aangeeft dat het merendeel nog steeds 60hz schermen heeft 8)7
120 fps op een 60 Hz scherm speelt nog altijd vloeiender dan 60 fps op een 60 Hz scherm. Je moet alleen geen probleem met tearing hebben.
DaniëlWW2 schreef op zaterdag 24 juni 2017 @ 14:59:
Dit is behoorlijk offtopic, maar een echt stille PSU is ook echt stil. Dat merkte ik wel toen ik twee weken geleden mijn Seasonic 520W verving met een RMx 550W. Dat ding is echt stil. ;)
De meeste voedingen werken passief tot circa 40% belasting.

[ Voor 20% gewijzigd door sdk1985 op 25-06-2017 15:30 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 298195

sdk1985 schreef op zondag 25 juni 2017 @ 15:27:
[...]


120 fps op een 60 Hz scherm speelt nog altijd vloeiender dan 60 fps op een 60 Hz scherm. Je moet alleen geen probleem met tearing hebben.
Input lag is iets kleiner ja maar je ziet alsnog maar maximaal 60 frames

Acties:
  • 0 Henk 'm!

  • wouterg00
  • Registratie: November 2015
  • Laatst online: 22-05 16:26
Anoniem: 298195 schreef op zondag 25 juni 2017 @ 15:39:
[...]

Input lag is iets kleiner ja maar je ziet alsnog maar maximaal 60 frames
Geloof me, het maakt een enorm verschil.
Kijk deze video eens:
YouTube: How many frames a second do you need?

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Werelds schreef op vrijdag 23 juni 2017 @ 01:16:
[...]

Nee hoor, niets mis mee. Je moet er niet 250W over willen trekken, maar zo gevaarlijk als je misschien denkt dat dat is, is het niet.

Je beseft toch dat de 8-pin "spec" een wassen neus is hoop ik? De twee extra draden ten opzichte van 6-pin zijn namelijk gewoon GND. Sterker nog, in de meeste voedingen takken ze ze ook daadwerkelijk van twee bestaande GND draden af en TADAAAA een 8-pin stekker ;)

De draden en stekkers zelf kunnen veel meer hebben dan je denkt. De 8-pin spec is vooral voor de duidelijkheid. Als een voeding een 8-pin stekker heeft, weet je zeker dat die minimaal 150W over die 6 draden kan leveren. Maar als puntje bij paaltje komt, is het in de meeste gevallen niets meer dan een 6-pin stekker met twee GND draden verdubbeld.

@-The_Mask- kan hier vast wel een paar pagina's over vol lullen, maar de hele PCI-e power spec en bijbehorende "limieten" zijn eigenlijk niet zo spannend als je zou denken.
Daarom vroeg ik hier laatst, met het RX 480 relletje in mijn achterhoofd, hoeveel vermogen je maximaal kan trekken met die 6 pinnetjes van een fatsoenlijke voeding.
DaniëlWW2 schreef op vrijdag 23 juni 2017 @ 11:08:
[...]


Maar of AMD nu blij is met je uit haar verband gerukte opmerking is een tweede lijkt me. :+
Echt, waarom is het zo moeilijk om even door te lezen, iets in context plaatsen etc. "Techmedia" is dat dan...

Maar don't f*ck up the koeler hé? Jullie zijn nu bezig me stuivertje wisselen met Gigabyte als je kijkt naar de RX480/580. Eerst was Gigabyte problematisch, nu gaat het niet bepaald lekker met MSI. Stay on the ball. ;)
* DaniëlWW2 is nu al vijf jaar zeer tevreden met een MSI 7950, die nu wat problemen geeft en denk ik bijna dood is. Ik denk dat het een van de geheugenchipjes is.
De koeler of de gebrekkige heatsink? Hoe dan ook, Sapphire liet voor de RX 580 het goede voorbeeld zien aan MSI. Ik begrijp dat MSI graag een klein beetje bespaart door minder metaal te gebruiken maar als de kaart ongeveer hetzelfde kost als die van de concurrent die wel een goede heatsink erop plaatst...
Nu kan MSI wellicht even leunen op haar branding (een groot marketingbudget...)?
@The Source

[ Voor 31% gewijzigd door Anoniem: 444127 op 25-06-2017 16:24 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Als je vloeiend beeld wilt, kijk je best naar een FreeSync of G-Sync scherm. Ik heb nu al een tijdje een goede 75Hz FreeSync monitor en nu ik een Nvidia kaart tijdelijk heb, merk ik pas hoe irritant dat is om games te spelen zonder adaptive sync.

Acties:
  • 0 Henk 'm!

Anoniem: 298195

wouterg00 schreef op zondag 25 juni 2017 @ 16:12:
[...]

Geloof me, het maakt een enorm verschil.
Kijk deze video eens:
YouTube: How many frames a second do you need?
Volgens mij is CS 1 van de weinige games waar dat verschil enorm merkbaar is.

De invloed van de game engine is een grotere invloed.

Bron: mijn ervaring met mijn 60hz monitor waar ik al jaren op game met variërende framerates.

Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

De Quake engine, waar oude Counter-Strike ook op gebasseerd is, heeft inderdaad andere gameplay bij hogere fps. Zo wil je bij Quake 3 Arena 125 fps of hoger halen om verder te kunnen springen.
Bij 250 en 333 verandert dat blijkbaar ook. #oldschool

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
Phuncz schreef op zondag 25 juni 2017 @ 17:18:
De Quake engine, waar oude Counter-Strike ook op gebasseerd is, heeft inderdaad andere gameplay bij hogere fps. Zo wil je bij Quake 3 Arena 125 fps of hoger halen om verder te kunnen springen.
Bij 250 en 333 verandert dat blijkbaar ook. #oldschool
Klopt, eerste MoHaa die ook op die engine was gebaseerd had dat zelfde "probleem".

Je kan prima meer dan 60hz zien met name in je ooghoeken, bij oude crt monitoren werkte ik (indien mogelijk) altijd op 75hz. Bij lcd schermen valt het minder op omdat het beeld anders wordt gerefreshed als bij een crt.
Ik denk dat de sweetspot voor het aantal hz ergens tussen de 75-120 ligt.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Phuncz schreef op zondag 25 juni 2017 @ 16:22:
Als je vloeiend beeld wilt, kijk je best naar een FreeSync of G-Sync scherm. Ik heb nu al een tijdje een goede 75Hz FreeSync monitor en nu ik een Nvidia kaart tijdelijk heb, merk ik pas hoe irritant dat is om games te spelen zonder adaptive sync.
Ik heb nu al een halfjaar een freesync 75hz monitor. Kan je het eigenlijk beschrijven want ik ben onderhand wel benieuwd. :) Misschien ga ik het nog ervaren, als ik ooit die RX580 krijg. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 18:24
Anoniem: 298195 schreef op zondag 25 juni 2017 @ 15:39:
[...]

Input lag is iets kleiner ja maar je ziet alsnog maar maximaal 60 frames
Zonder v-sync kun je ook alvast een deel van de volgende frame zien. Tijdens de opbouw wordt immers het volgende beeld al doorgestuurd. (Vandaar ook de tearing).

Kan overigens ook tegen je werken. Gisteren toevallig vastgesteld dat in Payday2 de ai zich heel anders gedraagd op 30, 60 en 120 fps caps. Des te hoger de fps cap des te meer cycles naar de ai gaan en des te vlotter ze reageren. Op 30 fps kun je onderhand een volle seconde ernaast staan voor er wat gebeurd.

[ Voor 32% gewijzigd door sdk1985 op 25-06-2017 18:15 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

DaniëlWW2 schreef op zondag 25 juni 2017 @ 17:54:
[...]


Ik heb nu al een halfjaar een freesync 75hz monitor. Kan je het eigenlijk beschrijven want ik ben onderhand wel benieuwd. :) Misschien ga ik het nog ervaren, als ik ooit die RX580 krijg. :+
Je games hebben geen tearing of stutter meer, tenzij het natuurlijk niet afhankelijk is van caching die vertraagd gebeurt of slechte in-game optimalisaties. Het zorgt er ook voor dat lagere framerates niet zo vervelend zijn. Het blijft een geweldige techniek, helaas dat Nvidia er geld voor vraagt.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

sdk1985 schreef op zondag 25 juni 2017 @ 18:14:
[...]

Zonder v-sync kun je ook alvast een deel van de volgende frame zien. Tijdens de opbouw wordt immers het volgende beeld al doorgestuurd. (Vandaar ook de tearing).

Kan overigens ook tegen je werken. Gisteren toevallig vastgesteld dat in Payday2 de ai zich heel anders gedraagd op 30, 60 en 120 fps caps. Des te hoger de fps cap des te meer cycles naar de ai gaan en des te vlotter ze reageren. Op 30 fps kun je onderhand een volle seconde ernaast staan voor er wat gebeurd.
Slechte programmeermethodes, daarom is bij bijvoorbeeld Fallout VSync verplicht aan (je kan het wel uitschakelen door een tekstbestandje met variabelen te wijzigen), als je dat zonder VSync speelt dan krijg je hele rare physics. Voor mij een reden om nooit dat spel te kopen. Al is het bij sommige spellen wel leuk als de physics/AI gekoppeld is aan de framerate en je het zo wat moeilijker kan maken door met een hogere FPS te spelen. :P
DaniëlWW2 schreef op zondag 25 juni 2017 @ 17:54:
[...]


Ik heb nu al een halfjaar een freesync 75hz monitor. Kan je het eigenlijk beschrijven want ik ben onderhand wel benieuwd. :) Misschien ga ik het nog ervaren, als ik ooit die RX580 krijg. :+
Kijk hier eens naar.

Ik had 3 op 3 juist geraden (een kans van 1 op 8 dus als het geluk was). Dat geeft natuurlijk nog niet het verschil in gevoel aan maar ik denk dat jij het ook wel kan zien.

[ Voor 35% gewijzigd door Anoniem: 444127 op 25-06-2017 20:36 ]


Acties:
  • 0 Henk 'm!

Anoniem: 444127

-

[ Voor 100% gewijzigd door Anoniem: 444127 op 25-06-2017 20:36 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 444127 schreef op zondag 25 juni 2017 @ 20:32:
Slechte programmeermethodes, daarom is bij bijvoorbeeld Fallout VSync verplicht aan (je kan het wel uitschakelen door een tekstbestandje met variabelen te wijzigen), als je dat zonder VSync speelt dan krijg je hele rare physics. Voor mij een reden om nooit dat spel te kopen. Al is het bij sommige spellen wel leuk als de physics/AI gekoppeld is aan de framerate en je het zo wat moeilijker kan maken door met een hogere FPS te spelen. :P
GTA 1 met de framelimiter uit was onspeelbaar met een K6-2 500 MHz CPU dus ik wil niet weten hoe dat eruit ziet met hedendaagse CPU's :+ :X 7(8)7

/Serieus : Wat een crapgame is dat dan zeg... Zoiets mag een moderne game echt niet overkomen!
De developers mogen zich diep schamen :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 16-03 00:22
Als de Vega FE uit is zullen er wel reviewers zijn die er gamebenchmarks op los gaan laten hoop ik, ook al is de kaart er niet voor bedoeld. Kunnen we toch ongeveer een beeld vormen van hoe goed de kaart presteert, al zal RX Vega beter presteren bij games. Zal de kaart ondersteund worden met de reguliere drivers of alleen de professionele want dat kan wel een probleem geven bij games?

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Fredi ik heb nog nergens gelezen dat de FE echt pro drivers gaat krijgen zoals bijv de WX'en hebben. Uit de eigen cijfers van AMD blijkt iig dat de FE niet beter presteerd dan een quadro p5000 qua opengl vieuwports bijv.

Een Quadro P6000 gamed iig evensnel als een titan-x / 1080ti, dus pro drivers hoeven geen game belemmering te zijn.

Als de FE wat pro driver features heeft dan zal dat misschien wel op het gebied van compute zijn..?

specs


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Betwijfel dat FE, zo'n goed idee van performance gaat geven. Drivers maken wel 10-15% uit en FE heeft aparte drivers.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
MrCharming schreef op maandag 26 juni 2017 @ 12:53:
Betwijfel dat FE, zo'n goed idee van performance gaat geven. Drivers maken wel 10-15% uit en FE heeft aparte drivers.
Ze mochten nog geen games benchen, maar in andere benches is het leuk:
As for synthetic benchmarks, we are looking at 15 to 50% higher performance than TITAN Xp
https://videocardz.com/70...-frontier-edition-preview
Afbeeldingslocatie: https://cdn.videocardz.com/1/2017/06/AMD-Radeon-Vega-Frontier-Edition-7.jpg O+

[ Voor 9% gewijzigd door Toettoetdaan op 26-06-2017 13:45 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Toettoetdaan schreef op maandag 26 juni 2017 @ 13:42:
[...]

Ze mochten nog geen games benchen, maar in andere benches is het leuk:

[...]

https://videocardz.com/70...-frontier-edition-preview
[afbeelding] O+
Geen (release) drivers, dus als je nu al redelijk vloeiend games kan spelen op dergelijke resoluties, dan krijg je ook wat. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
DaniëlWW2 schreef op maandag 26 juni 2017 @ 13:47:
[...]


Geen (release) drivers, dus als je nu al redelijk vloeiend games kan spelen op dergelijke resoluties, dan krijg je ook wat. :)
Nee nog niets nuttigs dus, maar wel leuk dat er weer een BIOS switch op zit en dat je die power ledjes kun configureren in rood blauw of uit :)

EDIT; Grote kans dat RX VEGA rood is dus ;)

[ Voor 5% gewijzigd door Toettoetdaan op 26-06-2017 13:56 ]


Acties:
  • 0 Henk 'm!

Anoniem: 444127


30% meer performance dan de Titanxp voor dit soort CAD-toepassingen. Volgens de AMD-medewerker dankzij de drivers (Nvidia heeft daar gewoon de gamingdrivers op) en de HBM. Gordon probeerde zelf even een spel uit op beide systemen, hij merkte geen verschil, maar het ging wel weer om een AMD-vriendelijk spel dus dat zegt weinig.

[ Voor 84% gewijzigd door Anoniem: 444127 op 26-06-2017 14:16 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
DaniëlWW2 schreef op maandag 26 juni 2017 @ 13:47:
[...]


Geen (release) drivers, dus als je nu al redelijk vloeiend games kan spelen op dergelijke resoluties, dan krijg je ook wat. :)
Ik zou hem alleen al kopen om de kleur.... rood kan mij de pot op :p. Dat blauw is mooi!

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Sp3ci3s8472 schreef op maandag 26 juni 2017 @ 14:15:
[...]


Ik zou hem alleen al kopen om de kleur.... rood kan mij de pot op :p. Dat blauw is mooi!
Ik vind blauw een prima kleur maar mijn voorkeur gaat uit naar een donkerdere/zachtere tint blauw.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op maandag 26 juni 2017 @ 14:15:
[...]


Ik zou hem alleen al kopen om de kleur.... rood kan mij de pot op :p. Dat blauw is mooi!
Nee, #Teamred dammit. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 444127

nero355 schreef op zondag 25 juni 2017 @ 20:42:
[...]

GTA 1 met de framelimiter uit was onspeelbaar met een K6-2 500 MHz CPU dus ik wil niet weten hoe dat eruit ziet met hedendaagse CPU's :+ :X 7(8)7

/Serieus : Wat een crapgame is dat dan zeg... Zoiets mag een moderne game echt niet overkomen!
De developers mogen zich diep schamen :F
Bethesda (Fallout) heeft dan ook een nogal slechte reputatie op het vlak van hoe de spellen geprogrammeerd zijn. De bugs van Skyrim zijn berucht. Wolfenstein: The New Order heeft ook verplichte VSync (ook bugs als je die uitschakelt maar naar het schijnt hebben slimme jongens daar een niet door Bethesda gesteunde patch voor ontwikkeld en had Bethesda dit zelf kunnen oplossen door een paar instellingen te wijzigen) maar nog erger dan dat, het spel start niet eens op veel computers (zwart scherm, onmiddelijk een crash naar de desktop zonder een foutmelding of een foutcode aan Windows) met Windows 7 en Windows 10 terwijl er met de hardware op die systemen niets mis is. Doordat de installer van het programma niet goed controleert of dat je bepaalde versies van bepaalde andere software hebt? Het beste doe je eerst wat onderzoek naar de performance en problemen bij een spel alvorens je overweegt om een spel van Bethesda te kopen. Het hangt natuurlijk wel af van wie het spel daadwerkelijk hebben gemaakt, de ene studio is de andere niet en Doom werd natuurlijk volledig door ID (op de multiplayer na, naar verluidt) gemaakt.

Rockstar maakte er in het verleden ook een zooitje van maar bij GTA5 is dat flink verbeterd, al heb je bij GTA5 wel nog hinderlijke microstutters: op het Intel platform framerendertijd van meer dan 0,1 s (3 in 2 minuten gameplay bij de test van L1T) en bij AMD ook zulke microstutter maar minder frequent (1 in 2 minuten) en minder extreem. Bij GTA SA (in sommige opzichten een geweldig spel, aan te raden om nog eens te spelen als je het nooit zou hebben gespeeld :)) kon je bepaalde onderdelen van de driving school niet voltooien zonder de Vysnc aan te schakelen en bij LA Noire kan je Vsync niet eens uitschakelen (en wil je dat niet forceren omdat je anders rare bugs krijgt). :')
Het is gemakkelijker om te programmeren als het aantal frames per seconde vast ligt, het is lazy programming.
Niet dat ik de programmeurs dat verwijt, ik denk dat de oorzaak eerder bij de developer ligt die te weinig tijd geeft om het goed uit te werken omdat zo'n spel in eerste instantie voor de consoles wordt gemaakt die meer Vsync gebruiken (niet altijd echter).

[ Voor 4% gewijzigd door Anoniem: 444127 op 26-06-2017 14:36 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Toettoetdaan @Anoniem: 444127 Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.

De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.

Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.

specs


Acties:
  • 0 Henk 'm!

Anoniem: 444127

maratropa schreef op maandag 26 juni 2017 @ 15:18:
@Toettoetdaan @Anoniem: 444127 Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.

De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.

Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Ik trek geen enkele conclusie over de performance, over een week zullen we meer weten, binnen een paar dagen nadat de eerste frontier-kaarten verkocht zijn zullen we wel wat benchmarkscores gaan zien, die geven een aardige indicatie wat Vega bij spellen kan leveren.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Anoniem: 444127 schreef op maandag 26 juni 2017 @ 14:34:
[...]

*knip*

Rockstar maakte er in het verleden ook een zooitje van maar bij GTA5 is dat flink verbeterd, al heb je bij GTA5 wel nog hinderlijke microstutters: op het Intel platform framerendertijd van meer dan 0,1 s (3 in 2 minuten gameplay bij de test van L1T) en bij AMD ook zulke microstutter maar minder frequent (1 in 2 minuten) en minder extreem. Bij GTA SA (in sommige opzichten een geweldig spel, aan te raden om nog eens te spelen als je het nooit zou hebben gespeeld :)) kon je bepaalde onderdelen van de driving school niet voltooien zonder de Vysnc aan te schakelen en bij LA Noire kan je Vsync niet eens uitschakelen (en wil je dat niet forceren omdat je anders rare bugs krijgt). :')
Het is gemakkelijker om te programmeren als het aantal frames per seconde vast ligt, het is lazy programming.
Niet dat ik de programmeurs dat verwijt, ik denk dat de oorzaak eerder bij de developer ligt die te weinig tijd geeft om het goed uit te werken omdat zo'n spel in eerste instantie voor de consoles wordt gemaakt die meer Vsync gebruiken (niet altijd echter).
Echt? Die irritante microstutters waren er al in GTA3, maar die zijn dus nog steeds niet opgelost? :o

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
maratropa schreef op maandag 26 juni 2017 @ 15:18:
@Toettoetdaan @Anoniem: 444127 Laat je niet misleiden door specviewperf scores, pro openGL scores hebben weinig relatie tot de onderliggende hardware, deze worden getuned.

De FE laat hier een solidworks score zien van een WX 7100, en de overige scores vallen wat onder een M6000 / P5000 oid.

Dat heeft dus ook niks met de HBM te maken. Als ze met deze hardware echt de remmen los zouden gooien zou je p6000 / gp100 scores verwachten oid.
Maar het is wel een heel stuk beter dan Fury X, dus ondanks dat deze scores niets zeggen omdat ze niet met speciale drivers zijn gedraaid, is wel duidelijk dat de bottlenecks van Fiji eruit zijn.

Acties:
  • +1 Henk 'm!

Anoniem: 444127

ArcticWolf schreef op maandag 26 juni 2017 @ 15:35:
[...]

Echt? Die irritante microstutters waren er al in GTA3, maar die zijn dus nog steeds niet opgelost? :o

Ook hebben ze bij GTA5 een of ander RAM-management probleempje, als je lang genoeg speelt dan loopt het RAM-gebruik op tot meer dan 8 GB. Om fair te zijn, bij open wereld spellen is het wat lastiger om het allemaal goed te programmeren dan voor de meeste andere genres.

Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Toettoetdaan schreef op maandag 26 juni 2017 @ 16:10:
[...]

Maar het is wel een heel stuk beter dan Fury X, dus ondanks dat deze scores niets zeggen omdat ze niet met speciale drivers zijn gedraaid, is wel duidelijk dat de bottlenecks van Fiji eruit zijn.
het lastige is dat pro open gl bottlenecks vaak bewust er in zitten.. Die Fury was niet gepositioneerd als semi pro en had waarschijnlijk bewust gedrukte pro opengl performance. De FE is dat wel en heeft naar het lijkt wat beter performance via de drivers dan de titan-xp waar hij tegover staat. Beide AMD gpu's zullen niet de pro opengl snelheid geven die de hardware waarschijnlijk zou kunnen. ( en de titan xp al helemaal niet )Maar AMD heeft wat USP's nodig tov de titan xp en dan is betere pro vieuwport performance wel leuk. Want bij nvidia is pro viewport perf + high end compute duurrrrr.

specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 444127 schreef op maandag 26 juni 2017 @ 14:14:
[video]
30% meer performance dan de Titanxp voor dit soort CAD-toepassingen. Volgens de AMD-medewerker dankzij de drivers (Nvidia heeft daar gewoon de gamingdrivers op) en de HBM. Gordon probeerde zelf even een spel uit op beide systemen, hij merkte geen verschil, maar het ging wel weer om een AMD-vriendelijk spel dus dat zegt weinig.
Cool. d:)b

Hierbij de tekst van het bijbehorende artikel inclusief gamingimpressie van een aantal games:

http://www.pcworld.com/ar...n-vs-nvidia-titan-xp.html

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 22:07
edward2 schreef op zondag 25 juni 2017 @ 01:16:
Het zou wel eens leuk zijn als iedereen hier een gok zou doen over de perf. van (de snelste) RXVega t.o.v. de 1080Ti.
Ik gok op 4K en hoger met max ingame iq :

-dx11, 1080Ti niveau, met een marge van 10%, meer of minder
-dx12/vulkan (doom), 20% sneller.

Motivatie: 60% hogere clockfrequentie t.o.v. FuryX + IPC en frontend verbeteringen samen goed voor 10-20% extra(?)
Totaal 70-80% sneller dan de FuryX. Volgens de benchmarks op bv. computerbase is de 1080Ti 70% sneller dan de FuryX, natuurlijk afh. van de geteste games.

Natuurlijk is dit een heel simpele benadering, maar meer info en kennis heb ik niet tot m'n beschikking.
Over 5 weken de uitslag :D
Ik zal maar niet meegokken of het staat weer op videocardz :)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Stuur hem een DM met je "gok" en een NDA ;)

In die volgorde :+

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 00:27

Damic

Tijd voor Jasmijn thee

@edward2 +20% boven de 1080ti edit: we praten toch over RX vega?

[ Voor 36% gewijzigd door Damic op 27-06-2017 07:11 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Ik ga ook een gokje wagen: rond 1080 ti niveau. Dat lijkt me een veilige gok, of dat het nu iets eronder of iets erboven zit.
The Source schreef op maandag 26 juni 2017 @ 18:50:
[...]

Ik zal maar niet meegokken of het staat weer op videocardz :)
Jij hebt al gehint dat de performance in verhouding zou kunnen staan tot het vermogen maar dat werd niet opgepikt. :)

Het is trouwens veelzeggend dat mensen zo zeiken over dat vermogen terwijl de 1080 toch ook een hoog vermogen heeft bij een maximale load.

[ Voor 31% gewijzigd door Anoniem: 444127 op 26-06-2017 19:42 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Help!!!! schreef op maandag 26 juni 2017 @ 18:06:
[...]

Cool. d:)b

Hierbij de tekst van het bijbehorende artikel inclusief gamingimpressie van een aantal games:

http://www.pcworld.com/ar...n-vs-nvidia-titan-xp.html
Thanks voor de link; Best wat interessante info. Het geeft ook weer aan hoe lastig dit segment voor AMD is.
With the Frontier Edition machine running an 8K Dell panel, and a second panel at 1080p plus an HTC Vive, AMD opened up a theoretical car design in the Solidworks engineering application. Panning, spinning and moving the car looked reasonably fast, as expected. Once the model was “done” and ready to be examined, it was exported using AMD’s ProRender plug-in to Unreal Engine 4, where it could be viewed using the HTC Vive.

AMD’s director of professional products, Nick Pandher, said it may seem unusual for a game engine to be paired with an engineering app, but many small- to mid-size design firms actually operate this way today. Unlike the proprietary visualization tools that were once all the rage, off-the-shelf tools use game engines such as Unreal Engine and standard VR gear.
Wat ze niet zeggen is dat Solidworks ook een eigen gpu renderer heeft; visualise (vroegah bunkspeed). Alleen, die draait natuurlijk alleen met CUDA.. Zie daar weer het grote probleem bij veel pro apps.

Wat heel erg goed is, is dat AMD zelf Pro Render aan het ontwikkelen en pushen is als tegenhanger van Nvidia iRay, ik zie zelfs dat ze de plugin voor Solidworks aan het ontwikkelen zijn. Dan is het wel weer raar dat ze deze niet gebruikt hebben in de bovenstaande demo.. maar misschien nog te beta..

http://pro.radeon.com/en-...r-solidworks-add-in-beta/

Ik ken ontwikkelen met unreal engine niet heel goed maar voorzover ik weet kun je daar ook prima mee visualiseren in VR zonder aparte renderplugin dus het voelt een beetje omslachtig..
That brings us to the disruptive part of AMD’s push: Although powerful, Titan Xp is limited to consumer drivers. To approach the performance of the Radeon Vega Frontier Edition with an Nvidia product, you’d have to step up to at least a $2,000 Quadro P5000. A P6000 card, which is kind of the professional equivalent of a Titan Xp, is nearly $6,000.
Ze gooien "performance" op 1 hoop, het ligt genuanceerder. Maar voor Solidworks vp performance kun je ook een 700 euro kostende M4000 of WX 7100 halen, die zitten ook rond dat niveau, bijv.

Maar het is de combinatie van de viewport snelheid en compute die zeker leuk is in de FE. mits...
AMD blames these high prices for driving many prosumers to order workstation-class systems with lower-end professional cards so they can replace them with faster consumer GPUs. AMD believes the Frontier Edition can end this madness and give the company a triumphant return to the professional workstation card game.

Note that the Frontier Edition will do so with pro-optimized software support, though the drivers for the Radeon Vega Frontier Edition won’t actually be fully certified.
ze vergeten "nvidia" voor "consumer gpu's" te zetten :) Plus de meeste prosumers gaan waarschijnlijk niet voor een OEM workstation.

Minder pro openGL cap dus en wat andere plussen, maar geen certificatie. Voor de echt dure CAD apps ,zoals CATIA uit de vrijgegeven benchmarks, is het dus waarschijnlijk al geen overweging, je gaat geen risico's lopen als de software alleen al richting de 20k gaat en de werknemer een meervoud daarvan.
AMD contends the new GPU design and the HBM2 memory matter as much as the drivers in making Radeon relevant for workstations again.
Iig zo veel compute kunnen leveren als nvidia is belangrijk, maar CUDA wordt weer niet genoemd. Software support. Ik hoop dat het komt. Bij video zie je dat het wel kan, premiere en resolve draaien bijv. allebij prima op openCL. (maarja daar heb je weer geen workstation card voor nodig, gewoon veel power)

FE is trouwens een heel erg mooi doosje, die titan-x is maar een vormeloos geval ernaast. :)

Alleen die exhaust shroud! Die houdt toch allemaal airflow tegen?

specs


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 00:27

Damic

Tijd voor Jasmijn thee

@-The_Mask- leuke kaartjes maar die prijs :r en de afgelopen 2 weken zijn we van 0.0022btc naar 0.0014btc /dag gezakt (30Mhash/s), ja er is nog winst maar die zakt snel per week.

[ Voor 3% gewijzigd door Damic op 27-06-2017 07:16 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!
Ze zijn zoals eerder al gezegd ook eigenlijk niet bedoeld voor retail verkoop, dan kun je beter gewoon een gaming exemplaar halen. Die kan dan later ook nog als gaming videokaart gebruikt worden. Dit zijn kaarten die je per pallet moet bestellen, met korte garantie dan zal de prijs wel stukken lager liggen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:50
Zoals nu aangekondigd op de FP zie ik het nut nog niet direct. Duurder / vrijwel gelijk in prijs dan vergelijkbare gaming kaarten, echter amper restwaarde door het ontbreken van video uitgangen en ook nog eens een lagere garantie (al zal deze in de EU geen standhouden, tenzij deze kaarten enkel zakelijk verkocht worden).

Ik verwacht toch echt dat deze kaarten flink goedkoper aangeboden moeten worden dan de gaming tegenhangers voordat miners massaal overstappen, vooral vanwege de restwaarde....

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Dennism schreef op dinsdag 27 juni 2017 @ 09:00:
Zoals nu aangekondigd op de FP zie ik het nut nog niet direct. Duurder / vrijwel gelijk in prijs dan vergelijkbare gaming kaarten, echter amper restwaarde door het ontbreken van video uitgangen en ook nog eens een lagere garantie (al zal deze in de EU geen standhouden, tenzij deze kaarten enkel zakelijk verkocht worden).

Ik verwacht toch echt dat deze kaarten flink goedkoper aangeboden moeten worden dan de gaming tegenhangers voordat miners massaal overstappen, vooral vanwege de restwaarde....
Goedkope crossfire update?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:50
Dat zou mogelijk kunnen als deze kaarten die optie hebben, nu heb ik nooit Crossfire gebruikt, maar wil je daarvoor niet het liefst dezelfde kaarten hebben met gelijke clockspeeds e.d. ?

Acties:
  • 0 Henk 'm!

  • Kadardar
  • Registratie: Januari 2011
  • Laatst online: 14-05 11:07
Zover ik zie ondersteunen ze gewoon crossfire, dit is natuurlijk mooi om een goedkoop gokje op te wagen :)

[WoW - Kadardh/Daísÿ/Kadarlock @ Draenor]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

The Source schreef op maandag 26 juni 2017 @ 18:50:
[...]

Ik zal maar niet meegokken of het staat weer op videocardz :)
Member only tag? :P

In ander nieuws, de ETH koers is aan het klappen. Kunnen we hopelijk weer GPU's kopen. *O*
https://www.worldcoinindex.com/coin/ethereum

[ Voor 25% gewijzigd door DaniëlWW2 op 27-06-2017 11:44 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 22:07
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 11:22:
[...]


Member only tag? :P

In ander nieuws, de ETH koers is aan het klappen. Kunnen we hopelijk weer GPU's kopen. *O*
https://www.worldcoinindex.com/coin/ethereum
Korte crash kwam door een vals gerucht dat Vitalik Buterin dood was...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

The Source schreef op dinsdag 27 juni 2017 @ 11:54:
[...]

Korte crash kwam door een vals gerucht dat Vitalik Buterin dood was...
Uh, het gaat nu al twee dagen zo. :P
Verder zit er een limiet aan ETH mining. Zoals met elke hype worden de blokken veel te snel gehashed, en worden ze steeds moeilijker. Er zat toch al weinig levensduur meer in, dus of die koers nog weer omhoog gaat. Zeker als je nu nog overweegt in te stappen, dan ben je heel dom bezig. Je betaalt te veel voor de GPU's, je moet wachten, en je investering eruit halen gaat moeilijker worden. De restwaarde van je GPU gaat ook laag zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Vega FE voor 999dollar: https://videocardz.com/pr...-frontier-edition-for-999
AMD’s fastest Radeon VR Ready Creator graphics card ever, Radeon Vega Frontier Edition achieves the maximum possible score in the SteamVR benchmark, up to 21 percent higher than the multi-GPU Radeon™ Pro Duo solution.
SteamVRPerformance Test
Radeon™ Vega Frontier Edition SteamVRPerformance Test Score: 11.
Radeon™ Pro Duo (Polaris) SteamVRPerformance Test Score: 9.1.
Radeon™ Pro WX 7100 SteamVRPerformance Test Score: 6.4.

VRMark
Radeon™ Vega Frontier Edition VRMark–Orange Room Score: 8157.
Radeon™ Pro Duo (Polaris) VRMark–Orange Room Score: 6596.
Radeon™ Pro WX 7100 VRMark–Orange Room Score: 6588.

[ Voor 40% gewijzigd door Toettoetdaan op 27-06-2017 17:06 ]


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 20-03 20:24
Ik denk niet dat we vandaag nog reviews gaan zien. Vreemde gang van zaken, voorspelt niet veel goeds (denk ik).

Frontier website met wat extra informatie: http://pro.radeon.com/en-...on-vega-frontier-edition/
Typical Engine Clock (MHz): 1382
Peak Engine Clock (MHz): 1600
Ik denk dat de performance schatting op basis van clock speed dus wat naar beneden bijgesteld kunnen worden :X

[ Voor 15% gewijzigd door FortyOne op 27-06-2017 17:08 ]


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ze bieden dus verschillende drivers aan, ook gewoon een pure gamedriver trouwens.

Naast de VR test ook een maya test en een nietszeggende rendertest. Volgens mij is maya altijd al k*t geweest op non pro nvidia gpu's. :)
I Am Focused on Compute Workloads
The ROCm driver will be available for users on June 29th.

I Am Focused on Workstation Workloads
If you are a workstation user on a Windows® platform, get your driver here.
If you are a workstation user on a Linux® platform, get your driver here.

I Am Focused on Game Development Workloads
Radeon™ Vega Frontier Edition introduces “Gaming Mode”. This allows you to switch from Radeon™ Pro Settings to Radeon™ Settings where you can access gaming features for playtesting and performance optimization.
If you are focused on game development on a Windows® platform, get your driver here and switch to “Gaming Mode.”

I Just Want to Game
If you want to game on a Windows® platform, get your driver here and switch to “Gaming Mode.”

[ Voor 6% gewijzigd door maratropa op 27-06-2017 17:30 ]

specs


Acties:
  • 0 Henk 'm!
FortyOne schreef op dinsdag 27 juni 2017 @ 17:06:
Ik denk niet dat we vandaag nog reviews gaan zien. Vreemde gang van zaken, voorspelt niet veel goeds (denk ik).
Van welke professionele videokaart heb jij dan wel een review gelezen? Als je als AMD zijnde de videokaart verzend naar de standaard site's zul je toch geen fatsoenlijke review krijgen, dus dat lijkt mij sowieso vrij nutteloos om te doen. Zal denk ik zelfs alleen maar negatief werken.
Ik denk dat de performance schatting op basis van clock speed dus wat naar beneden bijgesteld kunnen worden :X
Nee dat is het exemplaar met een TBP van minder dan 300W. Verbruik houdt AMD dus op een constante waarde om vervolgens de kloksnelheid dynamisch te laten om het verbruik niet boven de 300W te laten komen. Dat is identiek als bij de Fury Nano.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 00:27

Damic

Tijd voor Jasmijn thee

Iemand een linkje waar je kan bestellen :(

Ow ow ow ow ow ow https://www.scan.co.uk/pr...tflops-131-fp32-tflops-3x grmbl komt nog eens x aantal £ bij omdat ze SCAN moeten betalen :r

* Damic bestellen doen :W GNI GNI GNI GNI FRIDAY IT'S VEGA TIME :9

[ Voor 92% gewijzigd door Damic op 27-06-2017 19:23 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@-The_Mask- helaas zie je ook wel een hoop CAD etc georienteerde reviewtjes die niet veel verder komen dan specviewperf. En als OpenGL performance een belangrijke (of enige) aankoopfactor is dan is dat ook best een aardige basis.

En de FE wordt dusdanig divers gepositioneerd dat een meer reguliere review ook heel logisch en gewenst is.

Voor deze prijs zijn gamers ook nog geinteresseerd :)

specs


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Ik verwijs er ook hier maar even naar aangezien een van de belangrijkste toepassingen (zelf ben ik ook verslaafd aan MPC-BE + madVR en moet ik nog wat andere Windows-only software gebruiken) hiervan gaming in Linux is en je daarmee de koppeling met grafische kaarten hebt.
Daar word ik nog niet enthousiast van. Een dubbele 480 kan bij Doom net een 1080 bijbenen maar bij de meeste DX11-spellen niet. De 1080 ti is 20-25% sterker dan de 1080? Het ligt er natuurlijk maar aan waar de bottleneck zit bij die VR-test.

[ Voor 33% gewijzigd door Anoniem: 444127 op 27-06-2017 21:28 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SecondGuess
  • Registratie: Augustus 2010
  • Laatst online: 19:03
Volgens mij moeten we allen nog wachten op een degelijke review voor iemand ook maar iets zinnigs kan zeggen over de Vega consumenten kaart.
Amd gaat overduidelijk voor high end segment. Ik denk dat daar de performance vast naar zal zijn.

Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 22:24:
En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again. :+
Ik vind jouw optimisme bewonderenswaardig. Geen nieuws is slecht nieuws in technologie land, of dat is mijn idee in ieder geval. Ik vind de stilte van AMD en het bijna panische gedrag om reviews van Vega te voorkomen eerder beangstigend dan grappig. De stilte rond dit product is in mijn ogen echt geen goed teken. Zelfs voor FE hebben we geen benches en worden er geen samples rondgestuurd. Uitstel voor executie gedrag lijkt het wel...

Als Vega goed is, waarom hebben we dan niks gehoord? Veel mensen zeggen "de drivers hebben nog veel bugs", maar ze kunnen toch wel minstens één game bench teasen. Ze gaan nu in dat laatste maandje nou ook geen wonderen meer verrichten en opens 30% performance vinden via drivers of alle bugs oplossen...

Ik vind het maar niks. Ik hoop op het beste,, omdat ik een Freesync monitor wil kopen, (beter gezegd, geen GSync wil kopen), maar heb nog weinig hoop. Ik wil echt dat de optimisten onder jullie,"I told you so", tegen mij kunnen zeggen over een maandje, begrijp me niet verkeerd, maar vergelijk dit met de Ryzen release en hoeveel we toen al te zien kregen...

[ Voor 4% gewijzigd door MrCharming op 27-06-2017 22:52 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MrCharming schreef op dinsdag 27 juni 2017 @ 22:51:
Ik vind jouw optimisme bewonderenswaardig. Geen nieuws is slecht nieuws in technologie land, of dat is mijn idee in ieder geval. Ik vind de stilte van AMD en het bijna panische gedrag om reviews van Vega te voorkomen eerder beangstigend dan grappig. De stilte rond dit product is in mijn ogen echt geen goed teken. Zelfs voor FE hebben we geen benches en worden er geen samples rondgestuurd. Uitstel voor executie gedrag lijkt het wel...
Of het is zinloos om dergelijke, dure producten rond te sturen naar sites die er geen fatsoenlijke testen mee uit kunnen voeren.
Als Vega goed is, waarom hebben we dan niks gehoord? Veel mensen zeggen "de drivers hebben nog veel bugs", maar ze kunnen toch wel minstens één game bench teasen. Ze gaan nu in dat laatste maandje nou ook geen wonderen meer verrichten en opens 30% performance vinden via drivers of alle bugs oplossen...
En dan teasen ze een benchmark met vroege, en minder dan optimale drivers en dan is het weer Vega is crap. O-)
Het is drivers, drivers en nog eens drivers nu. De theoretische rekenkracht is er zeker, de bottleneck qua shader engines en CU's is er niet meer, en clocks lijken ook een minder groot gat te zijn met Nvidia. Blijft over drivers. Theoretische FP32 zal beter omgezet moeten worden naar echte prestaties in games, en daar heb je gewoon goede drivers voor nodig. Met minder middelen dan Nvidia, zal AMD daar behoorlijk wat tijd voor nodig hebben. Vega moet alleen meteen presteren, en niet zoals de RX4xx eerst onderpresteren en dan inlopen, wat mensen niet door hebben omdat er tussentijds niet gebenched wordt door grote sites. Dat is hier het dilemma voor AMD.

Het is ook nog eens een compleet nieuwe architectuur, de gehele shader pipeline is veranderd, AMD zou kennelijk in staat zijn om specifieke titels te optimaliseren op een per game basis. Ik maak simpelweg geen illusies over de uitdaging die AMD heeft om na twee jaar afwezigheid, en nog langere afwezigheid van echte innovatie, nu Nvidia in te halen. Intel oke, die zaten te slapen, Nvidia niet, anders zaten ze nu nog op Maxwell of zelfs nog op Kepler.
Ik vind het maar niks. Ik hoop op het beste,, omdat ik een Freesync monitor wil kopen, (beter gezegd, geen GSync wil kopen), maar heb nog weinig hoop.

Vergelijk dit met de Ryzen release en hoeveel we toen al te zien kregen...
Volgens mij ben ik al maanden vrij consistent. Ik zeg al maanden dat het waarschijnlijk meer dan de GTX1080 zal zijn, en dan kan het tussen de 1080 en de Ti invallen, Ti en Xp matchen, of sneller zijn. Dat laatste zou ideaal zijn, maar of het gebeurd zien we over een maand. Gebeurd het ruim verslaan niet, dan is dit eigenlijk in het voordeel van de consument, en niet AMD, omdat AMD dan nog harder onder de prijs van Nvidia zal gaan zitten dan ze waarschijnlijk toch al van plan zijn. Heb er persoonlijk ook helemaal geen belang bij voor AMD. Heb geen aandelen, en heb al gekozen voor de RX580. Ik zie wel of Vega 11 een upgrade zal zijn, over een halfjaar ofzo. Vega 10 ga ik toch niet kopen, totale overkill.

Dan Ryzen. Tja, was het niet juist zo dat AMD meteen al aangaf dat ze Intel niet zouden gaan matchen op IPC? ;)

Verder is Intel log, en konden of wilden ze toch niet correct reageren, en wat ze nu doen is maar zeer matig. Dit terwijl AMD rustig haar eerste HEDT platform aan het voorbereiden is, en de aanval heeft geopend op de oh zo lucratieve servermarkt. Bij Nvidia moet je dit niet proberen. Nvidia had preventief gehandeld en de GTX1080Ti zo geplaatst dat deze meteen een probleem voor Vega zou worden. Verder was Volta zoveel mogelijk naar voren gehaald als dit nodig was. Tegen Nvidia lijkt het mij zeer verstandig om niks naar buiten te brengen, en dit zo lang als mogelijk vol te houden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Ik zou de cut van Vega10 niet overkill noemen. Voor 1080p gaming? Ja, behoorlijk! Ook dat is echter betrekkelijk aangezien je voor dezelfde resolutie over een paar jaar heel wat zwaardere graphics gaat hebben dan nu aangezien het weer wat realistischer zal worden. Bijvoorbeeld doordat we standaard goed bewegend haar en goed bewegende kleding gaan zien, ray-tracing meer gebruikt zal worden, de gezichten weer wat gedetailleerder worden...
Het gaat natuurlijk om bang for the buck en de minimale prestatie die je nu en de komende paar jaar wenst. Hoe dat uitvalt zullen we moeten afwachten.
Zou die kleine Vega-kaart de opvolger van Polaris worden? De volle als 680 en cuts daarvan als 670 etc.?
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 22:24:
En er zijn al gaming drivers voor deze GPU dan?
Nee, het zegt allemaal nog steeds helemaal niks, zoals we van AMD gewend zijn geraakt. Zelfs de release van de eerste Vega 10 maakt nog niet duidelijk hoe die nu presteert in games. Dit is echt wel een ander niveau van geheimhouding van AMD hoor. 10/10, would wait voor Vega again. :+
Dat klopt, ik gaf alleen aan dat deze cijfers niet indrukwekkend zijn, als minimum performance indicator. Wat daadwerkelijk de performance wordt, daar zullen we over een week een veel beter beeld van hebben zo gauw de eerste synthetische gamebenchmarks bekend worden. Nu weet ik niet precies in welke mate je die kan verbeteren met drivers (ik schat in dat dat zeer beperkt is), het is bekend dat je voor games heel wat meer kan bereiken met drivers aangezien de programmeurs (of eigenlijk developers?) er vaak een zooitje van maken en ze via de drivers per spel allerlei hacks aan- en uitschakelen die gemaakte fouten in de code opvangen.

Ik verwacht dat de volle Vega gewoon de concurrentie aan kan met de 1080ti, misschien iets minder bij DX11 maar dat maken ze dan wel weer goed bij DX12, Vulkan en nieuwere spellen waarvoor AMD het beter lijkt te doen (console-voordeel?). Aangezien wij toch graag speculeren speculeer ik ook nog even over de prijs: $599-699 voor de watergekoelde versie, 499-599 voor volle versie zonder waterkoeling en $399-450 voor de cut. Hiermee voorzien ze alle segmenten van de markt en is de prijs aantrekkelijk genoeg dat mensen overwegen om het te kopen, veronderstellende dat de cut de GTX 1070 verslaat en in de buurt komt van de GTX 1080 terwijl de volle Vega minstens in de buurt komt van de 1080 ti, toch zeker de watergekoelde versie.
Wanneer AMD het allemaal aankondigt mogen jullie deze reactie citeren en dan zullen we eens zien hoe dicht of ver ik er naast zit. Achteraf praten is gemakkelijk, nu staat het zwart op wit. :P
MrCharming schreef op dinsdag 27 juni 2017 @ 22:51:[/Geen nieuws is slecht nieuws in technologie land
Dat is wel erg gegeneraliseerd. Dat AMD met 52% de zogenaamde ICP voor Ryzen verbeterde t.o.v. de laatste architectuur van AMD in plaats van de geambiëerde 40% kondigde AMD pas weken later aan nadat het via de wandelgangen al bekend was geworden, mogelijk omdat AMD dit graag bewaarde voor het persevenement. Sowieso waren ze bij Ryzen best voozichtig om niet meer te beloven dan wat het zou leveren, ze merkten pas laat op dat de klokfrequenties best meevallen en dergelijke, ze lieten niet weten - ook dit lekte via de wandelgangen - dat de eerder gedemonstreerde klokfrequentie slechts lager lag doordat ze nog een softwarebug aan het oplossen waren...
AMD heeft in het verleden de fout gemaakt om meer te beloven dan wat het kon leveren, de huidige leiders bij AMD begrijpen blijkbaar dat AMD op dit vlak met argensogen wordt gevolgd door veel mensen en dat ze beter minder kunnen beloven dan wat ze waarmaken dan dat ze minder beloven dan wat ze waarmaken.
Nu kan iemand flauw beginnen over te grote gamingbeloftes maar AMD beloofde nooit dat het met Ryzen een hogere FPS zou halen dan de 7700k bij 1080p, het wekte slechts de indruk dat Ryzen geschikt is voor 4k gaming, wat waar bleek te zijn (hier en daar is een patch noodzakelijk of gewenst maar in het algemeen klopt het).

Wat ik verwacht kan je hierboven lezen. Optimisme? Nee, ik denk dat het realistisch is gezien de veranderingen in de architectuur, het feit dat ze lang hebben kunnen werken aan de implementatie en de drivers en dat de AMD-medewerkers ongetwijfeld de druk voelen om er alles aan te doen om Vega op dit niveau te laten presteren, o.a. omdat het PR-technisch slecht is als je een jaar later niet de concurrentie aan kan met Nvidia voor die generatie en omdat je toch graag de kosten (HBM) eruit wil halen met de verkoop van de kaarten. We zullen het de komende maanden wel gaan zien.

[ Voor 75% gewijzigd door Anoniem: 444127 op 28-06-2017 00:16 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 444127 schreef op dinsdag 27 juni 2017 @ 23:45:
Ik zou de cut van Vega10 niet overkill noemen. Voor 1080p gaming? Ja, behoorlijk!
Je vergeet effe al die 144Hz eigenaren die graag zoveel mogelijk fps willen : Ook op zo'n (ondertussen) lage resolutie :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Anoniem: 444127

nero355 schreef op woensdag 28 juni 2017 @ 00:51:
[...]

Je vergeet effe al die 144Hz eigenaren die graag zoveel mogelijk fps willen : Ook op zo'n (ondertussen) lage resolutie :)
Niet vergeten, bewust ervoor gekozen om dat niet als uitzondering te benoemen omdat ik erover twijfel of dat het wel een uitzondering is. Voor die spellen waarbij het er echt toe doet (Overwatch, CS Go...) kom je ook wel ruim boven de 100 met hoge/zeer hoge instellingen met de volle kleine Vega of een cut van de grote Vega. Bij andere spellen (TW3, GTA5...) betwijfel ik dat je ook maar enig verschil merkt tussen FPS=100 en hoger. Verder is het natuurlijk onzinnig om met ultra instellingen te spelen bij dit soort spellen, je ziet echt niet het verschil terwijl je gamet. Ik ben zelf een graphics-hoer zoals ze dat noemen, voor mij hoog/zeer hoog, afhankelijk van het spel. Op een uitzondering na (bijv. textures).

[ Voor 10% gewijzigd door Anoniem: 444127 op 28-06-2017 02:43 ]


Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
DaniëlWW2 schreef op dinsdag 27 juni 2017 @ 23:18:
[...]

Of het is zinloos om dergelijke, dure producten rond te sturen naar sites die er geen fatsoenlijke testen mee uit kunnen voeren.

[...]

En dan teasen ze een benchmark met vroege, en minder dan optimale drivers en dan is het weer Vega is crap. O-)
Als ze één maand voor release nog geen enkele game hebben waar de boel fatsoenlijk werkt, dan hebben ze serieuze problemen. Ik verwacht niet dat we mooie bar charts krijgen voor 30 games met 144FPS in 4K, maar als AMD nu nog niks produceren kan, dan loopt er echt wat mis. Vergeet bijvoorbeeld niet dat we bij Ryzen al teasers hadden waar een Blender test werd gebruikt, waar de kloksnelheden hetzelfde waren. Dat gaf niet alles weg, maar men had wel een idee.

Ik heb het idee dat de launch keer op keer verschoven wordt, onder het mom van meer performance met drivers en dat is prima. Ik wil niet nog een Polaris release. Ik denk echter niet dat AMD nu nog in een paar weken zoveel winst kan boeken. Dat voelt een beetje aan als je scriptie indienen om 23:59 als die om 00:00 binnen moet zijn :p

Overigens zijn er ook review sites die niet enkel games doen hè. Anandtech reviewt gewoon hardware, ook smartphones bijvoorbeeld. Er zijn ook andere sites die meer workstation of HEDT gericht zijn. Daarbij komt ook nog eens kijken dat het gewoon slecht staat, naar mijn mening. Die reviews komen er toch wel, want er is een iemand die $1000 op tafel legt voor die kaart en 'm vervolgens gaat reviewen. Dat komt dan op reddit met 3k upvotes, hier, videocardz, overal en dan is de kat uit de zak. Dat AMD zo angstig de kaarten op de borst drukt staat enkel slecht, in mijn ogen. Daar verschillen we dan van mening over (ook leuk ;) ), maar ik vind het een slechte zet.
Volgens mij ben ik al maanden vrij consistent. Ik zeg al maanden dat het waarschijnlijk meer dan de GTX1080 zal zijn, en dan kan het tussen de 1080 en de Ti invallen, Ti en Xp matchen, of sneller zijn. Dat laatste zou ideaal zijn, maar of het gebeurd zien we over een maand. Gebeurd het ruim verslaan niet, dan is dit eigenlijk in het voordeel van de consument, en niet AMD, omdat AMD dan nog harder onder de prijs van Nvidia zal gaan zitten dan ze waarschijnlijk toch al van plan zijn. Heb er persoonlijk ook helemaal geen belang bij voor AMD. Heb geen aandelen, en heb al gekozen voor de RX580. Ik zie wel of Vega 11 een upgrade zal zijn, over een halfjaar ofzo. Vega 10 ga ik toch niet kopen, totale overkill.

Dan Ryzen. Tja, was het niet juist zo dat AMD meteen al aangaf dat ze Intel niet zouden gaan matchen op IPC? ;)
Nee, matchen deden ze zeker niet, maar 52% gain is heel indrukwekkend. Dat is een van de grootste inhaalslagen geweest die ze ooit gedaan hebben als bedrijf, zeker op CPU gebied. Ze gaven wel aan dat ze verdomd dicht in de buurt zaten. Bij Vega is het doodstil.
Anoniem: 444127 schreef op dinsdag 27 juni 2017 @ 23:45:
Dat is wel erg gegeneraliseerd. Dat AMD met 52% de zogenaamde ICP voor Ryzen verbeterde t.o.v. de laatste architectuur van AMD in plaats van de geambiëerde 40% kondigde AMD pas weken later aan nadat het via de wandelgangen al bekend was geworden, mogelijk omdat AMD dit graag bewaarde voor het persevenement. Sowieso waren ze bij Ryzen best voozichtig om niet meer te beloven dan wat het zou leveren, ze merkten pas laat op dat de klokfrequenties best meevallen en dergelijke, ze lieten niet weten - ook dit lekte via de wandelgangen - dat de eerder gedemonstreerde klokfrequentie slechts lager lag doordat ze nog een softwarebug aan het oplossen waren...
AMD heeft in het verleden de fout gemaakt om meer te beloven dan wat het kon leveren, de huidige leiders bij AMD begrijpen blijkbaar dat AMD op dit vlak met argensogen wordt gevolgd door veel mensen en dat ze beter minder kunnen beloven dan wat ze waarmaken dan dat ze minder beloven dan wat ze waarmaken.
Nu kan iemand flauw beginnen over te grote gamingbeloftes maar AMD beloofde nooit dat het met Ryzen een hogere FPS zou halen dan de 7700k bij 1080p, het wekte slechts de indruk dat Ryzen geschikt is voor 4k gaming, wat waar bleek te zijn (hier en daar is een patch noodzakelijk of gewenst maar in het algemeen klopt het).

Wat ik verwacht kan je hierboven lezen. Optimisme? Nee, ik denk dat het realistisch is gezien de veranderingen in de architectuur, het feit dat ze lang hebben kunnen werken aan de implementatie en de drivers en dat de AMD-medewerkers ongetwijfeld de druk voelen om er alles aan te doen om Vega op dit niveau te laten presteren, o.a. omdat het PR-technisch slecht is als je een jaar later niet de concurrentie aan kan met Nvidia voor die generatie en omdat je toch graag de kosten (HBM) eruit wil halen met de verkoop van de kaarten. We zullen het de komende maanden wel gaan zien.
Maar nu komt er niks uit "de wandelgangen". Ook als het voor persevenementen bewaard wordt, AMD is opvallend stil rond Vega. Er zijn verschillende persevenementen geweest waar ze de kans hadden om iets te laten zien, wat dan ook, maar vervolgens werden er T-shirts weggeven en zeiden ze dat Vega "RX Vega" gaat heten. AMD zwijgt als het graf en we zitten nu een maand voor release en er is niks, maar dan ook niks bekend.

Overigens, en dan word ik misschien een alu-hoedje genoemd, ben ik er van overtuigd dat AMD een handje had in al die lekken. De Ryzen release was zo lek als een mandje. De hoeveelheid informatie die naar buiten kwam was ongelofelijk. Bijna iedere dag of zeker 3-4 keer per week was er een "lek". Prijzen, benchmarks, line-ups, specs van CPUs, power draw info, etc. Achteraf klopt misschien de helft niet, maar er zat een hoop bij wat waar was, of héél dicht in de buurt. Dan ga je mij niet vertellen dat AMD niet af en toe express wat lekte, om hype te creëren, Of de CPU department zit vol met kletsmajoren en de GPU jongens zijn allemaal heel braaf. Ik vind het onwaarschijnlijk.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16
AMD heeft wel vaker dingen goed stil gehouden. Beste voorbeeld is dacht ik de HD5870.

Maar ben het met je eens dat het nu wel stil is. Ik denk ook dat ze misschien bang zijn dat ze worden afgeschoten dat ze op 1080p in DX11 maar 200fps halen ipv de 250 die de GTX1080Ti haalt. Dat hij dan op 4k sneller is doet er niet toe want de Ti is sneller!!11one

Mijn ongezouten mening is dat het mij een worst zal wezen hoe die kaart presteerd in DX11, als hij goed mee kan komen op hoge resoluties dan is dat mij inziens voldoende. Ik zie liever dat hij in DX12/Vulkan overal gehakt van maakt want dat is de toekomst.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21-05 17:52

flessuh

Set sail for fail!

en daar gaan we al...

https://www.reddit.com/r/...h_no_one_will_officially/

Ja, bron is vaak ruk maar toch.

Aan de andere kant kan dit soort "nieuws" AMD toch zover brengen om wat meer informatie uit te brengen, of zou het ze koud laten?

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Workstation gpu's worden nooit groots gereleased en breed gerevieuwed, in dat licht is het niet raar dat er weinig nieuws over de FE is, tenminste het hoort bij het workstation beeld wat amd schept. Neem bijv de GP100; meest high end gpu die er was, ik had ook wel verwacht dat een paar sites er op gingen gamen maar nada niks.

De comments op reddit geven trouwens meteen het gebrek aan begrip omtrent workstation gpus weer bij een grote groep..

[ Voor 15% gewijzigd door maratropa op 28-06-2017 11:04 ]

specs


Acties:
  • 0 Henk 'm!

  • FortyOne
  • Registratie: Juni 2008
  • Laatst online: 20-03 20:24
maratropa schreef op woensdag 28 juni 2017 @ 11:02:
Workstation gpu's worden nooit groots gereleased en breed gerevieuwed, in dat licht is het niet raar dat er weinig nieuws over de FE is, tenminste het hoort bij het workstation beeld wat amd schept. Neem bijv de GP100; meest high end gpu die er was, ik had ook wel verwacht dat een paar sites er op gingen gamen maar nada niks.

De comments op reddit geven trouwens meteen het gebrek aan begrip omtrent workstation gpus weer bij een grote groep..
De echte Vega workstation kaart wordt waarschijnlijk de WX9100:
https://videocardz.com/70...pro-wx-9100-with-vega-gpu

De FE versie wordt breder in de markt gezet, dus reviews zijn wel op zijn plaats vind ik. Sowieso alleen al om het feit dat er door veel mensen (heel lang) naar is uitgekeken en er dus veel aandacht voor de eerste resultaten zal zijn. Ik zou dan als AMD zijnde liever een paar kwalitatief goede reviews hebben door bekende sites - die de resultaten ook in het juiste licht kunnen zetten - dan individuen die een paar benchmarkjes gaan draaien en dit op het web gooien.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MrCharming schreef op woensdag 28 juni 2017 @ 09:58:
Als ze één maand voor release nog geen enkele game hebben waar de boel fatsoenlijk werkt, dan hebben ze serieuze problemen. Ik verwacht niet dat we mooie bar charts krijgen voor 30 games met 144FPS in 4K, maar als AMD nu nog niks produceren kan, dan loopt er echt wat mis. Vergeet bijvoorbeeld niet dat we bij Ryzen al teasers hadden waar een Blender test werd gebruikt, waar de kloksnelheden hetzelfde waren. Dat gaf niet alles weg, maar men had wel een idee.

Ik heb het idee dat de launch keer op keer verschoven wordt, onder het mom van meer performance met drivers en dat is prima. Ik wil niet nog een Polaris release. Ik denk echter niet dat AMD nu nog in een paar weken zoveel winst kan boeken. Dat voelt een beetje aan als je scriptie indienen om 23:59 als die om 00:00 binnen moet zijn :p
Waar zeg ik precies dat ze nu niet al wat drivers klaar hebben? Ik mag toch hopen dat ze voor de meeste games tenminste de basis af hebben en nu aan het bijschaven zijn. Verder vertik ik het gewoon om mee te gaan met al het negativisme rond Vega, totdat ik echte resultaten zie. Zo ongelofelijk veel mensen die conclusies trekken aan de hand van een techdemo van een paar seconden. Het zegt bar weinig.

Wat we weten is dat AMD de GCN architectuur heeft verlaten, de complete frondend van de GPU heeft omgegooid zodat ze niet nog een "Fiji" krijgen en met veel hogere clocks komen. Tenzij er iets fundamenteel mis is, zie ik niet in waarom Vega 10 niet tenminste de GTX1080 ruim zou moeten verslaan. Dan kom je bij GP102 uit en je positionering ten opzichte hiervan.

AMD haar probleem is dat Nvidia al een complete line-up heeft, met prijzen kan spelen, of een Pascal refresh kan uitvoeren, of toch Volta. Als Vega 10 nu wint van GP102, dan is dat voor een paar maanden, tenzij Vega 10, GP102 echt sloopt, en de concurrentie aankan met de opvolger van Nvidia. Is het een match, dan zal AMD onder de prijs gaan zitten, Nvidia zal reageren en dan komt Vega 10 een niveautje lager te staan bij de volgende Nvidia release. Enthousiast is dan nog steeds Nvidia only, maar high end is concurrentie.
Overigens zijn er ook review sites die niet enkel games doen hè. Anandtech reviewt gewoon hardware, ook smartphones bijvoorbeeld. Er zijn ook andere sites die meer workstation of HEDT gericht zijn. Daarbij komt ook nog eens kijken dat het gewoon slecht staat, naar mijn mening. Die reviews komen er toch wel, want er is een iemand die $1000 op tafel legt voor die kaart en 'm vervolgens gaat reviewen. Dat komt dan op reddit met 3k upvotes, hier, videocardz, overal en dan is de kat uit de zak. Dat AMD zo angstig de kaarten op de borst drukt staat enkel slecht, in mijn ogen. Daar verschillen we dan van mening over (ook leuk ;) ), maar ik vind het een slechte zet.
Wederom, wat is het alternatief? Nvidia zal reageren zodra ze accurate informatie hebben. Zelfs nu Nvidia waarschijnlijk een FE Vega GPU heeft bemachtigd en aan het testen is geslagen, zullen ze nog steeds niet weten hoe die precies in games presteert, want geen drivers. Dat moeten ze weten, omdat Nvidia preventief zal willen reageren om de RX Vega release te ondermijnen. Komt Nvidia er achter dat het maximaal 1080Ti is, dan kunnen ze zich voorbereiden op een pricedrop. Voorbij GP102, dan snel de volgende generatie eruit pushen, onder de 1080Ti? Dan kijken ze wat ze met de GTX1070/80 kunnen doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
DaniëlWW2 schreef op woensdag 28 juni 2017 @ 11:51:
Wat we weten is dat AMD de GCN architectuur heeft verlaten
Verlaten weet ik niet, maar wel goed omgegooid:
Rys Sommefeldt schreef:
Full architecture details will come out later, can't spoil that, but it is FL 12_1 top tier for everything.
Betekent dat gameworks minder impackt gaat hebben op AMD? (Conservative rasterization en Rasterizer-ordered views)

Acties:
  • +1 Henk 'm!
Niet direct dat GW minder invloed heeft, maar wel dat die features nu wellicht gebruikt gaan worden. CR en ROVs worden nu niet gebruikt omdat AMD ze niet ondersteunt en Nvidia's ondersteuning voor CR matig is. GM20x ondersteunt slechts tier 1, wat nauwelijks voordelen geeft over een compute-gebaseerde emulatie.

Voorlopig de beperkingen aan Nvidia's kant:
- Tier 2 CR
- Tier 2 resource binding
- Geen stencil refs in pixel shaders (geen grote feature, maar bespaart wel weer wat roundtrips)
- UAV slots zijn beperkt tot 64
- Heaps zijn beperkt tot 1 type resource (tier 1)

Laatste 4 punten zijn in GCN1 allemaal al de top tier; Intel heeft deze ook allemaal op top tier in Skylake en Kaby Lake (en enkele zelfs in Haswell al).

We zullen deze features voorlopig nog niet in games zien. Ze worden nog veel te beperkt ondersteund ;)


@Anoniem: 444127 ook in games als TW3, GTAV en dergelijke is het gewoon wenselijk een hogere framerate te hebben. En als je dan een 120/144 Hz monitor hebt, wil je het liefst ook tegen die limiet aan zitten om tearing te voorkomen, ook al is tearing een stuk slechter zichtbaar door de refreshrate.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21-05 17:52

flessuh

Set sail for fail!

Ik heb er wel vertrouwen in in ieder geval. Hoop alleen dat ze ook hier wat goed verkrijgbaar zijn aangezien mijn huidige PC steeds harder achteruit gaat. Half juli (hopelijk) nieuwe beeldschermen van Samsung op de markt en dan maandje later nieuwe PC om de boel aan te drijven!

Aan de statistieken etc te zien, plus wat we tot nu toe aan performance hebben gezien moet AMD hier toch wel een goed product in handen hebben. Enkel hopen dat Nvidia de prijzen niet dusdanig naar beneden gooit dat AMD te weinig marge ruimte houd. R&D moet toch ergens van betaald worden :P

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Werelds schreef op woensdag 28 juni 2017 @ 12:13:
@Anoniem: 444127 ook in games als TW3, GTAV en dergelijke is het gewoon wenselijk een hogere framerate te hebben. En als je dan een 120/144 Hz monitor hebt, wil je het liefst ook tegen die limiet aan zitten om tearing te voorkomen, ook al is tearing een stuk slechter zichtbaar door de refreshrate.
Als je geen FreeSync-monitor hebt, ok. Het punt is dat er een sterk verminderde meerwaarde is van de hogere FPS naarmate die hoger wordt. Simpel gesteld, tot de 75 FPS merk je nog veel verbetering in vergelijking met 60 FPS, tussen de 75 en de 100 FPS merk je nog enige verbetering en daarboven moet je actief gaan zoeken naar het verschil. Voor competitieve online gaming op een hoog niveau waarbij 0,005 s het verschil maakt doet het er toe, als je geen FreeSync zou gebruiken dan doet het er toe, in andere scenario's zit het volgens mij meer in het kopje dat je boven de 100 FPS moet zitten als je TW3 of GTAV speelt. Wie zo'n monitor heeft kan eens een blind experiment opzetten, laat iemand anders de FPS wijzigen (door met de grafische instellingen te spelen) en zie of dat je het verschil merkt met gewone gameplay (zonder wild met de muis te bewegen).

[ Voor 21% gewijzigd door Anoniem: 444127 op 28-06-2017 13:36 ]

Pagina: 1 ... 14 15 Laatste