CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 138 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 11 Laatste
Acties:
  • 71.101 views

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 03:11

hidde212

Free your mind...

Nieuwe beschrijving van Vega's architectuur: Next Compute Unit.
Vega makes use of a brand new graphics architecture called Next Compute Unit (NCU). The new design brings several advantages over the predecessor, but the key one is its ability to handle simultaneously processing variable length wavefronts.
Eerste Google link

...and your ass will follow


Acties:
  • 0 Henk 'm!
Next Compute Unit
Anoniem: 444127 schreef op maandag 2 januari 2017 @ 19:55:
[...]

Iedereen hier kent die slides. :)
De bewering (AMD) dat Vega-kaarten HBM2 bevatten is niet gelijk aan de bewering dat alle Vega-kaarten HBM2 bevatten.
Het was niet slechts een forumgast die zoiets riep, als dat het geval was dan zou ik het niet melden.
YouTube: AMD VEGA To Not Just For High End | Vega Will Feature HBM2 & GDD...
"Gerucht" lijkt me duidelijk; ik hecht er zelf nog weinig waarde aan en ik wacht het rustig af. Als ik er meer waarde aan zou hechten dan zou ik een formulering zoals "er zijn aanwijzingen dat..." gebruiken.
Waar wordt dan iets genoemd wat als gerucht bestempeld kan worden in dat filmpje, waarbij Vega geen HBM2 krijgt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

OC3D.net: AMD to announce FreeSync 2 at CES 2017


" Over time AMD promised that the FreeSync Standard would evolve over time, first upgrading their GPU drivers to support Low Framerate Compensation and now to support low latency HDR. "

[ Voor 38% gewijzigd door Help!!!! op 03-01-2017 10:01 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sjettepetJR.
  • Registratie: Mei 2013
  • Laatst online: 02-04 09:05
Help!!!! schreef op dinsdag 3 januari 2017 @ 10:00:
OC3D.net: AMD to announce FreeSync 2 at CES 2017


" Over time AMD promised that the FreeSync Standard would evolve over time, first upgrading their GPU drivers to support Low Framerate Compensation and now to support low latency HDR. "
Ik hoop dat dit gaat zorgen dat er ook FreeSync op TV's aan gaat komen. De HDR-'hype' is dankzij de consoles al wat groter geworden.
Zijn er eigenlijk al HDR monitoren op de markt?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Volgensmij zijn er nog geen (gaming) HDR PC monitoren. Die zullen het komende jaar misschien gaan verschijnen.

Er zijn echter nog wel wat flinke hobbels. Games moeten het supporten en zeker voor hogere resoluties en hogere refreshrates is er veel bandbreedte nodig dus je hebt ook de nieuwste connectivity nodig, issues met standaarden etc..

(nVidia zal vast wel weer een manier vinden om het in eerste instantie alleen in hun eigen ecosystem aan te bieden :P )

Denk dat het nog wel even duurt voordat we op 1440P of hoger en 120+hz in HDR aan het gamen bent..

Hier een aardig artikel. https://www.rockpapershot...d-the-pc-its-complicated/

Goede nieuws is dat Freesync inmiddels voorbereid lijkt te zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Help!!!! schreef op dinsdag 3 januari 2017 @ 15:20:
(nVidia zal vast wel weer een manier vinden om het in eerste instantie alleen in hun eigen ecosystem aan te bieden)
Die zullen wel iets vergelijkbaars in de volgende iteratie van gsync hebben ingebouwd.

Wat dat betreft misschien ook slim om dit als freesync 2 te marketen in plaats van een andere naam voor deze feature te verzinnen, houdt het lekker overzichtelijk.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 02-06 15:55

MrVegeta

! Dolf is rechtvaardig !

Ik weet niet of ik fan ben van Freesync2. Dat ligt ook wel aan wat de implementatie precies gaat worden, maar als het betekend dat je met je nieuwe Vega GPU geen goed gebruik maakt van eerste generatie Freesync beeldschermen zou de hele tweedehandsmarkt voor monitoren weg vallen. Lijkt me niet ideaal.

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
haarbal schreef op dinsdag 3 januari 2017 @ 15:52:
[...]

Wat dat betreft misschien ook slim om dit als freesync 2 te marketen in plaats van een andere naam voor deze feature te verzinnen, houdt het lekker overzichtelijk.
Lijkt mij eerder dat het juist voor meer verwarring gaat zorgen. Freesync 2 klinkt meer als opvolger van de originele Freesync dan als een nieuwe techniek imo.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 00:29

Compizfox

Bait for wenchmarks

MrVegeta schreef op dinsdag 3 januari 2017 @ 16:01:
Ik weet niet of ik fan ben van Freesync2. Dat ligt ook wel aan wat de implementatie precies gaat worden, maar als het betekent dat je met je nieuwe Vega GPU geen goed gebruik maakt van eerste generatie Freesync beeldschermen zou de hele tweedehandsmarkt voor monitoren weg vallen. Lijkt me niet ideaal.
Waar haal je vandaan dat dat zo zou zijn?

Ik vind de naam FreeSync 2 inderdaad verwarrend (het is namelijk niet de opvolger van FreeSync) maar hoe ik het lees is het alleen een manier om latency bij HDR-monitoren te omzeilen. Ik lees nergens dat Vega-GPUs geen normale FreeSync ondersteunen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 13-06 18:03

Trygve

Redacteur
Zoals ik het lees is FS2 geen opvolger van FS1, maar meer een aanvulling:
AMD says FreeSync 2 monitors will have to support HDR and wide color gamuts by default, and they'll have to undergo a strict certification process. FreeSync 2 displays will also be required to have Low Framerate Compensation capability. Because of those stricter implementation requirements, FreeSync 2 won't replace the original FreeSync.
Bron
Goed dat ze dit doen, het grote aanbod aan FreeSync-monitoren is fijn maar het is soms diep spitten in de specificatiedocumenten op zoek naar de min/max range. Bij FS2 is de max range dus sowieso 2.5 hoger dan de min range.

[ Voor 8% gewijzigd door Trygve op 03-01-2017 16:29 ]


Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 02-06 15:55

MrVegeta

! Dolf is rechtvaardig !

Compizfox schreef op dinsdag 3 januari 2017 @ 16:22:
[...]

Waar haal je vandaan dat dat zo zou zijn?

Ik vind de naam FreeSync 2 inderdaad verwarrend (het is namelijk niet de opvolger van FreeSync) maar hoe ik het lees is het alleen een manier om latency bij HDR-monitoren te omzeilen. Ik lees nergens dat Vega-GPUs geen normale FreeSync ondersteunen.
True ik jumpte de gun een beetje. Het zal wel backwards compatable zijn :)

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
Het is gewoon backwards compatible. FS2 is gewoon een aanvullende spec waarbij LFC nu dus een hardware vereiste is; het is een beetje als DP1.2a en Adaptive Sync ;)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Anandtech ook
http://www.anandtech.com/...ing-latency-of-hdr-gaming

Die low latency HDR modus moet blijkbaar wel specifiek door het spel worden ondersteund.

LFC verpichten zorgt er iig voor dat alle freesync 2 schermen een bruikbaar interval hebben. Ik heb niet het idee dat ik LFC mis op m'n 40-75hz LG, onder de 40 gaat hij tearen, valt op die framerates niet echt meer op, maar er zijn ook schermen als deze met 48 tot 60, beetje krap.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!
FreeSync zonder LFC kan ook prima idd, maar dan moet je wel gebruik maken van FRTC bij zo'n kleine range. Anders loopt het vrij snel niet meer soepel omdat je buiten de FreeSync range van de monitor zit.

Met LFC heb je sowieso een monitor met een hele ruime range. Je moet immers een range hebben waarbij de maximale framerate minimaal 2,5 maal hoger ligt als de minimale. Als je dan onder de minimale framerate zakt dan heb je LFC om dit op te vangen en als je er overheen gaat valt het ook minder op doordat de framerate al erg hoog is. Het is dus o.a. ook meer noob proof en de slechtste uitvoering is nog steeds erg goed.

[ Voor 4% gewijzigd door -The_Mask- op 03-01-2017 17:56 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
FreeSync 2: Tighter Standards for Variable Refresh
Earlier I mentioned that FreeSync 2 is really a collection of several idea/features, and while HDR is certainly the marquee feature of FreeSync 2, it’s not the only feature. With FreeSync 2 AMD will also be tightening the standards for what variable refresh functionality that approved monitors need to support.

The open nature of FreeSync has led to a large number of monitors that support the technology across a wide range of prices, but it has also led to a wide variety in how useful their FreeSync implementations are. A number of basic monitors on the market only support a range of 30Hz to 60Hz, for example. And while this is still useful, such a narrow range means that these monitors don’t deliver a very good experience below their minimum refresh rate. These monitors can’t support FreeSync’s Low Framerate Compensation (LFC) technology, which requires the maximum framerate to be at least 2.5x the minimum framerate (or 75Hz for our 30Hz monitor).


As a result, AMD has tightened the standards for FreeSync 2. All FreeSync 2 certified monitors will be required to support LFC, which in turn means they’ll need to support a wide enough range of refresh rates to meet the technology’s requirements. Consequently, anyone who buys a FreeSync 2 monitor will be guaranteed to get the best variable refresh experience on an AMD setup, as opposed to the less consistent presence of LFC on today’s FreeSync monitors.


Similar to this and AMD’s HDR efforts with FreeSync 2, AMD will also be mandating a general low latency requirement for the new standard. It’s not fully clear just what this will entail, but at a high-level AMD is going to require that monitors be low latency in SDR mode as well as HDR.
Een hele goede zet van AMD! voor de niet technische eindgebruikers die nu freesync schermen kopen is dit heel goed. Want aan van die schermen met een range van 48-60hz heb je in mijn ogen niets.
De 35-90 die ik nu heb is wel aardig maar zou nog wel beter mogen.
Dit is in ieder geval een stap in de goede richting dat je met een Freesync 2 scherm een aanzienlijk betere ervaring hebt als met sommige freesync 1 schermen nu. Er zijn er die het wel goed implementeren maar ik zie veel schermen met een veel te beperkte range.

Daarnaast is het ook heel mooi dat het werkt voor GCN 1.1+ kaarten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Astennu schreef op dinsdag 3 januari 2017 @ 17:59:
[...]
Want aan van die schermen met een range van 48-60hz heb je in mijn ogen niets.
Alles cappen op 55 en hopen dat je nooit dropt :P
-The_Mask- schreef op dinsdag 3 januari 2017 @ 17:55:
Het is dus o.a. ook meer noob proof
Ook belangrijk idd.

[ Voor 26% gewijzigd door haarbal op 03-01-2017 18:18 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
haarbal schreef op dinsdag 3 januari 2017 @ 18:12:
[...]

Alles cappen op 55 en hopen dat je nooit dropt :P


[...]

Ook belangrijk idd.
Tja daar heb je geen freesync voor nodig. Dan pak je gewoon een cap op 60 kan je je oude scherm gewoon blijven gebruiken :P

Persoonlijk vind ik 90fps wel veel lekkerder. Bij 120 zie ik ook nog verschil. Bij 144 niet meer.
Maar een maat van mij zag het verschil tussen 60 en 144 niet. Dus het zal per persoon verschillen of je er wat aan hebt of niet. Voor mij was 120+ echt een verademing. Meestal draai ik gewoon 144Hz met een cap op 144FPS echter kan mijn huidige RX480 dat niet aan :P

Bij sommige games gebruik ik freesync met een 89FPS cap in de driver dat werkt ook erg goed. Maar als ik ver boven de 90 FPS kan komen ga ik toch voor 144 non sync.
Ik hoop dat er nog schermen gaan komen met een groter bereik bv 30-120 of 144. En dan geen TN scherm maar IPS of VA.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 3 januari 2017 @ 18:43:
[...]


Tja daar heb je geen freesync voor nodig. Dan pak je gewoon een cap op 60 kan je je oude scherm gewoon blijven gebruiken :P
Dan heb je geen FreeSync en zijn de frames niet in sync met de verversing van de monitor. Dat is het grootste voordeel en zorgt voor de soepele ervaring.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
haarbal schreef op dinsdag 3 januari 2017 @ 17:29:
Anandtech ook
http://www.anandtech.com/...ing-latency-of-hdr-gaming

Die low latency HDR modus moet blijkbaar wel specifiek door het spel worden ondersteund.

LFC verpichten zorgt er iig voor dat alle freesync 2 schermen een bruikbaar interval hebben. Ik heb niet het idee dat ik LFC mis op m'n 40-75hz LG, onder de 40 gaat hij tearen, valt op die framerates niet echt meer op, maar er zijn ook schermen als deze met 48 tot 60, beetje krap.
-The_Mask- schreef op dinsdag 3 januari 2017 @ 17:55:
FreeSync zonder LFC kan ook prima idd, maar dan moet je wel gebruik maken van FRTC bij zo'n kleine range. Anders loopt het vrij snel niet meer soepel omdat je buiten de FreeSync range van de monitor zit.

Met LFC heb je sowieso een monitor met een hele ruime range. Je moet immers een range hebben waarbij de maximale framerate minimaal 2,5 maal hoger ligt als de minimale. Als je dan onder de minimale framerate zakt dan heb je LFC om dit op te vangen en als je er overheen gaat valt het ook minder op doordat de framerate al erg hoog is. Het is dus o.a. ook meer noob proof en de slechtste uitvoering is nog steeds erg goed.
Om dit even te verhelderen voor diegenen die het niet weten: LFC kun je ook met FS1 hebben, zonder dat je op FRTC aangewezen bent - mits je monitor een maximum refresh rate heeft die 2,5x hoger is dan het minimum. In die gevallen doet AMD het gewoon in de driver.

In het geval van haarbal's monitor werkt dat niet: 40 * 2,5 = 100 Hz als minimale maximum.

Met de meest populaire FS modellen (Asus MG2x8Q, Acer XF270HU, BenQ XL2730Z) is dat echter wel het geval. Je hebt dan meestal 35-90 (35 * 2,5 = 87,5) of 40-144 als range. Met deze modellen is de effective range net als bij Nvidia gewoon "0" tot 90 of 144 Hz. De oplossing die AMD en Nvidia toepassen is identiek. Enige verschil is dat Nvidia dit in hun module doet, AMD in de driver.

Wat AMD met FS2 doet is dit verhaal verplicht te stellen aan de monitor kant, net zoals Nvidia dit forceert met hun module. Het betekent ook dat de driver minder werk hoeft te doen en dat je inderdaad verzekerd bent van een nuttige range. Nadeel is wel dat AMD er dus minder controle over zal hebben.

En AMD kennende hebben ze er al voor gezorgd dat de belangrijkste scaler fabrikanten (Realtek, Novatek, MStar - de 3 die al vanaf dag 1 meewerken en waar jij als lezer van dit verhaal waarschijnlijk een scaler van hebt als je geen G-Sync monitor hebt) dit al standaard in hun Adaptive Sync (en dus FreeSync) capabele chips stoppen. Als ik moet gokken zijn ze hier al mee bezig voordat LFC in de driver kwam en zullen die scalers dus op korte termijn in monitors zitten.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Astennu schreef op dinsdag 3 januari 2017 @ 18:43:
Bij sommige games gebruik ik freesync met een 89FPS cap in de driver dat werkt ook erg goed.
Ik cap met ingame limiters als dat mogelijk is, scheelt weer latency.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
-The_Mask- schreef op dinsdag 3 januari 2017 @ 19:05:
[...]
Dan heb je geen FreeSync en zijn de frames niet in sync met de verversing van de monitor. Dat is het grootste voordeel en zorgt voor de soepele ervaring.
Nee klopt maar dan zit je wel heel dicht bij je refresh rate. Al kan het nog steeds out of sync gaan.
Nja in dat geval kun je beter vsync gebruiken als je toch fixed 60 gaat draaien.

Hele idee van free sync is dat je juist over een heel bereik mooi in sync blijft. Als het dan even zwaar wordt in het spel dat je scherm nog steeds mooi in sync is. Met 48 als minium en 60 max is dat mooi waardesloos.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 3 januari 2017 @ 19:26:
[...]


Nee klopt maar dan zit je wel heel dicht bij je refresh rate. Al kan het nog steeds out of sync gaan.
Nja in dat geval kun je beter vsync gebruiken als je toch fixed 60 gaat draaien.
Nee want bij Vsync drop je direct naar 30 frames als je de 60 niet meer haalt en je hebt last van vertragingen. Bij een kleine FreeSync range tussen de 48 en 60 heb je dus tot 48 nog een soepele ervaring en maakt het dus niet uit als je soms de 60 net niet haalt. Zo lang je maar niet onder de 48 komt want dan loopt het weer slecht.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
-The_Mask- schreef op dinsdag 3 januari 2017 @ 19:32:
[...]

Nee want bij Vsync drop je direct naar 30 frames als je de 60 niet meer haalt en je hebt last van vertragingen. Bij een kleine FreeSync range tussen de 48 en 60 heb je dus tot 48 nog een soepele ervaring en maakt het dus niet uit als je soms de 60 net niet haalt. Zo lang je maar niet onder de 48 komt want dan loopt het weer slecht.
De kans dat die games waar 60 niet te halen is ook proberen hebben met 48 zijn imo vrij groot. Ja je hebt voordeel maar het is minimaal. Blijft in mijn ogen een waardeloze implementatie. Die 35-90 van asus is tenminste nog nuttig. Al zie ik liever 25-30 als min range met een top van 120-144. Helaas is dat bij freesync nog lastig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Ik denk toch dat je beter vsync uit kan hebben en dan (met ingame limiter) cappen onder de max van je freesync range.

Zelf doe ik meestal 10% eronder, als je er te dicht op gaat zitten zal je af en toe nog tearing zien omdat een frame soms een stuk sneller klaar is dan de vorige.

LFC doet dan volgens mij ook niets (is voor vsync aan), hij doet gewoon de refresh wanneer hij het niet meer uit kan stellen en als de nieuwe frame klaar is zie je een tearlijn, maar dat valt me niet zo op als de fps toch al semi waardeloos is.

Zelfde geldt voor gsync, maar die hebben meestal een hele grote range, dus zal je minder snel aan de min en max refresh komen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 444127

sjettepetJR. schreef op dinsdag 3 januari 2017 @ 14:18:
[...]


Ik hoop dat dit gaat zorgen dat er ook FreeSync op TV's aan gaat komen. De HDR-'hype' is dankzij de consoles al wat groter geworden.
Zijn er eigenlijk al HDR monitoren op de markt?
Voor de PC's gaat het helaas waarschijnlijk nog jaren duren voordat HDR ertoe doet. Eerst moeten er goede HDR-monitors waarmee je prettig kan gamen (input lag en refresh rate >>60 Hz), daarna moet je nog een paar jaar wachten voordat ze betaalbaar worden. Het is maar de vraag of dat mensen die een RX 480 hebben of een Vega kaart gaan kopen op dat moment nog die kaart hebben. Ik hoop dat we dan ook echt 10-bit kleur gaan krijgen (niet kunstmatig).

[ Voor 5% gewijzigd door Anoniem: 444127 op 03-01-2017 22:59 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
haarbal schreef op dinsdag 3 januari 2017 @ 21:59:
Ik denk toch dat je beter vsync uit kan hebben en dan (met ingame limiter) cappen onder de max van je freesync range.

Zelf doe ik meestal 10% eronder, als je er te dicht op gaat zitten zal je af en toe nog tearing zien omdat een frame soms een stuk sneller klaar is dan de vorige.

LFC doet dan volgens mij ook niets (is voor vsync aan), hij doet gewoon de refresh wanneer hij het niet meer uit kan stellen en als de nieuwe frame klaar is zie je een tearlijn, maar dat valt me niet zo op als de fps toch al semi waardeloos is.

Zelfde geldt voor gsync, maar die hebben meestal een hele grote range, dus zal je minder snel aan de min en max refresh komen.
Nergens voor nodig. Vsync inderdaad altijd uit als je Freesync hebt. Ik cap hem er altijd 1 fps onder dus als mijn max 90 is pak ik 89. Nooit tearing gehad. Soms schiet hij dan even naar 90. Daarom dus ook 89. Met 90 als max had je dat af en toe wel. Maar dit werkt hier goed.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
Astennu schreef op dinsdag 3 januari 2017 @ 21:16:
Al zie ik liever 25-30 als min range met een top van 120-144. Helaas is dat bij freesync nog lastig.
haarbal schreef op dinsdag 3 januari 2017 @ 21:59:
Zelfde geldt voor gsync, maar die hebben meestal een hele grote range, dus zal je minder snel aan de min en max refresh komen.
Jullie zien dit volledig verkeerd.

G-Sync maakt niet grotere ranges mogelijk of wat dan ook. Je ziet met FreeSync alleen vaker van die kleine ranges omdat het simpelweg zo veel meer toegepast wordt. Het soort panelen waar je deze refresh rates op ziet kunnen simpelweg niet harder; of beter gezegd, zo hard laat men ze niet gaan. Het gaat namelijk in de meeste gevallen om veel voorkomende panelen. Bijvoorbeeld het 3440x1440 AH-IPS paneel van LG, dat op 40-75 draait.

Datzelfde paneel gebruiken Acer en ASUS ook in enkele modellen en dan draait het op "100 Hz" door middel van "overklokken". De Acer X34 en Asus PG348Q. En wat doen ze dan?

- Begin op 500 Euro want het is voor gaming
- G-Sync module er in: +200
- "OVERCLOCKED 100 Hz" op de doos: +150
- In speciale ULTRA DELUXE gaming reeks uitbrengen: +250

Eind resultaat zijn displays van met prijskaartjes met de 4 cijfers voor de komma. Wat krijg je dan? Een paneel dat harder draait dan waar het eigenlijk voor gemaakt is en dus ook bij heel veel mensen gewoon die 100 Hz uberhaupt niet haalt; of simpelweg snel kapot gaat. Los van de standaard baggere bouwkwaliteit. Met de X34A heeft Acer besloten de panelen eerst te testen zodat je er in elk geval relatief zeker van kunt zijn dat je die 100 Hz haalt.

Exact hetzelfde paneel vind je in enkele andere displays (zo uit m'n hoofd; LG 34UM88?), maar dan met FreeSync voor de helft van de prijs. Als je geluk hebt krijg je die ook wel op 100 Hz. De kans is daarbij niet kleiner dan bij de dure gaming displays, het is niet alsof Asus en Acer alleen A+ panelen afnemen.

Het heeft gewoon niets met GS of FS te maken, maar alles met de marketing. GS maakt die refresh rates niet mogelijk, de prijs waaraan men deze displays verkoopt maakt dat mogelijk.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Astennu schreef op dinsdag 3 januari 2017 @ 23:30:
[...]


Nergens voor nodig. Vsync inderdaad altijd uit als je Freesync hebt. Ik cap hem er altijd 1 fps onder dus als mijn max 90 is pak ik 89. Nooit tearing gehad. Soms schiet hij dan even naar 90. Daarom dus ook 89. Met 90 als max had je dat af en toe wel. Maar dit werkt hier goed.
AdoredTV moest naar 58 FPS toe op een 60 Hz-monitor. Met 59 FPS kreeg hij toch nog af en toe een overshoot boven de 60,0 of zo.
Werelds schreef op woensdag 4 januari 2017 @ 00:24:
Exact hetzelfde paneel vind je in enkele andere displays (zo uit m'n hoofd; LG 34UM88?), maar dan met FreeSync voor de helft van de prijs. Als je geluk hebt krijg je die ook wel op 100 Hz. De kans is daarbij niet kleiner dan bij de dure gaming displays, het is niet alsof Asus en Acer alleen A+ panelen afnemen.
Jij gaf aan dat het ook een aardig risico voor de levensduur van je monitor is om op 100 Hz te overclocken, als je al 100 Hz haalt. Wat als je voor 80-90 Hz zou kiezen? Nog steeds veel beter dan 60 Hz. maar naar ik aanneem veel realistischer en minder problematisch.
Klein vraagje. Hoe doe je dat overklokken, via de GUI van de monitor of via software waarmee je het hackt (vergelijkbaar met hoe je het bereik van FreeSync kan veranderen)? Geen ervaring mee.

[ Voor 45% gewijzigd door Anoniem: 444127 op 04-01-2017 02:31 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
Werelds schreef op woensdag 4 januari 2017 @ 00:24:
[...]


[...]

Jullie zien dit volledig verkeerd.

G-Sync maakt niet grotere ranges mogelijk of wat dan ook. Je ziet met FreeSync alleen vaker van die kleine ranges omdat het simpelweg zo veel meer toegepast wordt. Het soort panelen waar je deze refresh rates op ziet kunnen simpelweg niet harder; of beter gezegd, zo hard laat men ze niet gaan. Het gaat namelijk in de meeste gevallen om veel voorkomende panelen. Bijvoorbeeld het 3440x1440 AH-IPS paneel van LG, dat op 40-75 draait.

Datzelfde paneel gebruiken Acer en ASUS ook in enkele modellen en dan draait het op "100 Hz" door middel van "overklokken". De Acer X34 en Asus PG348Q. En wat doen ze dan?

- Begin op 500 Euro want het is voor gaming
- G-Sync module er in: +200
- "OVERCLOCKED 100 Hz" op de doos: +150
- In speciale ULTRA DELUXE gaming reeks uitbrengen: +250

Eind resultaat zijn displays van met prijskaartjes met de 4 cijfers voor de komma. Wat krijg je dan? Een paneel dat harder draait dan waar het eigenlijk voor gemaakt is en dus ook bij heel veel mensen gewoon die 100 Hz uberhaupt niet haalt; of simpelweg snel kapot gaat. Los van de standaard baggere bouwkwaliteit. Met de X34A heeft Acer besloten de panelen eerst te testen zodat je er in elk geval relatief zeker van kunt zijn dat je die 100 Hz haalt.

Exact hetzelfde paneel vind je in enkele andere displays (zo uit m'n hoofd; LG 34UM88?), maar dan met FreeSync voor de helft van de prijs. Als je geluk hebt krijg je die ook wel op 100 Hz. De kans is daarbij niet kleiner dan bij de dure gaming displays, het is niet alsof Asus en Acer alleen A+ panelen afnemen.

Het heeft gewoon niets met GS of FS te maken, maar alles met de marketing. GS maakt die refresh rates niet mogelijk, de prijs waaraan men deze displays verkoopt maakt dat mogelijk.
Mijn Asus scherm kan 144hz, freesync range is maar 35-90. Ik denk toch dat dat iets met de scaler te maken heeft / de implementatie van freesync.
Gsync maakte wel makkelijker lagere refresh rates mogelijk door frames opnieuw naar het scherm te sturen Omdat het beeld wat zichtbaar is niet vervalt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 4 januari 2017 @ 06:38:
[...]


Mijn Asus scherm kan 144hz, freesync range is maar 35-90. Ik denk toch dat dat iets met de scaler te maken heeft / de implementatie van freesync.
Scaler zou kunnen of iets anders in het scherm, maar FreeSync zelf beperkt niks.
Gsync maakte wel makkelijker lagere refresh rates mogelijk door frames opnieuw naar het scherm te sturen Omdat het beeld wat zichtbaar is niet vervalt.
Dat doet AMD dus met LFC.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
-The_Mask- schreef op woensdag 4 januari 2017 @ 08:48:
[...]

Scaler zou kunnen of iets anders in het scherm, maar FreeSync zelf beperkt niks.

[...]

Dat doet AMD dus met LFC.
Inmiddels wel ja. Heb daar alleen nog niet echt tests mee gedaan om te zien hoe mijn scherm daar mee om gaat als hij onder die 35 FPS komt. Ik kom daar op dit moment eigenlijk niet. Mijn hardware is nu snel genoeg.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Gelunox
  • Registratie: April 2010
  • Laatst online: 05-05 09:27

Gelunox

Hardware addicted

Astennu schreef op woensdag 4 januari 2017 @ 08:54:
[...]


Inmiddels wel ja. Heb daar alleen nog niet echt tests mee gedaan om te zien hoe mijn scherm daar mee om gaat als hij onder die 35 FPS komt. Ik kom daar op dit moment eigenlijk niet. Mijn hardware is nu snel genoeg.
De Asus MG279Q kan je ook instellen op een freesync range tussen de 57 en 144 Hz (hoger dan 57 en de kwalificatie voor LFC van min * 2.5 <= max geld niet meer), voor zover ik kan zien bij m'n eigen paneel doet LFC dan z'n ding prima.

PC: R9 5950X | 32GB | VEGA 64 Liquid Edition


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
Gelunox schreef op woensdag 4 januari 2017 @ 09:35:
[...]


De Asus MG279Q kan je ook instellen op een freesync range tussen de 57 en 144 Hz (hoger dan 57 en de kwalificatie voor LFC van min * 2.5 <= max geld niet meer), voor zover ik kan zien bij m'n eigen paneel doet LFC dan z'n ding prima.
Dit zou wel ideaal zijn! sowieso is die 31-110 al heel veel betder dan de originele 35-90. Net wat meer low en vooral een hogere max. 90 is wel wel lekker soepel tov 60 maar fixed 120 was nog net wat soepeleer (mits de GPU dat kon halen)

Ook die 54-144Hz in combinatie met LCF is ook erg interessant. Ik ga dit zeker uittesten! bedankt!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het jammere van Freesync is dat het helaas toch weer onoverzichtelijk is geworden door de vele verschillende verschijningsvormen. Niet dat FS zelf daar perse wat aan kan doen maar toch.

Enerzijds is het de kracht dat er heel veel monitoren op de markt zijn waarop je op zijn minst een vorm van FS hebt anderzijds is dit imo ook een zwakte.

Een zwakte omdat sommige FS varianten maar weinig toevoegen en het vaak behoorlijk wat huiswerk vraagt om te begrijpen wat je nu krijgt als je monitor X koopt.

Daarom vind ik de stap naar FS2 een goede, niet eens zozeer vanwege HDR want dit ligt toch nog vrij ver weg denk ik, maar wel omdat duidelijker is wat je minimaal mag verwachten en omdat LFC verplicht is.

De FS2 minimum spec geeft een veel betere en zinvollere ondergrens aan. Hopelijk zal FS2 ook snel naar betaalbaardere monitoren afzakken. Ben alleen bang dat juist de HDR eis dit moeilijker maakt.

Wat dat betreft is misschien een onderscheid tussen FS2 en FS2 HDR beter. Scheelt toch in certificeringskosten.

Last but not least, las ik bij Anandtech dat AMD wellicht overweegt om toch licentiekosten te gaan rekenen ivm het dure certficeringsprogramma. Dat zou ik toch wel teleurstellend vinden.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
HDR schermen zullen wel snel gaan verschijnen. TV's hebben het al langer. Dus het is een kwestie van tijd tot PC schermen dit ook krijgen. De grote vraag is wanneer is het betaalbaar voor jan en alleman. De meeste willen niet meer dan 300 euro uitgeven.

Tja aan de ene kant jammer. Aan de andere kant steken ze er veel tijd en moeite in. Als die licentie kosten niet te hoog zijn als in 3-5 dollar of zo zie ik het probleem niet zo. Die wil ik graag extra betalen.

[ Voor 3% gewijzigd door Astennu op 04-01-2017 10:47 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 10-06 14:07

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Astennu schreef op woensdag 4 januari 2017 @ 10:46:
HDR schermen zullen wel snel gaan verschijnen. TV's hebben het al langer. Dus het is een kwestie van tijd tot PC schermen dit ook krijgen. De grote vraag is wanneer is het betaalbaar voor jan en alleman. De meeste willen niet meer dan 300 euro uitgeven.

Tja aan de ene kant jammer. Aan de andere kant steken ze er veel tijd en moeite in. Als die licentie kosten niet te hoog zijn als in 3-5 dollar of zo zie ik het probleem niet zo. Die wil ik graag extra betalen.
Mja als je het zo bekijkt, 120Hz UHD panelen zijn er in de TV wereld ook al 2 jaar maar in de monitor wereld laat dat ernstig op zich wachten.

Sowieso lijkt het alsof er weinig motivatie is om veel R&D budget in monitor innovatie te stoppen bij fabrikanten.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 12-06 18:53
Klopt maar er zijn wel wat schermen aangekondicht die HDR hebben.

Veel meer mensen zullen een nieuwe TV kopen dan een nieuw PC scherm. Gamers zullen dit hooguit doen. Maar de huis tuin en keuken gebruiker heeft genoeg aan zijn 1366x768 schermpje met crappy kijkhoek kleuren en helderheid. Zolang ze hun word documentje kunnen typen, mail kunnen beantwoorden en een site bekijken vinden ze het al prima. Steeds meer dingen worden ook al op de mobiele telefoon gedaan. Dus laptops worden door de meeste mensen minder gebruikt (voor desktops geld dat al jaren omdat de laptop toen erg in opkomst was)

Dus laat staan dat die mensen investeren in een 4K HDR pc scherm. Ik snap wel dat er daar weinig R&D budget voor is. Ik vind het als PC gamer wel jammer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Werelds schreef op woensdag 4 januari 2017 @ 00:24:
Jullie zien dit volledig verkeerd.

G-Sync maakt niet grotere ranges mogelijk of wat dan ook.
We zeggen ook niet dat het alleen met gsync mogelijk is, maar dat het in de praktijk zo is.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
Anoniem: 444127 schreef op woensdag 4 januari 2017 @ 02:22:
Jij gaf aan dat het ook een aardig risico voor de levensduur van je monitor is om op 100 Hz te overclocken, als je al 100 Hz haalt. Wat als je voor 80-90 Hz zou kiezen? Nog steeds veel beter dan 60 Hz. maar naar ik aanneem veel realistischer en minder problematisch.
Klein vraagje. Hoe doe je dat overklokken, via de GUI van de monitor of via software waarmee je het hackt (vergelijkbaar met hoe je het bereik van FreeSync kan veranderen)? Geen ervaring mee.
Het is niet helemaal hetzelfde als met een CPU/GPU overklokken. Het is niet per definitie zo dat je scherm er langzaam kapot van gaat.

In een LCD zit de TFT laag; dit is waar dat hele TN, IPS, VA verhaal zich afspeelt. Wat er met "overklokken" gebeurt is dat de kristallen in die laag vaker per seconde een tikje krijgen om in de goede stand te gaan staan. Er wordt niet per se meer spanning op gezet, het wordt alleen vaker gedaan. In de praktijk komt er wel vaak iets meer spanning op te staan, omdat de kristallen anders niet snel genoeg draaien.

Het probleem met TFT panelen is echter dat er vergeleken met CPU's en GPU's eigenlijk nog veel meer variatie in zit als ze eenmaal uit de fabriek komen. Hoe vreemd het ook klinkt, het is een stuk lastiger om deze relatief grote kristallen consistent te laten doen wat we willen dan het is om dat op nanometer niveau te doen met wat zand. Je kunt 100 panelen van hetzelfde model nemen en ze zullen altijd alle 100 net iets anders reageren. Dat is waarom LG deze panelen levert met een advies maximum refresh rate van 75 Hz. Tot 75 Hz weten ze zeker dat al die kristallen gewoon blijven draaien.

En dit is waar het probleem zit. Als je geluk hebt met de panel lottery krijg je gewoon een paneel dat probleemloos die 100 Hz aan kan zonder dat je ooit problemen krijgt. Met een beetje pech heb je echter een paneel dat bij 90 Hz al moeite heeft of een paneel waar één of meerdere kristallen na een tijdje genoeg hebben van al dat draaien en dan heb je ineens een dooie pixel ;)

Het is niet zo zeer de levensduur in z'n algemeen als van een specifiek paneel. En daar kun je op voorhand gewoon weinig van zeggen.

Overklokken gebeurt overigens in z'n algemeen door eerst het EDID profiel te overschrijven om zo je driver te laten denken dat hogere refresh rates mogelijk zijn en dan gewoon de instelling in je driver aan te passen. EDID is een display-informatie standaard die inmiddels alweer zo'n 20 jaar oud is; dat is hoe Windows weet wat je optimale resolutie is. In dat signaal zit vrijwel alle informatie: fabrikant, type signaal (analoog/digitaal), maximale resolutie, pixel clock en dus ook refresh rate. Zelfs de afmetingen van je monitor in millimeters zit er tegenwoordig meestal in ;)

Zie ook Gelunox' link. Ook CRU doet min of meer hetzelfde.
Astennu schreef op woensdag 4 januari 2017 @ 06:38:
Mijn Asus scherm kan 144hz, freesync range is maar 35-90. Ik denk toch dat dat iets met de scaler te maken heeft / de implementatie van freesync.
Gsync maakte wel makkelijker lagere refresh rates mogelijk door frames opnieuw naar het scherm te sturen Omdat het beeld wat zichtbaar is niet vervalt.
In dit geval zal dat vooral een beperking van de scaler zijn, niet het paneel. Maar ook dat ligt niet aan FreeSync of Adaptive Sync - geen van beide stelt enige maxima of minima. Vergeet niet dat jouw model een relatief vroeg model is, als je nieuwere FS monitors bekijkt zie je dat de nieuwere scalers wel gewoon bredere ranges aan kunnen.


Overigens zet ik ook vraagtekens bij G-Sync in dit geval. Van een G-Sync monitor vertrouw ik de specificaties helemaal niet. Met andere woorden: ik vraag me af of G-Sync nog wel actief is op bijvoorbeeld 110 Hz of dat het ding stiekem gewoon 144 draait. We weten dat er over de ondergrens sowieso gelogen wordt. Zelfs die dure Swift modellen waar men fijn een "30-144 Hz" sticker op plakt kunnen niet onder de 36 Hz. Daaronder wordt gewoon LFC toegepast.
haarbal schreef op woensdag 4 januari 2017 @ 11:58:
We zeggen ook niet dat het alleen met gsync mogelijk is, maar dat het in de praktijk zo is.
Ook dat is dus niet zo. Met het grootste deel van de G-Sync monitoren is de ondergrens gewoon niet haalbaar. Het verschil is dat er bij FS eerlijk geadverteerd wordt dat je aan een ondergrens van 35 of 45 Hz zit en je dan dus op LFC aangewezen bent, terwijl er bij G-Sync gewoon keihard met 30 Hz geadverteerd wordt zonder dat ze duidelijk maken wanneer LFC daar actief wordt.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 10-06 14:07

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Als LFC gewoon uit zichzelf activeert en daarmee het bereik opvult zodat de eindgebruiker daar niks van merkt, wat heeft het dan voor toegevoegde waarde om daarmee te adverteren?

Bij NVidia valt er toch niks aan te tweaken dus waarom zou je dat nodeloos gecompliceerd maken.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13-06 16:08
Nog 24 uur!

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
Blaat schreef op woensdag 4 januari 2017 @ 13:30:
Als LFC gewoon uit zichzelf activeert en daarmee het bereik opvult zodat de eindgebruiker daar niks van merkt, wat heeft het dan voor toegevoegde waarde om daarmee te adverteren?

Bij NVidia valt er toch niks aan te tweaken dus waarom zou je dat nodeloos gecompliceerd maken.
Zo ken ik er nog wel een paar.

Als de MC gewoon zelf schakelt om een missende crossbar naar de laatste 512 MB van in totaal 4096 MB geheugen op te vangen en daarmee toch de volledige capaciteit beschikbaar maakt zonder dat de gebruiker daar iets van merkt, wat heeft het dan voor toegevoegde waarde om daar mee te adverteren?

;)

Het is gewoon niet netjes en het is ook niet 100% onmerkbaar. Als je een monitor hebt die bijvoorbeeld 45-120 doet en dan op bijvoorbeeld 40 FPS draait, worden frames dus op 80 Hz weergegeven. Aangezien frametijden niet constant zijn en altijd ietwat fluctuerenm valt met een beetje pech valt een frame vlak na een verdubbeld frame waardoor je minimaal 8.3ms (120 Hz) extra input lag krijgt. Als dat ding daadwerkelijk 30-120 zou kunnen doen zoals er met G-Sync op de doos zou staan, zouden frames op 60 Hz weergegeven worden en is de kans veel kleiner dat die 2 samen vallen, tenzij je frame tijden wel heel erg fluctueren (maar zelfs met VRR is dat onprettig ;)). Frames komen immers +- elke 25ms, dus +- 8ms vóór het minimum van 33.3ms of ruim erna (met 45 Hz is dat 22.22ms). Het is subtiel en het zal zich ook niet veel voor doen, maar ik vind het toch wel een noemenswaardig probleem. Vooral als het een monitor betreft die duurder is dan een videokaart en waar in veel gevallen sowieso al veel aan rammelt (soms letterlijk) ;)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Werelds schreef op woensdag 4 januari 2017 @ 12:03:
Overigens zet ik ook vraagtekens bij G-Sync in dit geval. Van een G-Sync monitor vertrouw ik de specificaties helemaal niet. Met andere woorden: ik vraag me af of G-Sync nog wel actief is op bijvoorbeeld 110 Hz of dat het ding stiekem gewoon 144 draait.
Zou je moeten zien als je vsync uit hebt staan, lijkt me erg onwaarschijnlijk.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 10-06 14:07

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op woensdag 4 januari 2017 @ 14:57:
[...]

Zo ken ik er nog wel een paar.

Als de MC gewoon zelf schakelt om een missende crossbar naar de laatste 512 MB van in totaal 4096 MB geheugen op te vangen en daarmee toch de volledige capaciteit beschikbaar maakt zonder dat de gebruiker daar iets van merkt, wat heeft het dan voor toegevoegde waarde om daar mee te adverteren?

;)

Het is gewoon niet netjes en het is ook niet 100% onmerkbaar. Als je een monitor hebt die bijvoorbeeld 45-120 doet en dan op bijvoorbeeld 40 FPS draait, worden frames dus op 80 Hz weergegeven. Aangezien frametijden niet constant zijn en altijd ietwat fluctuerenm valt met een beetje pech valt een frame vlak na een verdubbeld frame waardoor je minimaal 8.3ms (120 Hz) extra input lag krijgt. Als dat ding daadwerkelijk 30-120 zou kunnen doen zoals er met G-Sync op de doos zou staan, zouden frames op 60 Hz weergegeven worden en is de kans veel kleiner dat die 2 samen vallen, tenzij je frame tijden wel heel erg fluctueren (maar zelfs met VRR is dat onprettig ;)). Frames komen immers +- elke 25ms, dus +- 8ms vóór het minimum van 33.3ms of ruim erna (met 45 Hz is dat 22.22ms). Het is subtiel en het zal zich ook niet veel voor doen, maar ik vind het toch wel een noemenswaardig probleem. Vooral als het een monitor betreft die duurder is dan een videokaart en waar in veel gevallen sowieso al veel aan rammelt (soms letterlijk) ;)
Erg theoretisch verhaal.

Ik heb inmiddels aardig wat g-sync monitors onder mijn vingers gehad en in de praktijk heb ik dit nooit gemerkt.

Wat ik een veel ernstiger verhaal vind bij g-sync is dat je je input lag keihard weer terug krijgt als je over de max refresh van je monitor gaat omdat de driver geen fatsoenlijke frame limiter ingebouwd heeft zitten itt de radeon software. Je kan tearing bij G-sync boven de refresh van je scherm alleen maar voorkomen met v-sync aan, wat sinds g-sync v2 voor een aardige dot input lag zorgt.

Maar daar hoor ik niemand over...

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23:12
Blaat schreef op woensdag 4 januari 2017 @ 15:16:
Wat ik een veel ernstiger verhaal vind bij g-sync is dat je je input lag keihard weer terug krijgt als je over de max refresh van je monitor gaat omdat de driver geen fatsoenlijke frame limiter ingebouwd heeft zitten
Je kan cappen met afterburner, maar beter met het spel zelf, lagere input lag.

Met de nvidia driver kan je ook cappen, maar om bij die setting te komen moet je nvidia inspector aanzwengelen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
haarbal schreef op woensdag 4 januari 2017 @ 15:04:
[...]

Zou je moeten zien als je vsync uit hebt staan, lijkt me erg onwaarschijnlijk.
Ik weet niet of er iemand al eens echt naar gekeken heeft op zulke framerates en bijbehorende refresh rates, omdat dat niet het gebied is waarin het echt iets uit maakt. Tearing is op 120/144 Hz al dusdanig minimaal dat ik wel durf te stellen dat een groot deel van de gebruikers het niet eens in de gaten zou hebben.

Sterker nog, er zijn genoeg mensen die tearing nooit op is gevallen totdat je het een keer aan wijst :P
Blaat schreef op woensdag 4 januari 2017 @ 15:16:
Erg theoretisch verhaal.

Ik heb inmiddels aardig wat g-sync monitors onder mijn vingers gehad en in de praktijk heb ik dit nooit gemerkt.
Dat zal best, het gaat ook maar om een paar milliseconden. Het is er echter wel en als je dan toch €800 uit geeft aan een product waarbij er gepocht wordt met lage reactie tijden en (nagenoeg) geen input lag is dat toch wel flauw.

Maar wellicht ben ik daar te kieskeurig in, ik vind namelijk ook dat die dingen sowieso ondermaats gebouwd zijn in de meeste gevallen. Als je zo veel geld aan een monitor uit geeft, mag hij niet dusdanig veel backlight bleeding hebben dat je er een kamer mee kunt verlichten. Vind ik ;)
Wat ik een veel ernstiger verhaal vind bij g-sync is dat je je input lag keihard weer terug krijgt als je over de max refresh van je monitor gaat omdat de driver geen fatsoenlijke frame limiter ingebouwd heeft zitten itt de radeon software. Je kan tearing bij G-sync boven de refresh van je scherm alleen maar voorkomen met v-sync aan, wat sinds g-sync v2 voor een aardige dot input lag zorgt.

Maar daar hoor ik niemand over...
De meeste kopers nemen dat gewoon voor lief. Zoals ik al zei, de meeste zien tearing en input lag niet eens maar schaffen dan wel zo'n apparaat aan ;)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19
Werelds schreef op woensdag 4 januari 2017 @ 16:48:
[...]

Ik weet niet of er iemand al eens echt naar gekeken heeft op zulke framerates en bijbehorende refresh rates, omdat dat niet het gebied is waarin het echt iets uit maakt. Tearing is op 120/144 Hz al dusdanig minimaal dat ik wel durf te stellen dat een groot deel van de gebruikers het niet eens in de gaten zou hebben.

Sterker nog, er zijn genoeg mensen die tearing nooit op is gevallen totdat je het een keer aan wijst :P
Als ik er op let zie ik het maar ik ben "getrained" om het te negeren :P. Input lag merk ik wel enorm, v-sync/steam link of andere technieken die last hebben van input lag zal ik daarom dus nooit gebruiken.

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Werelds schreef op woensdag 4 januari 2017 @ 12:03:
[...]

Het is niet helemaal hetzelfde als met een CPU/GPU overklokken. Het is niet per definitie zo dat je scherm er langzaam kapot van gaat.

In een LCD zit de TFT laag; dit is waar dat hele TN, IPS, VA verhaal zich afspeelt. Wat er met "overklokken" gebeurt is dat de kristallen in die laag vaker per seconde een tikje krijgen om in de goede stand te gaan staan. Er wordt niet per se meer spanning op gezet, het wordt alleen vaker gedaan. In de praktijk komt er wel vaak iets meer spanning op te staan, omdat de kristallen anders niet snel genoeg draaien.

Het probleem met TFT panelen is echter dat er vergeleken met CPU's en GPU's eigenlijk nog veel meer variatie in zit als ze eenmaal uit de fabriek komen. Hoe vreemd het ook klinkt, het is een stuk lastiger om deze relatief grote kristallen consistent te laten doen wat we willen dan het is om dat op nanometer niveau te doen met wat zand. Je kunt 100 panelen van hetzelfde model nemen en ze zullen altijd alle 100 net iets anders reageren. Dat is waarom LG deze panelen levert met een advies maximum refresh rate van 75 Hz. Tot 75 Hz weten ze zeker dat al die kristallen gewoon blijven draaien.

En dit is waar het probleem zit. Als je geluk hebt met de panel lottery krijg je gewoon een paneel dat probleemloos die 100 Hz aan kan zonder dat je ooit problemen krijgt. Met een beetje pech heb je echter een paneel dat bij 90 Hz al moeite heeft of een paneel waar één of meerdere kristallen na een tijdje genoeg hebben van al dat draaien en dan heb je ineens een dooie pixel ;)

Het is niet zo zeer de levensduur in z'n algemeen als van een specifiek paneel. En daar kun je op voorhand gewoon weinig van zeggen.

Overklokken gebeurt overigens in z'n algemeen door eerst het EDID profiel te overschrijven om zo je driver te laten denken dat hogere refresh rates mogelijk zijn en dan gewoon de instelling in je driver aan te passen. EDID is een display-informatie standaard die inmiddels alweer zo'n 20 jaar oud is; dat is hoe Windows weet wat je optimale resolutie is. In dat signaal zit vrijwel alle informatie: fabrikant, type signaal (analoog/digitaal), maximale resolutie, pixel clock en dus ook refresh rate. Zelfs de afmetingen van je monitor in millimeters zit er tegenwoordig meestal in ;)

Zie ook Gelunox' link. Ook CRU doet min of meer hetzelfde.
Ik ken ongeveer de theorie van een LCD-monitor: kristallen die draaien onder invloed van de spanning en zodoende meer of minder licht per subpixel doorlaten, polariserende filters die ervoor zorgen dat het licht onder 1 invalshoek invalt op die kristallen en met de juiste polarisatie op de voorkant invalt. Het was voor mij alleen nog niet bekend of dat het sneller draaien een risico inhoudt. Dank je voor de uitleg.
Kan je stellen dat je bij een lagere overklok een lager risico hebt op dode pixels t.g.v. het overklokken? Is er een gulden middenweg waarbij je eigenlijk geen risico neemt maar wel een hogere refreshrate haalt? Los van monitors die hetzelfde panel gebruiken (adviesmaximumf. van 75 Hz) maar die om de een of andere reden (marketing? conservatisme?) op 60 Hz. zijn afgesteld?
Hoe komt het dat de kristallen van die monitors die een hoge refresh rate hebben wel zoveel sneller kunnen draaien? Een andere techniek? Erg veel cherrypicking.

Terzijde, ik heb dode pixels gehad op mijn vorige monitor, bij mijn huidige monitor (een paar jaar oud) heb ik tot nu toe geluk gehad. Ik ben erg gevoelig voor dode pixels.

[ Voor 10% gewijzigd door Anoniem: 444127 op 04-01-2017 18:33 ]


Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13-06 16:08

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 10-06 14:07

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik hoop het zo!

Dat zou AMD direct weer terug naar "competitief op alle fronten" schoppen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Daar lijkt het al wekenlang op. Ik denk dat de Doom benchmark een aardige indicatie geeft. Ja, Doom werkt beter op AMD-kaarten (met Vulkan) maar de drivers waren verre van geoptimaliseerd en er draaide naar verluidt ook debugsoftware.
Als je kijkt naar het aantal TFlops dan lijkt het er ook op dat het sneller is.
Dit is niet geheel wetenschappelijk verantwoord maar het geeft wellicht een leuke indicatie.

Tflops voor de 970, 980, 980 Ti, 1060: 3.9, 4.6, 5.6, 4.4
Tflops voor de 390, 390x, Fury X, 480: 5.1, 5.9, 8.2, 5.8
Ratio's voor de 390/970, 390X/980, Fury X/980 Ti, 480/1060: 1.31, 1.28, 1.46, 1.32 (zou de Fury X/980 Ti een buitenbeentje zijn door de beperking dat de Fury maar 4 GB RAM had?)
De volle Vega-kaart zou 12,5 Tflops hebben. De GTX1080 heeft er 8,9. 12,5/8.9 = 1.40
Er lijkt enige consistentie te zijn wat betreft de 300-serie, de 400-serie en de Nvidia-evenknieën wat betreft de ratio in Tflops. Tevens zou het hoger aantal Tflops weleens kunnen verklaren waarom veel AMD-kaarten inlopen op hun Nvidia-concurrenten en er vervolgens fors overheen gaan naarmate ze ouder worden.
YouTube: AMD's FineWine Technology: What is it & why do AMD GPUs age ...
Vanzelfsprekend is iedereen welkom om kanttekeningen te plaatsen bij deze theorie en er gaten in te schieten. Graag zelfs, als daar aanleiding toe is, dan leren we misschien wat. ;)

Mijn inschatting en speculatie: de volle Vega-kaart gaat bij het debuut ergens halverwege tussen de 1080 en de toekomstige 1080 Ti zitten voor DX11-spellen en op het niveau van de 1080 Ti of net erover zitten voor goed geïmplementeerde Vulkan- en DX12-spellen (gebaseerd op de RX 480 vs. de GTX 1060 en de GTX 1070 bij Doom onder Vulkan en het verschil tussen de GTX 1060 en de GTX 1070). De cut gaat tussen de 1070 en de 1080 in zitten. Een halve cyclus verder, een halve tier hoger. De vragen staan dan nog open wat ze met de kleinere Vega-kaarten gaan doen (kleiner dan de GTX 1070 concurrent, ik ga ervan uit dat ze op de een of andere manier later in het jaar de 500-serie starten met deze kaarten) en hoeveel procent eraf gaat bij de kleinste cut (de grootte GPU die na de cut overblijft), bij Nvidia is dat ongeveer 1/3de, hopelijk gaat er bij AMD minder van af.

[ Voor 3% gewijzigd door Anoniem: 444127 op 04-01-2017 19:19 ]


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13-06 16:08
Het lijkt een zekere 10 en misschien 20% meer snelheid te zijn dan 1080 dus we zitten ruwweg gelijk aan TI lijkt me

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

Anoniem: 444127

winwiz schreef op woensdag 4 januari 2017 @ 18:50:
Het lijkt een zekere 10 en misschien 20% meer snelheid te zijn dan 1080 dus we zitten ruwweg gelijk aan TI lijkt me
Dat vind ik optimistisch. Als Nvidia het kunstje van de 900-serie herhaalt dan zal de GTX 1080 Ti eerder net boven de 20% boven de 1080 presteren. Misschien als de kaart wat ouder is en de drivers verfijnd zijn?
https://www.pcper.com/rev...view-Matching-TITAN-X-650

Even iets anders, ik ga eens zien of dat ik recente (van na het debuut van Relive ;)) benchmarks kan vinden waaarin zowel de 980 als de RX 480 zijn opgenomen. Vorig jaar was de teneur dat de RX 480 onder de 980 zou blijven en waren mensen teleurgesteld, ik heb de indruk dat de RX 480 nu aardig in de buurt zit van de 980. Leuk om te bedenken dat je nu voor 250 euro een kaart kan kopen die aanvankelijk 550 euro kostte. Zo zie je maar weer dat je er niet verstandig aan doet om de krachtigste grafische kaarten te kopen. Zolang de hardware nog verbeterd in een goed tempo in ieder geval.

[ Voor 44% gewijzigd door Anoniem: 444127 op 04-01-2017 19:03 ]


Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13-06 16:08
We gaan het zien in de komende weken. Prijsontwikkeling en power zullen de grootste vraagtekens zijn. Van een paar procent performance kunnen we niet wakker liggen

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

Anoniem: 444127

Inmiddels een aardige recente vergelijking gevonden tussen de 980 en de 480 maar hij vermeldt helaas niet de modellen.
YouTube: RX 480 VS GTX 980 - in 24 Games DX11 & DX12
De RX 480 zit voor oudere spellen nog best fors onder de GTX 980, voor nieuwere spellen is het verschil klein en voor een enkel spel presteert de RX 480 beter. Hopelijk gaat AMD ook nog hard werken aan de drivers voor de oudere spellen die veel gespeeld worden. Daar lijkt nog veel rek in te zitten gezien het verschil in prestaties in vergelijking met Nvidia voor oudere en nieuwere spellen.
winwiz schreef op woensdag 4 januari 2017 @ 19:05:
We gaan het zien in de komende weken. Prijsontwikkeling en power zullen de grootste vraagtekens zijn. Van een paar procent performance kunnen we niet wakker liggen
Voor de cut lijkt de prijs mij wel aardig te voorspellen (referentiekaart voor $350-400, kijk naar de prijzen van de GTX 970, GTX 1070 en de R9 390 en houd er rekening mee dat de prijzen van de GTX 1070 inmiddels aardig genormaliseerd zijn), voor de volle kaart reken ik op ergens tussen de 500 en de 600 euro. Hopelijk weten we het morgenmiddag. :)

[ Voor 59% gewijzigd door Anoniem: 444127 op 04-01-2017 19:18 ]


Acties:
  • 0 Henk 'm!

  • Robolokotobo
  • Registratie: December 2009
  • Laatst online: 12-06 13:38
Ryzen en Vega in Star Wars Battlefront https://nl.hardware.info/...met-ryzen-cpu-en-vega-gpu

Ryzen 7 5700X 16GB RTX 4060 1TB NVMe


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13-06 16:08

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • Robolokotobo
  • Registratie: December 2009
  • Laatst online: 12-06 13:38
Foutje. Ik dacht dat het nog maar net op HWI stond

Ryzen 7 5700X 16GB RTX 4060 1TB NVMe


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het zou toch wat zijn als Vega gewoon mee kan met 1080 a 1080Ti en wellicht tegen betere prijs!

Dat zou wel heel lekker zijn. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13-06 16:08
We weten in feite nog niets... maar het zou erg leuk zijn.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • +2 Henk 'm!

Anoniem: 444127

Hebben jullie deze al gezien?
Afbeeldingslocatie: https://i.redd.it/72f1onz2sf7y.png
Gebaseerd op dit. http://www.freepatentsonline.com/y2016/0371873.html
Ik moet het zelf nog even gaan lezen. Ik ben benieuwd. Wat ik nu wel begrijp is dat ze minder capaciteit verspillen met de nieuwe architectuur en dat ze hier winst uit halen.
Help!!!! schreef op woensdag 4 januari 2017 @ 20:02:
Het zou toch wat zijn als Vega gewoon mee kan met 1080 a 1080Ti en wellicht tegen betere prijs!

Dat zou wel heel lekker zijn. :)
Weet je wat echt heel erg leuk zou zijn? Als morgen zou blijken dat die gelekte benchmark van de cut is en dat de volle Vega-kaart een Titan-sloper is. Een mens mag dromen. :)
Als die architectuur inderdaad veel verschil maakt dan is er best een verrassing mogelijk.

[ Voor 66% gewijzigd door Anoniem: 444127 op 04-01-2017 20:20 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
Sp3ci3s8472 schreef op woensdag 4 januari 2017 @ 17:42:
Als ik er op let zie ik het maar ik ben "getrained" om het te negeren :P. Input lag merk ik wel enorm, v-sync/steam link of andere technieken die last hebben van input lag zal ik daarom dus nooit gebruiken.
Input lag vind ik inderdaad ook veel erger. Tearing hangt er heel erg van af bij mij, als het constant gebeurt dan vind ik het ook irritant en zal ik VSync gebruiken. Maar in z'n algemeen laat ik dat uit en gebruik ik in-game frame limiters waar mogelijk. En dan niet eens noodzakelijkerwijs dat dat echt nodig is; in BF1 haal ik echt geen constante 120 FPS.
Anoniem: 444127 schreef op woensdag 4 januari 2017 @ 18:28:
Kan je stellen dat je bij een lagere overklok een lager risico hebt op dode pixels t.g.v. het overklokken? Is er een gulden middenweg waarbij je eigenlijk geen risico neemt maar wel een hogere refreshrate haalt? Los van monitors die hetzelfde panel gebruiken (adviesmaximumf. van 75 Hz) maar die om de een of andere reden (marketing? conservatisme?) op 60 Hz. zijn afgesteld?
Hoe komt het dat de kristallen van die monitors die een hoge refresh rate hebben wel zoveel sneller kunnen draaien? Een andere techniek? Erg veel cherrypicking.
Het heeft minder met de refresh rate te maken dan het specifieke paneel. Het heeft ook niet zozeer met de constructietechniek te maken, als wel met simpelweg de gebruikte materialen en het ontwerp van het paneel.

In dat opzicht is het niet veel anders dan met GPU's. Nvidia en AMD zaten altijd bij dezelfde chip fabrikant en zeker vanaf GCN lijkt ook de macroarchitectuur erg op elkaar. Het zijn beide in principe superscalar chips, net zoals TN, IPS en VA allemaal TFT varianten zijn. En toch zitten er gigantische verschillen in.

Door het basis principe achter TN kunnen TN panelen per definitie gewoon harder draaien. TN is dan ook het minst interessant, want het geeft de minste beeld kwaliteit en de rest kan niet veel beter meer.

IPS en VA zijn dan veel interessanter - die hebben al goede beeld kwaliteit eigenschappen, maar waar TN zo lang zo veel beter in was is lastiger. Zoals Nvidia Fermi verknalde door een bijzonder slecht ontwerp (fysiek; niet de architectuur) en slechte materialen, is dat waar je bij IPS en VA ook zo veel verschillen ziet. Elke fabrikant heeft ook z'n eigen vorm van IPS/VA waar ze continue aan sleutelen. Alleen al met IPS heb je H-IPS, P-IPS, S-IPS, AH-IPS en ga zo maar door. Met VA panelen heb je MVA, PVA en daar weer subvarianten van (AUO maakt A-MVA, Chi Mei S-MVA; Sharp noemt ze gewoon MVA maar dat is ook weer net iets anders).

Zo zal LG voor een 45-75 Hz paneel andere (lees: goedkopere) materialen gebruiken dan voor een 35-144 Hz paneel. Wat precies? ¯\_(ツ)_/¯

Wat die verschillen precies zijn is altijd lastig te achterhalen, het is namelijk niet zo dat dit op dezelfde manier bekeken wordt als een CPU/GPU architectuur, maar het principe is hetzelfde. Andere interconnects, ander soort transistors of transistors van een ander materiaal, ander vloeibaar kristal. Alleen al dat laatste kan heel veel verschil maken; afhankelijk van wat je gebruikt kan het zijn dat je hogere voltages nodig hebt maar dan wel een materiaal hebt dat weinig "door schiet" (overshoot). En daar wordt constant onderzoek naar gedaan. Het gebruik van goedkopere materialen wil echter niet zeggen dat die niet zo hard kunnen als duurdere materialen, het zal alleen meer moeite kosten om te corrigeren; en het betekent net als bij chips dat door kleine defecten er ineens een hele hoop verloren gaat en je dus een goed sample moet hebben om te overklokken.


Zo, weer een offtopic muurtje :|


Edit: I like the sound of that.

Wel oppassen dat de hype niet te groot wordt, maar ik ben nog steeds positief gestemd over Ryzen. En Vega lijkt ook de goede kant op te gaan.

Die eventuele NCU hierboven zou wel heel interessant zijn. Dan zit AMD aan de andere kant van het spectrum vergeleken met VLIW5 in 2009 ;)

[ Voor 4% gewijzigd door Werelds op 04-01-2017 20:39 ]


Acties:
  • 0 Henk 'm!
Robolokotobo schreef op woensdag 4 januari 2017 @ 19:53:
Hoewel je er nog niet zo heel veel door kan zeggen. Battlefront is echt een AMD game.
Niet echt hoor.

Afbeeldingslocatie: http://www.techspot.com/articles-info/1174/bench/Battlefront_02.png
http://www.techspot.com/r...force-gtx-1080/page4.html

Gewoon een vrij gemiddelde game dus met prestaties hoe je die die eigenlijk zou verwachten. Eerder een heel klein beetje in het voordeel van nVidia, AMD is normaal gesproken iets sterker op zo'n resolutie.

Afbeeldingslocatie: http://www.techspot.com/articles-info/1246/bench/Battlefront_02.png
http://www.techspot.com/review/1246-ludicrous-graphics-test/

Neemt niet weg dat ik het vooralsnog maar met een korreltje zout zou nemen, want dat is dus mits vergelijkbare instellingen rond de Titan X qua performance en dat lijkt mij nogal extreem snel, maar wie weet. :p
Anoniem: 444127 schreef op woensdag 4 januari 2017 @ 18:47:
Als je kijkt naar het aantal TFlops dan lijkt het er ook op dat het sneller is.
Dit is niet geheel wetenschappelijk verantwoord maar het geeft wellicht een leuke indicatie.
Nee het geeft ook geen indicatie als de architectuur niet identiek is. Dat zegt het he-le-maal niks over de prestaties en kun je ook niks vergelijken. Die flops is niet meer als het aantal streamprocessors, maal de frequentie maal twee. Aangezien de prestatie per stream processor heel erg kan verschillen per architectuur, ook bij AMD en nVidia GPU's onderling kun je hier dus onmogelijk iets aan afleiden. Ook in het geval van Vega aangezien de architectuur anders is dan als bij Polaris.

[ Voor 28% gewijzigd door -The_Mask- op 04-01-2017 21:38 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op woensdag 4 januari 2017 @ 20:29:
[...]

Edit: I like the sound of that.

Wel oppassen dat de hype niet te groot wordt, maar ik ben nog steeds positief gestemd over Ryzen. En Vega lijkt ook de goede kant op te gaan.

Die eventuele NCU hierboven zou wel heel interessant zijn. Dan zit AMD aan de andere kant van het spectrum vergeleken met VLIW5 in 2009 ;)
Die hype is wel een puntje inderdaad. Bij de RX480 was er hier in het topic zo'n enorme hype dat toen het ding uit kwam en niet de vloer aanveegde met alles wat Nvidia te bieden had iedereen teleurgesteld was. En dat terwijl dat helemaal geen realistische verwachting was, en de RX480 eigenlijk gewoon een prima kaartje is.

Natuurlijk zou een kaart die Nvidia alle hoeken van de kamer laat zien leuk zijn, maar laten we daar voorlopig nog maar even niet vanuit gaan. Een goede kaart die er voor zorgt dat AMD weer mee doet in het high-end segment is ook prima.

Acties:
  • +1 Henk 'm!
In de topicstart van dit topic stond gewoon de verwachte prestaties al maanden voor de launch. Alleen het verbruik was iets hoger dan verwacht.

[ Voor 20% gewijzigd door -The_Mask- op 04-01-2017 21:50 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 444127

-The_Mask- schreef op woensdag 4 januari 2017 @ 21:22:
Nee het geeft ook geen indicatie als de architectuur niet identiek is. Dat zegt het he-le-maal niks over de prestaties en kun je ook niks vergelijken. Die flops is niet meer als het aantal streamprocessors, maal de frequentie maal twee. Aangezien de prestatie per stream processor heel erg kan verschillen per architectuur, ook bij AMD en nVidia GPU's onderling kun je hier dus onmogelijk iets aan afleiden. Ook in het geval van Vega aangezien de architectuur anders is dan als bij Polaris.
Je moet het niet te ver doortrekken maar in zoverre vind ik het interessant als indicatie voor de minimale prestatie omdat:
  • voor Polaris de ratio met de evenknieën van Nvidia nagenoeg hetzelfde is als die voor de 300- en de 900-series
  • de architectuur van Vega naar verluidt beter is dan die van Polaris
Ik denk dat je in die mate op basis van het aantal Tflops mag vermoeden dat die vega-kaart die 12,5 Tflops haalt in ieder geval de 1080 zal verslaan.
Verder dan dat ga ik er niet mee, ik trek geen conclusies over het wel of niet kunnen concurreren met de 1080 Ti.
Ja, het verschilt ook per kaart binnen een generatie maar je ziet toch wel een sterke consistentie op die Fury-kaart na tussen de 300- vs. 900-serie en de 400- vs. 1000-serie. Sowieso lijkt het mij dat AMD niet ontkomt aan het moeten leveren van meer TFlops voor dezelfde DX11-prestatie t.g.v. hun GCN-architectuur vs. de simpelere architectuur waar Nvidia voor koos bij de Maxwell en Pascal-generaties. Dat wordt beloond bij Vulkan en DX12 maar afgestraft bij DX11 en OpenGL.AMD lijkt een hoger aantal Tflops nodig te hebben om voor DX11 dezelfde prestaties te halen en dat zal voor de Vega-kaarten vast nog niet veranderen (hooguit verbeteren).

Acties:
  • 0 Henk 'm!

Anoniem: 444127

Werelds schreef op woensdag 4 januari 2017 @ 20:29:
[...]

Input lag vind ik inderdaad ook veel erger. Tearing hangt er heel erg van af bij mij, als het constant gebeurt dan vind ik het ook irritant en zal ik VSync gebruiken. Maar in z'n algemeen laat ik dat uit en gebruik ik in-game frame limiters waar mogelijk. En dan niet eens noodzakelijkerwijs dat dat echt nodig is; in BF1 haal ik echt geen constante 120 FPS.
Ik heb de afgelopen week weer eens een playthrough van ACII gedaan. Gruwelijk veel tearing bij een vaste FPS van 62 (ik heb de indruk dat het spel zelf een framelimiter gebruikt die net boven de refresh rate van de monitor ligt als de grafische kaart dat haalt, klopt dat?). Daarom probeerde ik eens uit om met de framelimiter van AMD de FPS onder de 60 te houden, ik experimenteerde met 57-59. Helaas, nog steeds te vaak tearing naar mijn smaak (wel minder zoals te verwachten is). Bij Borderlands 2 en Bioshock Infinite viel het me ook heel erg op. Ik weet niet of dat iedereen het opmerkt (misschien filtert het brein dat weg bij sommige mensen?) maar ik kan er in ieder geval niet meer zo goed tegen terwijl ik het de eerste jaren dat ik gamede op de PC het veel minder opmerkte. Rond de tijd dat ik een Vega-kaart koop ga ik ook maar eens een nieuwe monitor kopen, een die FreeSync ondersteunt en een hogere refreshrate haalt. Hopelijk komen er wat leuke modellen uit in de komende maanden want dat viel het afgelopen jaar erg tegen.

Ik heb echter wel liever tearing dan input lag. Het enige spel waarvoor ik input lag aanvaard is LA Noire, simpelweg omdat het spel anders niet werkt en omdat het voor het belangrijkste deel van de gameplay niet echt relevant is. Wel hinderlijk!
Bij Mass Effect 2 en 3 merkte ik na een verse installatie op dat het minder lekker speelde dan dat ik gewend was. Ja hoor, ik had er even niet aan gedacht dat je via een parameterbestandje de VSync moet uitschakelen. :)
Ook meerdere keren gehad dat ik bij een net geïnstalleerd spel merk dat het niet lekker speelt en dat dan inderdaad blijkt dat de Vsync uitzetten veel helpt. Ik ben er blijkbaar best wel gevoelig voor, daarom wil ik toch wel eens een monitor hebben met een hoge refresh rate. Wel het liefst direct 4k (kwestie van dat het *** is dat je geen 4k-video's kan afspelen op een 1440p-monitor, het is wel zo handig als dat ook kan als je 500-600 euro besteedt aan een monitor) maar dat wil helaas nog niet zo opschieten als het enigszins betaalbaar moet zijn.

Acties:
  • 0 Henk 'm!
Anoniem: 444127 schreef op donderdag 5 januari 2017 @ 09:31:
[...]

Je moet het niet te ver doortrekken maar in zoverre vind ik het interessant als indicatie voor de minimale prestatie omdat:
Dat het nu toevallig overeen komt, maakt het niet waar, maar toevallig. Als een normale relatief kleine auto met weinig massa in de eerste meters even snel is als een dikke muscle car, dan ga je toch ook niet de conclusie trekken dat beide dus even snel zijn?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

Er staan nu ook slides op videocardz. Linkje staat op reddit. Als ik het zo zie is het inderdaad de architecture preview en niets meer zoals veel hoopten..

ziet er wat mij betreft wel echt veelbelovend uit. Uiteindelijk hangt alles natuurlijk af van de prijs.

[ Voor 41% gewijzigd door flessuh op 05-01-2017 11:22 ]

https://www.dutchsolarboat.com


Acties:
  • +2 Henk 'm!
flessuh schreef op donderdag 5 januari 2017 @ 11:20:
Er staan nu ook slides op videocardz.
When NDA ends, you will also see the chip itself with two HBM2 stacks (so 16GB HBM2 memory)
http://videocardz.com/65406/exclusive-amd-vega-presentation

Ga maar uit van 8GB voor de consumenten gaming kaart, 16GB kan wel, maar is een stuk duurder en waarschijnlijk eerder bedoeld voor de pro-kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13-06 11:11
Even er van uitgaande dat de slides kloppen, de highlights:

- 128 SP per NCU tegenover 64 per CU
- Zowel 16 als 8-bit packing (zie ook de discussie in de periode van deze post van mij)
- Geometry engines krijgen een fikse boost: 11 polys per tick met 4 engines. Zal wel niet 100% van de tijd van toepassing zijn.
- Conservative Rasterisation en waarschijnlijk dus ook ROV ;)
Anoniem: 59888 schreef op woensdag 4 januari 2017 @ 21:45:
Die hype is wel een puntje inderdaad. Bij de RX480 was er hier in het topic zo'n enorme hype dat toen het ding uit kwam en niet de vloer aanveegde met alles wat Nvidia te bieden had iedereen teleurgesteld was. En dat terwijl dat helemaal geen realistische verwachting was, en de RX480 eigenlijk gewoon een prima kaartje is.

Natuurlijk zou een kaart die Nvidia alle hoeken van de kamer laat zien leuk zijn, maar laten we daar voorlopig nog maar even niet vanuit gaan. Een goede kaart die er voor zorgt dat AMD weer mee doet in het high-end segment is ook prima.
Niet zo zeer hier in het topic als wel op de FP en vele andere sites denk ik. De meesten van ons hadden wel een goed idee van wat Polaris zou gaan doen. Ik denk dat we alleen iets meer van de efficiëntie hadden verwacht. Maar dat is dan de prijs die je betaalt voor de prijs van een 480 ;)

Wat mij betreft heeft AMD met Polaris wel precies geleverd wat ik verwachtte qua prestaties en voor die prijs is dat gewoon heel netjes. Ik denk niet dat het te ver gezocht is dat we nu iets krijgen dat tussen GP102 en GP104 in zit qua prestaties, de vraag is echter wat daarbij het stroomverbruik wordt.

De hype zit ook aan de andere kant van het hek. Ik weet niet hoe of waarom, maar er zijn veel mensen die denken dat Nvidia niet alleen een 1080 Ti in de planning heeft staan, maar dat die dan ook nog eens AMD helemaal weg zou vegen en alle andere dingen irrelevant gaat maken. Realistisch gezien moet dat ding echter tussen Titan XP en de 1080 komen te zitten en zo groot is die ruimte niet...of ze gaan nog een stap verder en halen XP echt uit de running ;)

[ Voor 66% gewijzigd door Werelds op 05-01-2017 12:39 ]


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

Ik wist niet zeker of een link naar videocardz op prijs zou worden gesteld ivm twijfelachtige bronnen soms, dus vandaar de link naar Reddit..

Zelf gok ik ook op 8GB voor de normale kaarten. Aan de andere kant, het is wel de vraag hoe veel de stacks geheugen zijn en hoeveel stacks ze willen gebruiken om de bandbreedte te krijgen

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!
flessuh schreef op donderdag 5 januari 2017 @ 12:45:
Ik wist niet zeker of een link naar videocardz op prijs zou worden gesteld ivm twijfelachtige bronnen soms, dus vandaar de link naar Reddit..
De slides komen gewoon van AMD, ze zijn alleen enkele uren eerder gepost dan dat de bedoeling is. Maar Reddit is daarentegen natuurlijk het schoolvoorbeeld van heel veel onzin. :p
Zelf gok ik ook op 8GB voor de normale kaarten. Aan de andere kant, het is wel de vraag hoe veel de stacks geheugen zijn en hoeveel stacks ze willen gebruiken om de bandbreedte te krijgen
Gewoon twee stacks waardoor je een totaal krijgt van een 2048 bit brede geheugenbus en 512GB/s aan geheugenbandbreedte. Evenveel als Fury (X)/Fiji, maar door de betere geheugencompressie moet dat geen probleem zijn. Zie ook de topicstart waar het wordt uitgelegd.

[ Voor 12% gewijzigd door -The_Mask- op 05-01-2017 12:58 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tja meer dan 8GB is op zich overkill momenteel.

Aan de andere kant heeft Titan XP ook 12gb en als AMD een echt halo model neer wil zetten lijkt het me niet onrealistisch om ook een 16GB model te verwachten.

En als 12 mogelijk is zoals Mask schrijft dan lijkt me dat zeker realistisch.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op donderdag 5 januari 2017 @ 12:57:

En als 12 mogelijk is zoals Mask schrijft dan lijkt me dat zeker realistisch.
Nee laat maar dat is onlogisch. Gewoon zoals in de topicstart ook al stond, 2048 bit wat 512GB/s bandbreedte geeft en 8GB of 16GB geheugen.Waarbij het logisch is dat 16GB alleen gebruikt wordt voor de pro-kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

Nou ja als ze alles sneller willen maken kan 8 of 12GB door de stacks wel verschil maken natuurlijk. Maar dat zal vast iets zijn dat ze getest hebben.

Mijn gevoel zegt inderdaad gewoon 8. Op de fury X werkt 4gb al goed voor 4k resolutie dus ik ga er van uit dat 12 compleet geen meerwaarde zal hebben voor consumenten

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ze hebben het in die slides ook weer over hun werkzaamheden op het gebied van memory compression enzo. Dus denk dat meer dan 8gb voorlopig echt niet nodig is. Zelfs niet op 4k met veel AA

Verder: http://www.anandtech.com/...-nvidia-keynote-live-blog

Op eerste gezicht weinig direct relevants voor ons in Nvidia's CES keynote.

Ook niks over 1080Ti maar dat verwacht ik sowieso pas als Vega duidelijker is met availability ongeveer gelijktijdig met Vega availability.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!
Help!!!! schreef op donderdag 5 januari 2017 @ 13:07:

Ook niks over 1080Ti maar dat verwacht ik sowieso pas als Vega duidelijker is met availability ongeveer gelijktijdig met Vega availability.
De typische nVidia strategie is natuurlijk, iets later, iets sneller en een stuk duurder. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 13-06 19:33

Splinter Cell

Glasvezel MASTER RACE

'15:00 NDA lift toch?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ve.ga

Ja 15 cet. Slides zijn al gelekt. Zie hierboven.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 02-06 15:55

MrVegeta

! Dolf is rechtvaardig !

Ik hoop op info over pricing & availability, maar ik verwacht dat het niet zo mooi zal zijn.

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!

  • badluckboy
  • Registratie: Oktober 2006
  • Laatst online: 13-06 12:07
Ik denk dat de Vega zo rond de snelheid van gtx 1070 zal zijn en in enkele DX 12 spellen een paar procent onder de GTX 1080 zal uitkomen.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

badluckboy schreef op donderdag 5 januari 2017 @ 13:44:
Ik denk dat de Vega zo rond de snelheid van gtx 1070 zal zijn en in enkele DX 12 spellen een paar procent onder de GTX 1080 zal uitkomen.
Nou ja in battlefront zitten ze al boven de 1080 dus...

Dan nog hopen dat ze er het zelfde uit weten te persen als met de andere generaties met drivers, kan het echt nog leuk worden _/-\o_

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:19
Het ziet in ieder geval al stukken beter uit dan de release van de HD 2900 XT (die was ongeveer evenveel later t.o.v. de eerste 88XX kaarten als de Vega serie t.o.v. de eerste 10XX kaarten van vorig jaar). Eindelijk weer wat leven in het high-end segment.

Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 13-06 14:37
badluckboy schreef op donderdag 5 januari 2017 @ 13:44:
Ik denk dat de Vega zo rond de snelheid van gtx 1070 zal zijn en in enkele DX 12 spellen een paar procent onder de GTX 1080 zal uitkomen.
Ik vermoed dat ze met het topmodel toch wel op iets boven de 1080 mikken. Er zal uiteraard wel een variant uitkomen die de 1070 het leven zuur zal gaan maken (zeker qua pricing O-) ), maar ik hoop dat ze ook erover kunnen.

Acties:
  • 0 Henk 'm!

  • Richh
  • Registratie: Augustus 2009
  • Laatst online: 13-06 19:16
MrVegeta schreef op donderdag 5 januari 2017 @ 13:42:
Ik hoop op info over pricing & availability, maar ik verwacht dat het niet zo mooi zal zijn.
Nee, ze gaan enkel in op de architectuur, jammer genoeg. Eigenlijk is alle info al uitgelekt.

☀️ 4500wp zuid | 🔋MT Venus 5kW | 🚗 Tesla Model 3 SR+ 2020 | ❄️ Daikin 3MXM 4kW


Acties:
  • 0 Henk 'm!

  • Robolokotobo
  • Registratie: December 2009
  • Laatst online: 12-06 13:38
Hier te volgen: YouTube: AMD

Ryzen 7 5700X 16GB RTX 4060 1TB NVMe


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Razzah
  • Registratie: Juli 2009
  • Laatst online: 14-03 08:24
Lol, http://ve.ga/ ligt gelijk plat

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Er zijn wel 6 nieuwe video's toegevoed op het AMD kanaal, maar er lijkt geen livestream te komen.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

Op de youtube pagina zijn nieuwe videos klaar gezet!
YouTube: AMD

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Robolokotobo
  • Registratie: December 2009
  • Laatst online: 12-06 13:38
Geen livestream. Zat naar de video van 3 weken geleden te kijken :-(

Ryzen 7 5700X 16GB RTX 4060 1TB NVMe


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19
Help!!!! schreef op donderdag 5 januari 2017 @ 12:57:
Tja meer dan 8GB is op zich overkill momenteel.

Aan de andere kant heeft Titan XP ook 12gb en als AMD een echt halo model neer wil zetten lijkt het me niet onrealistisch om ook een 16GB model te verwachten.

En als 12 mogelijk is zoals Mask schrijft dan lijkt me dat zeker realistisch.
Inderdaad, het is sowieso een feit dat AMD beter met geheugen omgaat dan Nvidia. Nvidia mag dan wel minder bandbreedte nodig hebben maar ze hebben ook vaak meer geheugen nodig.
Met betere caching en de manier hoe ze met geheugen omgaan (als ik de slide bekijk) dan is meer dan 8GB echt niet nodig op het moment.

Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 13-06 14:37

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op donderdag 5 januari 2017 @ 15:46:
[...]


Inderdaad, het is sowieso een feit dat AMD beter met geheugen omgaat dan Nvidia. Nvidia mag dan wel minder bandbreedte nodig hebben maar ze hebben ook vaak meer geheugen nodig.
Met betere caching en de manier hoe ze met geheugen omgaan (als ik de slide bekijk) dan is meer dan 8GB echt niet nodig op het moment.
Op de foto vd chip zie je volgesmij ook maar twee stacks dus 8GB. Dus nog even afwachten of er voor gamers ook een vier stack variant komt.


Anandtech - First Thoughts: A Peek At What’s To Come

Overigens spreekt Anand van 17H1 terwijl ik toch hoopte op Q1. Kan nog steeds maar H1 is toch wel wat ver weg naar mijn gevoel. NVidia zit ook niet stil met Volta.

[ Voor 22% gewijzigd door Help!!!! op 05-01-2017 16:17 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 21:26

flessuh

Set sail for fail!

Help!!!! schreef op donderdag 5 januari 2017 @ 16:13:
[...]

Op de foto vd chip zie je volgesmij ook maar twee stacks dus 8GB. Dus nog even afwachten of er voor gamers ook een vier stack variant komt.
Als dit de kleine chip is, en ze big vega bewaren om tegen Volta aan te gooien zou het best logisch zijn dat die meer heeft om er meer uit te persen als je mij vraagt ;)

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!
Help!!!! schreef op donderdag 5 januari 2017 @ 16:13:
[...]

Op de foto vd chip zie je volgesmij ook maar twee stacks dus 8GB. Dus nog even afwachten of er voor gamers ook een vier stack variant komt.
Nee want dan verdubbel je ook de bandbreedte en dat is nutteloos voor gaming. Je kunt overigens wel 16GB krijgen met twee stacks, door gewoon acht HBM2 geheugenlaagjes per stack te gebruiken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 ... 10 11 Laatste

Dit topic is gesloten.