Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 138 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 ... 9 10 11 Laatste
Acties:
  • 65.986 views

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:35
Werelds schreef op woensdag 4 januari 2017 @ 00:24:
[...]


[...]

Jullie zien dit volledig verkeerd.

G-Sync maakt niet grotere ranges mogelijk of wat dan ook. Je ziet met FreeSync alleen vaker van die kleine ranges omdat het simpelweg zo veel meer toegepast wordt. Het soort panelen waar je deze refresh rates op ziet kunnen simpelweg niet harder; of beter gezegd, zo hard laat men ze niet gaan. Het gaat namelijk in de meeste gevallen om veel voorkomende panelen. Bijvoorbeeld het 3440x1440 AH-IPS paneel van LG, dat op 40-75 draait.

Datzelfde paneel gebruiken Acer en ASUS ook in enkele modellen en dan draait het op "100 Hz" door middel van "overklokken". De Acer X34 en Asus PG348Q. En wat doen ze dan?

- Begin op 500 Euro want het is voor gaming
- G-Sync module er in: +200
- "OVERCLOCKED 100 Hz" op de doos: +150
- In speciale ULTRA DELUXE gaming reeks uitbrengen: +250

Eind resultaat zijn displays van met prijskaartjes met de 4 cijfers voor de komma. Wat krijg je dan? Een paneel dat harder draait dan waar het eigenlijk voor gemaakt is en dus ook bij heel veel mensen gewoon die 100 Hz uberhaupt niet haalt; of simpelweg snel kapot gaat. Los van de standaard baggere bouwkwaliteit. Met de X34A heeft Acer besloten de panelen eerst te testen zodat je er in elk geval relatief zeker van kunt zijn dat je die 100 Hz haalt.

Exact hetzelfde paneel vind je in enkele andere displays (zo uit m'n hoofd; LG 34UM88?), maar dan met FreeSync voor de helft van de prijs. Als je geluk hebt krijg je die ook wel op 100 Hz. De kans is daarbij niet kleiner dan bij de dure gaming displays, het is niet alsof Asus en Acer alleen A+ panelen afnemen.

Het heeft gewoon niets met GS of FS te maken, maar alles met de marketing. GS maakt die refresh rates niet mogelijk, de prijs waaraan men deze displays verkoopt maakt dat mogelijk.
Mijn Asus scherm kan 144hz, freesync range is maar 35-90. Ik denk toch dat dat iets met de scaler te maken heeft / de implementatie van freesync.
Gsync maakte wel makkelijker lagere refresh rates mogelijk door frames opnieuw naar het scherm te sturen Omdat het beeld wat zichtbaar is niet vervalt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Astennu schreef op woensdag 4 januari 2017 @ 06:38:
[...]


Mijn Asus scherm kan 144hz, freesync range is maar 35-90. Ik denk toch dat dat iets met de scaler te maken heeft / de implementatie van freesync.
Scaler zou kunnen of iets anders in het scherm, maar FreeSync zelf beperkt niks.
Gsync maakte wel makkelijker lagere refresh rates mogelijk door frames opnieuw naar het scherm te sturen Omdat het beeld wat zichtbaar is niet vervalt.
Dat doet AMD dus met LFC.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:35
-The_Mask- schreef op woensdag 4 januari 2017 @ 08:48:
[...]

Scaler zou kunnen of iets anders in het scherm, maar FreeSync zelf beperkt niks.

[...]

Dat doet AMD dus met LFC.
Inmiddels wel ja. Heb daar alleen nog niet echt tests mee gedaan om te zien hoe mijn scherm daar mee om gaat als hij onder die 35 FPS komt. Ik kom daar op dit moment eigenlijk niet. Mijn hardware is nu snel genoeg.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Gelunox
  • Registratie: april 2010
  • Laatst online: 22-09 06:47

Gelunox

Hardware addicted

Astennu schreef op woensdag 4 januari 2017 @ 08:54:
[...]


Inmiddels wel ja. Heb daar alleen nog niet echt tests mee gedaan om te zien hoe mijn scherm daar mee om gaat als hij onder die 35 FPS komt. Ik kom daar op dit moment eigenlijk niet. Mijn hardware is nu snel genoeg.
De Asus MG279Q kan je ook instellen op een freesync range tussen de 57 en 144 Hz (hoger dan 57 en de kwalificatie voor LFC van min * 2.5 <= max geld niet meer), voor zover ik kan zien bij m'n eigen paneel doet LFC dan z'n ding prima.

PC: R7 1700X@3.8GHz | 32GB G.Skill Trident Z 3466@2933MT/s | VEGA 64 Liquid Edition


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:35
Gelunox schreef op woensdag 4 januari 2017 @ 09:35:
[...]


De Asus MG279Q kan je ook instellen op een freesync range tussen de 57 en 144 Hz (hoger dan 57 en de kwalificatie voor LFC van min * 2.5 <= max geld niet meer), voor zover ik kan zien bij m'n eigen paneel doet LFC dan z'n ding prima.
Dit zou wel ideaal zijn! sowieso is die 31-110 al heel veel betder dan de originele 35-90. Net wat meer low en vooral een hogere max. 90 is wel wel lekker soepel tov 60 maar fixed 120 was nog net wat soepeleer (mits de GPU dat kon halen)

Ook die 54-144Hz in combinatie met LCF is ook erg interessant. Ik ga dit zeker uittesten! bedankt!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het jammere van Freesync is dat het helaas toch weer onoverzichtelijk is geworden door de vele verschillende verschijningsvormen. Niet dat FS zelf daar perse wat aan kan doen maar toch.

Enerzijds is het de kracht dat er heel veel monitoren op de markt zijn waarop je op zijn minst een vorm van FS hebt anderzijds is dit imo ook een zwakte.

Een zwakte omdat sommige FS varianten maar weinig toevoegen en het vaak behoorlijk wat huiswerk vraagt om te begrijpen wat je nu krijgt als je monitor X koopt.

Daarom vind ik de stap naar FS2 een goede, niet eens zozeer vanwege HDR want dit ligt toch nog vrij ver weg denk ik, maar wel omdat duidelijker is wat je minimaal mag verwachten en omdat LFC verplicht is.

De FS2 minimum spec geeft een veel betere en zinvollere ondergrens aan. Hopelijk zal FS2 ook snel naar betaalbaardere monitoren afzakken. Ben alleen bang dat juist de HDR eis dit moeilijker maakt.

Wat dat betreft is misschien een onderscheid tussen FS2 en FS2 HDR beter. Scheelt toch in certificeringskosten.

Last but not least, las ik bij Anandtech dat AMD wellicht overweegt om toch licentiekosten te gaan rekenen ivm het dure certficeringsprogramma. Dat zou ik toch wel teleurstellend vinden.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:35
HDR schermen zullen wel snel gaan verschijnen. TV's hebben het al langer. Dus het is een kwestie van tijd tot PC schermen dit ook krijgen. De grote vraag is wanneer is het betaalbaar voor jan en alleman. De meeste willen niet meer dan 300 euro uitgeven.

Tja aan de ene kant jammer. Aan de andere kant steken ze er veel tijd en moeite in. Als die licentie kosten niet te hoog zijn als in 3-5 dollar of zo zie ik het probleem niet zo. Die wil ik graag extra betalen.

[Voor 3% gewijzigd door Astennu op 04-01-2017 10:47]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Blaat
  • Registratie: september 2007
  • Laatst online: 00:42

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Astennu schreef op woensdag 4 januari 2017 @ 10:46:
HDR schermen zullen wel snel gaan verschijnen. TV's hebben het al langer. Dus het is een kwestie van tijd tot PC schermen dit ook krijgen. De grote vraag is wanneer is het betaalbaar voor jan en alleman. De meeste willen niet meer dan 300 euro uitgeven.

Tja aan de ene kant jammer. Aan de andere kant steken ze er veel tijd en moeite in. Als die licentie kosten niet te hoog zijn als in 3-5 dollar of zo zie ik het probleem niet zo. Die wil ik graag extra betalen.
Mja als je het zo bekijkt, 120Hz UHD panelen zijn er in de TV wereld ook al 2 jaar maar in de monitor wereld laat dat ernstig op zich wachten.

Sowieso lijkt het alsof er weinig motivatie is om veel R&D budget in monitor innovatie te stoppen bij fabrikanten.

Custom water loops zijn als pannenkoeken, je eerste mislukt altijd.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:35
Klopt maar er zijn wel wat schermen aangekondicht die HDR hebben.

Veel meer mensen zullen een nieuwe TV kopen dan een nieuw PC scherm. Gamers zullen dit hooguit doen. Maar de huis tuin en keuken gebruiker heeft genoeg aan zijn 1366x768 schermpje met crappy kijkhoek kleuren en helderheid. Zolang ze hun word documentje kunnen typen, mail kunnen beantwoorden en een site bekijken vinden ze het al prima. Steeds meer dingen worden ook al op de mobiele telefoon gedaan. Dus laptops worden door de meeste mensen minder gebruikt (voor desktops geld dat al jaren omdat de laptop toen erg in opkomst was)

Dus laat staan dat die mensen investeren in een 4K HDR pc scherm. Ik snap wel dat er daar weinig R&D budget voor is. Ik vind het als PC gamer wel jammer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • haarbal
  • Registratie: januari 2010
  • Laatst online: 01:06
Werelds schreef op woensdag 4 januari 2017 @ 00:24:
Jullie zien dit volledig verkeerd.

G-Sync maakt niet grotere ranges mogelijk of wat dan ook.
We zeggen ook niet dat het alleen met gsync mogelijk is, maar dat het in de praktijk zo is.

Mechwarrior Online: Flapdrol

CHBF schreef op woensdag 4 januari 2017 @ 02:22:
Jij gaf aan dat het ook een aardig risico voor de levensduur van je monitor is om op 100 Hz te overclocken, als je al 100 Hz haalt. Wat als je voor 80-90 Hz zou kiezen? Nog steeds veel beter dan 60 Hz. maar naar ik aanneem veel realistischer en minder problematisch.
Klein vraagje. Hoe doe je dat overklokken, via de GUI van de monitor of via software waarmee je het hackt (vergelijkbaar met hoe je het bereik van FreeSync kan veranderen)? Geen ervaring mee.
Het is niet helemaal hetzelfde als met een CPU/GPU overklokken. Het is niet per definitie zo dat je scherm er langzaam kapot van gaat.

In een LCD zit de TFT laag; dit is waar dat hele TN, IPS, VA verhaal zich afspeelt. Wat er met "overklokken" gebeurt is dat de kristallen in die laag vaker per seconde een tikje krijgen om in de goede stand te gaan staan. Er wordt niet per se meer spanning op gezet, het wordt alleen vaker gedaan. In de praktijk komt er wel vaak iets meer spanning op te staan, omdat de kristallen anders niet snel genoeg draaien.

Het probleem met TFT panelen is echter dat er vergeleken met CPU's en GPU's eigenlijk nog veel meer variatie in zit als ze eenmaal uit de fabriek komen. Hoe vreemd het ook klinkt, het is een stuk lastiger om deze relatief grote kristallen consistent te laten doen wat we willen dan het is om dat op nanometer niveau te doen met wat zand. Je kunt 100 panelen van hetzelfde model nemen en ze zullen altijd alle 100 net iets anders reageren. Dat is waarom LG deze panelen levert met een advies maximum refresh rate van 75 Hz. Tot 75 Hz weten ze zeker dat al die kristallen gewoon blijven draaien.

En dit is waar het probleem zit. Als je geluk hebt met de panel lottery krijg je gewoon een paneel dat probleemloos die 100 Hz aan kan zonder dat je ooit problemen krijgt. Met een beetje pech heb je echter een paneel dat bij 90 Hz al moeite heeft of een paneel waar één of meerdere kristallen na een tijdje genoeg hebben van al dat draaien en dan heb je ineens een dooie pixel ;)

Het is niet zo zeer de levensduur in z'n algemeen als van een specifiek paneel. En daar kun je op voorhand gewoon weinig van zeggen.

Overklokken gebeurt overigens in z'n algemeen door eerst het EDID profiel te overschrijven om zo je driver te laten denken dat hogere refresh rates mogelijk zijn en dan gewoon de instelling in je driver aan te passen. EDID is een display-informatie standaard die inmiddels alweer zo'n 20 jaar oud is; dat is hoe Windows weet wat je optimale resolutie is. In dat signaal zit vrijwel alle informatie: fabrikant, type signaal (analoog/digitaal), maximale resolutie, pixel clock en dus ook refresh rate. Zelfs de afmetingen van je monitor in millimeters zit er tegenwoordig meestal in ;)

Zie ook Gelunox' link. Ook CRU doet min of meer hetzelfde.
Astennu schreef op woensdag 4 januari 2017 @ 06:38:
Mijn Asus scherm kan 144hz, freesync range is maar 35-90. Ik denk toch dat dat iets met de scaler te maken heeft / de implementatie van freesync.
Gsync maakte wel makkelijker lagere refresh rates mogelijk door frames opnieuw naar het scherm te sturen Omdat het beeld wat zichtbaar is niet vervalt.
In dit geval zal dat vooral een beperking van de scaler zijn, niet het paneel. Maar ook dat ligt niet aan FreeSync of Adaptive Sync - geen van beide stelt enige maxima of minima. Vergeet niet dat jouw model een relatief vroeg model is, als je nieuwere FS monitors bekijkt zie je dat de nieuwere scalers wel gewoon bredere ranges aan kunnen.


Overigens zet ik ook vraagtekens bij G-Sync in dit geval. Van een G-Sync monitor vertrouw ik de specificaties helemaal niet. Met andere woorden: ik vraag me af of G-Sync nog wel actief is op bijvoorbeeld 110 Hz of dat het ding stiekem gewoon 144 draait. We weten dat er over de ondergrens sowieso gelogen wordt. Zelfs die dure Swift modellen waar men fijn een "30-144 Hz" sticker op plakt kunnen niet onder de 36 Hz. Daaronder wordt gewoon LFC toegepast.
haarbal schreef op woensdag 4 januari 2017 @ 11:58:
We zeggen ook niet dat het alleen met gsync mogelijk is, maar dat het in de praktijk zo is.
Ook dat is dus niet zo. Met het grootste deel van de G-Sync monitoren is de ondergrens gewoon niet haalbaar. Het verschil is dat er bij FS eerlijk geadverteerd wordt dat je aan een ondergrens van 35 of 45 Hz zit en je dan dus op LFC aangewezen bent, terwijl er bij G-Sync gewoon keihard met 30 Hz geadverteerd wordt zonder dat ze duidelijk maken wanneer LFC daar actief wordt.

  • Blaat
  • Registratie: september 2007
  • Laatst online: 00:42

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Als LFC gewoon uit zichzelf activeert en daarmee het bereik opvult zodat de eindgebruiker daar niks van merkt, wat heeft het dan voor toegevoegde waarde om daarmee te adverteren?

Bij NVidia valt er toch niks aan te tweaken dus waarom zou je dat nodeloos gecompliceerd maken.

Custom water loops zijn als pannenkoeken, je eerste mislukt altijd.


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40
Nog 24 uur!

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

Blaat schreef op woensdag 4 januari 2017 @ 13:30:
Als LFC gewoon uit zichzelf activeert en daarmee het bereik opvult zodat de eindgebruiker daar niks van merkt, wat heeft het dan voor toegevoegde waarde om daarmee te adverteren?

Bij NVidia valt er toch niks aan te tweaken dus waarom zou je dat nodeloos gecompliceerd maken.
Zo ken ik er nog wel een paar.

Als de MC gewoon zelf schakelt om een missende crossbar naar de laatste 512 MB van in totaal 4096 MB geheugen op te vangen en daarmee toch de volledige capaciteit beschikbaar maakt zonder dat de gebruiker daar iets van merkt, wat heeft het dan voor toegevoegde waarde om daar mee te adverteren?

;)

Het is gewoon niet netjes en het is ook niet 100% onmerkbaar. Als je een monitor hebt die bijvoorbeeld 45-120 doet en dan op bijvoorbeeld 40 FPS draait, worden frames dus op 80 Hz weergegeven. Aangezien frametijden niet constant zijn en altijd ietwat fluctuerenm valt met een beetje pech valt een frame vlak na een verdubbeld frame waardoor je minimaal 8.3ms (120 Hz) extra input lag krijgt. Als dat ding daadwerkelijk 30-120 zou kunnen doen zoals er met G-Sync op de doos zou staan, zouden frames op 60 Hz weergegeven worden en is de kans veel kleiner dat die 2 samen vallen, tenzij je frame tijden wel heel erg fluctueren (maar zelfs met VRR is dat onprettig ;)). Frames komen immers +- elke 25ms, dus +- 8ms vóór het minimum van 33.3ms of ruim erna (met 45 Hz is dat 22.22ms). Het is subtiel en het zal zich ook niet veel voor doen, maar ik vind het toch wel een noemenswaardig probleem. Vooral als het een monitor betreft die duurder is dan een videokaart en waar in veel gevallen sowieso al veel aan rammelt (soms letterlijk) ;)

  • haarbal
  • Registratie: januari 2010
  • Laatst online: 01:06
Werelds schreef op woensdag 4 januari 2017 @ 12:03:
Overigens zet ik ook vraagtekens bij G-Sync in dit geval. Van een G-Sync monitor vertrouw ik de specificaties helemaal niet. Met andere woorden: ik vraag me af of G-Sync nog wel actief is op bijvoorbeeld 110 Hz of dat het ding stiekem gewoon 144 draait.
Zou je moeten zien als je vsync uit hebt staan, lijkt me erg onwaarschijnlijk.

Mechwarrior Online: Flapdrol


  • Blaat
  • Registratie: september 2007
  • Laatst online: 00:42

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op woensdag 4 januari 2017 @ 14:57:
[...]

Zo ken ik er nog wel een paar.

Als de MC gewoon zelf schakelt om een missende crossbar naar de laatste 512 MB van in totaal 4096 MB geheugen op te vangen en daarmee toch de volledige capaciteit beschikbaar maakt zonder dat de gebruiker daar iets van merkt, wat heeft het dan voor toegevoegde waarde om daar mee te adverteren?

;)

Het is gewoon niet netjes en het is ook niet 100% onmerkbaar. Als je een monitor hebt die bijvoorbeeld 45-120 doet en dan op bijvoorbeeld 40 FPS draait, worden frames dus op 80 Hz weergegeven. Aangezien frametijden niet constant zijn en altijd ietwat fluctuerenm valt met een beetje pech valt een frame vlak na een verdubbeld frame waardoor je minimaal 8.3ms (120 Hz) extra input lag krijgt. Als dat ding daadwerkelijk 30-120 zou kunnen doen zoals er met G-Sync op de doos zou staan, zouden frames op 60 Hz weergegeven worden en is de kans veel kleiner dat die 2 samen vallen, tenzij je frame tijden wel heel erg fluctueren (maar zelfs met VRR is dat onprettig ;)). Frames komen immers +- elke 25ms, dus +- 8ms vóór het minimum van 33.3ms of ruim erna (met 45 Hz is dat 22.22ms). Het is subtiel en het zal zich ook niet veel voor doen, maar ik vind het toch wel een noemenswaardig probleem. Vooral als het een monitor betreft die duurder is dan een videokaart en waar in veel gevallen sowieso al veel aan rammelt (soms letterlijk) ;)
Erg theoretisch verhaal.

Ik heb inmiddels aardig wat g-sync monitors onder mijn vingers gehad en in de praktijk heb ik dit nooit gemerkt.

Wat ik een veel ernstiger verhaal vind bij g-sync is dat je je input lag keihard weer terug krijgt als je over de max refresh van je monitor gaat omdat de driver geen fatsoenlijke frame limiter ingebouwd heeft zitten itt de radeon software. Je kan tearing bij G-sync boven de refresh van je scherm alleen maar voorkomen met v-sync aan, wat sinds g-sync v2 voor een aardige dot input lag zorgt.

Maar daar hoor ik niemand over...

Custom water loops zijn als pannenkoeken, je eerste mislukt altijd.


  • haarbal
  • Registratie: januari 2010
  • Laatst online: 01:06
Blaat schreef op woensdag 4 januari 2017 @ 15:16:
Wat ik een veel ernstiger verhaal vind bij g-sync is dat je je input lag keihard weer terug krijgt als je over de max refresh van je monitor gaat omdat de driver geen fatsoenlijke frame limiter ingebouwd heeft zitten
Je kan cappen met afterburner, maar beter met het spel zelf, lagere input lag.

Met de nvidia driver kan je ook cappen, maar om bij die setting te komen moet je nvidia inspector aanzwengelen.

Mechwarrior Online: Flapdrol

haarbal schreef op woensdag 4 januari 2017 @ 15:04:
[...]

Zou je moeten zien als je vsync uit hebt staan, lijkt me erg onwaarschijnlijk.
Ik weet niet of er iemand al eens echt naar gekeken heeft op zulke framerates en bijbehorende refresh rates, omdat dat niet het gebied is waarin het echt iets uit maakt. Tearing is op 120/144 Hz al dusdanig minimaal dat ik wel durf te stellen dat een groot deel van de gebruikers het niet eens in de gaten zou hebben.

Sterker nog, er zijn genoeg mensen die tearing nooit op is gevallen totdat je het een keer aan wijst :P
Blaat schreef op woensdag 4 januari 2017 @ 15:16:
Erg theoretisch verhaal.

Ik heb inmiddels aardig wat g-sync monitors onder mijn vingers gehad en in de praktijk heb ik dit nooit gemerkt.
Dat zal best, het gaat ook maar om een paar milliseconden. Het is er echter wel en als je dan toch €800 uit geeft aan een product waarbij er gepocht wordt met lage reactie tijden en (nagenoeg) geen input lag is dat toch wel flauw.

Maar wellicht ben ik daar te kieskeurig in, ik vind namelijk ook dat die dingen sowieso ondermaats gebouwd zijn in de meeste gevallen. Als je zo veel geld aan een monitor uit geeft, mag hij niet dusdanig veel backlight bleeding hebben dat je er een kamer mee kunt verlichten. Vind ik ;)
Wat ik een veel ernstiger verhaal vind bij g-sync is dat je je input lag keihard weer terug krijgt als je over de max refresh van je monitor gaat omdat de driver geen fatsoenlijke frame limiter ingebouwd heeft zitten itt de radeon software. Je kan tearing bij G-sync boven de refresh van je scherm alleen maar voorkomen met v-sync aan, wat sinds g-sync v2 voor een aardige dot input lag zorgt.

Maar daar hoor ik niemand over...
De meeste kopers nemen dat gewoon voor lief. Zoals ik al zei, de meeste zien tearing en input lag niet eens maar schaffen dan wel zo'n apparaat aan ;)

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Werelds schreef op woensdag 4 januari 2017 @ 16:48:
[...]

Ik weet niet of er iemand al eens echt naar gekeken heeft op zulke framerates en bijbehorende refresh rates, omdat dat niet het gebied is waarin het echt iets uit maakt. Tearing is op 120/144 Hz al dusdanig minimaal dat ik wel durf te stellen dat een groot deel van de gebruikers het niet eens in de gaten zou hebben.

Sterker nog, er zijn genoeg mensen die tearing nooit op is gevallen totdat je het een keer aan wijst :P
Als ik er op let zie ik het maar ik ben "getrained" om het te negeren :P. Input lag merk ik wel enorm, v-sync/steam link of andere technieken die last hebben van input lag zal ik daarom dus nooit gebruiken.

Battle.net tag

Werelds schreef op woensdag 4 januari 2017 @ 12:03:
[...]

Het is niet helemaal hetzelfde als met een CPU/GPU overklokken. Het is niet per definitie zo dat je scherm er langzaam kapot van gaat.

In een LCD zit de TFT laag; dit is waar dat hele TN, IPS, VA verhaal zich afspeelt. Wat er met "overklokken" gebeurt is dat de kristallen in die laag vaker per seconde een tikje krijgen om in de goede stand te gaan staan. Er wordt niet per se meer spanning op gezet, het wordt alleen vaker gedaan. In de praktijk komt er wel vaak iets meer spanning op te staan, omdat de kristallen anders niet snel genoeg draaien.

Het probleem met TFT panelen is echter dat er vergeleken met CPU's en GPU's eigenlijk nog veel meer variatie in zit als ze eenmaal uit de fabriek komen. Hoe vreemd het ook klinkt, het is een stuk lastiger om deze relatief grote kristallen consistent te laten doen wat we willen dan het is om dat op nanometer niveau te doen met wat zand. Je kunt 100 panelen van hetzelfde model nemen en ze zullen altijd alle 100 net iets anders reageren. Dat is waarom LG deze panelen levert met een advies maximum refresh rate van 75 Hz. Tot 75 Hz weten ze zeker dat al die kristallen gewoon blijven draaien.

En dit is waar het probleem zit. Als je geluk hebt met de panel lottery krijg je gewoon een paneel dat probleemloos die 100 Hz aan kan zonder dat je ooit problemen krijgt. Met een beetje pech heb je echter een paneel dat bij 90 Hz al moeite heeft of een paneel waar één of meerdere kristallen na een tijdje genoeg hebben van al dat draaien en dan heb je ineens een dooie pixel ;)

Het is niet zo zeer de levensduur in z'n algemeen als van een specifiek paneel. En daar kun je op voorhand gewoon weinig van zeggen.

Overklokken gebeurt overigens in z'n algemeen door eerst het EDID profiel te overschrijven om zo je driver te laten denken dat hogere refresh rates mogelijk zijn en dan gewoon de instelling in je driver aan te passen. EDID is een display-informatie standaard die inmiddels alweer zo'n 20 jaar oud is; dat is hoe Windows weet wat je optimale resolutie is. In dat signaal zit vrijwel alle informatie: fabrikant, type signaal (analoog/digitaal), maximale resolutie, pixel clock en dus ook refresh rate. Zelfs de afmetingen van je monitor in millimeters zit er tegenwoordig meestal in ;)

Zie ook Gelunox' link. Ook CRU doet min of meer hetzelfde.
Ik ken ongeveer de theorie van een LCD-monitor: kristallen die draaien onder invloed van de spanning en zodoende meer of minder licht per subpixel doorlaten, polariserende filters die ervoor zorgen dat het licht onder 1 invalshoek invalt op die kristallen en met de juiste polarisatie op de voorkant invalt. Het was voor mij alleen nog niet bekend of dat het sneller draaien een risico inhoudt. Dank je voor de uitleg.
Kan je stellen dat je bij een lagere overklok een lager risico hebt op dode pixels t.g.v. het overklokken? Is er een gulden middenweg waarbij je eigenlijk geen risico neemt maar wel een hogere refreshrate haalt? Los van monitors die hetzelfde panel gebruiken (adviesmaximumf. van 75 Hz) maar die om de een of andere reden (marketing? conservatisme?) op 60 Hz. zijn afgesteld?
Hoe komt het dat de kristallen van die monitors die een hoge refresh rate hebben wel zoveel sneller kunnen draaien? Een andere techniek? Erg veel cherrypicking.

Terzijde, ik heb dode pixels gehad op mijn vorige monitor, bij mijn huidige monitor (een paar jaar oud) heb ik tot nu toe geluk gehad. Ik ben erg gevoelig voor dode pixels.

[Voor 10% gewijzigd door CHBF op 04-01-2017 18:33]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016


  • Blaat
  • Registratie: september 2007
  • Laatst online: 00:42

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik hoop het zo!

Dat zou AMD direct weer terug naar "competitief op alle fronten" schoppen.

Custom water loops zijn als pannenkoeken, je eerste mislukt altijd.

Daar lijkt het al wekenlang op. Ik denk dat de Doom benchmark een aardige indicatie geeft. Ja, Doom werkt beter op AMD-kaarten (met Vulkan) maar de drivers waren verre van geoptimaliseerd en er draaide naar verluidt ook debugsoftware.
Als je kijkt naar het aantal TFlops dan lijkt het er ook op dat het sneller is.
Dit is niet geheel wetenschappelijk verantwoord maar het geeft wellicht een leuke indicatie.

Tflops voor de 970, 980, 980 Ti, 1060: 3.9, 4.6, 5.6, 4.4
Tflops voor de 390, 390x, Fury X, 480: 5.1, 5.9, 8.2, 5.8
Ratio's voor de 390/970, 390X/980, Fury X/980 Ti, 480/1060: 1.31, 1.28, 1.46, 1.32 (zou de Fury X/980 Ti een buitenbeentje zijn door de beperking dat de Fury maar 4 GB RAM had?)
De volle Vega-kaart zou 12,5 Tflops hebben. De GTX1080 heeft er 8,9. 12,5/8.9 = 1.40
Er lijkt enige consistentie te zijn wat betreft de 300-serie, de 400-serie en de Nvidia-evenknieën wat betreft de ratio in Tflops. Tevens zou het hoger aantal Tflops weleens kunnen verklaren waarom veel AMD-kaarten inlopen op hun Nvidia-concurrenten en er vervolgens fors overheen gaan naarmate ze ouder worden.
YouTube: AMD's FineWine Technology: What is it & why do AMD GPUs age ...
Vanzelfsprekend is iedereen welkom om kanttekeningen te plaatsen bij deze theorie en er gaten in te schieten. Graag zelfs, als daar aanleiding toe is, dan leren we misschien wat. ;)

Mijn inschatting en speculatie: de volle Vega-kaart gaat bij het debuut ergens halverwege tussen de 1080 en de toekomstige 1080 Ti zitten voor DX11-spellen en op het niveau van de 1080 Ti of net erover zitten voor goed geïmplementeerde Vulkan- en DX12-spellen (gebaseerd op de RX 480 vs. de GTX 1060 en de GTX 1070 bij Doom onder Vulkan en het verschil tussen de GTX 1060 en de GTX 1070). De cut gaat tussen de 1070 en de 1080 in zitten. Een halve cyclus verder, een halve tier hoger. De vragen staan dan nog open wat ze met de kleinere Vega-kaarten gaan doen (kleiner dan de GTX 1070 concurrent, ik ga ervan uit dat ze op de een of andere manier later in het jaar de 500-serie starten met deze kaarten) en hoeveel procent eraf gaat bij de kleinste cut (de grootte GPU die na de cut overblijft), bij Nvidia is dat ongeveer 1/3de, hopelijk gaat er bij AMD minder van af.

[Voor 3% gewijzigd door CHBF op 04-01-2017 19:19]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40
Het lijkt een zekere 10 en misschien 20% meer snelheid te zijn dan 1080 dus we zitten ruwweg gelijk aan TI lijkt me

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

winwiz schreef op woensdag 4 januari 2017 @ 18:50:
Het lijkt een zekere 10 en misschien 20% meer snelheid te zijn dan 1080 dus we zitten ruwweg gelijk aan TI lijkt me
Dat vind ik optimistisch. Als Nvidia het kunstje van de 900-serie herhaalt dan zal de GTX 1080 Ti eerder net boven de 20% boven de 1080 presteren. Misschien als de kaart wat ouder is en de drivers verfijnd zijn?
https://www.pcper.com/rev...view-Matching-TITAN-X-650

Even iets anders, ik ga eens zien of dat ik recente (van na het debuut van Relive ;)) benchmarks kan vinden waaarin zowel de 980 als de RX 480 zijn opgenomen. Vorig jaar was de teneur dat de RX 480 onder de 980 zou blijven en waren mensen teleurgesteld, ik heb de indruk dat de RX 480 nu aardig in de buurt zit van de 980. Leuk om te bedenken dat je nu voor 250 euro een kaart kan kopen die aanvankelijk 550 euro kostte. Zo zie je maar weer dat je er niet verstandig aan doet om de krachtigste grafische kaarten te kopen. Zolang de hardware nog verbeterd in een goed tempo in ieder geval.

[Voor 44% gewijzigd door CHBF op 04-01-2017 19:03]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40
We gaan het zien in de komende weken. Prijsontwikkeling en power zullen de grootste vraagtekens zijn. Van een paar procent performance kunnen we niet wakker liggen

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

Inmiddels een aardige recente vergelijking gevonden tussen de 980 en de 480 maar hij vermeldt helaas niet de modellen.
YouTube: RX 480 VS GTX 980 - in 24 Games DX11 & DX12
De RX 480 zit voor oudere spellen nog best fors onder de GTX 980, voor nieuwere spellen is het verschil klein en voor een enkel spel presteert de RX 480 beter. Hopelijk gaat AMD ook nog hard werken aan de drivers voor de oudere spellen die veel gespeeld worden. Daar lijkt nog veel rek in te zitten gezien het verschil in prestaties in vergelijking met Nvidia voor oudere en nieuwere spellen.
winwiz schreef op woensdag 4 januari 2017 @ 19:05:
We gaan het zien in de komende weken. Prijsontwikkeling en power zullen de grootste vraagtekens zijn. Van een paar procent performance kunnen we niet wakker liggen
Voor de cut lijkt de prijs mij wel aardig te voorspellen (referentiekaart voor $350-400, kijk naar de prijzen van de GTX 970, GTX 1070 en de R9 390 en houd er rekening mee dat de prijzen van de GTX 1070 inmiddels aardig genormaliseerd zijn), voor de volle kaart reken ik op ergens tussen de 500 en de 600 euro. Hopelijk weten we het morgenmiddag. :)

[Voor 59% gewijzigd door CHBF op 04-01-2017 19:18]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Robolokotobo
  • Registratie: december 2009
  • Laatst online: 15:23
Ryzen en Vega in Star Wars Battlefront https://nl.hardware.info/...met-ryzen-cpu-en-vega-gpu

i5 3470 8GB GTX 1650 - Xbox One S - Switch Lite


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016


  • Robolokotobo
  • Registratie: december 2009
  • Laatst online: 15:23
Foutje. Ik dacht dat het nog maar net op HWI stond

i5 3470 8GB GTX 1650 - Xbox One S - Switch Lite


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het zou toch wat zijn als Vega gewoon mee kan met 1080 a 1080Ti en wellicht tegen betere prijs!

Dat zou wel heel lekker zijn. :)

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40
We weten in feite nog niets... maar het zou erg leuk zijn.

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

Hebben jullie deze al gezien?

Gebaseerd op dit. http://www.freepatentsonline.com/y2016/0371873.html
Ik moet het zelf nog even gaan lezen. Ik ben benieuwd. Wat ik nu wel begrijp is dat ze minder capaciteit verspillen met de nieuwe architectuur en dat ze hier winst uit halen.
Help!!!! schreef op woensdag 4 januari 2017 @ 20:02:
Het zou toch wat zijn als Vega gewoon mee kan met 1080 a 1080Ti en wellicht tegen betere prijs!

Dat zou wel heel lekker zijn. :)
Weet je wat echt heel erg leuk zou zijn? Als morgen zou blijken dat die gelekte benchmark van de cut is en dat de volle Vega-kaart een Titan-sloper is. Een mens mag dromen. :)
Als die architectuur inderdaad veel verschil maakt dan is er best een verrassing mogelijk.

[Voor 66% gewijzigd door CHBF op 04-01-2017 20:20]

Zelfcensuur is de meest schadelijke vorm van censuur.

Sp3ci3s8472 schreef op woensdag 4 januari 2017 @ 17:42:
Als ik er op let zie ik het maar ik ben "getrained" om het te negeren :P. Input lag merk ik wel enorm, v-sync/steam link of andere technieken die last hebben van input lag zal ik daarom dus nooit gebruiken.
Input lag vind ik inderdaad ook veel erger. Tearing hangt er heel erg van af bij mij, als het constant gebeurt dan vind ik het ook irritant en zal ik VSync gebruiken. Maar in z'n algemeen laat ik dat uit en gebruik ik in-game frame limiters waar mogelijk. En dan niet eens noodzakelijkerwijs dat dat echt nodig is; in BF1 haal ik echt geen constante 120 FPS.
CHBF schreef op woensdag 4 januari 2017 @ 18:28:
Kan je stellen dat je bij een lagere overklok een lager risico hebt op dode pixels t.g.v. het overklokken? Is er een gulden middenweg waarbij je eigenlijk geen risico neemt maar wel een hogere refreshrate haalt? Los van monitors die hetzelfde panel gebruiken (adviesmaximumf. van 75 Hz) maar die om de een of andere reden (marketing? conservatisme?) op 60 Hz. zijn afgesteld?
Hoe komt het dat de kristallen van die monitors die een hoge refresh rate hebben wel zoveel sneller kunnen draaien? Een andere techniek? Erg veel cherrypicking.
Het heeft minder met de refresh rate te maken dan het specifieke paneel. Het heeft ook niet zozeer met de constructietechniek te maken, als wel met simpelweg de gebruikte materialen en het ontwerp van het paneel.

In dat opzicht is het niet veel anders dan met GPU's. Nvidia en AMD zaten altijd bij dezelfde chip fabrikant en zeker vanaf GCN lijkt ook de macroarchitectuur erg op elkaar. Het zijn beide in principe superscalar chips, net zoals TN, IPS en VA allemaal TFT varianten zijn. En toch zitten er gigantische verschillen in.

Door het basis principe achter TN kunnen TN panelen per definitie gewoon harder draaien. TN is dan ook het minst interessant, want het geeft de minste beeld kwaliteit en de rest kan niet veel beter meer.

IPS en VA zijn dan veel interessanter - die hebben al goede beeld kwaliteit eigenschappen, maar waar TN zo lang zo veel beter in was is lastiger. Zoals Nvidia Fermi verknalde door een bijzonder slecht ontwerp (fysiek; niet de architectuur) en slechte materialen, is dat waar je bij IPS en VA ook zo veel verschillen ziet. Elke fabrikant heeft ook z'n eigen vorm van IPS/VA waar ze continue aan sleutelen. Alleen al met IPS heb je H-IPS, P-IPS, S-IPS, AH-IPS en ga zo maar door. Met VA panelen heb je MVA, PVA en daar weer subvarianten van (AUO maakt A-MVA, Chi Mei S-MVA; Sharp noemt ze gewoon MVA maar dat is ook weer net iets anders).

Zo zal LG voor een 45-75 Hz paneel andere (lees: goedkopere) materialen gebruiken dan voor een 35-144 Hz paneel. Wat precies? ¯\_(ツ)_/¯

Wat die verschillen precies zijn is altijd lastig te achterhalen, het is namelijk niet zo dat dit op dezelfde manier bekeken wordt als een CPU/GPU architectuur, maar het principe is hetzelfde. Andere interconnects, ander soort transistors of transistors van een ander materiaal, ander vloeibaar kristal. Alleen al dat laatste kan heel veel verschil maken; afhankelijk van wat je gebruikt kan het zijn dat je hogere voltages nodig hebt maar dan wel een materiaal hebt dat weinig "door schiet" (overshoot). En daar wordt constant onderzoek naar gedaan. Het gebruik van goedkopere materialen wil echter niet zeggen dat die niet zo hard kunnen als duurdere materialen, het zal alleen meer moeite kosten om te corrigeren; en het betekent net als bij chips dat door kleine defecten er ineens een hele hoop verloren gaat en je dus een goed sample moet hebben om te overklokken.


Zo, weer een offtopic muurtje :|


Edit: I like the sound of that.

Wel oppassen dat de hype niet te groot wordt, maar ik ben nog steeds positief gestemd over Ryzen. En Vega lijkt ook de goede kant op te gaan.

Die eventuele NCU hierboven zou wel heel interessant zijn. Dan zit AMD aan de andere kant van het spectrum vergeleken met VLIW5 in 2009 ;)

[Voor 4% gewijzigd door Werelds op 04-01-2017 20:39]

Robolokotobo schreef op woensdag 4 januari 2017 @ 19:53:
Hoewel je er nog niet zo heel veel door kan zeggen. Battlefront is echt een AMD game.
Niet echt hoor.


http://www.techspot.com/r...force-gtx-1080/page4.html

Gewoon een vrij gemiddelde game dus met prestaties hoe je die die eigenlijk zou verwachten. Eerder een heel klein beetje in het voordeel van nVidia, AMD is normaal gesproken iets sterker op zo'n resolutie.


http://www.techspot.com/review/1246-ludicrous-graphics-test/

Neemt niet weg dat ik het vooralsnog maar met een korreltje zout zou nemen, want dat is dus mits vergelijkbare instellingen rond de Titan X qua performance en dat lijkt mij nogal extreem snel, maar wie weet. :p
CHBF schreef op woensdag 4 januari 2017 @ 18:47:
Als je kijkt naar het aantal TFlops dan lijkt het er ook op dat het sneller is.
Dit is niet geheel wetenschappelijk verantwoord maar het geeft wellicht een leuke indicatie.
Nee het geeft ook geen indicatie als de architectuur niet identiek is. Dat zegt het he-le-maal niks over de prestaties en kun je ook niks vergelijken. Die flops is niet meer als het aantal streamprocessors, maal de frequentie maal twee. Aangezien de prestatie per stream processor heel erg kan verschillen per architectuur, ook bij AMD en nVidia GPU's onderling kun je hier dus onmogelijk iets aan afleiden. Ook in het geval van Vega aangezien de architectuur anders is dan als bij Polaris.

[Voor 28% gewijzigd door -The_Mask- op 04-01-2017 21:38]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Wes
  • Registratie: juli 2002
  • Niet online
Werelds schreef op woensdag 4 januari 2017 @ 20:29:
[...]

Edit: I like the sound of that.

Wel oppassen dat de hype niet te groot wordt, maar ik ben nog steeds positief gestemd over Ryzen. En Vega lijkt ook de goede kant op te gaan.

Die eventuele NCU hierboven zou wel heel interessant zijn. Dan zit AMD aan de andere kant van het spectrum vergeleken met VLIW5 in 2009 ;)
Die hype is wel een puntje inderdaad. Bij de RX480 was er hier in het topic zo'n enorme hype dat toen het ding uit kwam en niet de vloer aanveegde met alles wat Nvidia te bieden had iedereen teleurgesteld was. En dat terwijl dat helemaal geen realistische verwachting was, en de RX480 eigenlijk gewoon een prima kaartje is.

Natuurlijk zou een kaart die Nvidia alle hoeken van de kamer laat zien leuk zijn, maar laten we daar voorlopig nog maar even niet vanuit gaan. Een goede kaart die er voor zorgt dat AMD weer mee doet in het high-end segment is ook prima.
In de topicstart van dit topic stond gewoon de verwachte prestaties al maanden voor de launch. Alleen het verbruik was iets hoger dan verwacht.

[Voor 20% gewijzigd door -The_Mask- op 04-01-2017 21:50]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

-The_Mask- schreef op woensdag 4 januari 2017 @ 21:22:
Nee het geeft ook geen indicatie als de architectuur niet identiek is. Dat zegt het he-le-maal niks over de prestaties en kun je ook niks vergelijken. Die flops is niet meer als het aantal streamprocessors, maal de frequentie maal twee. Aangezien de prestatie per stream processor heel erg kan verschillen per architectuur, ook bij AMD en nVidia GPU's onderling kun je hier dus onmogelijk iets aan afleiden. Ook in het geval van Vega aangezien de architectuur anders is dan als bij Polaris.
Je moet het niet te ver doortrekken maar in zoverre vind ik het interessant als indicatie voor de minimale prestatie omdat:
  • voor Polaris de ratio met de evenknieën van Nvidia nagenoeg hetzelfde is als die voor de 300- en de 900-series
  • de architectuur van Vega naar verluidt beter is dan die van Polaris
Ik denk dat je in die mate op basis van het aantal Tflops mag vermoeden dat die vega-kaart die 12,5 Tflops haalt in ieder geval de 1080 zal verslaan.
Verder dan dat ga ik er niet mee, ik trek geen conclusies over het wel of niet kunnen concurreren met de 1080 Ti.
Ja, het verschilt ook per kaart binnen een generatie maar je ziet toch wel een sterke consistentie op die Fury-kaart na tussen de 300- vs. 900-serie en de 400- vs. 1000-serie. Sowieso lijkt het mij dat AMD niet ontkomt aan het moeten leveren van meer TFlops voor dezelfde DX11-prestatie t.g.v. hun GCN-architectuur vs. de simpelere architectuur waar Nvidia voor koos bij de Maxwell en Pascal-generaties. Dat wordt beloond bij Vulkan en DX12 maar afgestraft bij DX11 en OpenGL.AMD lijkt een hoger aantal Tflops nodig te hebben om voor DX11 dezelfde prestaties te halen en dat zal voor de Vega-kaarten vast nog niet veranderen (hooguit verbeteren).

Zelfcensuur is de meest schadelijke vorm van censuur.

Werelds schreef op woensdag 4 januari 2017 @ 20:29:
[...]

Input lag vind ik inderdaad ook veel erger. Tearing hangt er heel erg van af bij mij, als het constant gebeurt dan vind ik het ook irritant en zal ik VSync gebruiken. Maar in z'n algemeen laat ik dat uit en gebruik ik in-game frame limiters waar mogelijk. En dan niet eens noodzakelijkerwijs dat dat echt nodig is; in BF1 haal ik echt geen constante 120 FPS.
Ik heb de afgelopen week weer eens een playthrough van ACII gedaan. Gruwelijk veel tearing bij een vaste FPS van 62 (ik heb de indruk dat het spel zelf een framelimiter gebruikt die net boven de refresh rate van de monitor ligt als de grafische kaart dat haalt, klopt dat?). Daarom probeerde ik eens uit om met de framelimiter van AMD de FPS onder de 60 te houden, ik experimenteerde met 57-59. Helaas, nog steeds te vaak tearing naar mijn smaak (wel minder zoals te verwachten is). Bij Borderlands 2 en Bioshock Infinite viel het me ook heel erg op. Ik weet niet of dat iedereen het opmerkt (misschien filtert het brein dat weg bij sommige mensen?) maar ik kan er in ieder geval niet meer zo goed tegen terwijl ik het de eerste jaren dat ik gamede op de PC het veel minder opmerkte. Rond de tijd dat ik een Vega-kaart koop ga ik ook maar eens een nieuwe monitor kopen, een die FreeSync ondersteunt en een hogere refreshrate haalt. Hopelijk komen er wat leuke modellen uit in de komende maanden want dat viel het afgelopen jaar erg tegen.

Ik heb echter wel liever tearing dan input lag. Het enige spel waarvoor ik input lag aanvaard is LA Noire, simpelweg omdat het spel anders niet werkt en omdat het voor het belangrijkste deel van de gameplay niet echt relevant is. Wel hinderlijk!
Bij Mass Effect 2 en 3 merkte ik na een verse installatie op dat het minder lekker speelde dan dat ik gewend was. Ja hoor, ik had er even niet aan gedacht dat je via een parameterbestandje de VSync moet uitschakelen. :)
Ook meerdere keren gehad dat ik bij een net geïnstalleerd spel merk dat het niet lekker speelt en dat dan inderdaad blijkt dat de Vsync uitzetten veel helpt. Ik ben er blijkbaar best wel gevoelig voor, daarom wil ik toch wel eens een monitor hebben met een hoge refresh rate. Wel het liefst direct 4k (kwestie van dat het *** is dat je geen 4k-video's kan afspelen op een 1440p-monitor, het is wel zo handig als dat ook kan als je 500-600 euro besteedt aan een monitor) maar dat wil helaas nog niet zo opschieten als het enigszins betaalbaar moet zijn.

Zelfcensuur is de meest schadelijke vorm van censuur.

CHBF schreef op donderdag 5 januari 2017 @ 09:31:
[...]

Je moet het niet te ver doortrekken maar in zoverre vind ik het interessant als indicatie voor de minimale prestatie omdat:
Dat het nu toevallig overeen komt, maakt het niet waar, maar toevallig. Als een normale relatief kleine auto met weinig massa in de eerste meters even snel is als een dikke muscle car, dan ga je toch ook niet de conclusie trekken dat beide dus even snel zijn?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

Er staan nu ook slides op videocardz. Linkje staat op reddit. Als ik het zo zie is het inderdaad de architecture preview en niets meer zoals veel hoopten..

ziet er wat mij betreft wel echt veelbelovend uit. Uiteindelijk hangt alles natuurlijk af van de prijs.

[Voor 41% gewijzigd door flessuh op 05-01-2017 11:22]

https://www.dutchsolarboat.com

flessuh schreef op donderdag 5 januari 2017 @ 11:20:
Er staan nu ook slides op videocardz.
When NDA ends, you will also see the chip itself with two HBM2 stacks (so 16GB HBM2 memory)
http://videocardz.com/65406/exclusive-amd-vega-presentation

Ga maar uit van 8GB voor de consumenten gaming kaart, 16GB kan wel, maar is een stuk duurder en waarschijnlijk eerder bedoeld voor de pro-kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Even er van uitgaande dat de slides kloppen, de highlights:

- 128 SP per NCU tegenover 64 per CU
- Zowel 16 als 8-bit packing (zie ook de discussie in de periode van deze post van mij)
- Geometry engines krijgen een fikse boost: 11 polys per tick met 4 engines. Zal wel niet 100% van de tijd van toepassing zijn.
- Conservative Rasterisation en waarschijnlijk dus ook ROV ;)
Wes schreef op woensdag 4 januari 2017 @ 21:45:
Die hype is wel een puntje inderdaad. Bij de RX480 was er hier in het topic zo'n enorme hype dat toen het ding uit kwam en niet de vloer aanveegde met alles wat Nvidia te bieden had iedereen teleurgesteld was. En dat terwijl dat helemaal geen realistische verwachting was, en de RX480 eigenlijk gewoon een prima kaartje is.

Natuurlijk zou een kaart die Nvidia alle hoeken van de kamer laat zien leuk zijn, maar laten we daar voorlopig nog maar even niet vanuit gaan. Een goede kaart die er voor zorgt dat AMD weer mee doet in het high-end segment is ook prima.
Niet zo zeer hier in het topic als wel op de FP en vele andere sites denk ik. De meesten van ons hadden wel een goed idee van wat Polaris zou gaan doen. Ik denk dat we alleen iets meer van de efficiëntie hadden verwacht. Maar dat is dan de prijs die je betaalt voor de prijs van een 480 ;)

Wat mij betreft heeft AMD met Polaris wel precies geleverd wat ik verwachtte qua prestaties en voor die prijs is dat gewoon heel netjes. Ik denk niet dat het te ver gezocht is dat we nu iets krijgen dat tussen GP102 en GP104 in zit qua prestaties, de vraag is echter wat daarbij het stroomverbruik wordt.

De hype zit ook aan de andere kant van het hek. Ik weet niet hoe of waarom, maar er zijn veel mensen die denken dat Nvidia niet alleen een 1080 Ti in de planning heeft staan, maar dat die dan ook nog eens AMD helemaal weg zou vegen en alle andere dingen irrelevant gaat maken. Realistisch gezien moet dat ding echter tussen Titan XP en de 1080 komen te zitten en zo groot is die ruimte niet...of ze gaan nog een stap verder en halen XP echt uit de running ;)

[Voor 66% gewijzigd door Werelds op 05-01-2017 12:39]


  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

Ik wist niet zeker of een link naar videocardz op prijs zou worden gesteld ivm twijfelachtige bronnen soms, dus vandaar de link naar Reddit..

Zelf gok ik ook op 8GB voor de normale kaarten. Aan de andere kant, het is wel de vraag hoe veel de stacks geheugen zijn en hoeveel stacks ze willen gebruiken om de bandbreedte te krijgen

https://www.dutchsolarboat.com

flessuh schreef op donderdag 5 januari 2017 @ 12:45:
Ik wist niet zeker of een link naar videocardz op prijs zou worden gesteld ivm twijfelachtige bronnen soms, dus vandaar de link naar Reddit..
De slides komen gewoon van AMD, ze zijn alleen enkele uren eerder gepost dan dat de bedoeling is. Maar Reddit is daarentegen natuurlijk het schoolvoorbeeld van heel veel onzin. :p
Zelf gok ik ook op 8GB voor de normale kaarten. Aan de andere kant, het is wel de vraag hoe veel de stacks geheugen zijn en hoeveel stacks ze willen gebruiken om de bandbreedte te krijgen
Gewoon twee stacks waardoor je een totaal krijgt van een 2048 bit brede geheugenbus en 512GB/s aan geheugenbandbreedte. Evenveel als Fury (X)/Fiji, maar door de betere geheugencompressie moet dat geen probleem zijn. Zie ook de topicstart waar het wordt uitgelegd.

[Voor 12% gewijzigd door -The_Mask- op 05-01-2017 12:58]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tja meer dan 8GB is op zich overkill momenteel.

Aan de andere kant heeft Titan XP ook 12gb en als AMD een echt halo model neer wil zetten lijkt het me niet onrealistisch om ook een 16GB model te verwachten.

En als 12 mogelijk is zoals Mask schrijft dan lijkt me dat zeker realistisch.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

Help!!!! schreef op donderdag 5 januari 2017 @ 12:57:

En als 12 mogelijk is zoals Mask schrijft dan lijkt me dat zeker realistisch.
Nee laat maar dat is onlogisch. Gewoon zoals in de topicstart ook al stond, 2048 bit wat 512GB/s bandbreedte geeft en 8GB of 16GB geheugen.Waarbij het logisch is dat 16GB alleen gebruikt wordt voor de pro-kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

Nou ja als ze alles sneller willen maken kan 8 of 12GB door de stacks wel verschil maken natuurlijk. Maar dat zal vast iets zijn dat ze getest hebben.

Mijn gevoel zegt inderdaad gewoon 8. Op de fury X werkt 4gb al goed voor 4k resolutie dus ik ga er van uit dat 12 compleet geen meerwaarde zal hebben voor consumenten

https://www.dutchsolarboat.com


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ze hebben het in die slides ook weer over hun werkzaamheden op het gebied van memory compression enzo. Dus denk dat meer dan 8gb voorlopig echt niet nodig is. Zelfs niet op 4k met veel AA

Verder: http://www.anandtech.com/...-nvidia-keynote-live-blog

Op eerste gezicht weinig direct relevants voor ons in Nvidia's CES keynote.

Ook niks over 1080Ti maar dat verwacht ik sowieso pas als Vega duidelijker is met availability ongeveer gelijktijdig met Vega availability.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

Help!!!! schreef op donderdag 5 januari 2017 @ 13:07:

Ook niks over 1080Ti maar dat verwacht ik sowieso pas als Vega duidelijker is met availability ongeveer gelijktijdig met Vega availability.
De typische nVidia strategie is natuurlijk, iets later, iets sneller en een stuk duurder. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 19:32

Splinter Cell

AMD HD7850

'15:00 NDA lift toch?

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ve.ga

Ja 15 cet. Slides zijn al gelekt. Zie hierboven.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • MrVegeta
  • Registratie: september 2002
  • Laatst online: 21:54

MrVegeta

! Dolf is rechtvaardig !

Ik hoop op info over pricing & availability, maar ik verwacht dat het niet zo mooi zal zijn.

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


  • badluckboy
  • Registratie: oktober 2006
  • Laatst online: 00:32
Ik denk dat de Vega zo rond de snelheid van gtx 1070 zal zijn en in enkele DX 12 spellen een paar procent onder de GTX 1080 zal uitkomen.

  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

badluckboy schreef op donderdag 5 januari 2017 @ 13:44:
Ik denk dat de Vega zo rond de snelheid van gtx 1070 zal zijn en in enkele DX 12 spellen een paar procent onder de GTX 1080 zal uitkomen.
Nou ja in battlefront zitten ze al boven de 1080 dus...

Dan nog hopen dat ze er het zelfde uit weten te persen als met de andere generaties met drivers, kan het echt nog leuk worden _/-\o_

https://www.dutchsolarboat.com

Het ziet in ieder geval al stukken beter uit dan de release van de HD 2900 XT (die was ongeveer evenveel later t.o.v. de eerste 88XX kaarten als de Vega serie t.o.v. de eerste 10XX kaarten van vorig jaar). Eindelijk weer wat leven in het high-end segment.

  • Lambo LP670 SV
  • Registratie: oktober 2009
  • Laatst online: 15:23
badluckboy schreef op donderdag 5 januari 2017 @ 13:44:
Ik denk dat de Vega zo rond de snelheid van gtx 1070 zal zijn en in enkele DX 12 spellen een paar procent onder de GTX 1080 zal uitkomen.
Ik vermoed dat ze met het topmodel toch wel op iets boven de 1080 mikken. Er zal uiteraard wel een variant uitkomen die de 1070 het leven zuur zal gaan maken (zeker qua pricing O-) ), maar ik hoop dat ze ook erover kunnen.

  • Richh
  • Registratie: augustus 2009
  • Laatst online: 00:06

Richh

HODL

MrVegeta schreef op donderdag 5 januari 2017 @ 13:42:
Ik hoop op info over pricing & availability, maar ik verwacht dat het niet zo mooi zal zijn.
Nee, ze gaan enkel in op de architectuur, jammer genoeg. Eigenlijk is alle info al uitgelekt.

  • Robolokotobo
  • Registratie: december 2009
  • Laatst online: 15:23
Hier te volgen: YouTube: AMD

i5 3470 8GB GTX 1650 - Xbox One S - Switch Lite


  • Razzah
  • Registratie: juli 2009
  • Laatst online: 18-09 10:07
Lol, http://ve.ga/ ligt gelijk plat

  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 16-07 11:28
Er zijn wel 6 nieuwe video's toegevoed op het AMD kanaal, maar er lijkt geen livestream te komen.

  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

Op de youtube pagina zijn nieuwe videos klaar gezet!
YouTube: AMD

https://www.dutchsolarboat.com


  • Robolokotobo
  • Registratie: december 2009
  • Laatst online: 15:23
Geen livestream. Zat naar de video van 3 weken geleden te kijken :-(

i5 3470 8GB GTX 1650 - Xbox One S - Switch Lite


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op donderdag 5 januari 2017 @ 12:57:
Tja meer dan 8GB is op zich overkill momenteel.

Aan de andere kant heeft Titan XP ook 12gb en als AMD een echt halo model neer wil zetten lijkt het me niet onrealistisch om ook een 16GB model te verwachten.

En als 12 mogelijk is zoals Mask schrijft dan lijkt me dat zeker realistisch.
Inderdaad, het is sowieso een feit dat AMD beter met geheugen omgaat dan Nvidia. Nvidia mag dan wel minder bandbreedte nodig hebben maar ze hebben ook vaak meer geheugen nodig.
Met betere caching en de manier hoe ze met geheugen omgaan (als ik de slide bekijk) dan is meer dan 8GB echt niet nodig op het moment.

Battle.net tag


  • Lambo LP670 SV
  • Registratie: oktober 2009
  • Laatst online: 15:23

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op donderdag 5 januari 2017 @ 15:46:
[...]


Inderdaad, het is sowieso een feit dat AMD beter met geheugen omgaat dan Nvidia. Nvidia mag dan wel minder bandbreedte nodig hebben maar ze hebben ook vaak meer geheugen nodig.
Met betere caching en de manier hoe ze met geheugen omgaan (als ik de slide bekijk) dan is meer dan 8GB echt niet nodig op het moment.
Op de foto vd chip zie je volgesmij ook maar twee stacks dus 8GB. Dus nog even afwachten of er voor gamers ook een vier stack variant komt.


Anandtech - First Thoughts: A Peek At What’s To Come

Overigens spreekt Anand van 17H1 terwijl ik toch hoopte op Q1. Kan nog steeds maar H1 is toch wel wat ver weg naar mijn gevoel. NVidia zit ook niet stil met Volta.

[Voor 22% gewijzigd door Help!!!! op 05-01-2017 16:17]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

Help!!!! schreef op donderdag 5 januari 2017 @ 16:13:
[...]

Op de foto vd chip zie je volgesmij ook maar twee stacks dus 8GB. Dus nog even afwachten of er voor gamers ook een vier stack variant komt.
Als dit de kleine chip is, en ze big vega bewaren om tegen Volta aan te gooien zou het best logisch zijn dat die meer heeft om er meer uit te persen als je mij vraagt ;)

https://www.dutchsolarboat.com

Help!!!! schreef op donderdag 5 januari 2017 @ 16:13:
[...]

Op de foto vd chip zie je volgesmij ook maar twee stacks dus 8GB. Dus nog even afwachten of er voor gamers ook een vier stack variant komt.
Nee want dan verdubbel je ook de bandbreedte en dat is nutteloos voor gaming. Je kunt overigens wel 16GB krijgen met twee stacks, door gewoon acht HBM2 geheugenlaagjes per stack te gebruiken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Blaat
  • Registratie: september 2007
  • Laatst online: 00:42

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

flessuh schreef op donderdag 5 januari 2017 @ 16:14:
[...]


Als dit de kleine chip is, en ze big vega bewaren om tegen Volta aan te gooien zou het best logisch zijn dat die meer heeft om er meer uit te persen als je mij vraagt ;)
Het lijkt mij logischer dat ze die tegenover de GP100 zetten.

Custom water loops zijn als pannenkoeken, je eerste mislukt altijd.


  • Lord_Dain
  • Registratie: februari 2004
  • Laatst online: 23:54
Ik ben toch wel iets underwhelmed hoor, had om 15u00 een climax verwacht. Dit valt ff tegen. Wie weet meer nieuws later op de 'dag', het is nog vroeg in Vegas :)
Waarom had je dat verwacht? Dacht dat het toch wel vrij duidelijk was wat we zouden krijgen.

  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 23:09

Compizfox

I use Arch, btw

Werelds schreef op donderdag 5 januari 2017 @ 16:34:
Waarom had je dat verwacht? Dacht dat het toch wel vrij duidelijk was wat we zouden krijgen.
Ze zeiden inderdaad vrij duidelijk van te voren dat het om een architecture preview zou gaan. Maar het werd weer overhyped en iedereen verwachtte specs en release dates.

Maar het is ook wel iets wat belachelijk om 20 dagen van tevoren een website met een countdown op te zetten voor alleen wat slides en marketingvideo's...

Ik denk dat de meeste mensen toch wel op z'n minst een livestream hadden verwacht, gezien de countdown.

[Voor 9% gewijzigd door Compizfox op 05-01-2017 16:54]

There is no system but GNU and Linux is one of its kernels


  • badluckboy
  • Registratie: oktober 2006
  • Laatst online: 00:32
Compizfox schreef op donderdag 5 januari 2017 @ 16:41:
[...]

Maar het is ook wel iets wat belachelijk om 20 dagen van tevoren een website met een countdown op te zetten voor alleen wat slides en marketingvideo's...
Ben ik met je eens, nu wordt er nog meer gehyped en als ze het niet kunnen waarmaken dan gaat het ze toch veel klanten kosten. Mensen opfokken en niet leveren levert veel ontevreden gezichten op.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op donderdag 5 januari 2017 @ 16:24:
[...]

Nee want dan verdubbel je ook de bandbreedte en dat is nutteloos voor gaming. Je kunt overigens wel 16GB krijgen met twee stacks, door gewoon acht HBM2 geheugenlaagjes per stack te gebruiken.
Vond dit plaatje wat volgensmij wel verhelderend is, tenminste als het de mogelijk combinaties weergeeft .



Adhv de chip foto alleen kun je niet zien wat het is. Mij lijkt 8gb/512GB/s wel het meest logisch. HBM2/4Hi.

Of sla ik de plank nu weer mis :X :P


@ Hierboven. Had iedereen kunnen weten, is zelfde als bij Polaris. Ze melken het meer uit. Was wel fijn geweest als we op zijn minst een release date hadden gekregen.

[Voor 11% gewijzigd door Help!!!! op 05-01-2017 16:49]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Snowdog
  • Registratie: maart 2001
  • Laatst online: 20:40
Werelds schreef op donderdag 5 januari 2017 @ 16:34:
Waarom had je dat verwacht? Dacht dat het toch wel vrij duidelijk was wat we zouden krijgen.
Waarom zou je dat inderdaad verwachten als AMD een speciale hypecampagne opzet voor dit event en vervolgens met een paar korte yt-vids komt die juist voor het merendeel van het publiek van die campagne weinig tot geen interessante dingen boven de tafel brengt. Tsjah, het past misschien enigszins bij deze tijd, maar ik kan me eigenlijk niet voorstellen dat het een echt handige aanpak is.

Edit: Oops, beetje laat. Volgende keer eerst ff refreshen denk ik :P

[Voor 5% gewijzigd door Snowdog op 05-01-2017 16:52]

Compizfox schreef op donderdag 5 januari 2017 @ 16:41:
[...]

Ze zeiden inderdaad vrij duidelijk van te voren dat het om een architecture preview zou gaan. Maar het werd weer overhyped en iedereen verwachtte specs en release dates.

Maar het is ook wel iets wat belachelijk om 20 dagen van tevoren een website met een countdown op te zetten voor alleen wat slides en marketingvideo's...
Dat is nu eenmaal marketing. Heeft Nvidia ook meer dan eens gedaan.
Snowdog schreef op donderdag 5 januari 2017 @ 16:51:
[...]


Waarom zou je dat inderdaad verwachten als AMD een speciale hypecampagne opzet voor dit event en vervolgens met een paar korte yt-vids komt die juist voor het merendeel van het publiek van die campagne weinig tot geen interessante dingen boven de tafel brengt. Tsjah, het past misschien enigszins bij deze tijd, maar ik kan me eigenlijk niet voorstellen dat het een echt handige aanpak is.

Edit: Oops, beetje laat. Volgende keer eerst ff refreshen denk ik :P
Dat is mijn punt echter niet.

De pagina zei heel specifiek dat het om een Architecture Preview ging. Dat zovelen blijkbaar analfabeet zijn als het op dit soort dingen aan komt is hun probleem ;)

AMD heeft op geen enkel moment aangegeven dat er iets meer zou komen dan dit - sterker nog, het feit dat er wat filmpjes van Doom en dergelijke zijn is eigenlijk al meer dan ik had verwacht op dat gebied.

  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 23:09

Compizfox

I use Arch, btw

Werelds schreef op donderdag 5 januari 2017 @ 16:55:
[...]

Dat is nu eenmaal marketing. Heeft Nvidia ook meer dan eens gedaan.
Dat Nvidia het doet praat het nog niet goed.

There is no system but GNU and Linux is one of its kernels


  • Lord_Dain
  • Registratie: februari 2004
  • Laatst online: 23:54
Gaming is toch een stukje emotie. Aan jouw rationele betoog over dat het puur een architecture preview betreft heb ik (persoonlijk) als gamert niets. Ik had om 15u00 een spetterende live stream verwacht met gekmakende beelden van een enthousiaste AMD persoon die de PC case openrukt en de VEGA GPU laat zien.

https://twitter.com/theba...status/817034184854216704

[Voor 12% gewijzigd door Lord_Dain op 05-01-2017 17:04]


  • Tomas Hochstenbach
  • Registratie: januari 2009
  • Laatst online: 21:55
Zeker eens dat alle teasers en hype-generatie een beetje over de top waren voor deze preview. Tuurlijk is het interessant om wat meer over de architectuur te weten te komen, maar qua hype-opbouw leek het bijna een launch ipv een technical preview. Hopen dat ze nu niet op het verkeerde moment hebben gepiekt.

  • Wes
  • Registratie: juli 2002
  • Niet online
Het is verdorie ook nooit goed. :( Eerst werd er altijd geklaagd dat AMD te weinig aan marketing deed en het gebrek aan succes daar aan lag. Nu doen ze meer aan marketing en dan hangen mensen daar totaal onrealistische verwachtingen aan op en is men zelfs teleurgesteld als die logischerwijs niet uit komen. Er zijn zelfs mafkezen die gaan speculeren dat de kaarten wel eens tegen zouden kunnen gaan vallen, terwijl het nieuws van vandaag er juist goed uit ziet. En dat allemaal vanwege een simpele countdown. 7(8)7

[Voor 14% gewijzigd door Wes op 05-01-2017 17:09]


  • badluckboy
  • Registratie: oktober 2006
  • Laatst online: 00:32
Wes schreef op donderdag 5 januari 2017 @ 17:07:
Het is verdorie ook nooit goed. :( Eerst werd er altijd geklaagd dat AMD te weinig aan marketing deed en het gebrek aan succes daar aan lag. Nu doen ze meer aan marketing en dan hangen mensen daar totaal onrealistische verwachtingen aan op en is men zelfs teleurgesteld als die logischerwijs niet uit komen. Er zijn zelfs mafkezen die gaan speculeren dat de kaarten wel eens tegen zouden kunnen gaan vallen, terwijl het nieuws van vandaag er juist goed uit ziet. En dat allemaal vanwege een simpele countdown. 7(8)7
wij tweakers haten marketing.

  • Snowdog
  • Registratie: maart 2001
  • Laatst online: 20:40
Werelds schreef op donderdag 5 januari 2017 @ 16:55:
[...]

Dat is nu eenmaal marketing. Heeft Nvidia ook meer dan eens gedaan.


[...]

Dat is mijn punt echter niet.

De pagina zei heel specifiek dat het om een Architecture Preview ging. Dat zovelen blijkbaar analfabeet zijn als het op dit soort dingen aan komt is hun probleem ;)

AMD heeft op geen enkel moment aangegeven dat er iets meer zou komen dan dit - sterker nog, het feit dat er wat filmpjes van Doom en dergelijke zijn is eigenlijk al meer dan ik had verwacht op dat gebied.
Nouja, uiteindelijk kan dat wel AMD's probleem worden, want het hele idee is natuurlijk wel dat je mensen ook een beetje tevreden stelt met je marketing en ze zouden juist uit eerder voorbeelden van dit soort hype kunnen/moeten leren dat promotie in deze vorm verwachtingen schept bij het gros van de mensen. Als die niet waar worden gemaakt kan dat ook nadelige gevolgen hebben , maar goed, dat is een ander verhaal en gaat wat offtopic. Het lijkt me alleen iig niet zo handig aangepakt, hoewel je in principe wel gelijk hebt.
Snowdog schreef op donderdag 5 januari 2017 @ 17:14:
[...]


Nouja, uiteindelijk kan dat wel AMD's probleem worden, want het hele idee is natuurlijk wel dat je mensen ook een beetje tevreden stelt met je marketing en ze zouden juist uit eerder voorbeelden van dit soort hype kunnen/moeten leren dat promotie in deze vorm verwachtingen schept bij het gros van de mensen. Als die niet waar worden gemaakt kan dat ook nadelige gevolgen hebben , maar goed, dat is een ander verhaal en gaat wat offtopic. Het lijkt me alleen iig niet zo handig aangepakt, hoewel je in principe wel gelijk hebt.
AMD maakt de hype niet, de hype wordt gecreëerd door andere mensen, mensen waar AMD geen invloed op heeft. Als je daar zelf aan mee doet dan ligt het probleem gewoon bij jezelf. :p

Maar al hadden ze veel meer laten weten, dan had iedereen wel iets anders gehad waar ze over klaagden, zoals waarom die nog niet gelanceerd is. En als ze het doen zoals eerst, dus weinig tot niks van te voren laten weten dan hebben ze weer een probleem met hun marketing. Volgens sommigen kunnen ze het dan ook niet goed doen. Terwijl het probleem gewoon bij die mensen zelf ligt en niet bij AMD.
Help!!!! schreef op donderdag 5 januari 2017 @ 16:47:
[...]

Vond dit plaatje wat volgensmij wel verhelderend is, tenminste als het de mogelijk combinaties weergeeft .



Adhv de chip foto alleen kun je niet zien wat het is. Mij lijkt 8gb/512GB/s wel het meest logisch. HBM2/4Hi.

Of sla ik de plank nu weer mis :X :P
Nee wat daar staat is duidelijk en simpel vormgegeven. Kolommen zijn het aantal stacks en de rijen zijn de hoogte van de stacks. Daarmee is dus simpel te zien wat mogelijk is en voor deze Vega GPU komt dat dus neer op 8GB of 16GB, aangezien 4GB te weinig is en de andere configuraties te weinig of te veel bandbreedte hebben.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Snowdog
  • Registratie: maart 2001
  • Laatst online: 20:40
-The_Mask- schreef op donderdag 5 januari 2017 @ 17:37:
[...]

AMD maakt de hype niet, de hype wordt gecreëerd door andere mensen, mensen waar AMD geen invloed op heeft. Als je daar zelf aan mee doet dan ligt het probleem gewoon bij jezelf. :p

Maar al hadden ze veel meer laten weten, dan had iedereen wel iets anders gehad waar ze over klaagden, zoals waarom die nog niet gelanceerd is. En als ze het doen zoals eerst, dus weinig tot niks van te voren laten weten dan hebben ze weer een probleem met hun marketing. Volgens sommigen kunnen ze het dan ook niet goed doen. Terwijl het probleem gewoon bij die mensen zelf ligt en niet bij AMD.
offtopic:
Nouja, AMD maakt die hype wel degelijk door ve.ga incl. countdown en hype-vid te maken waarin ze al laten weten de grond aan te gaan vegen met NVidia en die URL de menigte in te Twitteren. Als die countdown dan afloopt en er komen alleen wat lullige, korte yt-vids tevoorschijn, dan valt dat natuurlijk al snel tegen.

Ik ben groot voorstander van AMD, maar vind dat ze dit toch echt slecht hebben aangepakt en het probleem ligt in dit geval niet bij "heel veel mensen" imo. Het naar buiten brengen van dergelijk materiaal hoeft niet zo enorm gehyped te worden en het vindt ook op normale manier wel zijn weg naar het grote publiek. Het is een beetje in de stijl van clickbaits e.d. en getuigt w.m.b. niet echt van klasse, maar goed misschien verschillen we daarin gewoon van mening.

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Compizfox schreef op donderdag 5 januari 2017 @ 16:41:
[...]

Ze zeiden inderdaad vrij duidelijk van te voren dat het om een architecture preview zou gaan. Maar het werd weer overhyped en iedereen verwachtte specs en release dates.

Maar het is ook wel iets wat belachelijk om 20 dagen van tevoren een website met een countdown op te zetten voor alleen wat slides en marketingvideo's...

Ik denk dat de meeste mensen toch wel op z'n minst een livestream hadden verwacht, gezien de countdown.
Het wellicht overdreven, maar zoals aangegeven doet Nvidia dat ook. Ik ben blij dat AMD marketing serieus begint te nemen en dit is een van de manieren.

Overigens heeft of had Nvidia nu ook een countdown timer voor CES, geen idee waar die voor was want ze hebben niet echt veel noemenswaardige dingen getoond.

Battle.net tag


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het ding is dat ik helemaal geen fan ben van dit soort marketing echter het lijkt voor nVidia wel te werken en in een oligopolie/duopolie is het imho ook niet zo raar dat AMD dit toch gaat navolgen.

Het is naar mijn gevoel daarnaast ook best vaak een aanbeveling geweest van AMD fans aan AMD om hun marketing wat aggressiever te maken. Tja, dan krijg je dit. :)

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

In het door jouw geplaatste Anandtecht artikel kwam ik dit tegen:
ROPs & Rasterizers: Binning for the Win(ning)
Back in August, our pal David Kanter discovered one of the important ingredients of the secret sauce that is NVIDIA’s efficiency optimizations. As it turns out, NVIDIA has been doing tile based rasterization and binning since Maxwell, and that this was likely one of the big reasons Maxwell’s efficiency increased by so much. Though NVIDIA still refuses to comment on the matter, from what we can ascertain, breaking up a scene into tiles has allowed NVIDIA to keep a lot more traffic on-chip, which saves memory bandwidth, but also cuts down on very expensive accesses to VRAM.


For Vega, AMD will be doing something similar. The architecture will add support for what AMD calls the Draw Stream Binning Rasterizer, which true to its name, will give Vega the ability to bin polygons by tile. By doing so, AMD will cut down on the amount of memory accesses by working with smaller tiles that can stay-on chip. This will also allow AMD to do a better job of culling hidden pixels, keeping them from making it to the pixel shaders and consuming resources there.

As we have almost no detail on how AMD or NVIDIA are doing tiling and binning, it’s impossible to say with any degree of certainty just how close their implementations are, so I’ll refrain from any speculation on which might be better. But I’m not going to be too surprised if in the future we find out both implementations are quite similar. The important thing to take away from this right now is that AMD is following a very similar path to where we think NVIDIA captured some of their greatest efficiency gains on Maxwell, and that in turn bodes well for Vega.
Ben erg benieuwd hoe power effecient Vega wordt en of AMD Nvidia daarin gaat verslaan.

Battle.net tag


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Gezien importance hiervan zou het natuurlijk super zijn als AMD nu minimaal op gelijk niveau komt.

Geen onaardig en toegankelijk artikel in over Vega architectuur:

Techpowerup: AMD Radeon Vega GPU Architecture

Hear hear :) :
" "Vega" is a shakedown at every level of the GPU, and although the essential component hierarchy hasn't significantly changed, there isn't a single component on the chip that hasn't had a structural change that improves performance or efficiency.

Our only hope is in seeing a "Vega" based high-end graphics card out on the shelves as soon as possible. NVIDIA is taking advantage of its performance leadership by pricing its current GeForce 10 series graphics cards significantly higher than their predecessors. It's about time there's some real competition in this segment. "

[Voor 49% gewijzigd door Help!!!! op 05-01-2017 19:37]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

FYI, er staat nu ook een giveaway op ve.ga :)

https://www.dutchsolarboat.com


  • Gelunox
  • Registratie: april 2010
  • Laatst online: 22-09 06:47

Gelunox

Hardware addicted

flessuh schreef op donderdag 5 januari 2017 @ 18:52:
FYI, er staat nu ook een giveaway op ve.ga :)
Als aanvulling daarop: het zijn 3 vragen waarvan er 1 simpel te googlen is (ik heb wikipedia gebruikt tho) en de andere 2 kan je vrij makkelijk in het make some noise filmpje terugvinden.

Dan maak je kans, en kan je daarnaast nog extra kans maken door nieuwsbrief, twitterfollows en facebookvisit.

PC: R7 1700X@3.8GHz | 32GB G.Skill Trident Z 3466@2933MT/s | VEGA 64 Liquid Edition


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

.

[Voor 98% gewijzigd door Help!!!! op 05-01-2017 19:20]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

flessuh schreef op donderdag 5 januari 2017 @ 18:52:
FYI, er staat nu ook een giveaway op ve.ga :)
Thx. Ook interessant is dat er nu duidelijk staat welke segmenten ze targetten:

Radeon RX
Radeon Pro
Radeon INSTINCT

"The release of Vega later this year will mark Radeon’s commanding return to the ultra-enthusiast gaming market .....1

Vega: Changing the Game for Game Developers

[Voor 31% gewijzigd door Help!!!! op 05-01-2017 19:33]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

Compizfox schreef op donderdag 5 januari 2017 @ 16:57:
Dat Nvidia het doet praat het nog niet goed.
Het is niet alleen Nvidia. Dit is gewoon hoe dit tegenwoordig werkt. Ik ben inmiddels vrij immuun voor dit soort onzin. Probleem voor AMD is alleen dat er tegenwoordig te veel gamers zijn die er gewoon niets van snappen. En dan pakt dat verkeerd uit. Het is nog steeds anders dan Nvidia zo vaak heeft gedaan; wél hypen dat er zo veel goeds gaat komen en dan eigenlijk niets leveren. Neem mijn favoriete debacle maar: Fermi. Gigantische hype vooraf en met launch blijkt het ding dan te heet en te duur te zijn...en niet verkrijgbaar, zelfs niet na de street launch. AMD kiest hun woorden veel zorgvuldiger, ze worden alleen niet (goed) gelezen ;)
Lord_Dain schreef op donderdag 5 januari 2017 @ 17:00:
Gaming is toch een stukje emotie. Aan jouw rationele betoog over dat het puur een architecture preview betreft heb ik (persoonlijk) als gamert niets. Ik had om 15u00 een spetterende live stream verwacht met gekmakende beelden van een enthousiaste AMD persoon die de PC case openrukt en de VEGA GPU laat zien.

https://twitter.com/theba...status/817034184854216704
Nogmaals, dat ligt aan jou. Dat jij dat verwachtte is jammer voor jou, want dat heb je volledig zelf verzonnen. Het is niet wat AMD zei dat ging gebeuren.
Wes schreef op donderdag 5 januari 2017 @ 17:07:
Het is verdorie ook nooit goed. :( Eerst werd er altijd geklaagd dat AMD te weinig aan marketing deed en het gebrek aan succes daar aan lag. Nu doen ze meer aan marketing en dan hangen mensen daar totaal onrealistische verwachtingen aan op en is men zelfs teleurgesteld als die logischerwijs niet uit komen. Er zijn zelfs mafkezen die gaan speculeren dat de kaarten wel eens tegen zouden kunnen gaan vallen, terwijl het nieuws van vandaag er juist goed uit ziet. En dat allemaal vanwege een simpele countdown. 7(8)7
Tuurlijk. AMD is slecht in alles wat ze doen joh, daar kan niets goeds uit komen :+


Alle gekheid op een stokje: op technisch vlak ziet het er allemaal goed uit. Nog even wachten op de praktijk, maar ik blijf positief gestemd over zowel Ryzen als Vega. Het is vooral hopen dat AMD gewoon AMD blijft en de prijzen reëel houdt.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 22:35
*nieuw topic

[Voor 98% gewijzigd door Astennu op 05-01-2017 23:12]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 23:09

Compizfox

I use Arch, btw

Vraagje: Wat is eigenlijk het nut ervan om zo vaak een nieuw topic te openen? Waarom niet alles in één topic houden? Zover ik weet zit er geen limiet op het aantal pagina's oid.

Maar als je het doet is het wel handig als dit topic dichtgaat ;)

There is no system but GNU and Linux is one of its kernels


  • br00ky
  • Registratie: januari 2014
  • Laatst online: 23:09

br00ky

Moderator Harde Waren
En verder in CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 139.

En slotjes kunnen alleen modjes en admins zetten ;).
Pagina: 1 ... 9 10 11 Laatste

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True