CJ's Radeon Info & Nieuwsdiscussie - Deel 125 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 10 Laatste
Acties:
  • 45.687 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, de chip is zelf hoogstwaarschijnlijk een refresh van een GK100 die überhaupt nooit op de markt is geweest, in welke vorm dan ook. Als ik het over refresh heb, heb ik het niet over consumenten kaarten, ik heb het dan over daadwerkelijke chips. Of het ding nu op een consumenten kaart komt of niet, het is nog steeds dezelfde chip. Gezien Nvidia's nummeringssysteem en de kleine beetjes die we al van GK110 weten is het toch echt gewoon een refresh chip zoals GF110 (GTX 580).

En of het de sterkste wordt valt nog te bezien. Ik denk dat de meeste mensen gigantisch overschatten wat Nvidia er uit geperst kan krijgen. Pure performance gaat hij vast wel voorop lopen (hoewel ik ook hier niet de magische 80% sprong verwacht die sommigen zien zitten), maar ik ben er vrij zeker van dat hij op alle andere vlakken vele malen harder op z'n bek gaat dan GF100 dat al ging. GK104 is gewoon al zo goed, GK114 verbetert dat alleen maar, dus ik zie GK110 niet als winnaar uit de bus komen als het aankomt op enige statistiek anders dan rauwe performance.


Betekent ook dat het voor AMD helemaal zo lastig niet is om Nvidia weer bij te benen.

[ Voor 6% gewijzigd door Werelds op 17-02-2013 13:29 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op zondag 17 februari 2013 @ 13:27:
Nee, de chip is zelf hoogstwaarschijnlijk een refresh van een GK100 die überhaupt nooit op de markt is geweest, in welke vorm dan ook. Als ik het over refresh heb, heb ik het niet over consumenten kaarten, ik heb het dan over daadwerkelijke chips. Of het ding nu op een consumenten kaart komt of niet, het is nog steeds dezelfde chip. Gezien Nvidia's nummeringssysteem en de kleine beetjes die we al van GK110 weten is het toch echt gewoon een refresh chip zoals GF110 (GTX 580).

En of het de sterkste wordt valt nog te bezien. Ik denk dat de meeste mensen gigantisch overschatten wat Nvidia er uit geperst kan krijgen. Pure performance gaat hij vast wel voorop lopen (hoewel ik ook hier niet de magische 80% sprong verwacht die sommigen zien zitten), maar ik ben er vrij zeker van dat hij op alle andere vlakken vele malen harder op z'n bek gaat dan GF100 dat al ging. GK104 is gewoon al zo goed, GK114 verbetert dat alleen maar, dus ik zie GK110 niet als winnaar uit de bus komen als het aankomt op enige statistiek anders dan rauwe performance.


Betekent ook dat het voor AMD helemaal zo lastig niet is om Nvidia weer bij te benen.
We zullen het zien als over een paar dagen de eerste echte specificaties en bechmarks bekend gemaakt gaan worden.
Tot dan is het idd pure speculatie

Acties:
  • 0 Henk 'm!

Verwijderd

eL_Jay schreef op zaterdag 16 februari 2013 @ 12:41:
[...]

ik koop dan ook niet high-end, maar bang/buck en bang/watt en dat is toch vaak mid-range AMD qua GPU's.
Ik ben zo'n groen geitenwollen sokken type;)
Ah kijk, maar dat snap ik wel. Dan gaat het om energiebesparing als een doel op zich en niet zo zeer om die 36 euro die je er mee bespaart. Dat is dan meer een leuke bonus waar je een hoop ijsjes van kunt kopen. ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Werelds schreef op zondag 17 februari 2013 @ 13:04:
Om even in te haken op het hele "geen nieuwe chips" verhaal: wrong :P
Ik doelde natuurlijk op de mainstream/high-end. ;) Dat de low-end/mainstream wel iets nieuws komt is niet meer dan logisch daar is immers nog geen GCN architectuur en wat zou je anders in CrossFire met Kaveri moeten doen? :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Inderdaad GK110 is geen refresh dat is gewoon een Kepler generatie chip die niet voor consumenten op de markt gekomen is. En waarvan ze nu toch maar besloten hebben deze op te markt te gaan brengen.

En wat je zegt over de nieuwe chips in de HD7xxx lijn is ook niet waar. Dit is ook geen Getweakte GCN. Als je TR leest en de reacties van de AMD mensen leest gaat het hier gewoon om GCN1 met met andere configuraties. Maar verder geen aanpassingen aan de architectuur. Alleen andere fysieke shader counts.

Daarnaast lijkt het er ook op dat Tahiti de snelste chip zal blijven. Er er misschien hooguit nog iets boven de Pitcairn komt maar ook dat lijkt onwaarschijnlijk. Daarnaast is het ook de vraag of er eind dit jaar wel iets nieuws gaat komen of dat ze alles maar gaan door schuiven.

Ik vind het geen slimme zet. Dit voelt meer als: Er is iets mis gegaan. We wilde wel maar kunnen uiteindelijk geen nieuwe chips op de markt brengen. En nu moeten we het mooier gaan verkopen als of het altijd al de bedoeling was.

Het is voor AMD te hopen dat nVidia niet met een GK104 refresh komt. Want dan heeft AMD een probleem. Die zijn zo 10-25% sneller. En dan kan de 7970 GHz dat ook niet meer bij houden. En zullen ze erg in prijs omlaag moeten.
-The_Mask- schreef op zondag 17 februari 2013 @ 23:23:
[...]

Ik doelde natuurlijk op de mainstream/high-end. ;) Dat de low-end/mainstream wel iets nieuws komt is niet meer dan logisch daar is immers nog geen GCN architectuur en wat zou je anders in CrossFire met Kaveri moeten doen? :)
Ik vind het zelf apart dat ze daar nog mee komen. Ik bedoel in dat segment heb je ook de APU's zitten. Zo veel sneller is die 384 shader chip nu ook weer niet.
Ik vraag me af hoe groot die markt nu nog is.

[ Voor 18% gewijzigd door Astennu op 18-02-2013 10:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Je kunt er ontzettend veel over speculeren.. Aan de ene kant kun je denken dat AMD GK104 het afgelopen jaar / half jaar goed heeft aangekeken en dat ze gedacht hebben "voor een consumentenchip kunnen we niet met GK104 concurreren op het gebied van prijs / performance en performance / Watt. We kunnen wel een geoptimaliseerde GPU uitbrengen maar echt enorme winst kunnen we niet boeken zonder de chip significant groter te maken.." Misschien gaan ze gewoon des te meer kijken naar wat ze nog uit nieuwe drivers kunnen halen. Wie weet kunnen ze daar een refresh van nVidia alsnog mee beconcurreren. Stel dat ze gemiddeld 30% extra uit GCN kunnen halen met nieuwe drivers. Dan moet een refresh van nV (samen met de drivers uiteraard) wel minimaal 30% sneller zijn om interessant te zijn. (de getallen zijn gewoon uit de lucht gegrepen)

Heel misschien heeft het ook wel iets te maken met de console-deals die ze hebben. Misschien willen ze daar alle aandacht aan geven en hebben ze gewoon geen capaciteit meer over om met een nieuwe consumentenserie aan te komen. Natuurlijk blijft het dan vreemd als ze wel met nieuwe low-end modellen zouden komen, iets wat sowieso vreemd zou zijn gezien AMD's aandacht voor de APU in dat segment.

Of misschien weet (/denkt) AMD gewoon dat ze niet echt met GK104 kunnen concurreren zolang ze niet ook een pure gamekaart in de lineup zetten.

Tuurlijk, het zijn allemaal maar hersenspinsels en de ene speculatie is nog belachelijker dan de ander en dat maakt me ook niet uit ook.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
AMD kan prima met de GK104 concureren. Een opvolger die 10-25% sneller is is wel een ander verhaal. Maar de GTX680 is geen enkel probleem. Ja de 7970 GHz is duurder en verbruikt meer. Maar hij is ook wel iets sneller zeker op 2560x1600 en hoger. En hij heeft meer GPGPU mogelijkheden. Nu worden die helaas nog weinig gebruikt maar dat is wel iets waar we naar toe gaan.

Dus op dit moment is er niets aan de hand. De GK110 zal de 7970 GHz wel makkelijk gaan verslaan. Maar die wordt idioot duur. Dat zal bijna niemand er voor over hebben. Veel mensen vinden een GTX680 of 7970 al te duur. Laat staan een Titan kaart van 900 euro. Daarnaast zijn de GTX690 en HD7990 waarschijnlijk nog een heel stuk sneller dan Titan en dat voor +- hezelfde geld.

Dus zolang nVidia niet met een echte refresh komt is er niets aan de hand.
Wel is het interessant voor AMD om goed te kijken naar dat GPGPU gebeuren. Hoe snel denk je daar echt voordeel van te hebben. Want nu doe je er weinig mee terwijl het heel veel transistors kost en dat is dan ook de rede dat de GTX680 kleiner en zuiniger is. Maar als dat HSA echt goed gaat werken word het een ander verhaal. Echter is dat nog maar de vraag.

Wel denk ik dat er veel winst te halen is door de architectuur verder te optimaliseren. Zie ook VLIW5 met de HD2900 > HD3870 > HD4870. Daar hebben de shaders daar telkens verkleint. Bij de HD3870 kwam het grootste verschil door de die shrink maar bij de HD4870 helemaal niet. Dat was puur door optimalisatie.

Kepler is nVidia's 2e "Fermi based" architectuur. Daar zijn ze bv van de hot clocks af gestapt zijn. En andere zaken verder geoptimaliseerd hebben. Je kunt Fermi en GK110 het beste met elkaar vergelijken. Want GK104 is gewoon een gestripte versie van de GK110 waar GPGPU uit gesloopt is. En Fermi was net als de GK110 en GCN wel gericht op GPGPU. Alleen is de GK110 nog heel wat groter dan Tahiti.

Daarnaast heeft nVidia met de GTX280 en GTX580 ook jaren lang met AMD kunnen concureren zonder een echte game kaart te hebben. En het is grappig dat de Rollen omgedraaid zijn. Nu AMD met GCN komt stapt nVidia voor de high end kaarten juist verder van GPGPU af en gaat terug naar een meer Game gerichte architectuur.

[ Voor 7% gewijzigd door Astennu op 18-02-2013 12:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik weet niet waar jullie het over hebben. Waar ik kijk is de 7970 gewoon goedkoper, en uit recente benchmarks blijkt dat hij ook nog eens sneller is. Sterker nog de goedkoopste 680 is bijna 100 euro duurder in de price watch.

Maar goed ik denk zelf dat er inderdaad wat is misgegaan en ik denk dat, dat de inkrimpende PC markt is....

Acties:
  • 0 Henk 'm!

Verwijderd

Inkrimpende pc markt heeft vooral invloed op de huis tuin en keuken computers. Niet op gamesystemen of andere enthousiasts.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
tomcatha schreef op maandag 18 februari 2013 @ 13:01:
Ik weet niet waar jullie het over hebben. Waar ik kijk is de 7970 gewoon goedkoper, en uit recente benchmarks blijkt dat hij ook nog eens sneller is. Sterker nog de goedkoopste 680 is bijna 100 euro duurder in de price watch.

Maar goed ik denk zelf dat er inderdaad wat is misgegaan en ik denk dat, dat de inkrimpende PC markt is....
De HD7970 is niet duurder om te kopen. Maar wel duurder om te produceren. Het is een grotere chip met een complexer PCB en meer geheugen chips. Dit komt weer door zijn 384 Bits geheugen bus. Maar in mijn ogen is de HD7970 op dit moment een veel betere koop dan de GTX680. Maar daar verschillen de meningen over.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Opzich, als ze denken dat ze de prestaties en stutters (die van TechReport) nog een stuk beter kunnen maken voor de 7000-series, dan vind ik dat je het ook kan zien als een niet meer dan nette move van AMD: iedereen met 7000-serie profiteert dan, ipv dat bijna al de ontwikkelingen en verbeteringen worden doorgeschoven naar 8000. Ik vind het toch wel impressive dat ze eigenlijk met een kleine achterstand zaten op nVidia toen zij hun kaarten introduceren, zowel op prestaties en op verbruik, maar dat ze dat toch wel weer ingehaald hebben. Doe er nog eens 10-15% bij en dan kan je waarschijnlijk prima concurreren, ook omdat AMD vaak goedkoper is. Vergeet niet, als dezelfde kaarten een 'jaar' langer meekunnen scheelt dat natuurlijk wel flink in de kosten om nieuwe hardware te ontwikkelen, en in de markt te zetten. Een iets lagere marge maakt dan niet zoveel uit.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
deraco96 schreef op maandag 18 februari 2013 @ 14:05:
Opzich, als ze denken dat ze de prestaties en stutters (die van TechReport) nog een stuk beter kunnen maken voor de 7000-series, dan vind ik dat je het ook kan zien als een niet meer dan nette move van AMD: iedereen met 7000-serie profiteert dan, ipv dat bijna al de ontwikkelingen en verbeteringen worden doorgeschoven naar 8000. Ik vind het toch wel impressive dat ze eigenlijk met een kleine achterstand zaten op nVidia toen zij hun kaarten introduceren, zowel op prestaties en op verbruik, maar dat ze dat toch wel weer ingehaald hebben. Doe er nog eens 10-15% bij en dan kan je waarschijnlijk prima concurreren, ook omdat AMD vaak goedkoper is. Vergeet niet, als dezelfde kaarten een 'jaar' langer meekunnen scheelt dat natuurlijk wel flink in de kosten om nieuwe hardware te ontwikkelen, en in de markt te zetten. Een iets lagere marge maakt dan niet zoveel uit.
De eerste stap is al gezet met de 13.2 drivers. En er zitten nog aardig wat aanpassingen aan te komen die de stutters gaan verminderen en ook de prestaties gaan verhogen.

Daarnaast is het Gemiddelde stroom verbruik bij het spelen van games amper hoger dan dat van nVidia. Afhankelijk van het spel zelfs lager. Maar Piek en met OCCT / Furmark scoort de HD7970 veel hoger.

nVidia zit ook niet stil met nieuwe drivers en zij hebben ook al aardig wat verbeterd. Maar ik denk dat AMD er ook nog wel een keer een 10-15% winst driver uit kan persen. Dat is het voor en nadeel van een nieuwe architectuur.

Reviews worden toch in het begin gedaan. En niet als er nieuwe drivers uit komen. (dat gebeurd maar af en toe) Dus eigenlijk is het gunstiger om bij lancering al volwassen drivers te hebben. Maar met een nieuwe architectuur gaat dat niet, dat heeft tijd nodig.

[ Voor 7% gewijzigd door Astennu op 18-02-2013 14:34 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Astennu schreef op maandag 18 februari 2013 @ 14:16:
nVidia zit ook niet stil met nieuwe drivers en zij hebben ook al aardig wat verbeterd.
Zolang je geen AA gebruikt en zelfs dan valt het tegen :)

Met AA is het eigenlijk in elke game nihil. Zie ook [H]: http://www.hardocp.com/ar...iver_performance_review/6

Ik zal hun bevinden hier even opsommen voor een 680, vanaf de launch 301.10 t/m 310.70:
- De magische FC3 driver (310.70) waarin Nvidia "up to" 38% claimt: 12.1% zonder AA. Zelf met AA merkte ik er helemaal niks van.
- MP3: 2.1%
- Skyrim: 7.4% - klinkt als meer dan het daadwerkelijk is, zo'n 5 FPS over de launch driver en je zat dan al over de 85 FPS gemiddeld heen. Maf spel dropt nog steeds tot 30.
- BF3: 13.5% sneller dan 310.33 - maar 310.33 had slechtere performance dan de drivers daarvoor. T.o.v. de launch driver is het maar 8.1%

En in de meeste gevallen kwam de "sprong" in 301.42 (twee maanden na release). Komt in elk geval niet in de buurt van de sprongen die AMD heeft gemaakt. Zelf heb ik 306.23 en 310.33 ook terug moeten rollen omdat ze hartstikke onstabiel waren, Skyrim heb ik toch (nog) niet gespeeld dus .33 was niet boeiend. :)

Nu komt dat bij AMD inderdaad door de nieuwe architectuur, maar Nvidia wist in 2010 niet zulke sprongen te maken met Fermi. Wat dat betreft heeft AMD het goed gedaan tot nu toe, alleen zonde van de CFX problemen. Nvidia krijgt er nu in elk geval niets meer uit geperst, AMD heeft wel nog van alles te halen uit de drivers, ze hebben immers nu pas écht de architectuur op orde, dus nu komen de specifiekere game optimalisaties (die Nvidia het hele jaar door dus uit heeft kunnen voeren).

[ Voor 11% gewijzigd door Werelds op 18-02-2013 16:07 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Die GK110 met 7,1 miljard transistors is ongeveer 590mm2 groot of wat verwachten jullie?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
madmaxnl schreef op maandag 18 februari 2013 @ 16:48:
Die GK110 met 7,1 miljard transistors is ongeveer 590mm2 groot of wat verwachten jullie?
Het zal wel aardig die kant op gaan. In ieder geval 500+ eerder 550. Dus het is echt een giga chip.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Astennu schreef op maandag 18 februari 2013 @ 13:18:
[...]


De HD7970 is niet duurder om te kopen. Maar wel duurder om te produceren. Het is een grotere chip met een complexer PCB en meer geheugen chips. Dit komt weer door zijn 384 Bits geheugen bus. Maar in mijn ogen is de HD7970 op dit moment een veel betere koop dan de GTX680. Maar daar verschillen de meningen over.
Puur omdat de chip best wel groter is betekent niet dat het ook duurder is om te produceren. Nvidia lijkt structureel de laatste jaren meer yield problemen te hebben dan AMD en het zou me niet verbazen als nu nog steeds meer problemen hebben met yields dan AMD.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
tomcatha schreef op dinsdag 19 februari 2013 @ 01:11:
[...]


Puur omdat de chip best wel groter is betekent niet dat het ook duurder is om te produceren. Nvidia lijkt structureel de laatste jaren meer yield problemen te hebben dan AMD en het zou me niet verbazen als nu nog steeds meer problemen hebben met yields dan AMD.
Dat klopt. Het ligt ook aan het proces en de yields. Maar het Proces is hetzelfde. En als je ziet hoeveel groter Tahiti is tov GK104 moet nVidia wel erg slechte yields hebben wil de GK104 niet goedkoper zijn om te maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik weet niet of mensen deze al gezien hebben:

Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2013/February/nvidia_geforcetitan_7.jpg

Dit is wel een beetje wat ik er ongeveer van verwacht had. Ik ben benieuwd of deze scores ook echt kloppen. Maar het lijkt me in ieder geval wel haalbaar. Op hogere resoluties verwacht ik er zelfs wel iets meer van.

De cooler van de Titan ziet er wel stoer uit. Ik moet zeggen dat wel iets is wat je aan nVidia kan over laten. Zie ook de GTX480 en de GTX690. Die zien er ook prachtig uit.

Dit is trouwens wel AMD's kans om de performance van de nieuwe beta drivers te laten zien. Hopelijk testen de review sites de HD7970 wel met de 13.1 of 13.2 drivers. en niet met oude 12.10 of ouder.

[ Voor 21% gewijzigd door Astennu op 19-02-2013 07:59 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Die slide was inderdaad in een van de links in het artikel bij het nV topic al voorbij gekomen. En inderdaad, voor een chip die bijna 2x zo groot is als GK104 mag je zeker wel 50% performance-winst (over de GTX 680) verwachten.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
vind het wel grappgig dat nvidia ook nu toegeeft dat de gtx680 langzamer is dan de 7970 in die graph.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Denk niet dat ze zo iets doen, daarnaast lijkt die totaal niet op een slide van nVidia en ik "denk" ook niet dat het er één is. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
tomcatha schreef op dinsdag 19 februari 2013 @ 12:25:
vind het wel grappgig dat nvidia ook nu toegeeft dat de gtx680 langzamer is dan de 7970 in die graph.
nVidia zelf zou dat nooit doen. Ik vraag me ook af of deze slide wel echt is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Overigens, ik vraag me ook af wat het verschil in architectuur met de "normale" Kepler (en voorzover dat verschil aanwezig is) voor invloed heeft op de drivers.

Zou die driver ontwikkeling even hard gaan voor een GTX6xx als een Titan :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Help!!!! schreef op dinsdag 19 februari 2013 @ 13:10:
Overigens, ik vraag me ook af wat het verschil in architectuur met de "normale" Kepler (en voorzover dat verschil aanwezig is) voor invloed heeft op de drivers.

Zou die driver ontwikkeling even hard gaan voor een GTX6xx als een Titan :?
Ja. Hetgeen er in de driver moet gebeuren wordt niet beinvloed door de fysieke indeling van een chip. Die indeling gaan juist de schedulers in de chip mee om. Er zal wel het één en ander in de driver zitten om de GPGPU taken iets anders aan te pakken, maar het grootste deel zit er al in. En vergeet niet dat K20 inmiddels ook al enige tijd beschikbaar is, de drivers van GeForce en Quadro/Tesla hebben deels dezelfde basis.


Om het overigens even over drivers te hebben, naar ik begrijp is de nieuwe beta 6 voor AMD gebruikers weer een stevige verbetering? Iets in de trant van een 10-15% verbetering in Heaven en Valley (pakweg 200-250 punten). AMD heeft hun driver team een stevige schop onder de kont gegeven lijkt het.

[ Voor 16% gewijzigd door Werelds op 19-02-2013 13:30 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Astennu schreef op dinsdag 19 februari 2013 @ 12:54:
[...]


nVidia zelf zou dat nooit doen. Ik vraag me ook af of deze slide wel echt is.
ik dacht dat het van fud komt en dat was altijd nvidia's propaganda kanaal.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Fud en SA zitten er geregeld naast hoor en met name Fud heeft wat vaker de neiging om gewoon alle "leaks" te posten die er zijn :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
tomcatha schreef op dinsdag 19 februari 2013 @ 14:13:
[...]


ik dacht dat het van fud komt en dat was altijd nvidia's propaganda kanaal.
Niet direct. En wat hierboven ook gezegd wordt. Ze zitten er vaak genoeg naast.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
tomcatha schreef op dinsdag 19 februari 2013 @ 12:25:
vind het wel grappgig dat nvidia ook nu toegeeft dat de gtx680 langzamer is dan de 7970 in die graph.
nVidia heeft met name gepretendeerd dat de GTX 680 sowieso sneller zou zijn dan de HD 7970, niet de GE-versie.

Acties:
  • 0 Henk 'm!

  • Cyberamp
  • Registratie: April 2004
  • Laatst online: 27-11-2024

Cyberamp

Multithreaded Tweaker

Er is een AMD actie ‘Never Settle Reloaded’ waarbij je Bioshock Infinite & Tomb Raider of Bioshock Infinite & Crysis 3 gratis krijgt als je een AMD 7 serie kaart koopt (mid / high end). Je hebt daarvoor een Unique id nodig die je krijgt via een Gratis game voucher. Nu is het zo dat de webwinkel waar ik bij had gekocht niet onder actie viel, wel alternate en 4launch bijvoorbeeld. Is er toch een manier om een zgn. Unique id te krijgen, hoor ik het graag :) In ieder geval op = op

Topicstarter 1e WTF topic; Huisje boompje beestje; Adamoland#2244


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
3XPER7 schreef op dinsdag 19 februari 2013 @ 16:07:
[...]


nVidia heeft met name gepretendeerd dat de GTX 680 sowieso sneller zou zijn dan de HD 7970, niet de GE-versie.
Ik vraag me af of dat nog steeds zo is na alle driver releases van beide kanten. Misschien is het verschil nu lang niet zo groot meer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Astennu schreef op woensdag 20 februari 2013 @ 08:19:
[...]


Ik vraag me af of dat nog steeds zo is na alle driver releases van beide kanten. Misschien is het verschil nu lang niet zo groot meer.
Of het op dit moment zo is of niet maakt natuurlijk niet uit, het gaat erom dat nVidia dat bij de launch van de GTX 680 pretendeerde.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
3XPER7 schreef op woensdag 20 februari 2013 @ 11:25:
Of het op dit moment zo is of niet maakt natuurlijk niet uit, het gaat erom dat nVidia dat bij de launch van de GTX 680 pretendeerde.
Hoezo maakt dat niet uit? Voor velen is de performance met huidige drivers belangrijker dan wat het was bij de launch.

[ Voor 14% gewijzigd door Olaf van der Spek op 20-02-2013 13:01 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Olaf van der Spek schreef op woensdag 20 februari 2013 @ 13:00:
[...]

Hoezo maakt dat niet uit? Voor velen is de performance met huidige drivers belangrijker dan wat het was bij de launch.
Mja de reviews die mensen kunnen terug lezen zijn allemaal met oude drivers gedaan. En daar baseren de meeste hun keuze dan op.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Olaf van der Spek schreef op woensdag 20 februari 2013 @ 13:00:
[...]

Hoezo maakt dat niet uit? Voor velen is de performance met huidige drivers belangrijker dan wat het was bij de launch.
Ik had het over tomcatha's opmerking:
tomcatha schreef op dinsdag 19 februari 2013 @ 12:25:
vind het wel grappgig dat nvidia ook nu toegeeft dat de gtx680 langzamer is dan de 7970 in die graph.
nVidia pretendeerde bij de launch van de GTX 680 dat deze sneller zou zijn dan de HD 7970, niet de GHz Edition die in de grafiek ergens hierboven te zien is. Hoe de situatie met de drivers nu is maakt niet uit, want dat was niet het punt.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
3XPER7 schreef op dinsdag 19 februari 2013 @ 16:07:
[...]


nVidia heeft met name gepretendeerd dat de GTX 680 sowieso sneller zou zijn dan de HD 7970, niet de GE-versie.
En zelfs dat klopt al niet, laat staan de GE-versie.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Grappig om te zien dat overal op 2560x1600 de GTX680 en de HD7970 gelijk scoren. En dat de GHz edition net even wat sneller is. http://www.techpowerup.co...GeForce_GTX_Titan/27.html

Het gat is dus wel degelijk kleiner geworden. Bij anandtech zag je ook al dat het nu 50/50 was met de 7970 vs GTX680. De ene helft wint de 680 de andere helft de 7970 non GHz.

Maar Titan staat overal boven. Echter verbruikt deze 50 watt meer dan de 7970 GHz tijdens BF3. En is hij heel wat duurder.

[ Voor 43% gewijzigd door Astennu op 21-02-2013 20:04 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ouch, dit is alleen wat minder :X .....:

http://www.pcper.com/revi...e-Rating-Update/Frame-Rat

[ Voor 8% gewijzigd door Help!!!! op 21-02-2013 20:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Tja ze hebben wel een punt. Iets zit niet lekker en vraagt om nader onderzoek. Ik ben sowieso geen fan van CF of SLI. Gewoon single cards.

En dat AMD problemen met GCN en latency had wisten we ook al. Daar zijn ze ook mee bezig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op donderdag 21 februari 2013 @ 20:03:
Grappig om te zien dat overal op 2560x1600 de GTX680 en de HD7970 gelijk scoren. En dat de GHz edition net even wat sneller is. http://www.techpowerup.co...GeForce_GTX_Titan/27.html
Linken we nu nog steeds naar benchmarks met slechts gemiddelde van gemiddelde van gemiddelde framerates? :(

[ Voor 4% gewijzigd door Olaf van der Spek op 21-02-2013 22:04 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op donderdag 21 februari 2013 @ 21:38:
[...]


Tja ze hebben wel een punt. Iets zit niet lekker en vraagt om nader onderzoek. Ik ben sowieso geen fan van CF of SLI. Gewoon single cards.

En dat AMD problemen met GCN en latency had wisten we ook al. Daar zijn ze ook mee bezig.
Klopt. Echter ik heb minder issues met SLI dan met CF en het komt heel dicht bij een single gpu ervaring voor mijn gevoel.

Maar 6950CF was desalniettemin nog steeds een goede ervaring.

Ik moedig de nieuwe testmethodes aan omdat het AMD en nVidia dwingt om nog betere producten/drivers te ontwikkelen wat goed is voor ons.

Momenteel ligt die bal vooral in AMD's court maar dat dwingt ze alleen maar tot betere producten.

De testmethode van o.a. PCper moet echter nog verder ontwikkeld ontworden en bovenal gevalideerd door meer sites.
Verder moet er ook geprobeerd worden beter duidelijk te maken hoe sterk de testgegevens nu correleren met je game ervaring.

Dat laatste lijkt me nog best lastig.

[ Voor 3% gewijzigd door Help!!!! op 21-02-2013 22:11 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Gezien AMD's recente verrichtingen, lijkt het me dat ze er echt wel al mee bezig zijn.

Al hoop ik nog steeds ooit SidePort terug te zien :'(

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Werelds schreef op donderdag 21 februari 2013 @ 22:26:
Gezien AMD's recente verrichtingen, lijkt het me dat ze er echt wel al mee bezig zijn.

Al hoop ik nog steeds ooit SidePort terug te zien :'(
Ja die was inderdaad gericht op het voorkomen van vertraging.
Maar HD6xxx kaarten hebben ook minder stuttering problemen dan de HD7xxx serie. De nieuwe architectuur moet nog gefinetunned worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ze zijn er ook mee bezig. Ben benieuwd hoe snel ze on par zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Burlok86
  • Registratie: Februari 2012
  • Laatst online: 09-09 15:12
Wat ik het interessants vind aan de Titan, is de Boost 2.0 functionaliteit.
Is er al wat voorbij gekomen dat AMD aan een tegenhanger werkt? Want ik verwacht boost 2.0 wel terug te zien in de mid-high end kaarten van de GTX 7XX serie, wat een grote plus zou kunnen zijn voor de GTX 7 serie vs HD8000 serie.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Ze willen zelfs 2 nieuwe kaarten uit gaan brengen.
De 7790(Bonaire XT) en de 7990(Malta)

http://videocardz.com/398...n-hd-7790-and-new-hd-7990

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Olaf van der Spek schreef op donderdag 21 februari 2013 @ 22:00:
[...]

Linken we nu nog steeds naar benchmarks met slechts gemiddelde van gemiddelde van gemiddelde framerates? :(

Nieuw op Hardware.Info: Frame-time tests voor GPU's

Niet echt Radeon nieuws, maar toch ;)

Gerucht: AMD werkt aan 'Titan killer' ?

Trouwens, is Crysis 3 een "AMD game" geworden? Ik zie net bij het opstarten van Crysis 3 een mooi AMD Gaming Evolved logo staan :) Dus geen shitload aan onnodige tesselation van water onder de map :+

[ Voor 31% gewijzigd door madmaxnl op 22-02-2013 19:36 ]


Acties:
  • 0 Henk 'm!

  • paragon
  • Registratie: April 2000
  • Laatst online: 01:10
Deze nog niet voorbij gekomen?

http://blogs.amd.com/play/tressfx/

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Te erg lol, doe mij de tripple crossfire variant maar, die 3 delen zijn samen de beste combi voor het verzorgen van je haar. 8)7 :D
Wel grappige verpakking van wat er gaat komen de 26e :)

[ Voor 104% gewijzigd door pino85 op 23-02-2013 13:18 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Haha calsonic, maar goed dat je je reply hebt aangepast :P

Mijn RSS feed heeft je originele reply nog op gepikt ;)


Dat zal dus zoals HWI zegt een AA methode worden of wellicht een stukje middleware om haren realistischer te renderen :)

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Eerste frame time test hw.info AMD 7970 GE vs GTX 680

http://nl.hardware.info/r...tx-680-frame-times-review

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
HWI is op de goede weg en nV lijkt ook niet immuun tegen onregelmatige frametimes.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Olaf van der Spek schreef op zondag 24 februari 2013 @ 11:55:
HWI is op de goede weg en nV lijkt ook niet immuun tegen onregelmatige frametimes.
Ligt er aan hoe je het ziet:
Afbeeldingslocatie: http://content.hwigroup.net/images/articles/680vs7970-ac3-veryhigh.png

Je zou kunnen zeggen dat nV meer lagged hiero. Maar effectief (minus misschien die ene spike) zal je hier niets van merken: 20ms is 50fps solid, geen van beide komt daar boven over het algemeen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Jij denkt echter nog steeds in FPS in plaats van in frames. Het hele punt van deze grafieken is om te laten zien wat microstuttering is en hoe veel een bepaalde chip er last van heeft in een game. Je kunt best 100 FPS draaien en toch de game zien stotteren. Niet iedereen is er even gevoelig voor; ik bijvoorbeeld wel en ik zie het gestotter met m'n 680 in BF3 dan ook.

Even los daarvan, je zegt ook wel mooi "50 FPS solid" - maar in dit geval zit je te springen tussen 55-60 FPS en 100 FPS. Dat is een gigantische sprong en merk je heus wel. Of je nu dropt van 50 naar 15 of van 100 naar 50, je merkt het weldegelijk :)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op zondag 24 februari 2013 @ 12:08:
[...]

Ligt er aan hoe je het ziet:
[afbeelding]

Je zou kunnen zeggen dat nV meer lagged hiero. Maar effectief (minus misschien die ene spike) zal je hier niets van merken: 20ms is 50fps solid, geen van beide komt daar boven over het algemeen.
Wat mij vooral verbaast is dat bij mijn weten eigenlijk alle 'buitenlandse sites' steeds laten zien dat het AMD is die een dergelijke brede swing neerzet.
En nu beweert uitgerekend HWI (die toch niet echt toonaangevend is met hun reviews of overtuigt door hun diepe kennis) nu precies het tegenovergestelde beeld neerzet.

Mmmmzz ik weeet het ff niet meer. :P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Drivers?

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Als je de eerste pagina van die review had gelezen: :)
De AMD Radeon HD 7970 GHz Edition hebben we getest met Catalyst driver versie13.2 beta, voor Nvidia gebruikten we GeForce driver versie 310.90

[ Voor 8% gewijzigd door pino85 op 24-02-2013 20:03 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 15-09 11:55

hidde212

Free your mind...

Ik bedoelde meer dat het aan de drivers te wijten kan zijn, reactie op Help!!!! in "CJ's Radeon Info & Nieuwsdiscussie - Deel 125"

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
XanderDrake schreef op zondag 24 februari 2013 @ 12:08:
[...]

Ligt er aan hoe je het ziet:
[afbeelding]

Je zou kunnen zeggen dat nV meer lagged hiero. Maar effectief (minus misschien die ene spike) zal je hier niets van merken: 20ms is 50fps solid, geen van beide komt daar boven over het algemeen.
Mmh meestal kreeg je een omgekeerd beeld te zien :) Zo te zien zijn nVidia's drivers ook niet perfect.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Astennu schreef op maandag 25 februari 2013 @ 00:43:
Mmh meestal kreeg je een omgekeerd beeld te zien :) Zo te zien zijn nVidia's drivers ook niet perfect.
AC3 is zo te zien meer een AMD game, zie ik nu bij andere reviews. Maar dat is ook niet mijn punt, zie het volgende stukje:
Werelds schreef op zondag 24 februari 2013 @ 12:48:
Jij denkt echter nog steeds in FPS in plaats van in frames. Het hele punt van deze grafieken is om te laten zien wat microstuttering is en hoe veel een bepaalde chip er last van heeft in een game. Je kunt best 100 FPS draaien en toch de game zien stotteren. Niet iedereen is er even gevoelig voor; ik bijvoorbeeld wel en ik zie het gestotter met m'n 680 in BF3 dan ook.

Even los daarvan, je zegt ook wel mooi "50 FPS solid" - maar in dit geval zit je te springen tussen 55-60 FPS en 100 FPS. Dat is een gigantische sprong en merk je heus wel. Of je nu dropt van 50 naar 15 of van 100 naar 50, je merkt het weldegelijk :)
Wacht even, ik denk dat je vergeet dat onze ogen bewegend beeld boven solid 30fps normaal en solid 50-60fps bij zeer veel beweginen nog steeds als vloeiend ervaart. Bij 3D videogames ligt dat anders omdat frames dankzij variaties in effecten en shaders niet allemaal netjes achter elkaar komen, waardoor er binnen de seconden variaties plaats vinden. In dit plaatje gebeurt dat nog steeds, MAAR dat is ver onder de threshold van wat wij waar kunnen nemen. De game voelen nog steeds vloeiend aan, zelfs met deze nano-stutters.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Tja ik heb ook wel eens games op een single card gespeeld die met 80 FPS niet helemaal lekker aan voelde. In ieder geval niet soepel. Dus FPS zegt in dat geval niets.

Maar ik denk dat we het komende jaar veel vooruitgang zullen zien wat betreft micro stuttering. Ik denk dat zowel AMD als nVidia het een en ander gaan oplossen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op maandag 25 februari 2013 @ 08:17:
Wacht even, ik denk dat je vergeet dat onze ogen bewegend beeld boven solid 30fps normaal en solid 50-60fps bij zeer veel beweginen nog steeds als vloeiend ervaart. Bij 3D videogames ligt dat anders omdat frames dankzij variaties in effecten en shaders niet allemaal netjes achter elkaar komen, waardoor er binnen de seconden variaties plaats vinden. In dit plaatje gebeurt dat nog steeds, MAAR dat is ver onder de threshold van wat wij waar kunnen nemen. De game voelen nog steeds vloeiend aan, zelfs met deze nano-stutters.
Nee, dat is dus een fabeltje.

Ik weet zeker dat ik het al eerder in een van de twee topics heb gezegd, maar onze ogen nemen niet in FPS waar. Als je dat ergens gelezen hebt, is dat een site waar je nooit meer naar terug moet gaan want dat zijn een stel onbenullen. Hoeveel "FPS" je nodig hebt om iets als vloeiend te zien is van veel dingen afhankelijk:
- De persoon
- Snelheid van de beweging
- Gebruikte kleuren

De "threshold van wat wij waar kunnen nemen" is geen vaste grens. Een bal die wordt weggeschopt zal pas echt vloeiend uitzien bij ergens tegen de 500 "frames" aan. Een bal die rolt met 1 km/u zal inderdaad wel al bij 30 FPS vloeiend uitzien.

Daarnaast zijn onze ogen juist erg gevoelig voor onregelmatigheden in opvolging van frames. Het zijn simpelweg geen camera's, ze zijn veel gecompliceerder dan dat. En met die "nanostutters" voelt een game echt niet vloeiend aan. Als dat zo was, was microstuttering niet zo'n gigantische issue met AFR, waar je inderdaad gewoon 100 "FPS" kunt hebben en je game nog steeds stottert.

[ Voor 4% gewijzigd door Werelds op 25-02-2013 09:27 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Dus jij zegt, vloeiende waarneming is per persoon zo verschillend dat dit alles kan zijn tussen 30fps en 500fps. Dus er zijn mensen die inherent niet naar de Bioscoop kunnen gaan of fatsoenlijk een voetbalwedstrijd kunnen kijken omdat het allemaal hapert?

Zou jij dit random en blind durven te testen?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Astennu schreef op maandag 25 februari 2013 @ 09:16:
Tja ik heb ook wel eens games op een single card gespeeld die met 80 FPS niet helemaal lekker aan voelde. In ieder geval niet soepel. Dus FPS zegt in dat geval niets.
Dit kan zeker. Als er pieken zijn in frame times die boven de 30-40ms uitkomen zou iedereen dat wel merken, zelfs als de rest van de frames het onder de 15ms zitten.

Maar zeg zelf Astennu, eerlijk, heb je ook wel eens games gespeeld op single gpu's met 40fps die wel vloeiend aanvoelde?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
XanderDrake schreef op maandag 25 februari 2013 @ 09:38:
Dus jij zegt, vloeiende waarneming is per persoon zo verschillend dat dit alles kan zijn tussen 30fps en 500fps. Dus er zijn mensen die inherent niet naar de Bioscoop kunnen gaan of fatsoenlijk een voetbalwedstrijd kunnen kijken omdat het allemaal hapert?

Zou jij dit random en blind durven te testen?
Misschien niet zo extreem. Maar er zijn situaties waar de een het soepel zal vinden en een ander het vind schokken. Of waar de een wel verschil ziet en de ander niet.

Ik ben zelf iemand die er erg gevoelig voor is. Maar ik ken hier in huis mensen die het helemaal niet zien.
XanderDrake schreef op maandag 25 februari 2013 @ 09:47:
[...]

Dit kan zeker. Als er pieken zijn in frame times die boven de 30-40ms uitkomen zou iedereen dat wel merken, zelfs als de rest van de frames het onder de 15ms zitten.

Maar zeg zelf Astennu, eerlijk, heb je ook wel eens games gespeeld op single gpu's met 40fps die wel vloeiend aanvoelde?
Wel vloeiender dan het voorbeeld van die 80 fps. Ook niet altijd en dat zal ook met die Latency te maken hebben. Maar ik heb ook wel eens een game gespeeld wat een hele constante 40 fps had. Echt soepel is het niet. Maar het is beter dan 80 fps met behoorlijke microstuttering. Dan weet ik wel waar mijn voorkeur naar uit gaat. Het mooiste is 60 fps met constante frame times.

Maar wat je probeert te zeggen klopt. Meestal als je 30-40 fps hebt is het geen vloeiende ervaring omdat er vaak veel variatie tussen de verschillende frame zit en de framerate sowieso aan de lage kant is. Ik bedoel een een film die je kijkt oogt ook niet helemaal soepel. Maar ik heb dat liever dan van die TV's met van die 100Hz upscaling die alles dan soepel proberen te maken maar soms hard falen. Ik ben zo iemand die meteen ziet of zo iets aan staat en me er door aan ergert. Ik zie namelijk dat die TV soms ineens geen 100 Hz meer doet maar veel minder frames omdat hij het niet goed vooruit heeft kunnen berekenen. En ik erger me daar dan dood aan dat die slowdowns zichtbaar zijn. Dit is het eerste wat ik op een TV uit zet als ik TV ga kijken.

[ Voor 20% gewijzigd door Astennu op 25-02-2013 10:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hoe ons oog precies werkt en wat de threshold is kun je eindeloos over praten.

Ook lastig is: als iemand stuttering niet ziet, is het er dan niet :? Of kan ik als ik het aanwijs of via een vergelijkend filmpje op Youtube laat zien en iemand ziet het daarna wel, was het er dan niet altijd al. En als dat niet lukt betekent het dan dat het er niet is :?

Het is lastig om aan te tonen hoeveel mensen het zien of er “last” van hebben. Mensen die het niet zien of 30fps vloeiend ervaren zullen meestal roepen dat het onzin is.

Ik denk altijd, als je het niet ziet, prijs jezelf gelukkig :)

Wat voor mij relevant is dat ik stuttering wel zie net als velen die dat ook rapporteren. En dat er nu een methode is gevonden waarbij de spikes binnen de seconde voor mij correleren met haperingen.
Hiervoor hadden we die tool niet.
Of dit het gehele verhaal vertelt :? Of er misschien niet nog meer factoren zijn die zelfs belangrijker zijn dan de spikes :?

Dat is nu juist de grote winst van deze revolutie in GPU performance testing. Er zijn nu een hoop partijen veel meer aan het nadenken en methodes aan het verzinnen om helder te krijgen wat nu de factoren zijn die een vloeiende game ervaring bepalen.

Nadenken over:
* hoe de hele keten tussen oog en game engine eigenlijk werkt.
* wat meet fraps eigenlijk en hoe correspondeert dat met wat we zien op het scherm. Zitten daar nog bewerkingen tussen en wat is de invloed ervan?

Het meest interessante vervolg/aanvulling op Frametime testing vind ik momenteel waar ze bij PCPER mee bezig zijn. Dmv een capturecard kijken hoe een frame er op het scherm uitziet.

Dit alles dwingt AMD en nVidia om hier ook nog meer aandacht aan te besteden.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op maandag 25 februari 2013 @ 09:38:
Dus jij zegt, vloeiende waarneming is per persoon zo verschillend dat dit alles kan zijn tussen 30fps en 500fps. Dus er zijn mensen die inherent niet naar de Bioscoop kunnen gaan of fatsoenlijk een voetbalwedstrijd kunnen kijken omdat het allemaal hapert?

Zou jij dit random en blind durven te testen?
Je leest het verkeerd. Als jij op TV een voetbal wedstrijd kijkt op een "oude" TV op standaard 50 Hz, beweegt die bal niet vloeiend. Je krijgt dan gigantisch veel ghosting, toch? Bekijk die wedstrijd echter op 200 Hz en je zult zien dat er een stuk minder ghosting is. Ik ga even door, want deze bal is een mooi voorbeeld :)

Waarschuwing: weer een van m'n lange verhaaltjes, sorry :(

Nu stel je voor dat dat gerenderd moet worden. Alles lekker, blijft mooi op 20ms hangen, exact 50 "FPS" dus. Dan zit er ineens een frame tussen dat 33ms nodig heeft (30 "FPS"), maar gelukkig is het frame erop erg eenvoudig en heeft maar 7ms nodig. Kom je uit eindelijk alsnog op 50 FPS uit aan het eind van de seconde, maar reken maar dat jij dat haperingetje ziet. Je zou namelijk een deelse overlapping zien van die bal. Immers legt hij tussen de twee frames dezelfde afstand af -even schijt aan de natuurkunde-, maar omdat het tweede frame al binnen 7ms volgt "versnelt" de bal even voor een frame. Als die bal constant 50m/s beweegt (onzin getal, rekent makkelijk want het zou 1m per frame zijn) zou hij in werkelijkheid over 5 frames 5 meter afleggen. Met zo'n ongelijke render tijd krijg je echter iets anders te zien.

In frame #1 (er is ook een frame 0 geweest, voor het gemak) zie je de bal netjes 1 meter verder, immers begon dit op 20ms na start te renderen. Frame #2 begint op 40ms te renderen en rendert dus 2 meter, echter is dit het frame dat 33ms nodig heeft. Frame #3 begint dus pas op 73ms te renderen; dan zit de bal dus op 73/1000*50 = 3,65m. Omdat dit frame maar 7ms nodig heeft, begint Frame #4 wel weer gewoon op 80ms, wat 4m is. En frame #5 op 100ms, wat 5m is. Wat jij echter waarneemt is dat de bal tussen frames #2 en #4 even gigantisch versnelt, want wat jij op je scherm krijgt is het volgende:
  • #0 @ 0m
  • #1 @ 1m
  • #1 @ 1m (Scherm moet immers verversen, 50Hz weer voor het gemak!)
  • #2 @ 2m
  • #3 @ 3,65m
  • #4 @ 4m
  • #5 @ 5m
Tussen frames #2 en #3 heeft de bal ineens 1,65m (82,5m/s - ofwel 297 km/u ipv 180 km/u ;)) afgelegd en legt daarna maar 35cm af. Dit is exact what microstuttering is, een inconsistentie in wat er op het scherm gebeurt en jouw hersenen en ogen zijn slim genoeg om dat op te pikken. Met langzaam bewegende beelden is dat geen probleem, er verplaatst zich immers niets snel genoeg op het scherm om daadwerkelijk iets uit te maken; maar in een relatief snelle game als BF3 zie je een jet een sprongetje voorwaarts maken midden in de lucht. Dit grijpt terug op wat ik hierboven al zei, hoeveel "FPS" je nodig hebt om iets vloeiend te laten uitzien hangt sterk af van wat er getoond wordt. Kijk je naar een zwart vlak op witte achtergrond (of vice versa) zul je ook veel meer van dit soort dingen "waarnemen". De monitor (trailing > main) test van FlatpanelsHD zie je dit dan ook weer leuk in, elke keer als je op het plusje of minnetje klikt schokt het even ;)

Waarom is dit dan een probleem met AFR (SLI/CFX), de tweede GPU kan toch gewoon door? Ja en dat is dan ook wat zowel Nvidia als AMD tegenwoordig doen in de drivers en schedulers. Als GPU #1 te lang nodig heeft en GPU #2 is al klaar, droppen ze dat frame van GPU #1, laten het andere frame door en zetten GPU #2 weer aan het werk. Uiteraard werkt dit alleen als je framerate sowieso al hoog genoeg is. Als je maar 50 FPS aan het renderen bent maakt dat ene gedropte frame weer even veel uit als hierboven. Je ziet immers dezelfde sprong. Zet je V-sync aan, zelfde verhaal: als een van de twee GPUs te lang nodig heeft is het vaak al te laat; als #1 lang nodig heeft gaat #2 door...maar als die vervolgens ook weer wat langer nodig heeft dan 16ms...nou ja, je snapt hem wel.

Dus nee, op TV en in de bios hapert er niets, omdat elk frame exact dezelfde "frametime" heeft. Als je me niet gelooft dat er geen magische grens is waarboven ons oog niets extra's waar neemt, ga eens naar een MediaMarkt of iets dergelijks en vergelijk een TV op 50 Hz met zowel 100 Hz als 300 Hz. Je zult zien dat jij het verschil tussen alle drie gewoon waarneemt. Daarnaast weet ik niet hoe goed jouw zicht is of dat er iemand in je familie is die dit heeft, maar niet iedereen ziet de flikkeringen op een CRT scherm bijvoorbeeld. Heeft ook weer te maken met hoe goed je zicht is. Ik zie die 60 Hz weldegelijk en vind het dan ook pokke irritant :)

Het is net zoiets als Apple's bullshit "retina" verhaal. 320 PPI is "retina" ja - voor iemand met 20/20 op ~30cm afstand. Ga met je neus dichterbij zitten en je ziet alsnog de pixels. Heb je beter zicht dan 20/20 (wat gemiddeld is), zul je de pixels alsnog zien. Het klopt tot op zeker hoogte wel, maar het is niet helemaal accuraat.

Disclaimer: vast wel ergens een rekenfoutje en ik heb hier en daar wat vrijheid genomen qua daadwerkelijke natuurkunde / technische achtergrond voor het gemak.

[ Voor 3% gewijzigd door Werelds op 25-02-2013 11:35 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
En bij menig collega die in het verleden op een 60hz CRT geen trillingen zag, zette ik het op 85hz.
Een week later zette ik hem dan even terug op 60hz. Toen zagen ze het allemaal ineens wel..... En moest ik het onmiddelijk weer terug veranderen naar 85 :p

Misschien maar beter dus niet zoeken naar iets wat je niet wilt vinden.... :P

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Help!!!! schreef op maandag 25 februari 2013 @ 11:54:
^
En bij menig collega die in het verleden op een 60hz CRT geen trillingen zag, zette ik het op 85hz.
Een week later zette ik hem dan even terug op 60hz. Toen zagen ze het allemaal ineens wel..... En moest ik het onmiddelijk weer terug veranderen naar 85 :p

Misschien maar beter dus niet zoeken naar iets wat je niet wilt vinden.... :P
Owh ja dat weet ik ook nog :D
60Hz was zo iritant met die dingen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Dit hele verhaal begrijp ik, ik kende het al, het is wel handig dat het allemaal genoteerd staat verder.

Waar ik nu het meeste mee zit, is dat er nu lijkt te worden gezegd dat alle lag altijd wordt waargenomen.
Absoluut, het heeft te maken met wat er wordt weergegeven, wie er kijkt, etc.etc
Maar het lijkt me heel erg sterk dat je elk rimpeltje in frametime kan zien.

En zo ja, wat is dan concreet het punt waar de mensen in dit topic frame-time variaties gaan merken?
Is dat niet een belangrijk meet punt? Ook met oog op mogelijke optimalisaties in games en engines of juist het kopen van een videokaart.

Want vooralsnog vind ik het allemaal te vaag. Het klinkt allemaal de "x factor" waar je niets over kan zeggen en dat het hyper persoonlijk is, waardoor elk persoon kan claimen wat hij of zij wilt, puur om hun voorgelegde voorkeuren te valideren...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
XanderDrake schreef op maandag 25 februari 2013 @ 12:04:
Absoluut, het heeft te maken met wat er wordt weergegeven, wie er kijkt, etc.etc
Maar het lijkt me heel erg sterk dat je elk rimpeltje in frametime kan zien.

En zo ja, wat is dan concreet het punt waar de mensen in dit topic frame-time variaties gaan merken?
Is dat niet een belangrijk meet punt? Ook met oog op mogelijke optimalisaties in games en engines of juist het kopen van een videokaart.

Want vooralsnog vind ik het allemaal te vaag. Het klinkt allemaal de "x factor" waar je niets over kan zeggen en dat het hyper persoonlijk is, waardoor elk persoon kan claimen wat hij of zij wilt, puur om hun voorgelegde voorkeuren te valideren...
Nee, je kunt ook niet elk rimpeltje waarnemen. Nogmaals, het hangt met name af van wat er op dat moment op het scherm gebeurt - meer nog dan van hoe goed jouw zicht wel (of juist niet) is. In een game als BF3 zul je een sprong tussen 10 en bijna 20 ms probleemloos zien, met name op een jet die langsvliegt, een quad die langs rijdt, een RPG, enzovoort. Zul je het in AC3 zien? Nee, grootste deel van de tijd denk ik niet, is het spel te traag voor (ik heb het spel overigens nooit gespeeld, al heel lang geen interesse meer in AC).

Kunnen ze er veel tegen doen? In games waar de gemiddelde frametijd laag genoeg is (de FPS dus hoog genoeg) wel ja, door simpelweg eens te beginnen met frames te droppen. Maar in games die de huidige generatie kaarten nog steeds hard pushen kunnen ze er niet veel tegen doen. En met name bij AFR zal het tot in den eeuwigheid een probleem blijven, omdat je daar dus echt met twee onafhankelijke bronnen van frames zit te werken en je dus altijd een derde partij (driver in dit geval) nodig hebt om er mee om te gaan. Daarmee gaat weer een hoop lag gepaard, een hoop inconsistentie, enzovoort. Verminderen? Kan. Elimineren? Nooit.


Edit: je hebt overigens helemaal gelijk hoor, het is ook een grijs gebied, maar niet in de zin dat het iets puur persoonlijks is. Het grootste deel is afhankelijk van meetbare feiten, maar juist het meten van die feiten is lastig in een game engine. Het is de combinatie van alles die nagenoeg onmogelijk uit te rekenen is.

[ Voor 7% gewijzigd door Werelds op 25-02-2013 12:17 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op maandag 25 februari 2013 @ 12:04:
Dit hele verhaal begrijp ik, ik kende het al, het is wel handig dat het allemaal genoteerd staat verder.

Waar ik nu het meeste mee zit, is dat er nu lijkt te worden gezegd dat alle lag altijd wordt waargenomen.
Absoluut, het heeft te maken met wat er wordt weergegeven, wie er kijkt, etc.etc
Maar het lijkt me heel erg sterk dat je elk rimpeltje in frametime kan zien.

En zo ja, wat is dan concreet het punt waar de mensen in dit topic frame-time variaties gaan merken?
Is dat niet een belangrijk meet punt? Ook met oog op mogelijke optimalisaties in games en engines of juist het kopen van een videokaart.

Want vooralsnog vind ik het allemaal te vaag. Het klinkt allemaal de "x factor" waar je niets over kan zeggen en dat het hyper persoonlijk is, waardoor elk persoon kan claimen wat hij of zij wilt, puur om hun voorgelegde voorkeuren te valideren...
Er zijn dus filmpjes zoals in deze post: Help!!!! in "CJ's Radeon Info & Nieuwsdiscussie - Deel 125"

Check zelf of je het ziet.

De resultaten uit frametests correleren met wat je in het filmpje ziet. Zo vaag is dat niet.

De sites die hiermee bezig zijn zouden uiteraard het liefst hun bevindingen weergeven in één getal en een duidelijk overgangspunt waaraan iedereen kan zien of het een goede GPU is / danwel wat je ziet vloeiend is.
Immers het nadeel van de nieuwe inzichten is dat het een stuk minder makkelijk te begrijpen is / intuitief voor veel mensen.
Maar goed we zitten dan ook nog helemaal vastgeroest in "FPS denken".

Echter men is nu nog bezig om vooral veel meer onderzoek te doen en beter te begrijpen wat nu bepalend is voor een vloeiende game, hoe dat te meten en te presenteren.

Helaas zal het denk ik niet zo makkelijk zijn om dit in één simpel getal en duidelijk overganspunt te vatten.

[ Voor 5% gewijzigd door Help!!!! op 25-02-2013 12:39 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

^ Met filmpjes op deze manier getoond heb ik een beetje problemen. OK, ik denk wel of je kan testen of je iets kan waarnemen, maar er zijn zoooo veel factoren die in dit voorbeeld parten kunnen spelen (compressie effecten, gekozen resolutie, of bepaalde variaties wel goed zijn opgenomen in de opname, etc).

Ik zou het bijvoorbeeld mooi vinden als er een web applicatie (java based ofzo) wordt ontwikkeld waarbij je zou kunnen testen hoe iemand frame time lag waarneemt, door op een knop (spatiebalk bijv) drukt elke keer als tijdens een vaste 3D gerenderde sequence willekeurig vertragingen worden geintroduceerd.

Deze test moet een aantal keer gedaan worden (duplicate measures) en een aantal keer gevarieerd (andere kleuren, andere FPS ranges, Frame drops ipv latencies, etc.). Aan het einde van de test reeks kan je een T-test uitvoeren om te kijken of spatiebalk-druk momenten overeenkomen met de echte latencies of dat ze willekeurig zijn.

De test reeks kan je vervolgens herhalen op verschillende thresholds van frame-time latencies (dus tot max 35ms, 30ms, 20ms, 10ms etc) om te kijken bij welke threshold je nog iets ziet of niet.
Dit lijkt me zeer nuttig: als je bijv na 30ms niets meer merkt, heb je sowieso geen ultra-high end nodig.

[ Voor 13% gewijzigd door XanderDrake op 25-02-2013 12:46 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
XanderDrake schreef op maandag 25 februari 2013 @ 12:04:
Waar ik nu het meeste mee zit, is dat er nu lijkt te worden gezegd dat alle lag altijd wordt waargenomen.
Absoluut, het heeft te maken met wat er wordt weergegeven, wie er kijkt, etc.etc
Maar het lijkt me heel erg sterk dat je elk rimpeltje in frametime kan zien.
Je haalt lag en frametime variatie door elkaar, dat zijn twee verschillende dingen. En ja, het hangt sterk af van wat er op het beeld gebeurd, maar misschien ook van de monitor en van de game engine. Als er een slak van links naar rechts beweegt en daar 10 minuten over doet vallen frametime issues waarschijnlijk niet op. Als je inzoomt en hij doet er nog maar 1 seconde over vallen diezelfde frametime issues waarschijnlijk wel op.

Je kunt beter niet redeneren met analogieën, maar ook over bioscoopfilms is discussie of 24 of 48 fps beter is.
XanderDrake schreef op maandag 25 februari 2013 @ 12:42:
Ik zou het bijvoorbeeld mooi vinden als er een web applicatie (java based ofzo) wordt ontwikkeld waarbij je zou kunnen testen hoe iemand frame time lag waarneemt, door op een knop (spatiebalk bijv) drukt elke keer als tijdens een vaste 3D gerenderde sequence willekeurig vertragingen worden geintroduceerd.
Dat is op zich een leuke test, maar als de test aantoont dat iemand zo'n issue niet herkent betekent dat nog niet dat het issue ook geen invloed op hem heeft. Mogelijk wordt zijn in-game performance (aiming, lap times) wel beinvloed.

[ Voor 25% gewijzigd door Olaf van der Spek op 25-02-2013 12:58 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^^
Denk niet dat een mens snel genoeg op een spatiebalk kan drukken om variaties die binnen de seconde plaats vinden te matchen.

Het lastigste is denk ik niet om een zekere threshold te vinden qua steady framerate, bijv 30ms. (Alhoewel dit wellicht ook nog per type game etc verschilt)

Wat wel lastig lijkt, is bepalen welke mate van afwijking (grootte vd spikes, aantal spikes en verdeling spikes over de seconde) dermate significant is dat men het ervaart.

Maar goed ik snap de weerstand bij sommigen niet zo. Ik denk dat het duidelijk is dat men iets op het spoor is gekomen wat meer inzicht geeft (maar ook nieuwe vragen opwerpt) dan de aloude straightforward FPS metingen.

Op basis van de kennis die ik nu heb weet ik wel welke reviews ik ga bekijken en dat zijn zeer zeker niet de FPS only reviews.

PS:
Het interessante in dat filmpje was overigens vooral ook dat de stuttering kaart een hogere FPS had dan de niet-stuttering kaart !!!

PS2:
Om nog even terug te komen op PCper: Hier een link over waar zij mee bezig zijn. http://www.pcper.com/revi...New-GPU-Performance-Tools
Ben erg benieuwd wat dat gaat opleveren en welk stukje vd puzzel zij te pakken hebben... :)

[ Voor 16% gewijzigd door Help!!!! op 25-02-2013 13:09 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

In mijn voorgestelde test moet je niet op de milliseconde exact drukken. Het gaat om de variatie waarnemen, vervolgens kan je een ' window' defineren binnen wanneer de waarnemer kan afdrukken.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

XanderDrake schreef op maandag 25 februari 2013 @ 13:18:
In mijn voorgestelde test moet je niet op de milliseconde exact drukken. Het gaat om de variatie waarnemen, vervolgens kan je een ' window' defineren binnen wanneer de waarnemer kan afdrukken.
Heb er vraagtekens bij of dat ooit goed werkend te krijgen is maar als je/men zoiets weet te fabriceren lijkt het me prima. :)

Ik ben nieuwsgierig naar elke manier om inzicht te krijgen in wat een game vloeiend maakt.

Stuttering achtige issues zijn al lang een klacht van een hoop mensen. Ik ben er blij mee dat een aantal reviewers van hun gat zijn gekomen en er nu veel werk in steken om erachter te komen wat de echte variabelen nu zijn en hoe ze deze goed kunnen meten en presenteren.

In plaats van alleen fraps data in een grafiek te gooien houdt met men zich nu ineens bezig met:

* Frametimes
* Wat meet fraps eigenlijk en wat zit er tussen de meting en wat je op je scherm ziet?
* Gegenereerde frames: hoe zie je die eigenlijk op je scherm (pcper) ?
* Is Fraps wel een goede tool ?
* Hernieuwde aandacht voor de hele keten van game engine tot oog. Wat gebeurt waar?
* Invloed van vsync, frame limiters ?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Fraps zou trouwens wel handig zijn als je handmatig elke tusseninterval voor metingen kan selecteren. Bijvoorbeeld per 1/100 sec :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Waarom zou je dat willen?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Die getallen opslaan naar een bestand > plotten in een grafiek > hoe mij PC presteert mbt frame-time, frames per subsecond.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Dus, in jouw geval, frames per 10ms? Dan kijk je naar onvolledige frames. Doe mij dan maar time-per-frame.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
XanderDrake schreef op maandag 25 februari 2013 @ 14:13:
Die getallen opslaan naar een bestand > plotten in een grafiek > hoe mij PC presteert mbt frame-time, frames per subsecond.
Dat kan toch al? Fraps kan alle frametimes loggen en daar kun jij dan mee doen wat je wil.

[ Voor 12% gewijzigd door Olaf van der Spek op 25-02-2013 14:55 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dat klopt.

Maar als ik XanderDrake goed begrijp wil hij eigenlijk (maar daar ben ik niet zeker van) dat men de spatiebalk indrukt op het moment dat men een irregularity ziet, dit vervolgens vastleggen in een progje en vervolgens matchen met de gemeten frametimes.
Als het goed is zou moment van indrukken knop dan moeten matchen met een spike in de frametimes.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 13:53

XanderDrake

Build the future!

Ja, dat klopt, maar das de test waar ik het over had, niet fraps.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op maandag 25 februari 2013 @ 10:31:
Hoe ons oog precies werkt en wat de threshold is kun je eindeloos over praten.
Helaas wel ja. Daar is een hoop wetenschappelijk onderzoek naar gedaan en er is veel bekend, dat zijn feiten. Helaas blijven mensen allerlei fabeltjes verspreiden waardoor je keer op keer weer terugvalt in een onzinnige discussie. Ik wil niet eens weten hoe vaak ik nou al gelezen heb dat ons oog niet in FPS ziet. :X

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Het hele 'microstutter' (ondanks de afwijzing van TechReport vind ik het wel een treffende term) verhaal is nu een issue bij de 7000-serie, maar zijn er eigenlijk ook reviews die stutters bij oudere kaarten meten? Ik ben wel benieuwd hoe een 5850 het doet.
Ik vraag me af: hoe zit het met 50FPS? Bij constant 50FPS zal de monitor immers elk 1/6-de frame een stutter hebben, een frametime die twee keer zo hoog was als de vorige --> 30 FPS voor een heel kort moment. Als je dus gevoelig bent voor stutters bent en persé boven 30 FPS wil zitten, moet je dus een 120 Hz hebben?
Wat er op het beeldscherm komt is immers relevant, wat er in mijn computer achterblijft, daar kan ik toch niks mee.
Ook blijft bij mij de vraag welke tool nou wel geschikt is voor een zo vloeiend mogelijke gameplay, VSync helpt blijkbaar dus niet, hoe zorgt een frame limiter dan voor soepeler frames? Komt er bij ~62 FPS geen tearing?

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

deraco96 schreef op maandag 25 februari 2013 @ 17:32:
Het hele 'microstutter' (ondanks de afwijzing van TechReport vind ik het wel een treffende term) verhaal is nu een issue bij de 7000-serie, maar zijn er eigenlijk ook reviews die stutters bij oudere kaarten meten? Ik ben wel benieuwd hoe een 5850 het doet.
Nee, niet dat ik weet. Maar je kunt het zelf meten met Fraps als je tijd en zin hebt.
Ik vraag me af: hoe zit het met 50FPS? Bij constant 50FPS zal de monitor immers elk 1/6-de frame een stutter hebben, een frametime die twee keer zo hoog was als de vorige --> 30 FPS voor een heel kort moment.
Jouw voorbeeld is natuurlijk hypothetisch omdat de werkelijkheid niet zo statisch is.
Persoonlijk vind ik het wel een goed voorbeeld omdat het iig aantoont waarom ik het lastige materie vind.

Indien je op een 60hz monitor minder dan 60FPS hebt zul je normaal geen vsync aan hebben.
De monitor refresht elke 0.0167 seconde en de GPU levert dan elke 0.02 seconde een nieuwe frame af.

Als ik twee lijnen onderelkaar teken met gelijk startpunt en beide intervallen erin durf ik eerlijk gezegd niet helemaal zeker te zeggen hoe dat precies werkt.

Bijvoorbeeld op het moment dat de GPU een frame aanlevert terwijl de monitor nog niet aan de refresh toe is. Wat gebeurt er dan :? Ik neem aan dat de GPU frame buffer die frame blijft aanbieden tot de volgende frame gereed is waardoor de monitor dus op moment van refresh alweer een verouderde frame toont.
Als je dat uittekent krijg je ook een raar patroon.

Alleen dat is volgensmij niet precies het issue wat die sites testen. Immers in jouw voorbeeld worden de frames wel in constante intervallen aangeleverd door de GPU. Jouw voorbeeld is een mismatch tussen de refresh vd monitor en de GPU. Maar beide issues werken wel in op elkaar lijkt me.
Als je dus gevoelig bent voor stutters bent en persé boven 30 FPS wil zitten, moet je dus een 120 Hz hebben?
Wat er op het beeldscherm komt is immers relevant, wat er in mijn computer achterblijft, daar kan ik toch niks mee.
Ook blijft bij mij de vraag welke tool nou wel geschikt is voor een zo vloeiend mogelijke gameplay, VSync helpt blijkbaar dus niet, hoe zorgt een frame limiter dan voor soepeler frames? Komt er bij ~62 FPS geen tearing?
Durf ik allemaal niet te zeggen. Vsync helpt volgensmij wel maar dan moet je wel constant meer dan 60fps halen. Echter dan zegt dus niet alles omdat de frames binnen die 60fps ongelijk verdeeld kunnen zijn waardoor je alsnog stuttering ervaart.

Sry, blijf het best lastig vinden. :P Ik snap het enerzijds wel maar anderzijds begrijp ik alle mogelijke variabelen en hoe dat op elkaar in werkt ook weer niet volledig. (Lang niet.)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16-09 20:08

superwashandje

grofheid alom

Verwijderd schreef op maandag 25 februari 2013 @ 16:35:
[...]Ik wil niet eens weten hoe vaak ik nou al gelezen heb dat ons oog niet in FPS ziet. :X
ff misschien offtopic maar beweer je nu dat dit wel zo is? oftewel onze ogen registreren alleen elke zoveel milliseconden een 'frame' ?

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Verwijderd

superwashandje schreef op maandag 25 februari 2013 @ 19:54:
[...]

ff misschien offtopic maar beweer je nu dat dit wel zo is? oftewel onze ogen registreren alleen elke zoveel milliseconden een 'frame' ?
Nee, zeker niet. Het ging mij er juist om dat ik al weet ik hoe vaak gelezen heb dat dat niet zo is, maar het fabeltje dat dat wel zo zou zijn toch rond blijft zingen. Het internet heeft nogal moeite met feiten. :X

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 16-09 20:08

superwashandje

grofheid alom

ah ok, dan heb ik je post verkeerd begrepen. sorry, nothing to see here move along.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Help!!!! schreef op maandag 25 februari 2013 @ 19:08:
[...]


Nee, niet dat ik weet. Maar je kunt het zelf meten met Fraps als je tijd en zin hebt.


[...]

Jouw voorbeeld is natuurlijk hypothetisch omdat de werkelijkheid niet zo statisch is.
Persoonlijk vind ik het wel een goed voorbeeld omdat het iig aantoont waarom ik het lastige materie vind.

Indien je op een 60hz monitor minder dan 60FPS hebt zul je normaal geen vsync aan hebben.
De monitor refresht elke 0.0167 seconde en de GPU levert dan elke 0.02 seconde een nieuwe frame af.

Als ik twee lijnen onderelkaar teken met gelijk startpunt en beide intervallen erin durf ik eerlijk gezegd niet helemaal zeker te zeggen hoe dat precies werkt.

Bijvoorbeeld op het moment dat de GPU een frame aanlevert terwijl de monitor nog niet aan de refresh toe is. Wat gebeurt er dan :? Ik neem aan dat de GPU frame buffer die frame blijft aanbieden tot de volgende frame gereed is waardoor de monitor dus op moment van refresh alweer een verouderde frame toont.
Als je dat uittekent krijg je ook een raar patroon.

Alleen dat is volgensmij niet precies het issue wat die sites testen. Immers in jouw voorbeeld worden de frames wel in constante intervallen aangeleverd door de GPU. Jouw voorbeeld is een mismatch tussen de refresh vd monitor en de GPU. Maar beide issues werken wel in op elkaar lijkt me.


[...]

Durf ik allemaal niet te zeggen. Vsync helpt volgensmij wel maar dan moet je wel constant meer dan 60fps halen. Echter dan zegt dus niet alles omdat de frames binnen die 60fps ongelijk verdeeld kunnen zijn waardoor je alsnog stuttering ervaart.

Sry, blijf het best lastig vinden. :P Ik snap het enerzijds wel maar anderzijds begrijp ik alle mogelijke variabelen en hoe dat op elkaar in werkt ook weer niet volledig. (Lang niet.)
Ik zal eens kijken of ik leuke grafiekjes kan maken in het weekend, het leukst lijkt het mij om de Skyrimtest van TechReport te herhalen, aangezien ik dit spel zelf ook heb. BF3 MP is lastig te herhalen, SP vind ik niet belangrijk want dat speel ik niet. Ik neem wel aan dat ik hiervoor een volledige versie van Fraps moet 'hebben'?

Daarnet kaartte je dus wel het issue aan: het perfecte scenario is een GPU die in alle situaties het frame net klaar heeft als de monitor wil refreshen, sneller hoeft niet, en 'verouderde' frames zijn ook net niet ideaal.
Een test waarbij puur wordt gekeken naar bij hoeveel refreshes van een monitor de gpu een nieuw (heel) frame kan aanbieden zou dus het beste idee geven van het resultaat, de achterliggende techniek (hoeveel frames er intussen hadden kunnen worden gerenderd) is tijdens het gamen niet interessant. Nu ben ik lang niet zo veeleisend, het blijft een spelletje uiteraard en een niet geheel perfecte oplossing hoeft niet te storen.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik vond wel een interessant stukje op de blog van AMD. Er wordt naar een aantal dingen gehint:
« previous post View All AMD Unprocessed Blogs
AMD and The Sony PS4. Allow Me To Elaborate.

February 21, 2013 by John Taylor

Yesterday, Sony gave a sneak-peek at its next-generation PlayStation®4 (PS4™) game console coming later this year and, here at AMD, we couldn’t be more excited. Bringing a supercharged PC architecture that combines next-gen hardware, software, and the fastest game network in the world. Oh, and this is all powered by a semi-custom designed AMD accelerated processing unit (APU) jointly developed in coordination with Sony!

In fact, the PS4 is the first announced design win based on semi-custom AMD APUs. This further demonstrates our commitment to take AMD technology into adjacent high growth markets as we diversify beyond the PC.

What exactly is a semi-custom APU? Let me elaborate:

At the most basic level, an APU is a single chip that combines general-purpose x86 central processing unit (CPU) cores (in this case, 64-bit x86) with a graphics processing unit (GPU) and a variety of system elements, including memory controllers, specialized video decoders, display outputs, etc. Our semi-custom solutions take the same treasure trove of graphics; compute and multi-media IP found in our APUs, and customize them for customers who have a very specific high-volume product that could benefit from AMD’s leading-edge technologies.

In the case of the PS4, we leveraged the building blocks of our 2013 product roadmap – the same technologies you find in the latest AMD APUs powering PCs, ultrathin notebooks and tablets – to create a solution that incorporates our upcoming, low-power AMD “Jaguar” CPU cores with next-generation AMD Radeon™ graphics delivering nearly 2 TFLOPS of compute performance! This unique APU architecture enables game developers to easily harness the power of parallel processing to fundamentally change the console gaming experience. Not only creating the opportunity for new possibilities in software design, but also faster and more fluid graphics.

This is going to be a very exciting year for gamers, especially for those with AMD hardware in their PCs and consoles, as we have even more game-changing (pun intended) announcements still to come.

Look for some more exciting things happening at the Game Developers Conference (GDC) in March when we will provide even more info on how we are working with game developers to make AMD the hardware of choice for running the best games!

John Taylor is the Vice President of Global Communications and Industry Marketing at AMD. His postings are his own opinions and may not represent AMD’s positions, strategies or opinions. Links to third party sites, and references to third party trademarks, are provided for convenience and illustrative purposes only. Unless explicitly stated, AMD is not responsible for the contents of such links, and no third party endorsement of AMD or any of its products is implied.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

deraco96 schreef op maandag 25 februari 2013 @ 23:40:
[...]
Ik zal eens kijken of ik leuke grafiekjes kan maken in het weekend, het leukst lijkt het mij om de Skyrimtest van TechReport te herhalen, aangezien ik dit spel zelf ook heb. BF3 MP is lastig te herhalen, SP vind ik niet belangrijk want dat speel ik niet. Ik neem wel aan dat ik hiervoor een volledige versie van Fraps moet 'hebben'?
Volgensmij wel. Maar dat zou geen probleem moeten zijn.
Daarnet kaartte je dus wel het issue aan: het perfecte scenario is een GPU die in alle situaties het frame net klaar heeft als de monitor wil refreshen, sneller hoeft niet, en 'verouderde' frames zijn ook net niet ideaal.
Een test waarbij puur wordt gekeken naar bij hoeveel refreshes van een monitor de gpu een nieuw (heel) frame kan aanbieden zou dus het beste idee geven van het resultaat, de achterliggende techniek (hoeveel frames er intussen hadden kunnen worden gerenderd) is tijdens het gamen niet interessant. Nu ben ik lang niet zo veeleisend, het blijft een spelletje uiteraard en een niet geheel perfecte oplossing hoeft niet te storen.
Het lastige is natuurlijk dat een game elke milliseconde anders is en daarmee elke milliseconde ook de gevraagde rekenkracht/ output vd GPU.
Daarnaast heb je allerlei verschillende monitoren 60, 120hz en inmiddels ook nvidia’s boost naar 80hz technologie. Zaken als vSync, adaptive vsync.

Daardoor is het dus wel relevant hoeveel frames er intussen gerenderd hadden kunnen worden. Het nut is anders op een 120hz dan op een 60hz.

Wat in ieder geval logisch lijkt is dat een GPU frames zo regelmatig mogelijk moet genereren. De FPS mag best zakken. Dit is ook wat je in het hierboven geposte filmpje zag. De kaart met lagere FPS zag er vloeiender uit omdat de frames regelmatiger gegenereerd worden en waarschijnlijk omdat de frames die gegenereerd werden nuttiger zijn (zie Pcper framecapturing pictures)

Ben het verder met je eens dat het niet perfect hoeft te zijn om lol te hebben met een game.
Dat neemt niet weg dat de meesten wel zoveel mogelijk waar voor hun duurverdiende centjes willen. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Help!!!! schreef op dinsdag 26 februari 2013 @ 10:15:
[...]
inmiddels ook nvidia’s boost naar 80hz technologie
Welke technologie of "boost"? Het monitor overklokken dat altijd al kon (op zowel AMD als Nvidia, AMD is eenvoudiger)? ;)


Overigens, TressFX (via Google Cache want de blog zelf is een jojo atm :P):
http://webcache.googleuse...t=clnk&gl=nl&client=opera

Loopt allemaal via DirectCompute, zou in theorie ook gewoon op Nvidia moeten kunnen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op dinsdag 26 februari 2013 @ 10:29:
[...]

Welke technologie of "boost"? Het monitor overklokken dat altijd al kon (op zowel AMD als Nvidia, AMD is eenvoudiger)? ;)
Heb me daar niet zo in verdiept of heel goed gelezen, maar begreep dat nvidia bij de Titan een (door hen ondersteunde) methode introduceerde in de driver waarmee de monitor refresh een stuk omhoog geklokt kan worden.

Dat dit sowieso al (enigzins) kon weet ik maar heb me niet verdiept in hoeverre dit
* op alle monitoren kan ?
* tot hoever dit kan?
* en kan dit op alle monitoren even ver?
* kan het schade doen :?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Help!!!! schreef op dinsdag 26 februari 2013 @ 10:43:
[...]

Heb me daar niet zo in verdiept of heel goed gelezen, maar begreep dat nvidia bij de Titan een (door hen ondersteunde) methode introduceerde in de driver waarmee de monitor refresh een stuk omhoog geklokt kan worden.

Dat dit sowieso al (enigzins) kon weet ik maar heb me niet verdiept in hoeverre dit
* op alle monitoren kan ?
* tot hoever dit kan?
* en kan dit op alle monitoren even ver?
* kan het schade doen :?
Elke monitor kan wel iets omhoog. Of dat dan 1, 20 of 40 Hz is hangt af van het panel en enkele van de PCBs in een monitor. In de meeste gevallen kom je niet verder dan enkele Hz en zul je zien dat het zelfs slechter uitziet dan op 60 Hz, omdat het PCB niet overweg kan met die extra frames. Kan best zijn dat je panel het dan inderdaad wel red, maar de overige hardware weet vervolgens niet wat ze met de frames aanmoeten. Schade zal het niet aanrichten, wederom springen de PCBs er dan tussen en krijg je gewoon zwart beeld tot je het weer terug zet :)

En ja, het kon altijd al, via custom resolutions. Het is dan ook helemaal niets nieuws dat in Titan zit ofzo, is gewoon een kleine verandering in het NVCP. Het is vooral gericht op de goedkope LG A- monitors (Google maar eens op Catleap), waar de hardware geen moer om de refreshrate geeft omdat het goedkope zooi is. Het "overklokken" van die dingen is ontzettend populair, maar ook daar krijgt iedereen verschillende resultaten. Het zijn overigens verder aardige monitors, het LG panel is gewoon geweldig (zit ook in Dell's 27", Apple's 27" etc., alleen zijn dit "afgekeurde" exemplaren). De rest is echter erg matig en duidelijk goedkoop geproduceerd, vandaar dat ze dus boven die 60 Hz gewoon werken.


Zal het op jouw monitor werken? Nope, waarschijnlijk niet :)

Ik moet het eigenlijk eens met m'n Eizos uitproberen.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op dinsdag 26 februari 2013 @ 10:29:
[...]

Welke technologie of "boost"? Het monitor overklokken dat altijd al kon (op zowel AMD als Nvidia, AMD is eenvoudiger)? ;)


Overigens, TressFX (via Google Cache want de blog zelf is een jojo atm :P):
http://webcache.googleuse...t=clnk&gl=nl&client=opera

Loopt allemaal via DirectCompute, zou in theorie ook gewoon op Nvidia moeten kunnen.
Zo Lara ziet er goed uit met dat haar zo.
Zal me benieuwen hoe de game is als hij over een week uit komt.

Die Hz verhoging heb ik inmiddels op meerdere monitoren getest en dat werkt prima op de meesten, waren er een paar bij(goedkope dingen)die er niet goed mee overweg konden, maar de iiyama's die ik hier heb staan draaien nu op 66Hz en 74Hz ipv de standaard 60Hz en dat loopt vloeiend.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Hoe doe je dat pielen met die hertz frequentie? hack voor nodig? Welke prog..

[ Voor 9% gewijzigd door A87 op 26-02-2013 12:05 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
calsonic schreef op dinsdag 26 februari 2013 @ 11:20:
[...]


Zo Lara ziet er goed uit met dat haar zo.
Zal me benieuwen hoe de game is als hij over een week uit komt.

Die Hz verhoging heb ik inmiddels op meerdere monitoren getest en dat werkt prima op de meesten, waren er een paar bij(goedkope dingen)die er niet goed mee overweg konden, maar de iiyama's die ik hier heb staan draaien nu op 66Hz en 74Hz ipv de standaard 60Hz en dat loopt vloeiend.
Het haar ziet er echt heel mooi uit! zou ook een mooie toevoeging zijn voor games zoals Mass Effect. Daar zie je de karakters ook redelijk lang als je met dialogen bezig bent.

Ik las dat laatst ook over die HZ verhoging. Zit te twijfelen of ik dat ook eens met mijn 3008WFP zal proberen. Aan de andere kant 60 FPS halen is nu al moeilijk genoeg met een single GPU (tenzij je niet alles max hebt staan en AA en AF uit laat).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op dinsdag 26 februari 2013 @ 11:11:
[...]

Elke monitor kan wel iets omhoog. Of dat dan 1, 20 of 40 Hz is hangt af van het panel en enkele van de PCBs in een monitor. In de meeste gevallen kom je niet verder dan enkele Hz en zul je zien dat het zelfs slechter uitziet dan op 60 Hz, omdat het PCB niet overweg kan met die extra frames. Kan best zijn dat je panel het dan inderdaad wel red, maar de overige hardware weet vervolgens niet wat ze met de frames aanmoeten. Schade zal het niet aanrichten, wederom springen de PCBs er dan tussen en krijg je gewoon zwart beeld tot je het weer terug zet :)

En ja, het kon altijd al, via custom resolutions. Het is dan ook helemaal niets nieuws dat in Titan zit ofzo, is gewoon een kleine verandering in het NVCP. Het is vooral gericht op de goedkope LG A- monitors (Google maar eens op Catleap), waar de hardware geen moer om de refreshrate geeft omdat het goedkope zooi is. Het "overklokken" van die dingen is ontzettend populair, maar ook daar krijgt iedereen verschillende resultaten. Het zijn overigens verder aardige monitors, het LG panel is gewoon geweldig (zit ook in Dell's 27", Apple's 27" etc., alleen zijn dit "afgekeurde" exemplaren). De rest is echter erg matig en duidelijk goedkoop geproduceerd, vandaar dat ze dus boven die 60 Hz gewoon werken.


Zal het op jouw monitor werken? Nope, waarschijnlijk niet :)

Ik moet het eigenlijk eens met m'n Eizos uitproberen.
Thks.

Ik heb me er nooit echt in verdiept vooral vanwege de redenen die jij noemt die wel bij mij bleven hangen en dat is dat de resultaten heel wisselend zijn. Ik overklok her en der wel het e.e.a. maar oc van monitor heeft me nooit zo getrokken.

Derhalve heb ik destijds een 120hz aangeschaft zodat ik zeker weet dat het goed werkt.
Veel mensen zeggen dat je het niet ziet. Ik vind dat ik het wel zie en moet zeggen dat het me erg goed bevalt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2

Pagina: 1 ... 3 ... 10 Laatste

Dit topic is gesloten.

Let op:
Het nieuwe deel is hier: CJ's Radeon Info & Nieuwsdiscussie - Deel 126