Volgens deze post op anandtech is de 370 en alles daarbeneden een rebrand. Als dit echt waar is dan zet AMD zich op de midrange markt behoorlijk buitenspel.
Ik zou de forums van anandtech op dit moment niet als de meest betrouwbare bron nemen voor dit soort zaken. Er heerst daar een zekere bias, zowel van posters (tot daar aan toe) alswel moderators die hun macht misbruiken (zijn helaas voorbeelden over terug te vinden als je gaat zoeken). AMD trollbaiten is blijkbaar prima toegestaan. Daarop reageren kan al snel een ban opleveren.
Met andere woorden, we zullen het vanzelf zien.
Met andere woorden, we zullen het vanzelf zien.
Verwijderd
Het valt nog te bezien of dit ook echt incorrect is. Nvidia geeft bijna geen informatie vrij over de werking van gsync maar het kan zijn dat de gsync module meer doet dan je zou denken. Zo kan het zijn dat de gsync scalar de informatie over het vorige frame uit de buffer en het nog weer te geven frame gebruikt om de pixel voltages op een slimmere manier aan te sturen waardoor overdrive tijdens variabele refreshes mogelijk is en dat de scalar in freesync monitoren simpelweg niet in staat is om overdrive toe te passen omdat de voltages waarmee "geoverdrived" moet worden niet constant zijn door de variabele refresh rate. Dit zou een goede verklaring kunnen zijn waarom alle freesync monitoren tot nu toe vrij veel ghosting laten zien. Natuurlijk is het probleem niet inherent aan freesync maar kan het een scalar kwaal zijn die toch lastig op te lossen is en de "freesync ervaring" zeer negatief kan beïnvloeden, zeker met IPS panelen.Maar dat is nu juist het probleem. Het is gewoon technisch gezien onmogelijk dat ghosting door FS veroorzaakt wordt. PCPer zou dit ook moeten weten, zij zouden zo'n belachelijke opmerking niet moeten maken.
Bij PCPer hebben ze in tegenstelling to andere reviews echt testwerk verricht hebben zij gemerkt dat wanneer Gsync monitoren onder de 30FPS gaan ze niet uit variabele refresh modus gaan maar frames dubbel of zelfs vaker weer gaan geven. Effectief betekent dit dat de gsync window alles boven de 1fps is waar bij freesync de grafische kaart volgens het protocol verplicht een nieuw frame moet sturen waardoor je alsnog stutter of tearing ervaart waar dit bij gsync niet zo is.
Zoiets ja.Phuncz schreef op zondag 22 maart 2015 @ 18:42:
Zoiets lijkt me al correcter:
"But with the ROG Swift and BenQ XL2730Z sharing most of the same 144 Hz TN panel specifications, there is obviously something different about the integration panel. It could be panel technology, it could be the difference in implementation of the VRR technology or it could be settings in the monitor itself. We will be diving more into the issue as we spend more time with different FreeSync models."
We zullen het wel zien als er meer monitors op de markt zijn. Feit blijft echter dat het niet aan FreeSync ligt, ook niet aan Adaptive Sync, maar aan de monitor. En in hun oorspronkelijke beweringen zei PCPer dat dit aan FreeSync lag. Als je de comments nu leest geeft Allyn toe dat dit een probleem is dat bij de monitor fabrikanten ligt en niet bij de VRR technologie zelf.Verwijderd schreef op maandag 23 maart 2015 @ 17:53:
Het valt nog te bezien of dit ook echt incorrect is. Nvidia geeft bijna geen informatie vrij over de werking van gsync maar het kan zijn dat de gsync module meer doet dan je zou denken. Zo kan het zijn dat de gsync scalar de informatie over het vorige frame uit de buffer en het nog weer te geven frame gebruikt om de pixel voltages op een slimmere manier aan te sturen waardoor overdrive tijdens variabele refreshes mogelijk is en dat de scalar in freesync monitoren simpelweg niet in staat is om overdrive toe te passen omdat de voltages waarmee "geoverdrived" moet worden niet constant zijn door de variabele refresh rate. Dit zou een goede verklaring kunnen zijn waarom alle freesync monitoren tot nu toe vrij veel ghosting laten zien. Natuurlijk is het probleem niet inherent aan freesync maar kan het een scalar kwaal zijn die toch lastig op te lossen is en de "freesync ervaring" zeer negatief kan beïnvloeden, zeker met IPS panelen.
Ghosting is een fysiek, natuurkundig fenomeen dat te maken heeft met de kristallen in een TFT LCD (TFT Central, Blur Busters, Bit-Tech hebben hier allemaal artikeltjes over, wil ze best linken als je interesse hebt). De GPU stuurt die kristallen niet aan. Ook de scaler niet (niet elke monitor of TV laat elk frame door de scaler lopen). Of deze monitors nu met of zonder VRR draaien, ghosting hebben ze toch en dat is wat RTC moet corrigeren. En als in deze monitors RTC niet functioneert in VRR modus ligt dat aan die displays, niet aan de VRR technologiën. Wat wél kan is dat de electronica in deze displays RTC niet op variabele intervallen toe kan passen, maar dat ligt dan nog steeds aan de displays.
Ik moet overigens ook toegeven dat ik hier wellicht iets te hard op hamer; zo'n eerste ervaring is nu eenmaal kenmerkend en AMD had er wel voor moeten zorgen dat de displays zich ook kunnen meten met de beste gaming monitors.
Aan de andere kant zie ik ook nog steeds veel mensen beweren dat ghosting door software veroorzaakt kan worden, terwijl ze eigenlijk motion blur bedoelen. Motion blur en ghosting zijn twee heel verschillende dingen en ghosting kan gewoon onmogelijk door software veroorzaakt worden.
Dit wisten we al, is niets nieuws. PCPer zijn ook niet de eerste die hier achter komen, maar de manier waarop jij het verwoordt klopt niet helemaal.Bij PCPer hebben ze in tegenstelling to andere reviews echt testwerk verricht hebben zij gemerkt dat wanneer Gsync monitoren onder de 30FPS gaan ze niet uit variabele refresh modus gaan maar frames dubbel of zelfs vaker weer gaan geven. Effectief betekent dit dat de gsync window alles boven de 1fps is waar bij freesync de grafische kaart volgens het protocol verplicht een nieuw frame moet sturen waardoor je alsnog stutter of tearing ervaart waar dit bij gsync niet zo is.
Het G-Sync window loopt niet vanaf 1 FPS; tussen 1 en 30 herhaalt hij inderdaad de frames op een minimum van 30 Hz. Dat betekent dat je op 20 FPS de helft van de frames twee keer ziet. Tot zo ver is dit gewoon V-Sync. Het verschil met V-Sync is dat als er tussen twee frames in een nieuw frame klaar is dit wel meteen weergegeven kan worden. Het is echter geen VRR meer, want met VRR zou je dan ook slechts 20 refreshes krijgen terwijl je met G-Sync minimaal 30 refreshes krijgt. Of dit nu oude of nieuwe frames zijn doet er verder niet toe. Het nadeel is echter wel dat je ook onregelmatige refreshes krijgt, wat sommigen als flikkeren ervaren. Als je op 20 FPS draait (50ms per frame) krijg je op 33.3ms het frame van 0ms, op 50ms het nieuwe frame, op 83.3ms het frame van 50ms, op 100ms het nieuwe frame, enzovoort. Dit is precies hetzelfde als V-Sync Off, maar dan met een volledige refresh zodat je geen tearing hebt. Het is een combinatie van PSR, V-Sync On en V-Sync Off
Waar de G-Sync module nu nog een stap verder gaat is dat interval tussen twee frames in de gaten houden en z'n refresh er ongeveer midden in plaatsen; het gevolg is dat je met 20 FPS geen 30 Hz meer krijgt, maar om en nabij de 40 Hz. Dit betekent echter ook dat er extra latency in die module zit om voor deze intervallen te corrigeren - en het is nog steeds geen VRR, want je refresht technisch gezien op +- twee keer de framerate.
FreeSync daarentegen kán vanaf 9 Hz werken, het is momenteel alleen zo dat er geen enkele monitor is die dit doet. En zoals we in dit topic uit hebben gevogeld, lijkt het er op dat die 9 Hz alleen bij een top grens van 60 Hz kan bestaan. Iedereen blijft die 30 of 40 Hz als harde grens noemen, maar dat ligt wederom bij de panels, niet bij AS of FS.
Ik heb het al eerder gezegd, de FreeSync oplossing buiten het VRR window is heel matig, maar Nvidia's oplossing is ook niet perfect.
[ Voor 4% gewijzigd door Werelds op 23-03-2015 21:07 ]
Meh, ik pas m'n settings wel aan om boven de 40 fps te blijven en stel een fps limiter in een stuk onder de bovengrens.Werelds schreef op maandag 23 maart 2015 @ 21:03:
Ik heb het al eerder gezegd, de FreeSync oplossing buiten het VRR window is heel matig, maar Nvidia's oplossing is ook niet perfect.
Voor mij is de ghosting de grootste issue, op de benq is het op zich nog wel te doen vanwege het wat snellere TN panel, maar die LG ultrawide ips slaat echt nergens op, met goed werkende overdrive was dat een fantastisch scherm geweest, zeker voor die prijs.
Mechwarrior Online: Flapdrol
enAMD's own Mantle API addresses this exact issue with DirectX 11, and offers a CPU-efficient way of rendering. Its performance-yields are significant on GPU-limited scenarios such as APUs, but on bigger setups (eg: high-end R9 290 series graphics, high resolutions), the performance gains though significant, are not mind-blowing.
Beetje rare verwoording, DX12, Mantle en Vulcan zijn juist voor highend kaarten leuk in CF setups omdat ze dan niet meer door de cpu worden gelimiteerd. Midend kaarten hebben er weinig aan, of ik zie iets over het hoofd.A slide highlights how DirectX 12 and its new multi-core efficiency could step up draw-call capacity of an A10-7850K by over 450 percent. Sufficed to say, DirectX 12 will be a boon for smaller, cheaper mid-range GPUs, and make PC gaming more attractive for the gamer crowd at large.
Een midend kaart kan weinig met veel meer drawcalls omdat de gpu het niet bij kan houden
Natuurlijk zullen er wel wat voordelen zijn voor midend kaarten omdat er beter wordt omgegaan met beschikbare resources, maar ik denk dat vooral mensen met AMD cpus hier profijt van gaan hebben indien ze een highend kaart hebben.
[ Voor 0% gewijzigd door Sp3ci3s8472 op 24-03-2015 00:16 . Reden: bold ]
Als eyefinity gebruiker hoop ik echt op de komst van een IPS panel dat i.i.g. tot 17Hz kan gaan, voor de tijden dat de framerate lager dan gemiddeld is.Werelds schreef op maandag 23 maart 2015 @ 21:03:
... Iedereen blijft die 30 of 40 Hz als harde grens noemen, maar dat ligt wederom bij de panels, niet bij AS of FS.
Zou het ook niet mogelijk zijn om de GraKa het laatste frame nog een keer te laten herhalen als (bij min. 17Hz) binnen 58.9ms geen nieuw frame beschikbaar is? Als ik het goed begrepen heb, doet GSync dat op die module in het scherm.
Voor wat het waard is: https://i.imgur.com/xV8CuIc.png
Alternate staat ook tussen het lijstje zie ik zo, in dat geval ben je beter af bij een andere webshopLongBowNL schreef op dinsdag 24 maart 2015 @ 13:37:
Voor wat het waard is: https://i.imgur.com/xV8CuIc.png
In eerste instantie was het verhaal dat in de 2730 waarschijnlijk hetzelfde paneel zou zitten als in de Asus ROG Swift. Inmiddels was het duidelijk dat ze toch enigszins verschillend zijn. Teleurstellende is dat Benq en AUO tot dezelfde groep behoren maar Benq dus een panel van mindere specificaties, althans op het gebied van G2G repsonsetijd, gebruikt dan Asus die 9 maanden eerder op de markt was…. 
Uit de review van HardwareInfo: http://nl.hardware.info/r...nc-monitoren-benq-xl2730z
Gelukkig komen er steeds meer interessante keuzes:
Via Sweclockers.com: 144Hz-monitor met AHVA-paneel van ASUS ondersteunt FreeSync
Uit de review van HardwareInfo: http://nl.hardware.info/r...nc-monitoren-benq-xl2730z
ps: Volgensmij is Benq het moederbedrijf van AUO en niet andersom.Net als Acer gebruikt BenQ een 2560x1440 TN-paneel met een maximale verversingsfrequentie van 144Hz. Volgens de database van de experts van TFTcentral betreft het een M270DTN01.1, afkomsig uit de fabrieken van AUO ofwel AU Optronics. Dat is een ander paneel dan gebruikt in de ASUS PG278Q: daarin zit een M270Q002 V0; dat komt uit dezelfde fabriek, maar is hoger gespecificeerd (1 ms G2G in plaats van 5 ms). Overigens is het aardig om te weten dat AUO het moederbedrijf van BenQ is, en dat het in 2001 ontstaan is uit een fusie tussen Acer Display Technology en Unipac Optoelectronics.
Gelukkig komen er steeds meer interessante keuzes:
Via Sweclockers.com: 144Hz-monitor met AHVA-paneel van ASUS ondersteunt FreeSync
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
De nieuwe Asus 120Hz 2560*1440 IPS Freesync monitor
.
ASUS MG279Q | ||
Formaat | 27 inch | ![]() |
Resolutie | 2.560 x 1.440 pixels | |
Paneel | IPS (AHVA) 100% sRGB | |
Backlight | LED | |
Contrastratio | 1000: 1 | |
Helderheid | 350 cd / m 2 | |
Refreshrate | 144 Hz | |
Responsetijd | 4 ms (gray to gray) | |
Kijkhoeken | 178 ° / 178 ° | |
Aansluitingen | 1x DisplayPort 1.2 1x Mini DisplayPort 1.2 2x HDMI 1.4 (MHL 2.0) USB 3.0 (hub) | |
VESA | VESA100 |
Ziet er goed uit, en als het geen "LG PR-afdeling" foto is, dan ziet de bezel er mooi dun uit.
Nu moet de VRR-range nog bekend worden.
Nu moet de VRR-range nog bekend worden.
Balance in "CJ's Radeon Info & Nieuwsdiscussie - Deel 129"
Theoretisch 21-144Hz, maar ik vermoed minimaal 30Hz tenzij Panel Self-Refresh ingebouwd is.
EDIT: Panel Self-Refresh is waarschijnlijk fout, ik denk aan de techniek die de pixels laat refreshen bij lage refreshrate om problemen tegen te gaan.
Theoretisch 21-144Hz, maar ik vermoed minimaal 30Hz tenzij Panel Self-Refresh ingebouwd is.
EDIT: Panel Self-Refresh is waarschijnlijk fout, ik denk aan de techniek die de pixels laat refreshen bij lage refreshrate om problemen tegen te gaan.
[ Voor 29% gewijzigd door Phuncz op 26-03-2015 19:40 ]
PSR is accuraat genoeg om te beschrijven wat het doet, het is nagenoeg hetzelfdePhuncz schreef op donderdag 26 maart 2015 @ 19:37:
Balance in "CJ's Radeon Info & Nieuwsdiscussie - Deel 129"
Theoretisch 21-144Hz, maar ik vermoed minimaal 30Hz tenzij Panel Self-Refresh ingebouwd is.
EDIT: Panel Self-Refresh is waarschijnlijk fout, ik denk aan de techniek die de pixels laat refreshen bij lage refreshrate om problemen tegen te gaan.
Ik vind het opvallend dat de R9 290x meer drawcalls aankan dan de GTX980. Ik weet niet precies wat dat zegt over performance.
http://www.pcper.com/revi...st-Early-DX12-Performance

http://www.pcper.com/revi...st-Early-DX12-Performance


Mantle geeft 20x de draw calls tov amd dx11, wat scheelt het in games?LongBowNL schreef op vrijdag 27 maart 2015 @ 14:46
Ik vind het opvallend dat de R9 290x meer drawcalls aankan dan de GTX980. Ik weet niet precies wat dat zegt over performance.
[ Voor 3% gewijzigd door haarbal op 27-03-2015 15:24 ]
Mechwarrior Online: Flapdrol
Moeilijk te zeggen aangezien het een verbetering is waar specifiek naar ontwikkeld moet worden. Aangezien als het nu al aangesproken zou worden, we het aantal FPS op één hand kunnen tellen.
Dus nu dat de basis gelegd is, kunnen de ontwikkelaars er gebruik van maken.
Dus nu dat de basis gelegd is, kunnen de ontwikkelaars er gebruik van maken.
Ik denk dat pcper het goed uitlegt.
http://www.pcper.com/revi...st-Early-DX12-PerformanceThough minimal in quantity compared to the grand scheme of things we want to test with, the results we are showing here today paint a very positive picture about the future of DirectX 12. Since the announcement of Mantle from AMD and its subsequent release in a couple of key titles, the move to an API with less overhead and higher efficiency has been clamored for by enthusiasts, developers and even hardware vendors. Microsoft stepped up the plate, willing to sacrifice so much of what made DirectX a success the past to pave a new trail with DirectX 12.
Futuremark's new 3DMark API Overhead Feature Test proves that something as fundamental as draw calls can be drastically improved upon with forward thinking and a large dose of effort. We saw improvements in API efficiency as high as 18-19x with the Radeon R9 290X when comparing DX12 and DX11 results and while we definitely won't see that same kind of outright gaming performance with the new API, it gives developers a completely new outlook on engine development and integration. Processor bottlenecks that users didn't even know existed can now be pushed aside to stretch the bounds of what games can accomplish. It might not turn the world on it's head day one, but I truly think that APIs like DX12 and Vulkan (what Mantle has become for Khronos) will alter gaming more than anyone previous thought.
Just keep calm and wait - you'll see more DX12 gaming tests in the near future that will paint a better picture of what the gaming landscape will look like in 2016. For now, let's just wait for Windows 10 to roll so we can get final DX12 feature and comparison information, and to allow Intel, NVIDIA and AMD a little time to tweak drivers.
It's going to be a great year for PC gamers. There is simply no doubt.
[ Voor 74% gewijzigd door Thomg op 27-03-2015 16:16 ]
Als het goed is in toekomstige spellen meer variatie in objecten. Dus niet meer 100x hetzelfde boompje wat doormiddel van instancing wordt gecloned. Meer dan 100 customized characters op je scherm zonder dat je framerate inkakt.haarbal schreef op vrijdag 27 maart 2015 @ 15:23:
[...]
Mantle geeft 20x de draw calls tov amd dx11, wat scheelt het in games?
Dit kan dus mooie dingen opleveren
Nvidia heeft op een of andere manier meer profijt met multithreading in DX11 dan AMD, zouden ze een of andere truc hiervoor toepassen?
Ze hebben een tijd geleden toch een DX11 optimized driver gelanceerd in de buurt van de Mantle launch, dacht ik.
Nog een artikel met een interessant (wat te lang) filmpje waarin ze met een oscilloscope op zoek gaan naar de verschillen tussen Gs en Fs bij framerates onder het VRR window.
PCper: Dissecting G-Sync and FreeSync - How the Technologies Differ
Ze gebruiken hiervoor als ik het goed gezien heb de Benq XL2730Z en Asus ROG Swift PG278Q.
FWIW, interessant is dat:
* Gs window eindigt als 36 FPS bereikt wordt. (vanaf ongeveer 8.20 )
* Fs window eindigt als 37 FPS bereikt wordt. (vanaf ongeveer 18.00 )
Gs window zou volgens fabrikanten specs tot 30 fps moeten lopen en Fs window tot 40hz. Hier doet Fs het dus iets beter en GS relatief toch behoorlijk slechter.
Het verschil tussen beide panelen is dusdanig klein (en ik weet n=1) maar dit verschil is zo klein dat ik eigenlijk denk dat de opgegeven 30 niet klopt en dat de ondergrens van beide panelen allebei iets onder de 40 is.
Daarna wordt eigenlijk betoogd dat onder het effectieve VRR window, Fs helaas een duidelijk mindere ervaring oplevert als Gs. Zelfs slechter dan wanneer je een monitor zonder Fs zou hebben.
Dit is m.n. interessant voor monitors met een kleiner FS VRR window zoals in de LG's (48-75).
PCper: Dissecting G-Sync and FreeSync - How the Technologies Differ
Ze gebruiken hiervoor als ik het goed gezien heb de Benq XL2730Z en Asus ROG Swift PG278Q.
FWIW, interessant is dat:
* Gs window eindigt als 36 FPS bereikt wordt. (vanaf ongeveer 8.20 )
* Fs window eindigt als 37 FPS bereikt wordt. (vanaf ongeveer 18.00 )
Gs window zou volgens fabrikanten specs tot 30 fps moeten lopen en Fs window tot 40hz. Hier doet Fs het dus iets beter en GS relatief toch behoorlijk slechter.
Het verschil tussen beide panelen is dusdanig klein (en ik weet n=1) maar dit verschil is zo klein dat ik eigenlijk denk dat de opgegeven 30 niet klopt en dat de ondergrens van beide panelen allebei iets onder de 40 is.
Daarna wordt eigenlijk betoogd dat onder het effectieve VRR window, Fs helaas een duidelijk mindere ervaring oplevert als Gs. Zelfs slechter dan wanneer je een monitor zonder Fs zou hebben.
Dit is m.n. interessant voor monitors met een kleiner FS VRR window zoals in de LG's (48-75).
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Het licht dus meer aan het paneel (waarschijnlijk hetzelfde van de twee geteste monitoren) dan aan de scaler of de Fs / Gs technologie. Tijd voor betere, voor Gs/Fs gemaakte panelen die minimaal tot 24 fps gaan.
Eerste generatie van nieuwe technologie is altijd $%^&, dus gewoon even geduld
.
Eerste generatie van nieuwe technologie is altijd $%^&, dus gewoon even geduld
[ Voor 16% gewijzigd door Balance op 30-03-2015 21:25 ]
Ik denk dat het eerder de controllers zijn die fatsoenlijk ontworpen moeten zijn, zelfs als je maar 1Hz hebt zou je scherm correct kunnen werken zolang de controller er de juiste aansturing naar het paneel mee doet.
Inderdaad, bij gsync wordt er dus dubbel hetzelfde frame getekent onder de limiet. Ik denk dat dit makkelijk met een driver kan worden gefixed door AMD.Balance schreef op maandag 30 maart 2015 @ 21:25:
Het licht dus meer aan het paneel (waarschijnlijk hetzelfde van de twee geteste monitoren) dan aan de scaler of de Fs / Gs technologie. Tijd voor betere, voor Gs/Fs gemaakte panelen die minimaal tot 24 fps gaan.
Eerste generatie van nieuwe technologie is altijd $%^&, dus gewoon even geduld.
Wat ze niet goed testen is als er snel van framerate wordt gewisselt bij gsync, ze doen er 5 seconden over om van 45 naar 35 te gaan. Dit zal haast nooit in games voorkomen dus het niet echt een goede methode om dat te meten, je zal de periode veel kleiner moeten maken. Dus binnen een kwart seconde (of minder) van 45 naar 35 en dan kijken wat er gebeurt, dit zal veel eerder in games voorkomen.
Naar ik begrijp heeft het helaas wel met de panelen te maken. Die moeten een minimal aantal keer refresht worden anders (vul in) blijft het beeld niet in stand / gaat scherm/pixels stuk. Even geen tijd om op te zoeken hoe het precies zitPhuncz schreef op maandag 30 maart 2015 @ 21:46:
Ik denk dat het eerder de controllers zijn die fatsoenlijk ontworpen moeten zijn, zelfs als je maar 1Hz hebt zou je scherm correct kunnen werken zolang de controller er de juiste aansturing naar het paneel mee doet.
Dit is wat PCper inderdaad suggereert, echter zou dan elk Fs scherm in de driver meegenomen moeten worden. Dat lijkt me ook niet echt ideaal voor AMD.Sp3ci3s8472 schreef op maandag 30 maart 2015 @ 22:41:
[...]
Inderdaad, bij gsync wordt er dus dubbel hetzelfde frame getekent onder de limiet. Ik denk dat dit makkelijk met een driver kan worden gefixed door AMD.
Geen idee of dat echt tot verschillen in resultaat zou leiden. Wel interessant.Wat ze niet goed testen is als er snel van framerate wordt gewisselt bij gsync, ze doen er 5 seconden over om van 45 naar 35 te gaan. Dit zal haast nooit in games voorkomen dus het niet echt een goede methode om dat te meten, je zal de periode veel kleiner moeten maken. Dus binnen een kwart seconde (of minder) van 45 naar 35 en dan kijken wat er gebeurt, dit zal veel eerder in games voorkomen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Gewoon ouderwetsch drivers voor je scherm maken, CCC herkent welk type monitor ik heb, dan zou je zoiets kunnen maken dat eerst CCC geïnstalleerd wordt, en dat hij daarna kijkt of je scherm nog een extra driver nodig heeft voor Fs.
1Hz is niet echt tof bij LCD, volgens mij gaat je LCD allemaal funky dingen doen, er moet echt wel een minimale hoeveelheid hz zijn wil je normaal beeld houden.
1Hz is niet echt tof bij LCD, volgens mij gaat je LCD allemaal funky dingen doen, er moet echt wel een minimale hoeveelheid hz zijn wil je normaal beeld houden.
People as things, that’s where it starts.
Zou ook om user input kunnen vragen. "Geef de minimum VRR op van uw scherm :"Help!!!! schreef op maandag 30 maart 2015 @ 23:30:
[...]
Dit is wat PCper inderdaad suggereert, echter zou dan elk Fs scherm in de driver meegenomen moeten worden. Dat lijkt me ook niet echt ideaal voor AMD.
Verwijderd
In elk pixel zit een een stukje dynamisch geheugen dat ververst moet worden, anders lekt t weg.Help!!!! schreef op maandag 30 maart 2015 @ 23:30:
[...]
Naar ik begrijp heeft het helaas wel met de panelen te maken. Die moeten een minimal aantal keer refresht worden anders (vul in) blijft het beeld niet in stand / gaat scherm/pixels stuk. Even geen tijd om op te zoeken hoe het precies zit
Het is inderdaad zo dat er zowel vanuit controller als de TFT pixels, vernieuwingen moeten plaatsvinden om een brede refresh rate te accomoderen waarbij de rest van de parameters optimaal blijven (zoals helderheid, uniformiteit, kleur, reliability). Vooral bij smartphoneschermen is dit natuurlijk erg gewenst gezien een lage refresh rate het stroomverbruik aanzienlijk kan verlagen.
Zoals we al eerder hebben ondervonden, ligt dit bij de panels. Het G-Sync voorbeeld laat dit perfect zien, het panel in de XB270HU kan duidelijk ook niet tot 30 Hz gaan (zie hieronder). Overigens denk ik dat het schakelpunt bij allebei op 36.67 Hz zit, wordt alleen net iets anders afgehandeldHelp!!!! schreef op maandag 30 maart 2015 @ 20:47:
Nog een artikel met een interessant (wat te lang) filmpje waarin ze met een oscilloscope op zoek gaan naar de verschillen tussen Gs en Fs bij framerates onder het VRR window.
PCper: Dissecting G-Sync and FreeSync - How the Technologies Differ
FWIW, interessant is dat:
* Gs window eindigt als 36 FPS bereikt wordt. (vanaf ongeveer 8.20 )
* Fs window eindigt als 37 FPS bereikt wordt. (vanaf ongeveer 18.00 )
--YU-- gaat er ook al op in, maar in principe komt het allemaal op een heel klein dingetje neer: vrijwel alle onderdelen in een TFT LCD paneel zijn er niet op gebouwd om "langdurig" (is natuurlijk relatief als je het over millisecondes hebtHelp!!!! schreef op maandag 30 maart 2015 @ 23:30:
Naar ik begrijp heeft het helaas wel met de panelen te maken. Die moeten een minimal aantal keer refresht worden anders (vul in) blijft het beeld niet in stand / gaat scherm/pixels stuk. Even geen tijd om op te zoeken hoe het precies zit
Ik denk het wel, omdat je dan de processing tijd mee neemt. Het lijkt me dat dit bij G-Sync gewoon minimaal 1 frame latency met zich mee brengt, omdat dit (volgens Nvidia!) aan de monitor kant zit. Het is een reactie, het is niet proactief. En dat zou in theorie wel aan de driver kant kunnen.Help!!!! schreef op maandag 30 maart 2015 @ 23:30:Geen idee of dat echt tot verschillen in resultaat zou leiden. Wel interessant.
Help!!!! schreef op maandag 30 maart 2015 @ 23:30:
Dit is wat PCper inderdaad suggereert, echter zou dan elk Fs scherm in de driver meegenomen moeten worden. Dat lijkt me ook niet echt ideaal voor AMD.
Ook dit heb ik al vaak langs zien komen overal, waarom snap ik niet. Dit is al onderdeel van de AS spec. In de AS spec zit al een handshake waardoor de GPU weet wat de VRR boundaries zijn. Sterker nog, dit hebben we al heel erg lang en heet gewoon EDID - dat is hoe jouw GPU weet wat je monitor aan kan (helaas zijn er wel enkele fabrikanten die hun EDID profielen niet naar behoren instellen, maar dat is een andere zaak). AMD hoeft helemaal geen driver ondersteuning per scherm in te bouwen, dat hebben ze nu ook niet hoor (ik hoop althans van niet). Als de monitor aan geeft dat hij van 36-120 Hz kan hebben, kan de driver vervolgens gewoon zelf uitvogelen dat hij tot 35 moet gaan vermenigvuldigen om op z'n minst aan 36 te komen.TNJ schreef op dinsdag 31 maart 2015 @ 00:11:
Zou ook om user input kunnen vragen. "Geef de minimum VRR op van uw scherm :"
Wat AMD wel moet doen is de gebruiker dit laten aanpassen zonder dingen zoals EDID hacks. Bijvoorbeeld in het geval dat een fabrikant 30 Hz als minimum op geeft terwijl dit eigenlijk 37 Hz is; de gebruiker kan de driver dan gewoon de instructie geven om bijvoorbeeld 40 Hz aan te houden.
Omdat niet iedereen over jouw kennis beschikt. Dit was een reactie op het "elk scherm toevoegen aan de driver" en een niet opgeschreven verbazing dat scherm en GraKa niet met elkaar zouden communiceren.Werelds schreef op dinsdag 31 maart 2015 @ 11:02:
[...]
Ook dit heb ik al vaak langs zien komen overal, waarom snap ik niet.
Excuses als dat denigrerend over kwam, dat was niet de bedoeling. Ook daar doelde ik weer meer op sites zoals PCPer die gewoon beter zouden moeten weten, ook al zijn ze geen monitor experts.
Huddy redeemedWerelds schreef op dinsdag 31 maart 2015 @ 11:02:
Ik denk het wel, omdat je dan de processing tijd mee neemt. Het lijkt me dat dit bij G-Sync gewoon minimaal 1 frame latency met zich mee brengt, omdat dit (volgens Nvidia!) aan de monitor kant zit. Het is een reactie, het is niet proactief. En dat zou in theorie wel aan de driver kant kunnen.
Maar kan het niet zijn dat de gsync module iets eerder een refresh begint, en als er dan een nieuw frame klaar is dat ie de refresh afbreekt en opnieuw begint? En dan alsnog op tijd klaar is met de nieuwe frame.
Mechwarrior Online: Flapdrol
Iedereen bedankt voor de toelichtingen, het verhaal wordt steeds completer en duidelijker zo.
Ben wel verbaasd dat het schakelpunt voor beide schermen/technologieen vrijwel zeker gelijk is.
Hoe komt Asus in vredesnaam op 30hz
. 36hz is toch 20% (of is het 16,7% ?) slechtere prestatie dan advertised.
Ben wel verbaasd dat het schakelpunt voor beide schermen/technologieen vrijwel zeker gelijk is.
Hoe komt Asus in vredesnaam op 30hz
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nee, halverwege stoppen gaat niet, want dan zou een deel van het scherm niet op tijd de refresh gekregen hebben. Die krijgen die dan een halve periode te laat. Onthoudt ook dat er technisch gezien geen scanline is zoals bij een CRT (ondanks het feit dat we het wel over refreshes hebben), dus dat zit hier iets anders in elkaar. Ze zouden wel kunnen doen wat zonder V-Sync tearing veroorzaakt, maar ook dat zou een hoop extra processing lag met zich mee brengen, omdat het nieuwe frame dan niet alleen verwerkt moet worden, hij ook nog een deel van dat frame anders moet verwerken (wat in een 2e slag moet gebeuren).haarbal schreef op dinsdag 31 maart 2015 @ 13:12:
Maar kan het niet zijn dat de gsync module iets eerder een refresh begint, en als er dan een nieuw frame klaar is dat ie de refresh afbreekt en opnieuw begint? En dan alsnog op tijd klaar is met de nieuwe frame.
Acer (niet Asus in deze video/testHelp!!!! schreef op dinsdag 31 maart 2015 @ 13:24:
Iedereen bedankt voor de toelichtingen, het verhaal wordt steeds completer en duidelijker zo.
Ben wel verbaasd dat het schakelpunt voor beide schermen/technologieen vrijwel zeker gelijk is.
Hoe komt Asus in vredesnaam op 30hz. 36hz is toch 20% (of is het 16,7% ?) slechtere prestatie dan advertised.
En 36 Hz is 20% trager/slechter ja; 30 Hz is 16.7% sneller/beter
Ik denk dat we de komende maanden nog heel veel gaan zien omtrent het hele VRR verhaal. Vooral als AMD daadwerkelijk een driver implementatie van dat PSR-achtige gedrag bouwt.
Interessant artikel bij Anandtech over asynchronous shading:
http://www.anandtech.com/...p-on-asynchronous-shading
Dit kan dus performance opleveren doordat er meerdere taken naast elkaar kunnen worden gedaan. Blijkbaar wordt dit dus al bij Thief gebruikt en bij een aantal PS4 spellen.
http://www.anandtech.com/...p-on-asynchronous-shading
Dit kan dus performance opleveren doordat er meerdere taken naast elkaar kunnen worden gedaan. Blijkbaar wordt dit dus al bij Thief gebruikt en bij een aantal PS4 spellen.
Gewoon 7ms eerder beginnen, dan ben je alsnog op tijd.Werelds schreef op dinsdag 31 maart 2015 @ 14:14:
Nee, halverwege stoppen gaat niet, want dan zou een deel van het scherm niet op tijd de refresh gekregen hebben.
Mechwarrior Online: Flapdrol
Zou dit toch niet door de controller kunnen opgelost worden ?Werelds schreef op dinsdag 31 maart 2015 @ 11:02:
[...]
Zoals we al eerder hebben ondervonden, ligt dit bij de panels. Het G-Sync voorbeeld laat dit perfect zien, het panel in de XB270HU kan duidelijk ook niet tot 30 Hz gaan (zie hieronder). Overigens denk ik dat het schakelpunt bij allebei op 36.67 Hz zit, wordt alleen net iets anders afgehandeld
Hoe ik het zie:
36,67Hz scherm dus de kristallen worden minimaal één keer om de 27ms gerefreshed (1 seconde / 36,67Hz = ~27ms). Dit is misschien de ondergrens met wat marge ingebouwd en ik vermoed dat refreshen ook wat tijd kost, maar dat terzake.
Echter stel dat het scherm bijvoorbeeld 24 fps op een bepaald moment toont, dan zouden de pixels om de 42ms gerefreshed worden (1 seconde / 24Hz = ~42ms). Waarom gebruiken de fabrikanten dan geen soort repetitie om de refresh hoog genoeg te houden zonder de lage fps te moeten opofferen ?
Zo kunnen bv. de pixels in 27ms of korter refreshen, terwijl langere refreshes gedeeld worden door integer ? Dus bv. in plaats van om de 42ms refreshen, tweemaal om de 21ms refreshen (<27ms) en dus een soort 48Hz maken van een tweemaal hetzelfde 24Hz beeld, zoals dat ook gebeurt met TV's (>100Hz enzo). Dit is waarschijnlijk een behoorlijke technische uitdaging om vloeiend te doen maar het lijkt me niet meteen een onoverkomelijk probleem.
Mmm, me confused.Werelds schreef op dinsdag 31 maart 2015 @ 14:14:
Acer (niet Asus in deze video/test) adverteert niet met een VRR range. Acer adverteert met G-Sync en G-Sync's marketing range is 30-144 Hz. De daadwerkelijke range van het panel zelf zie ik nergens staan op hun site. Sterker nog, de refresh rate zetten ze er niet eens bij. Dus ook hier zie je dus weer dat G-Sync zich gewoon aan de limitaties van het panel houdt.
En 36 Hz is 20% trager/slechter ja; 30 Hz is 16.7% sneller/beter
Ik denk dat we de komende maanden nog heel veel gaan zien omtrent het hele VRR verhaal. Vooral als AMD daadwerkelijk een driver implementatie van dat PSR-achtige gedrag bouwt.
Dus nu ik de video even snel doorspoel blijkt gelukkig dat ze vanaf 3.00 spreken over de Swift.Ben dus niet gek
Op TFTcentral wordt een VRR window van 30-144 genoemd voor de SWIFT maar op de Asus specs site kan ik dat helaas weer niet terugvinden....
http://www.tftcentral.co....asus_rog_swift_pg278q.htm
[ Voor 9% gewijzigd door Help!!!! op 31-03-2015 19:47 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Was het maar zo simpelhaarbal schreef op dinsdag 31 maart 2015 @ 14:20:
Gewoon 7ms eerder beginnen, dan ben je alsnog op tijd.
Dan krijg je weer te maken met de variabelen; wat als het nu om een tijdelijke vertraging gaat en er veel te snel weer een nieuw frame komt? Je moet je ook onder dat maximum blijven.
Stel dat je constant op 144 FPS zit (exact 6.94ms per frame) maar dat er één enkel frame 6.95ms duurt. Uitgaande van een respons tijd van zeg, 5ms, moet die extra refresh al na 1.94ms beginnen. Maar dan komt 0.01ms later ineens de melding dat er weer een nieuw frame is. Daar kun je dan niks mee, omdat dat veel te snel is.
Dit is wat ik bedoel met een reactief systeem, het kan gewoon nooit zonder extra latency. De controller is zich niet bewust van waar de GPU mee bezig is en kan ook geen inschatting maken van wanneer het volgende frame klaar is. Nu zal in het geval van de G-Sync module echt wel iets van communicatie tussen de GPU en de module bestaan, anders zou G-Sync niet zo vloeiend blijven. Er moet een signaal vanuit de GPU (of beter gezegd, de driver) komen dat er wat vertraging in is geslopen en er dus een redraw plaats moet vinden. Maar zoals Nvidia het zelf heeft beschreven is het (nog) geen proactief systeem.
Wij kijken hier nu ook erg simpel naar, want een LCD monitor werkt toch iets ingewikkelder dan "een refresh". Ik weet ook niet alle details uit m'n hoofd (even afgezien van het feit dat het tussen TN, IPS, VA etc. ook nog allemaal verschilt) en ik zou ook weer even op moeten zoeken hoe het ook alweer zit met wijzigingen aan de magnetische velden en dergelijke. Er zijn bepaalde dingen die je gewoon wel of niet met die kristallen moet doen en dat is waar al die beperkingen met refresh rates vandaan komen
Zie hierboven. Het kan wel, want dat is wat de G-Sync module doet volgens Nvidia. Maar ik zie niet in hoe ze dit 100% effectief kunnen doen zónder driver interactie. En fabrikanten doen dat nu in principe ook - dat is V-Sync. Dat hebben ze nooit aan de monitor kant gedaan juist omdat het dan enkel reactief is en met voorspellingen moet werken - even afgezien van het feit dat er dan ook meer geheugen gebruikt moet worden om frames vast te houden, wat gewoon duurder is (en elke cent telt voor henPhuncz schreef op dinsdag 31 maart 2015 @ 17:33:
[...]
Zou dit toch niet door de controller kunnen opgelost worden ?
Hoe ik het zie:
36,67Hz scherm dus de kristallen worden minimaal één keer om de 27ms gerefreshed (1 seconde / 36,67Hz = ~27ms). Dit is misschien de ondergrens met wat marge ingebouwd en ik vermoed dat refreshen ook wat tijd kost, maar dat terzake.
Echter stel dat het scherm bijvoorbeeld 24 fps op een bepaald moment toont, dan zouden de pixels om de 42ms gerefreshed worden (1 seconde / 24Hz = ~42ms). Waarom gebruiken de fabrikanten dan geen soort repetitie om de refresh hoog genoeg te houden zonder de lage fps te moeten opofferen ?
Zo kunnen bv. de pixels in 27ms of korter refreshen, terwijl langere refreshes gedeeld worden door integer ? Dus bv. in plaats van om de 42ms refreshen, tweemaal om de 21ms refreshen (<27ms) en dus een soort 48Hz maken van een tweemaal hetzelfde 24Hz beeld, zoals dat ook gebeurt met TV's (>100Hz enzo). Dit is waarschijnlijk een behoorlijke technische uitdaging om vloeiend te doen maar het lijkt me niet meteen een onoverkomelijk probleem.
Onoverkomelijk? Zeker niet. Maar er is tot nu toe gewoon geen noodzaak geweest, dus dan doen ze het ook niet.
We zullen echter niet zeker weten hoe het met display lag zit totdat iemand het test. Hopelijk gaan we een keer een AS monitor zien met een paneel dat ook in een G-Sync monitor zit en dan hopelijk tegen die tijd met een soortgelijke oplossing van AMD. Dan kunnen we een échte vergelijking maken.
Hmm, ze hebben het in de video inderdaad over de Swift, maar volgens mij is dat met betrekking tot het oorspronkelijke artikel. Als je de comments leest zegt Ryan dit:Help!!!! schreef op dinsdag 31 maart 2015 @ 19:38:
[...]
Mmm, me confused.![]()
Ik weet zeker dat ik die Swift niet verzonnen heb.
Dus nu ik de video even snel doorspoel blijkt gelukkig dat ze vanaf 3.00 spreken over de Swift.Ben dus niet gekHet lijkt er sterk op dat ze in de tekst de verkeerde monitor quoten. Als dat zo is zou ik daar in dit geval blij mee zijn omdat dit bevestigt dat het panel wel degelijk de onderkant van het VRR window bepaalt. En de Swift dus qua onderkant geen beter panel heeft dan de Benq.
Dus inderdaad, de Swift gaat ook niet tot 30 Hz.March 29, 2015 | 02:29 PM - Posted by Ryan Shrout
We actually tested both and both behaved the same, moving into the frame doubling windows at the same points.
[ Voor 5% gewijzigd door Werelds op 31-03-2015 19:49 ]
Het vreemde is dat dat VRR window van 30-144 bij mij is blijven hangen voor de SWIFT.Werelds schreef op dinsdag 31 maart 2015 @ 19:47:
Hmm, ze hebben het in de video inderdaad over de Swift, maar volgens mij is dat met betrekking tot het oorspronkelijke artikel. Als je de comments leest zegt Ryan dit:
[...]
Dus inderdaad, de Swift gaat ook niet tot 30 Hz.
Op TFTcentral wordt een VRR window van 30-144 genoemd voor de SWIFT maar op de Asus specs site kan ik dat helaas weer niet terugvinden....
http://www.tftcentral.co....asus_rog_swift_pg278q.htm
In de video gaat hij ook de monitor aanraken als hij het over de swift heeft. Als je naar de base kijkt, zie je ook dat in de video geen Acer is gebruikt maar wel degelijk een SWIFT.
pricewatch: Acer XB270HU Zwart
pricewatch: Asus Republic Of Gamers Swift PG278Q Zwart
Wat blijft staan is dat ik helaas zo snel niks officieels kan vinden van een minimum VRR window van 30 voor de SWIFT.....
[ Voor 60% gewijzigd door Help!!!! op 31-03-2015 19:57 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik vraag me af, als Nvidia inderdaad met een 1 frame buffer werkt dan zal je in het geval dat de framerate lager wordt een steeds grotere inputlag ervaren.
Geen idee of dit normalitair ook door monitoren wordt gebruikt om ghosting tegen te gaan?
Een reden dat ik een hekel heb aan vsync is dat ik de door de inputlag niet lang kan gamen, ik wordt er "zeeziek" van. Persoonlijk heb ik dus ook liever tearing of ghosting dan inputlag
.
Geen idee of dit normalitair ook door monitoren wordt gebruikt om ghosting tegen te gaan?
Een reden dat ik een hekel heb aan vsync is dat ik de door de inputlag niet lang kan gamen, ik wordt er "zeeziek" van. Persoonlijk heb ik dus ook liever tearing of ghosting dan inputlag
Standaard disclaimer, jullie kennen me inmiddels wel
Ghosting heeft te maken met de stand van de kristallen. De ghost images zijn plekken waar de kristallen nog niet naar de juiste stand zijn gedraaid. Die kristallen draaien over het algemeen makkelijker de ene kant op als de andere kant; je kunt het een beetje met zwaartekracht vergelijken. Ze worden in principe naar 1 kant getrokken, de andere kant op draaien vergt wat meer energie.
Het beeld dat wij zien is een moment opname, vrij letterlijk een foto. Dus stel dat de backlight op 120 Hz (8.3ms) staat, maar dat een pixel voor een bepaalde verandering 12ms nodig heeft (dat gebeurt zelfs in al die "1ms" monitors nog
), dan krijgen wij de stand van die pixel op 8.3ms te zien, dus bijna 4ms te vroeg.
Oplossingen:
- Snellere respons, met andere woorde de kristallen sneller laten draaien. Dat kan met gewoon betere technologie (dat is hoe we van 20ms GTG naar <5ms GTG zijn gekomen) of door wat extra sap naar de transistors te sturen en ze gewoon harder te laten draaien. Dat kennen we als RTC of Overdrive. Nadeel is dat je hierbij "overshoot" kan krijgen, waarbij de pixels juist te ver draaien en je een inverse ghost krijgt.
- Backlight een keer extra laten flitsen - strobing dus (ULMB). Dan is die ghost er wel gewoon nog steeds bij de eerste flits, maar bij de tweede flits is die pixel hopelijk klaar. Met het voorbeeld hierboven zou je op 8.3 + 4.15 = 12.45ms de tweede flits krijgen, dus 0.45ms nadat die pixel klaar is. Dan heb je nog steeds 4.15ms waarop die ghost zichtbaar is, maar dat is dus ook gewoon 50% beter
Dus nee, of je die framebuffer nu bewaart of niet, maakt voor ghosting niets uit. Ik heb het al eerder gezegd, ghosting is een fysiek natuurkundig probleem. De oplossing zit dan ook in de hardware, niet software.
Even wat linkjes verzameld voor de liefhebbers (ik weet het, we zitten in het verkeerde topic, maar het lijkt me toch wel relevant):
TFT/LCD werking:
- http://auo.com/?sn=189&lang=en-US
- http://www.bit-tech.net/h...t_and_lcd_monitors_work/3
Ghosting:
- http://www.blurbusters.com/faq/lcd-motion-artifacts/
RTC / Overdrive:
- http://www.bit-tech.net/h...-dark-side-of-overdrive/2
- http://www.tftcentral.co.uk/advancedcontent.htm#overdrive
- http://www.blurbusters.com/faq/lcd-overdrive-artifacts/
Ghosting heeft te maken met de stand van de kristallen. De ghost images zijn plekken waar de kristallen nog niet naar de juiste stand zijn gedraaid. Die kristallen draaien over het algemeen makkelijker de ene kant op als de andere kant; je kunt het een beetje met zwaartekracht vergelijken. Ze worden in principe naar 1 kant getrokken, de andere kant op draaien vergt wat meer energie.
Het beeld dat wij zien is een moment opname, vrij letterlijk een foto. Dus stel dat de backlight op 120 Hz (8.3ms) staat, maar dat een pixel voor een bepaalde verandering 12ms nodig heeft (dat gebeurt zelfs in al die "1ms" monitors nog
Oplossingen:
- Snellere respons, met andere woorde de kristallen sneller laten draaien. Dat kan met gewoon betere technologie (dat is hoe we van 20ms GTG naar <5ms GTG zijn gekomen) of door wat extra sap naar de transistors te sturen en ze gewoon harder te laten draaien. Dat kennen we als RTC of Overdrive. Nadeel is dat je hierbij "overshoot" kan krijgen, waarbij de pixels juist te ver draaien en je een inverse ghost krijgt.
- Backlight een keer extra laten flitsen - strobing dus (ULMB). Dan is die ghost er wel gewoon nog steeds bij de eerste flits, maar bij de tweede flits is die pixel hopelijk klaar. Met het voorbeeld hierboven zou je op 8.3 + 4.15 = 12.45ms de tweede flits krijgen, dus 0.45ms nadat die pixel klaar is. Dan heb je nog steeds 4.15ms waarop die ghost zichtbaar is, maar dat is dus ook gewoon 50% beter
Dus nee, of je die framebuffer nu bewaart of niet, maakt voor ghosting niets uit. Ik heb het al eerder gezegd, ghosting is een fysiek natuurkundig probleem. De oplossing zit dan ook in de hardware, niet software.
Even wat linkjes verzameld voor de liefhebbers (ik weet het, we zitten in het verkeerde topic, maar het lijkt me toch wel relevant):
TFT/LCD werking:
- http://auo.com/?sn=189&lang=en-US
- http://www.bit-tech.net/h...t_and_lcd_monitors_work/3
Ghosting:
- http://www.blurbusters.com/faq/lcd-motion-artifacts/
RTC / Overdrive:
- http://www.bit-tech.net/h...-dark-side-of-overdrive/2
- http://www.tftcentral.co.uk/advancedcontent.htm#overdrive
- http://www.blurbusters.com/faq/lcd-overdrive-artifacts/
[ Voor 6% gewijzigd door Werelds op 01-04-2015 11:22 ]
Toch wel, want om overdrive optimaal te kunnen doen moet je de inkomende data vergelijken met de huidige staat van het scherm (die dus ergens in memory moet staan), en dan uitrekenen hoe je daar het snelst komt.Werelds schreef op woensdag 01 april 2015 @ 11:20:
Dus nee, of je die framebuffer nu bewaart of niet, maakt voor ghosting niets uit.
Mechwarrior Online: Flapdrol
Helaas is dat bij RTC in z'n meest basale vorm niet het geval. Ik zou even het artikel van TFTCentral lezen. RTC is niet zo geraffineerd. Er zijn wel fabrikanten die er een buffer op na houden (maar dat is niet per definitie een framebuffer; ze houden TFT voltages in de gaten, niet de pixel kleuren), maar in de praktijk kost dat rekenwerk dusdanig veel tijd dat het niet of nauwelijks sneller is dan de ouderwetse RTC methode is. Die ouderwetse methode bestaat uit 100% POWERRRRR (ik mis Clarksonhaarbal schreef op woensdag 01 april 2015 @ 11:57:
Toch wel, want om overdrive optimaal te kunnen doen moet je de inkomende data vergelijken met de huidige staat van het scherm (die dus ergens in memory moet staan), en dan uitrekenen hoe je daar het snelst komt.
En in het geval Nvidia doen zij dit echt niet. Anders zou hun module aangepast moeten worden voor elk panel, aangezien elk panel andere specs heeft. En dat betwijfel ik ten zeerste
Volgens tom petersen met z'n etch a sketch wel.Werelds schreef op woensdag 01 april 2015 @ 14:21:
[...]
En in het geval Nvidia doen zij dit echt niet. Anders zou hun module aangepast moeten worden voor elk panel, aangezien elk panel andere specs heeft. En dat betwijfel ik ten zeerste
YouTube: NVIDIA G-Sync Surround Demo Live Stream and Q&A
Mechwarrior Online: Flapdrol
Verwijderd
Volgende AMD GPU gaat "Greenland" codenaam krijgen met HBWmem-2, DX12-3, oGL-4,5+ & Vulkan:
...On the other hand, AMD is working on a new GPU code-titled Greenland, which will be launched in 2016. The new graphics chip will replace code-titled Fiji GPU and will be AMD’s leading graphics solution in next year. Further details of next AMD Radeon graphics processor in not known, except it’s code-name. As per reported by Fudzilla, the GPU will support second-generation high-bandwidth memory. It is also expected that the new GPU will support DirectX 12 tier 3 implementation openGL 4.5 or better and Vulkan application programming interfaces....
Bron:
http://www.streetwiserepo...nology-nasdaqidti/113463/
...On the other hand, AMD is working on a new GPU code-titled Greenland, which will be launched in 2016. The new graphics chip will replace code-titled Fiji GPU and will be AMD’s leading graphics solution in next year. Further details of next AMD Radeon graphics processor in not known, except it’s code-name. As per reported by Fudzilla, the GPU will support second-generation high-bandwidth memory. It is also expected that the new GPU will support DirectX 12 tier 3 implementation openGL 4.5 or better and Vulkan application programming interfaces....
Bron:
http://www.streetwiserepo...nology-nasdaqidti/113463/
Verwijderd
Volgens mij is de 390x toch met 2x 4GH HBM?
Is er al wat bekend over DX12 / Mantle en crossfire setups? Dat videokaarten nu meer geheugen kunnen adresseren dan standaard 2x 2GB bijv?
Is er al wat bekend over DX12 / Mantle en crossfire setups? Dat videokaarten nu meer geheugen kunnen adresseren dan standaard 2x 2GB bijv?
Een 390X is een dual GPU videokaart in dit geval? Dan is dat niet hetzelfde. Ze zijn nu gelimiteerd tot 4GB HBM per die.
Geen 1 april grap?
by HEXUS Staff on 1 April 2015, 01:00
[ Voor 29% gewijzigd door Indy91 op 02-04-2015 10:51 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Waarom denk je dat ik er die smiley onder heb gezet?
http://www.pcper.com/news...ficially-FreeSync-Monitor
Deze is nu ook door de certificatie gegooid. Is verder nog steeds hetzelfde ding als voorheen. Ben benieuwd naar de definitieve VRR range en of RTC werkt in VRR mode. Op papier is hij nog steeds tig keer beter dan dat Swift onding met z'n TN paneel...en dat voor $100 minder
Deze is nu ook door de certificatie gegooid. Is verder nog steeds hetzelfde ding als voorheen. Ben benieuwd naar de definitieve VRR range en of RTC werkt in VRR mode. Op papier is hij nog steeds tig keer beter dan dat Swift onding met z'n TN paneel...en dat voor $100 minder
Verwijderd
Concurrentie Achtergrond Artikel over de R300 serie:
http://www.bidnessetc.com...300-series-to-the-market/
In het kort komt het er op neer dat AMD eens een keer haast moet maken met de aankondiging + levering omdat ze potentieel goed concurrerende hardware in handen hebben.
Goede hardware verdient het om tijdig te worden verkocht, te lang wachten en het moment is voorbij.......
http://www.bidnessetc.com...300-series-to-the-market/
In het kort komt het er op neer dat AMD eens een keer haast moet maken met de aankondiging + levering omdat ze potentieel goed concurrerende hardware in handen hebben.
Goede hardware verdient het om tijdig te worden verkocht, te lang wachten en het moment is voorbij.......
Ze zullen wel production issues hebben, anders waren ze al maanden geleden uitgekomen met de nieuwe reeks.
lol, wat is dat voor site? Gezellige reacties ook. Lijkt wel een beetje HWI af en toe.
[ Voor 6% gewijzigd door spNk op 09-04-2015 20:18 ]
Verwijderd
Volgens mij is er nog helemaal geen sprake van vertraging maar AMD is daar wel berucht om.Phuncz schreef op donderdag 09 april 2015 @ 18:22:
Ze zullen wel production issues hebben, anders waren ze al maanden geleden uitgekomen met de nieuwe reeks.
Vandaar de oproep van dit artikel om nu eens op tijd te leveren......
@spNk:
Veel doorgedraaide Nvidia fanboys daar die denken dat AMD per videokaart gem. 500+ Watt verstookt

Ik ben ook erg benieuwd naar de nieuwe kaarten van AMD. Daar naast ben ik van mening dat ze, zodra productietechnisch mogelijk, de kaarten moeten releasen. Dit aangezien ze zich niet echt in een dominante positie bevinden. Nvidia heeft met de GTX 970 & 980 namelijk erg goede kaarten in handen die stiller, koeler en zuiniger zijn. Zo lang AMD zich dus stil houdt omtrent specificaties en een mogelijke release verliezen ze een hoop mogelijke klanten die nu gaan voor nvidia (ik zelf twijfel op het moment ook enorm om een Nvidia 970 te gaan halen, puur en alleen omdat ik een kaart 'nodig' heb en ik geen zin heb om te wachten op een kaart die mogelijk beter is, maar waarvan niet bekend is wanneer deze uitkomt)
Verder is het voor de concurrentie (en dus voor de consument) gewoon enorm goed als er weer wat nieuws bij komt. Ook de prijzen van huidige GPU's van beide fabrikanten zullen hier door voor de consument wat gunstiger worden.
Edit:
Ik ben overigens geen 'fanboy' van 1 van beide fabrikanten. Ik ben gewoon een consument die de maximale prestaties wil voor het geld en bij voorkeur een beetje stil
Verder is het voor de concurrentie (en dus voor de consument) gewoon enorm goed als er weer wat nieuws bij komt. Ook de prijzen van huidige GPU's van beide fabrikanten zullen hier door voor de consument wat gunstiger worden.
Edit:
Ik ben overigens geen 'fanboy' van 1 van beide fabrikanten. Ik ben gewoon een consument die de maximale prestaties wil voor het geld en bij voorkeur een beetje stil
[ Voor 8% gewijzigd door [MAUS] op 09-04-2015 22:08 ]
Verwijderd
Wie gamed er nou werkelijk 24/7 dat het stroomverbruik ook maar iets toedoet.
Ik speel nauwelijks games, dus mijn kaarten draaien idle. Zo nu en dan een spelletje, en het converteren van een video waarbij de GPU's worden gebruikt. Nou poe poe.
Ik denk dat ik me meer zorgen moet maken over de droger of inductiekookplaat in huis die ik dagelijks gebruik.
Ik speel nauwelijks games, dus mijn kaarten draaien idle. Zo nu en dan een spelletje, en het converteren van een video waarbij de GPU's worden gebruikt. Nou poe poe.
Ik denk dat ik me meer zorgen moet maken over de droger of inductiekookplaat in huis die ik dagelijks gebruik.
Ik zie dat dit nog niet gepost is hier. Het internet staat er in ieder geval vol mee.
http://wccftech.com/xfx-r...ation-allegedly-pictured/
Hopelijk zal een release spoedig volgen. (Computex is nog een lange.. lange tijd
)
http://wccftech.com/xfx-r...ation-allegedly-pictured/
Hopelijk zal een release spoedig volgen. (Computex is nog een lange.. lange tijd
Hoezo is AMD daar bericht om? Ik vind dat echt dikke onzin.. De concurrent is minstens net zo vaak te laat geweest.Verwijderd schreef op donderdag 09 april 2015 @ 21:11:
[...]
Volgens mij is er nog helemaal geen sprake van vertraging maar AMD is daar wel berucht om.
Vandaar de oproep van dit artikel om nu eens op tijd te leveren......
Ja, waarschijnlijk is dit de eerste serie GPU's die ze meemaken in hun leven. Het is altijd al stuivertje wisselen geweest in prestaties/hitte/verbruik. Zo herinner ik me nog goed de 480, evenals de GTX590 (misschien hoort die er niet helemaal bij i.v.m. dual GPU, maar hij staat toch in mijn geheugen: YouTube: Geforce GTX 590 burns @ SweClockers.com).@spNk:
Veel doorgedraaide Nvidia fanboys daar die denken dat AMD per videokaart gem. 500+ Watt verstookt
Ik ben het met je eens dat je het op de rekening niet gaat zien.Verwijderd schreef op donderdag 09 april 2015 @ 22:29:
Wie gamed er nou werkelijk 24/7 dat het stroomverbruik ook maar iets toedoet.
Ik speel nauwelijks games, dus mijn kaarten draaien idle. Zo nu en dan een spelletje, en het converteren van een video waarbij de GPU's worden gebruikt. Nou poe poe.
Ik denk dat ik me meer zorgen moet maken over de droger of inductiekookplaat in huis die ik dagelijks gebruik.
Een hoog stroomverbruik gaat echter vaak ook gepaard met hitte en geluidsproductie. Dat is iets waar veel mensen, waaronder ik zelf, wel om geven.
Dat heeft ook veel te maken met het feit dat velen naar "TDP" kijken. En ik blijf er ook op hameren, maar iedereen die ook maar enige waarde aan die term hecht kan beter niets zeggen. De term betekent niet alleen bij allebei de fabrikanten iets anders, beide hebben hun invulling er van ook gewoon aangepast aan hoe het marketing technisch het beste over kwam - met 1 enkele uitzondering.Verwijderd schreef op donderdag 09 april 2015 @ 21:11:
Veel doorgedraaide Nvidia fanboys daar die denken dat AMD per videokaart gem. 500+ Watt verstookt
Klein overzichtje door de jaren heen, met die size er bij:
Gen | Chip | TDP | Die size | Verbruik (Games) ----------------------------------------------- 2008 | HD 4870 | 150W | 256mm² | ???-???W 2008 | GTX 280 | 236W | 576mm² | 280-300W 2009 | HD 5870 | 228W | 334mm² | 210-230W 2010 | GTX 480 | 250W | 529mm² | 320-350W 2011 | HD 6970 | 250W | 389mm² | 280-300W 2011 | GTX 580 | 244W | 520mm² | 300-320W 2012 | HD 7970 | 250W | 352mm² | 190-210W 2012 | HD 7970 GE | 250+ | 352mm² | 220-240W 2012 | GTX 680 | 195W | 294mm² | 180-200W 2013 | Titan | 250W | 561mm² | 230-250W 2013 | R9 290X | 290W | 438mm² | 280-300W 2013 | GTX 780 Ti | 250W | 561mm² | 260-280W 2014 | GTX 980 | 165W | 398mm² | 170-190W 2015 | Titan X | 250W | 601mm² | 240-260W
Wat halen we uit deze gegevens:
- TDP van 7970 is een worst case, praktijk is stukken lager
- TDP van 5870, 680, 290X, Titans zijn spot on
- Meeste andere gevallen: TDP === stierenstront, uit de duim gezogen, waardeloos, gebakken lucht - kies maar
- AMD heeft gemiddeld lager verbruik over de laatste 7 jaar (2008-2011 is ruimschoots in het voordeel van AMD)
- Nvidia heeft wonderbaarlijk werk verricht met hun mega-dies, zijn veel efficiënter geworden (2012+ ligt verbruik tegen elkaar aan)
- 290X vreet helemaal niet zo bijzonder veel stroom (vergeleken met een 780 Ti, wat toch de directe concurrentie is), AMD's TDP klopt gewoon met verbruik
En wat zijn de meest indrukwekkende/boeiende chips geweest de afgelopen 7 jaar? Cypress (5870), Tahiti (7970), GK104 (Kepler, 680) en GM204 (Maxwell, 980). Toevallig ook de chips die het qua stroom verbruik heel netjes deden; ook al is TDP bij GM204 nog steeds onzin. Met name Cypress en GM204 zijn gewoon uitzonderlijk mooie chips; GM204 vooral vanwege de efficiëntie, Cypress gewoon in z'n geheel.
Dat de waardes die jij noemt niet allemaal juist zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Welke? 
Had het gekopiëerd uit een bestandje dat ik hier nog had staan, heb ze nu niet gecontroleerd.
Had het gekopiëerd uit een bestandje dat ik hier nog had staan, heb ze nu niet gecontroleerd.
Ik heb ze ook niet allemaal gecontroleerd, maar direct de eerste gaat het al mis.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Die ligt inderdaad veel te hoog ja 
Heb er even vraagtekens bij gezet, moet straks even zoeken of er toen een site was die iets meer moeite deed om het te meten. Ik geloof dat het ergens rond de 140W lag maar wel met enorme pieken tot wel 190W.
Heb er even vraagtekens bij gezet, moet straks even zoeken of er toen een site was die iets meer moeite deed om het te meten. Ik geloof dat het ergens rond de 140W lag maar wel met enorme pieken tot wel 190W.
[ Voor 79% gewijzigd door Werelds op 10-04-2015 10:41 ]
Mjah, en om het nog minder overzichtelijk te maken hebben kunnen aftermarket kaarten ook weer een andere powertarget hebben.
Mechwarrior Online: Flapdrol
Ja het is niet zo simpel/kort door de bocht, soms wordt er bij AMD namelijk over max board power gepraat en soms over gemiddelde game verbruik en soms beide, maar over het algemeen wijkt AMD niet heel veel af. nVidia zet met hun TDP vaak wat aan de lage kant, daar hebben ze het vaak over een gemiddeld verbruik tijdens een bepaalde game en niet het maximale verbruik.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
http://nl.hardware.info/n...sipation-op-de-foto-gezet
Looking good.
Looking good.
Dat is gisteren al geplaatst.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Geintje? Ik vind hem echt extreem lelijk. Kwestie van smaak misschien maar toch...spNk schreef op vrijdag 10 april 2015 @ 12:13:
Looking good.
rikkie de zwerver TweakersIII (TandjeBij!)
Al draagt een videokaart een gouden ring...
Mechwarrior Online: Flapdrol
Ik heb het niet zozeer over het uiterlijkwestergas schreef op vrijdag 10 april 2015 @ 15:27:
[...]
Geintje? Ik vind hem echt extreem lelijk. Kwestie van smaak misschien maar toch...
@The_mask; lol inderdaad
Hoop overigens wel dat ook de aftermarket koelers voor de 300 serie sneller uitkomen, en van betere kwaliteit zijn vergeleken met de koelers van de R9 290[x]
XFX DD heeft last van te hete VRM's.
De Asus is een veredelde 780ti koeler zonder koeling op het geheugen en matig gekoelde VRM's
De Tri-X heeft lage kwaliteit fans: sleeve bearing horizontaal plaatsen is vragen om problemen.
De Gigabyte had volgens mij in het begin problemen met slecht contact waardoor de koeling matig/slecht was.
De Gelid Icy Vision, die je zelf moet plaatsen, heeft nog steeds geen VRM koelers voor de R9 290, maar er zit wel een koelding bij voor een GTX280, welke al tijden van het toneel verdwenen is.
De Club3D RoyalKing is ook niet heel geweldig gekoeld.
XFX DD heeft last van te hete VRM's.
De Asus is een veredelde 780ti koeler zonder koeling op het geheugen en matig gekoelde VRM's
De Tri-X heeft lage kwaliteit fans: sleeve bearing horizontaal plaatsen is vragen om problemen.
De Gigabyte had volgens mij in het begin problemen met slecht contact waardoor de koeling matig/slecht was.
De Gelid Icy Vision, die je zelf moet plaatsen, heeft nog steeds geen VRM koelers voor de R9 290, maar er zit wel een koelding bij voor een GTX280, welke al tijden van het toneel verdwenen is.
De Club3D RoyalKing is ook niet heel geweldig gekoeld.
People as things, that’s where it starts.
Ik denk gelijk aftermarket coolers, misschien niet eens een "stock", zoals bij de 285
Mechwarrior Online: Flapdrol
http://www.anandtech.com/...catalyst-154-beta-drivers
(Misschien zitten in deze drivers ook weer stille hints richting de 300 serie. ;-) )
(Misschien zitten in deze drivers ook weer stille hints richting de 300 serie. ;-) )
Nou, ik heb laatst een voorzichtige calculatie gemaakt en ik heb toch echt al héél wat euro'tjes aan stroom door het ding laten gaan in de 2,5-3 jaar dat ie leeft. (ik heb het dan over een euro of 320, conservatief berekend...Verwijderd schreef op donderdag 09 april 2015 @ 22:29:
Wie gamed er nou werkelijk 24/7 dat het stroomverbruik ook maar iets toedoet.
Ik speel nauwelijks games, dus mijn kaarten draaien idle. Zo nu en dan een spelletje, en het converteren van een video waarbij de GPU's worden gebruikt. Nou poe poe.
Ik denk dat ik me meer zorgen moet maken over de droger of inductiekookplaat in huis die ik dagelijks gebruik.

Dat komt neer op een 10-15 euro aan stroom per maand, en dat is niet niks, daar betaal ik bij wijze van mijn telefoonrekening van. Maar ja, had ik nu zoveel bespaard door naar Intel te gaan? Denk het niet hoor, ik heb alles gewoon geoverclocked en datzelfde zou ik ook met Intel hebben gedaan c.q. ongeveer zelfde verbruik.
Hoe dan ook, laat ze maar eens opschieten met hun 3xx serie.
Ik kreeg een weekje geleden een straaljager die uit mijn kast opsteeg tijdens het gamen en wat bleek: 95 graden core en 110 graden VRM's met fan op 100%

Even met perslucht uitgeblazen en nu nog steeds vrij hoog voor zijn doen (75 core, 60 VRM) maar niet meer levensbedreigend. Ook zie ik op de achterkant van de PCB op de plek waar de VRM's zitten een vettig-achtige substantie die ik niet kan thuisbrengen. Het is net hele dunne Vaseline over de hele VRM linie.
Waar zou dit op kunnen duiden? Kaart werkt perfect en had dit jaar geleden ook al, maar toen weggeveegd en niet meer gezien tot nu.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Verwijderd
Soldeerflux ofzo? Nasty. Maar elke koeler raakt vol van stof op ten duur. De kleiner de destructiever.
Verwijderd
Dezelfde driver als de 15.3 beta van vorige maand, maar wel met wat nieuwe Catalyst profiles o.a. voor GTA V. Toch mooi.exodude schreef op maandag 13 april 2015 @ 23:30:
http://www.anandtech.com/...catalyst-154-beta-drivers
(Misschien zitten in deze drivers ook weer stille hints richting de 300 serie. ;-) )
Even rekenen. Bij een beetje energiemaatschappij kun je voor 320 euro al snel 1400 kWh krijgen: bijvoorbeeld 0,2188 per kWh bij Eneco bij een contract van één jaar. Stock verbruikt een 280X zo'n 200 watt onder load. Als je een 280X een uur vol laat draaien kost je dat dus 0,2 kWh. Voor 320 euro kun je een 280X duskuusj98 schreef op maandag 13 april 2015 @ 23:50:
[...]
Nou, ik heb laatst een voorzichtige calculatie gemaakt en ik heb toch echt al héél wat euro'tjes aan stroom door het ding laten gaan in de 2,5-3 jaar dat ie leeft. (ik heb het dan over een euro of 320, conservatief berekend...)
1400 / 0,2 = 7000 uur oftewel 291 dagen 24/7 op full load laten draaien. Over idle zullen we het maar niet hebben, dan kom je op ruim 10 jaar.
Ik snap dat het ding met overklokken meer stroom neemt, maar weet je zeker dat die berekening klopt?
[ Voor 54% gewijzigd door Verwijderd op 14-04-2015 01:15 ]
2000 uur over 3 jaar gaming load is goed mogelijk, 350w verbruik in die situatie, 0,35x2000=700kwH*0,22euro= 152 euro onder load, en er staan een uur of 8000 op mn HDD SMART en idle is 140W bij mij (waterkoeler verbruikt ook best wat) 6000*0.14=840Kwh*0,22 euro =184 euro.Verwijderd schreef op dinsdag 14 april 2015 @ 00:50:
[...]
Dezelfde driver als de 15.3 beta van vorige maand, maar wel met wat nieuwe Catalyst profiles o.a. voor GTA V. Toch mooi.
[...]
Even rekenen. Bij een beetje energiemaatschappij kun je voor 320 euro al snel 1400 kWh krijgen: bijvoorbeeld 0,2188 per kWh bij Eneco bij een contract van één jaar. Stock verbruikt een 280X zo'n 200 watt onder load. Als je een 280X een uur vol laat draaien kost je dat dus 0,2 kWh. Voor 320 euro kun je een 280X dus
1400 / 0,2 = 7000 uur oftewel 291 dagen 24/7 op full load laten draaien. Over idle zullen we het maar niet hebben, dan kom je op ruim 10 jaar.
Ik snap dat het ding met overklokken meer stroom neemt, maar weet je zeker dat die berekening klopt?
Goed mogelijk dus...
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Hebben jullie het nu niet over twee verschillende dingen. Ik krijg het idee dat Kuusj het heeft over zijn CPU, vanwege zijn Intel opmerking in zijn eerste post hierover. En Wes heeft het over de 280x....
Een 280x haalt nooit 350w op max belasting. Techpowerup krijgt 300 watt bij een furmark test, peak bij gaming is 208 watt en gemiddelde is 185 watt.
Een 280x haalt nooit 350w op max belasting. Techpowerup krijgt 300 watt bij een furmark test, peak bij gaming is 208 watt en gemiddelde is 185 watt.
Ik baseer mijn wattage om de KwH mee te berekenen op het TOTALE stroomverbruik van de PC.Zeara schreef op dinsdag 14 april 2015 @ 08:23:
Hebben jullie het nu niet over twee verschillende dingen. Ik krijg het idee dat Kuusj het heeft over zijn CPU, vanwege zijn Intel opmerking in zijn eerste post hierover. En Wes heeft het over de 280x....
Een 280x haalt nooit 350w op max belasting. Techpowerup krijgt 300 watt bij een furmark test, peak bij gaming is 208 watt en gemiddelde is 185 watt.
Toen de kaart 100 graden werd (en de VRM's 110) trok hij 38A volgens GPU-z, aangezien de kaart op 12V werkt is W=VxA = 38x12= 456W.
Dit klinkt erg onwaarschijnlijk maar mijn stroommeter gaf 520W aan, klopt dus wel. Dat de kaart niet dood is verbaasd me, het heeft zeker een uur of 3 geduurd voordat ik erachter kwam (radio stond hard).
CPU trekt ook idiote hoeveelheden stroom, zeker vanaf >1.525V. Ik kom dan met alleen CPU op full-load op 450W totaal verbruik. Ik kan dus ook niet CPU en GPU tegelijk volledig belasten, voeding houd op bij 600W wat ook niet klopt.
Nornale gamingload is 300-350W bij mijn systeem.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dat lijkt mij dan niet te kloppen. 520W AC is ongeveer 456W DC met jouw voeding, dus dat zou betekenen dat de rest van het systeem niks zou verbruiken. Zelfs de rest van de videokaart zou niks verbruiken, via GPU-z zie je namelijk niet het hele verbruik van de videokaart, maar alleen een deel. Dus dat kan sowieso niet kloppen.kuusj98 schreef op dinsdag 14 april 2015 @ 10:54:
[...]
Toen de kaart 100 graden werd (en de VRM's 110) trok hij 38A volgens GPU-z, aangezien de kaart op 12V werkt is W=VxA = 38x12= 456W.
Dit klinkt erg onwaarschijnlijk maar mijn stroommeter gaf 520W aan, klopt dus wel.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nondeju, ik had zelfs minder verbruik met 7970 lightning BE @ 1220/1600, ik geloof er echt helemaal niks van.
Daar zit de fout in je berekening, GPU-z kan dit niet goed uitlezen. Daarbij als componenten warmer worden dan gebruiken ze ook meer stroom als gevolg daarvan.kuusj98 schreef op dinsdag 14 april 2015 @ 10:54:
[...]
Ik baseer mijn wattage om de KwH mee te berekenen op het TOTALE stroomverbruik van de PC.
Toen de kaart 100 graden werd (en de VRM's 110) trok hij 38A volgens GPU-z, aangezien de kaart op 12V werkt is W=VxA = 38x12= 456W.
Dit klinkt erg onwaarschijnlijk maar mijn stroommeter gaf 520W aan, klopt dus wel. Dat de kaart niet dood is verbaasd me, het heeft zeker een uur of 3 geduurd voordat ik erachter kwam (radio stond hard).
CPU trekt ook idiote hoeveelheden stroom, zeker vanaf >1.525V. Ik kom dan met alleen CPU op full-load op 450W totaal verbruik. Ik kan dus ook niet CPU en GPU tegelijk volledig belasten, voeding houd op bij 600W wat ook niet klopt.
Nornale gamingload is 300-350W bij mijn systeem.
Je stroommeter uit de muur geeft 520W aan, heb je daarbij ook het rendement van je voeding meegerekent?
Als er iets veel stroom in je pc gebruikt dan is het waarschijnlijk je overklokte CPU. Je GPU zal met name idle haast niks gebruiken, onder load zal de waarde iets van 200Watt zijn. Dus ook al had je een zuiniger videokaart dan zal dat niet veel aan de prijs veranderen die jij betaalt omdat het maar een van de grote verbruikers is. Als je het correcter zou willen berekenen dan moet je het verschil in wattage nemen van de twee videokaarten en het daarmee berekenen.
Maar een beetje nutteloze discussie om hier te voeren.
Hoeft ook niet, ik upload vanavond wel een fotoThomg schreef op dinsdag 14 april 2015 @ 11:33:
Nondeju, ik had zelfs minder verbruik met 7970 lightning BE @ 1220/1600, ik geloof er echt helemaal niks van.
Ik beweer ook niet dat het klopt, vind het zelf ook een exorbitant hoge waarde maar waarom het niet zou kunnen ontbreekt me aan het verstand.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
kuusj98 schreef op dinsdag 14 april 2015 @ 13:49:
[...]
Hoeft ook niet, ik upload vanavond wel een foto
Ik beweer ook niet dat het klopt, vind het zelf ook een exorbitant hoge waarde maar waarom het niet zou kunnen ontbreekt me aan het verstand.
https://imgur.com/a/XzS9d
Alles wat ik heb, was een beetje in paniek dus heb niet alles volledig gedocumenteerd
Oplettende kijker ziet dat ik de foto net heb gemaakt waar het A een dipje naar 32 had, maar dit was toch echt 36A en tijdens een furmark sessie liep hij zonder al te veel wachten op naar 38A.
http://prntscr.com/6tnkjb
Er is nog steeds iets goed mis met dat ding, hij werd normaal echt bij lange na niet zo warm, en nu ook weer 31-33A. Zo'n hoge clocks heb ik nu ook weer niet, 1130 core @1.3V en 1750 mem @1.7V en Powerlimit +20.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Altijd bijzonder, over stroomverbruik/kosten zeuren met overgeklokte hardware...
Enfin, als je videokaart problemen begint te geven (al dan niet door het pushen van je hardware), dan zijn er andere plekken om daarover te posten. Maar als je je Vcore op 1.3V hebt staan (waar normaal ~1.15 is), dan is het ook niet zo heel gek als je problemen begint te krijgen, als je het mij vraagt.
Enfin, als je videokaart problemen begint te geven (al dan niet door het pushen van je hardware), dan zijn er andere plekken om daarover te posten. Maar als je je Vcore op 1.3V hebt staan (waar normaal ~1.15 is), dan is het ook niet zo heel gek als je problemen begint te krijgen, als je het mij vraagt.
Verwijderd
http://www.geeks3d.com/20...or-modules-vrm-explained/
Er gaat 'stroom' verloren voor het omzetten van DC (12V) naar DC (1.3V). En ja, het is normaal dat amperages erdoorheen worden gejaagd.
Er gaat 'stroom' verloren voor het omzetten van DC (12V) naar DC (1.3V). En ja, het is normaal dat amperages erdoorheen worden gejaagd.
Bedankt, daar heb ik iets aanVerwijderd schreef op dinsdag 14 april 2015 @ 17:50:
http://www.geeks3d.com/20...or-modules-vrm-explained/
Er gaat 'stroom' verloren voor het omzetten van DC (12V) naar DC (1.3V). En ja, het is normaal dat amperages erdoorheen worden gejaagd.
En het boeit me niet hoe veel zo'n ding verbruikt, maar wel als hij veel meer dan TDP gaat verbruiken, zal dus wel verminderde efficientie zijn van de VRM's door de hitte. Als ik zuinig wilde had ik het wel bij een Intel Atom gehouden
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Verwijderd
VRM's onder extreem hete condities (110 graden, ik snap uberhaubt niet waarom je nog gaat benchen ook daarmee
) hebben meer stroom nodig om datgeen te kunnen leveren.
Zorg dus voor goede koeling op je VRM's of zorg dat je je GPU wat terugklokt (lager verbruik).

Zorg dus voor goede koeling op je VRM's of zorg dat je je GPU wat terugklokt (lager verbruik).
Ik mag hopen dat je het niet heel erg vreemd vind dat je over de TDP heen gaat, wanneer je je kaart overklokt. Dat je bijna 15% hogere clocks hebt alleen al zorgt voor een behoorlijke mogenlijke overschrijding van TDP. Verbruik gaat in deze al minimaal liniair, ofwel een max verbruik van 250 Watt (de opgegeven TDP) wordt dan al gauw 290 Watt, maar waarschijnlijker 300 Watt. Dat is er van uitgaande dat Vcore en Vmem hetzelfde zouden zijn gebleven.
Je gaat echter met ~15% extra Voltage op zowel Vcore als Vmem zitten en vindt het gek dat je veel over de gegeven TDP heen gaat? Met een toename van je Vcore en Vmem stijgt het verbruik exponentieel. Als je kaart dan 350 Watt verbruikt, is dat dus helemaal niet vreemd. Dat is een simpel gevolg van overclocken, ongeacht welk stukje hardware je gebruikt.
Je gaat echter met ~15% extra Voltage op zowel Vcore als Vmem zitten en vindt het gek dat je veel over de gegeven TDP heen gaat? Met een toename van je Vcore en Vmem stijgt het verbruik exponentieel. Als je kaart dan 350 Watt verbruikt, is dat dus helemaal niet vreemd. Dat is een simpel gevolg van overclocken, ongeacht welk stukje hardware je gebruikt.
Verwijderd
Als je powertune opschuift naar +20% of zelfs meer dan sta je toe dat de GPU gewoon 20% meer verbruiken kan. De VRM's moeten harder werken, en worden op hun beurt gewoon een slag heter.
Dat je het op laat lopen tot 110 graden verbaast me een beetje... dat zijn geen gezonde temperaturen man
Op Ebay vind je heel veel kapotte high end kaarten die gebruikt zijn bij een mining-farm. Ook die dingen liepen constant tegen de limit van de VRM's aan en gaan gewoon binnen een jaar kapot.
Ik zou je VRM's wat meer in de gaten houden, powertune en / of je clocks wat terugschroeven.
Dat je het op laat lopen tot 110 graden verbaast me een beetje... dat zijn geen gezonde temperaturen man

Ik zou je VRM's wat meer in de gaten houden, powertune en / of je clocks wat terugschroeven.
Dit topic is gesloten.