• sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Verwijderd schreef op donderdag 10 januari 2019 @ 02:36:
Viel het jullie ook op dat Nvidia suggereerde dat geen van de FreeSync monitors hun grafische kwaliteit test doorstaat? Die rare tabel met G-Sync, Utlra G-Sync (of zoiets) en G-Sync Compatible? Bedrijven hebben voor minder een rechtszaak gestart want dit is aantoonbaar onjuist (en dus smaad), niet als je naar de beste FreeSync monitors en de equivalente G-Sync monitors kijkt.
Zo ver ik het altijd heb begrepen is Nvidia tijdens de ontwerp fase al betrokken bij de oorspronkelijke g-sync monitoren. Daarvan geven ze nu aan dat die monitoren 300+ tests moeten doorstaan, ultimate heeft tevens 1000 nits helderheid.

Lijkt er verder op dat ze voor g-sync compatible, dus monitoren waar Nvidia niet van te voren bij de ontwikkeling betrokken is, gewoon de image quality tests niet krijgen. Daar kijken ze puur naar de VRR experience.

Afbeeldingslocatie: https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/g-sync-ces-2019-announcements/gsync-ecosystem-jan-2019-850px.png

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

@sdk1985
Nvidia suggereert dat deze "G-Sync Compatible" (Nvidia's rebranding van FreeSync) monitors falen voor die beeldkwaliteit tests. Ze geven niet aan dat ze het niet hebben getest, ze geven expliciet aan dat ze falen want er staat een rood kruis. Dat is smaad als de beeldkwaliteit niet slechter is. AMD zal Nvidia niet voor de rechter slepen maar dit gaat veel verder dan slechts 'slimme' of agressieve marketing. Het is ook een klassiek voorbeeld van spinning: je zegt A maar weet dat mensen het als B interpreteren en je wil dat mensen het als B interpreteren omdat je B niet kan zeggen omdat je je dan (juridisch) op glad ijs begeeft. Huang weet verdomd goed welke indruk deze tabel wekt bij de mensen, of dat hij het wel of niet letterlijk zegt. De persoon die dit tabelletje heeft gemaakt begrijpt dat eveneens, Dit is waarom ik Nvidia zo vermoeiend vind (en waarom ik niet naar de persconferenties van Nvidia kijk en in eeste instantie de laatste video van AdoredTV over Nvidia oversloeg): altijd maar weer die spinning en marketing-bullshit.

Idem trouwens voor het HDR-deel want er bestaan toch echt FreeSync monitors die aan deze HDR-eis van Nvidia voldoen. Alleen interesseert dat mij minder en daarom merkte ik het niet op.
Echte HDR is geweldig maar we zitten nog in het babystadium en LCD is bij voorbaat al gehandicapt voor HDR omdat je alle pixels belicht met achtergrond-licht.

[ Voor 37% gewijzigd door Verwijderd op 10-01-2019 15:04 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Verwijderd schreef op donderdag 10 januari 2019 @ 14:59:
@sdk1985
Nvidia suggereert dat deze "G-Sync Compatible" (Nvidia's rebranding van FreeSync) monitors falen voor die beeldkwaliteit tests. Ze geven niet aan dat ze het niet hebben getest, ze geven expliciet aan dat ze falen want er staat een rood kruis. Dat is smaad als de beeldkwaliteit niet slechter is. AMD zal Nvidia niet voor de rechter slepen maar dit gaat veel verder dan slechts 'slimme' of agressieve marketing. Het is ook een klassiek voorbeeld van spinning: je zegt A maar weet dat mensen het als B interpreteren en je wil dat mensen het als B interpreteren omdat je B niet kan zeggen omdat je je dan (juridisch) op glad ijs begeeft. Huang weet verdomd goed welke indruk deze tabel wekt bij de mensen, of dat hij het wel of niet letterlijk zegt. De persoon die dit tabelletje heeft gemaakt begrijpt dat eveneens, Dit is waarom ik Nvidia zo vermoeiend vind (en waarom ik niet naar de persconferenties van Nvidia kijk en in eeste instantie de laatste video van AdoredTV over Nvidia oversloeg): altijd maar weer die spinning en marketing-bullshit.

Idem trouwens voor het HDR-deel want er bestaan toch echt FreeSync monitors die aan deze HDR-eis van Nvidia voldoen. Alleen interesseert dat mij minder en daarom merkte ik het niet op.
Echte HDR is geweldig maar we zitten nog in het babystadium en LCD is bij voorbaat al gehandicapt voor HDR omdat je alle pixels belicht met achtergrond-licht.
Ik kan je hierin eigenlijk helemaal niet volgen. Dat je iets niet certificeert betekent niet dat iets de certificering niet haalt. Certificering voor bedrijven is vaker wel dan niet gewoon een scam. Zie bijvoorbeeld het keurmerk van Rob geus https://www.npo3.nl/rambam/30-03-2016/VARA_101378770 In dit geval gaat Nvidia op hun kosten monitoren van derden certificeren, dat is eerder lovenswaardig dan iets om over te klagen... AMD rekent overigens wel een bedragje om een Freesync certificering te doorlopen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Nvidia zal nooit iets goed doen ok al doen ze wel iets goed.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op donderdag 10 januari 2019 @ 14:55:
[...]

Zo ver ik het altijd heb begrepen is Nvidia tijdens de ontwerp fase al betrokken bij de oorspronkelijke g-sync monitoren. Daarvan geven ze nu aan dat die monitoren 300+ tests moeten doorstaan, ultimate heeft tevens 1000 nits helderheid.

Lijkt er verder op dat ze voor g-sync compatible, dus monitoren waar Nvidia niet van te voren bij de ontwikkeling betrokken is, gewoon de image quality tests niet krijgen. Daar kijken ze puur naar de VRR experience.

[Afbeelding]
Nee hoor. Nvidia verkoopt gewoon de FPGA, ze trekken zich verder niet bijzonder veel aan van de rest. Ze stellen wel eisen aan bepaalde specs en testen die aan het eind, maar dat is het dan ook. Rechtstreeks vernomen van een tweetal ingenieurs bij een monitor fabrikant en van een marketing director bij een ander ;)

Die eisen zijn verder ook puur op cijfertjes gebaseerd en zijn onvolledig als het op kwaliteit aan komt. Daarom hebben zo veel G-Sync monitors zo'n afgrijselijke bouwkwaliteit. Veel van de ASUS en ACER dingen hebben dusdanig veel bleed dat je er een kamer bijna even goed mee kan verlichten als met een 400 lumen peertje...met alle gevolgen van dien.

Jammer genoeg weet de gemiddelde gamer dat niet, als het ze al zou boeien.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 20-12 18:40
https://www.pcworld.com/a...ds-underwhelming-gpu.html

Jensens mening over de Radeon 7. Ook nog een interessant stukje erbij met zijn kijk op het hele freesync verhaal.

Komt allemaal wat arrogant over van het gezicht van nvidia imho.

Wie goed doet, die goed ontmoet.


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
AtlAntA schreef op donderdag 10 januari 2019 @ 17:47:
https://www.pcworld.com/a...ds-underwhelming-gpu.html

Jensens mening over de Radeon 7. Ook nog een interessant stukje erbij met zijn kijk op het hele freesync verhaal.

Komt allemaal wat arrogant over van het gezicht van nvidia imho.
Doet me denken aan Poor Volta net zo arrogant, helaas zijn ze allemaal zo. Er word overigens naar gevraagd maar je kunt beter niet eerlijk zijn als baas van de andere partij.

[ Voor 8% gewijzigd door Gekke Jantje op 10-01-2019 18:09 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Verwijderd

sdk1985 schreef op donderdag 10 januari 2019 @ 15:17:
[...]

Ik kan je hierin eigenlijk helemaal niet volgen. Dat je iets niet certificeert betekent niet dat iets de certificering niet haalt. Certificering voor bedrijven is vaker wel dan niet gewoon een scam. Zie bijvoorbeeld het keurmerk van Rob geus https://www.npo3.nl/rambam/30-03-2016/VARA_101378770 In dit geval gaat Nvidia op hun kosten monitoren van derden certificeren, dat is eerder lovenswaardig dan iets om over te klagen... AMD rekent overigens wel een bedragje om een Freesync certificering te doorlopen.
Eerst en vooral, als Nvidia zou beweren dat er slechts niet getest is dan ontbreekt daar een vink en staat er niet een rood kruis! Het leeg zijn van het vakje: niet getest. Het zien van een kruis: gefaald. Nvidia suggereert dus wel degelijk dat die monitors faalden voor die testen.

Het punt is dat Nvidia het zo brengt dat de meeste lezers/kijkers de conclusie trekken dat die betreffende FreeSync monitors niet de certificering haalden.
Het is speculatief of dat Nvidia dat op eigen kosten doet en het is zelfs twijfelachtig. Herinner je je die SLI-scam waarbij iedereen die een moederbord kocht wat SLI ondersteunt (wat standaard werd) betaalde aan Nvidia voor een feature waar een groot deel van de klanten niet om vroeg? Eerst maar eens afwachten of dat Nvidia weer die monitorbedrijven een dure licentie laat betalen.

@Werelds
Als jij nog eens spreekt met ingenieurs die voor monitorbedrijven werken, vraag dan eens in waarom er zo weinig monitors zijn met een hogere resolutie en hoge RR en waarom ze zoveel duurder zijn dan 1080p 60 Hz. monitors? Ik vind het interessant voor welk deel dit technische redenen heeft (en hoe dat eventueel verschilt tussen televisies en monitors) en voor welk deel economische/marketing (aantal verkochte exemplaren, winstbeleid...) redenen.
Daarom hebben zo veel G-Sync monitors zo'n afgrijselijke bouwkwaliteit. Veel van de ASUS en ACER dingen hebben dusdanig veel bleed dat je er een kamer bijna even goed mee kan verlichten als met een 400 lumen peertje...met alle gevolgen van dien.
Daarom ben ik zo geïnteresseerd in die IPS montior van LG @1440p ultrawide, eindelijk eens een exemplaar van de LG wat de beste schermen hiervoor apart kan leggen. Eens zien of dat je dan die bleeding-problemen hebt opgelost.

[ Voor 54% gewijzigd door Verwijderd op 10-01-2019 18:32 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Verwijderd schreef op donderdag 10 januari 2019 @ 18:23:
@Werelds
Als jij nog eens spreekt met ingenieurs die voor monitorbedrijven werken, vraag dan eens in waarom er zo weinig monitors zijn met een hogere resolutie en hoge RR en waarom ze zoveel duurder zijn dan 1080p 60 Hz. monitors? Ik vind het interessant voor welk deel dit technische redenen heeft (en hoe dat eventueel verschilt tussen televisies en monitors) en voor welk deel economische/marketing (aantal verkochte exemplaren, winstbeleid...) redenen.
Relatief hoge kosten voor een relatief kleine markt. 99% van de wereld vind €150 al te duur voor een monitor. Als jij dan als ASUS/Acer/Dell/Eizo aan moet kloppen bij AUO/Samsung/LG/Sharp voor TFT paneeltjes die al duurder zijn om te maken en dan ook iets lastiger om aan te sturen (enzovoort) dan is het gewoon minder boeiend. Sommige van deze fabrikanten gebruiken 100% off-the-shelf onderdelen voor hun monitors. Dan ga je dat niet voor €250 in de markt zetten voor die "paar" kopers met weinig marge.

Als het je echter nog niet op was gevallen, de afgelopen 6-12 maanden is er een stevige influx van dit soort schermen. VA panelen hebben wat goede stappen gezet en zowel AUO als Sharp zijn bezig met hun kosten flink te drukken.

Verwijderd

Werelds schreef op donderdag 10 januari 2019 @ 18:39:
Als het je echter nog niet op was gevallen, de afgelopen 6-12 maanden is er een stevige influx van dit soort schermen. VA panelen hebben wat goede stappen gezet en zowel AUO als Sharp zijn bezig met hun kosten flink te drukken.
Het was me opgevallen maar ik word niet vrolijk van nieuwe VA-monitors aangezien die kleuren minder goed zijn dan bij IPS. Al kunnen die VA-monitors misschien wel wat de prijs drukken van de IPS-monitors?

[ Voor 8% gewijzigd door Verwijderd op 10-01-2019 18:46 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Werelds schreef op donderdag 10 januari 2019 @ 17:40:
[...]

Nee hoor. Nvidia verkoopt gewoon de FPGA, ze trekken zich verder niet bijzonder veel aan van de rest. Ze stellen wel eisen aan bepaalde specs en testen die aan het eind, maar dat is het dan ook. Rechtstreeks vernomen van een tweetal ingenieurs bij een monitor fabrikant en van een marketing director bij een ander ;)

Die eisen zijn verder ook puur op cijfertjes gebaseerd en zijn onvolledig als het op kwaliteit aan komt. Daarom hebben zo veel G-Sync monitors zo'n afgrijselijke bouwkwaliteit. Veel van de ASUS en ACER dingen hebben dusdanig veel bleed dat je er een kamer bijna even goed mee kan verlichten als met een 400 lumen peertje...met alle gevolgen van dien.

Jammer genoeg weet de gemiddelde gamer dat niet, als het ze al zou boeien.
Niet heel lang geleden is er een journalistiek stukje verschenen over in welke mate betrokken Nvidia is bij de ontwikkeling van een monitor. Daar werd onder andere vermeld dat Nvidia daadwerkelijk monitoren af keurt, waarna de fabrikant opnieuw kan begonnen. Heb ik hier de bron van geplaatst. Of dat alleen aan het eind is was daar niet uit op te maken, werd wel geïmpliceerd dat de samenwerking verder ging dan alleen een eindtest (dat gebeurd namelijk bij elke certificering, dan zou er niets bijzonders zijn).

Mbt je recente opmerking over wie adaptive sync heeft bedacht. Volgens Nvidia hebben zei dat bedacht
“We never competed,” Huang said of upcoming FreeSync support. “(FreeSync) was never proven to work. As you know, we invented the area of adaptive sync. The truth is most of the FreeSync monitors do not work. They do not even work with AMD’s graphics cards.”
Als je een bron hebt die dat in een ander licht stelt, prima, graag even plaatsen dan.

Overigens vind ik de markt van monitoren uberhaupt afgrijselijk ontransparant. Zie bijvoorbeeld deze review http://www.tftcentral.co.uk/reviews/aoc_agon_ag322qc4.htm dan krijg je het idee dat een goede monitor uberhaupt een soort unicorn is.

[ Voor 5% gewijzigd door sdk1985 op 10-01-2019 18:50 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op donderdag 10 januari 2019 @ 18:46:
Niet heel lang geleden is er een journalistiek stukje verschenen over in welke mate betrokken Nvidia is bij de ontwikkeling van een monitor. Daar werd onder andere vermeld dat Nvidia daadwerkelijk monitoren af keurt, waarna de fabrikant opnieuw kan begonnen. Heb ik hier de bron van geplaatst. Of dat alleen aan het eind is was daar niet uit op te maken, werd wel geïmpliceerd dat de samenwerking verder ging dan alleen een eindtest (dat gebeurd namelijk bij elke certificering, dan zou er niets bijzonders zijn).
Het is weldegelijk gewoon aan het eind, het is een hartstikke normaal certificatie programma. Het enige verschil is dat deze certificatie ook vereist dat er een specifieke scaler in de vorm van Nvidia's FPGA gebruikt wordt. Daarmee worden bepaalde eigenschappen gegarandeerd met betrekking tot functionaliteit, maar Nvidia is verder niet betrokken bij de keuze van het paneel (laat staan de fabricage daarvan), de bouw van de behuizing, de elektrische componenten, enzovoort. Als het zo ver zou gaan had je al lang een monitor van Nvidia zelf gezien ;)
Mbt je recente opmerking over wie adaptive sync heeft bedacht. Volgens Nvidia hebben zei dat bedacht
Nvidia claimt ook dat zij de videokaart hebben bedacht ;)
Als je een bron hebt die dat in een ander licht stelt, prima, graag even plaatsen dan.
Dat heb ik 5 jaar geleden al gedaan, toen Nvidia G-Sync aankondigde en vervolgens toen AMD hun demo gaf op CES 2014. Hoe denk je anders dat AMD in minder dan 3 maanden een volledig werkende proof of concept klaar kon hebben...met off-the-shelf onderdelen. Zij gebruikten gewoon een normale laptop (wel een specifiek model) met een normale GPU en aangepaste software.

Ik zal het nog eens zo kort mogelijk samen proberen te vatten. Onthoudt bij dit alles dat G-Sync DisplayPort vereist - dat heeft een hele goede reden.
G-Sync works by manipulating the display’s VBLANK (vertical blanking interval). VBLANK is the period of time between the display rasterizing the last line of the current frame and drawing the first line of the next frame. It’s called an interval because during this period of time no screen updates happen, the display remains static displaying the current frame before drawing the next one. VBLANK is a remnant of the CRT days where it was necessary to give the CRTs time to begin scanning at the top of the display once again. The interval remains today in LCD flat panels, although it’s technically unnecessary. The G-Sync module inside the display modifies VBLANK to cause the display to hold the present frame until the GPU is ready to deliver a new one.

With a G-Sync enabled display, when the monitor is done drawing the current frame it waits until the GPU has another one ready for display before starting the next draw process. The delay is controlled purely by playing with the VBLANK interval.

You can only do so much with VBLANK manipulation though. In present implementations the longest NVIDIA can hold a single frame is 33.3ms (30Hz). If the next frame isn’t ready by then, the G-Sync module will tell the display to redraw the last frame. The upper bound is limited by the panel/TCON at this point, with the only G-Sync monitor available today going as high as 6.94ms (144Hz). NVIDIA made it a point to mention that the 144Hz limitation isn’t a G-Sync limit, but a panel limit.
Goed, hier dient men 2 belangrijke feiten uit te halen:
- G-Sync werkt met VBLANK, wat al decennia lang een dingetje is
- Het gaat niet onder de 30 Hz. Als er nog iemand zo koppig was dat niet te geloven elke keer dat ik dat zeg, bij deze.

VBLANK is iets uit CVT, en dan specifiek 1.1. De officiële naam daarvan is VESA-2003-9, dus die specifieke standaard komt uit 2003. Ik zou graag een link geven naar de daadwerkelijke spec, maar ik kan zo 1-2-3 geen publieke link vinden. VESA wil dat niet graag, dus daar zullen wel wat DMCA requests op geweest zijn :(. Belangrijk hierbij is dat het volledig aan de display fabrikant is om de VBLANK variabele vrij te geven of niet. Met LCD's was, en is, dat vaak niet het geval omdat VBLANK daar eigenlijk niet gebruikt hoefde te worden. En dat is gewoon zo gebleven, refresh rate kan wel aangepast worden maar VBLANK kan vaak niet "zomaar" aangepast worden.

Even het meest relevante stukje quoten:
CVT also specifies a mode ("CVT-R") which significantly reduces these blanking intervals (to a period insufficient for CRT displays to work correctly) in the interests of saving video signal bandwidth when modern displays such as LCD monitors are being used, since such displays typically do not require these pauses in the picture data.
En dan het laatste stukje van de puzzel, Embedded DisplayPort, ofwel eDP. En dan specifiek PSR uit eDP 1.3, van februari 2011. Ook hier zou ik graag de spec van posten, maar ik kan hem zo 1-2-3 niet vinden (en ik heb hem wel ergens op m'n PC staan, maar ik weet niet waar :+), dus we moeten het maar even doen met een presentatie van VESA.
Frame Buffer in TCON can maintain display image without receiving video data from GPU.
• For a still video image, this allows the GPU to enter a low power state and the eDP main link to turn off.
• Allowing the GPU to power down between display updates will save significant power and extend battery life.
• Except when watching a movie or playing a game, there are many times when the video does not change for multiple frames.

How Panel Enters Self-refresh Mode
• GPU determines when display will not be changing and sends Self-refresh Entry command to display using SDP (secondary data packet); TCON then enables frame buffer, captures video frame, and then GPU and Main Link turn off.
• Display continues to Self-refresh from TCON frame buffer, using asynchronous timing for display.

How of Panel Exits Self-refresh Mode
• When GPU detects new image data (for example from a keystroke or mouse movement), GPU wakes up TCON eDP input and starts sending the new display image data.
• Display then switches from the Frame Buffer to eDP input data, and Genlocks display timing to GPU.

Single Frame Update
• While in Self Refresh Mode, the GPU can make single frame updates to the TCON frame buffer; the display maintains asynchronous timing during the process.
• This can be used to turn on or turn off a blinking display cursor, for example.
• A burst of single frame updates can also be used, for example to fade-in and fade-out the blinking cursor.
Hier zit 99% in van wat G-Sync en Adaptive Sync doen. De single frame update samen met een VBLANK die aangepast kan worden is grotendeels de combinatie waar het om draait. Er zijn nog wat andere dingetjes die gebruikt worden, maar dit is het belangrijkste. Het oorspronkelijke doel van deze standaarden was om energie verbruik terug te dringen.

Nogmaals: Nvidia kondigde G-Sync aan op 18 oktober 2013, en op 6 januari 2014 had AMD een demo klaar van FreeSync met normale hardware. Wel specifiek een laptop met een scherm dat via eDP was aangesloten, maar geen hardware wijzigingen. Dat is 2,5 maand om dat te ontwikkelen.

Was Nvidia de eerste die op het idee kwam dit allemaal te combineren om lage/fluctuerende framerates bijna 1:1 weer te geven op een monitor zodat het vloeiender lijkt dan het is? Zeker! Maar "uitgevonden"? Nee. Want laptops met PSR waren toen al in staat om van 60 Hz naar 48 Hz te zakken voor 24 Hz content, zonder daarbij een harde mode switch (resolutie + refresh rate wijziging) te hoeven doen.

Zoals ik al zei was Nvidia de eerste die een manier vond om er een feature van te maken en geld uit te slaan. Maar het was gewoon al bestaande technologie, alleen nu met elkaar gecombineerd om samen een nieuwe feature te vormen.
Overigens vind ik de markt van monitoren uberhaupt afgrijselijk ontransparant. Zie bijvoorbeeld deze review http://www.tftcentral.co.uk/reviews/aoc_agon_ag322qc4.htm dan krijg je het idee dat een goede monitor uberhaupt een soort unicorn is.
Eens. Er zijn maar weinig monitors waar ik echt warm voor loop, allemaal hebben ze wel iets van problemen. Maar die dingen van de "assemblers" zijn in mijn ervaring toch echt nog een stukje slechter. Bedrijven als Samsung of LG zijn er gewoon iets beter in, want die maken zelf ook panelen. En bedrijven als Dell of Eizo staan al jaren bekend om hun goede kwaliteit, maar daar hangt dan ook een prijskaartje aan. Datzelfde prijskaartje vind je nu op "high-end" gaming monitoren, maar dan zonder de degelijke bouwkwaliteit. Ik heb zelf nog steeds m'n FG2421 als primair scherm (inmiddels net iets meer dan 5 jaar oud en volgens het OSD 24928 branduren <3) en hoewel dit als "vroeg" 120 Hz VA panel niet zo goed is als de huidige VA panels, is het contrast iets waar ik echt gehecht aan ben geraakt. Er staat een IPS panel naast en ik heb het ding goed genoeg gekalibreerd dat ik dat beetje kleurverlies voor lief neem. Het is alsnog vele malen beter dan TN strong :)
Verwijderd schreef op donderdag 10 januari 2019 @ 18:45:
Het was me opgevallen maar ik word niet vrolijk van nieuwe VA-monitors aangezien die kleuren minder goed zijn dan bij IPS. Al kunnen die VA-monitors misschien wel wat de prijs drukken van de IPS-monitors?
Dat was voorheen zo, maar qua kleur reproductie doet VA inmiddels nauwelijks onder voor IPS. Maar IPS heeft nog steeds niet het achterlijke contrast van VA, dus wat mij betreft is VA nu de techniek van de toekomst.

Verwijderd

Werelds schreef op donderdag 10 januari 2019 @ 22:42:
Dat was voorheen zo, maar qua kleur reproductie doet VA inmiddels nauwelijks onder voor IPS. Maar IPS heeft nog steeds niet het achterlijke contrast van VA, dus wat mij betreft is VA nu de techniek van de toekomst.
Ik heb het meer mensen zien/horen beweren maar ik weet dan niet in welke mate mensen het zo praten voor zichzelf omdat ze er zelf een hebben gekocht. Van jou neem ik het echter aan dus ik houd het in mijn achterhoofd.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

In vervolg op de informatieve post van @Werelds geeft Vesa zelf ook nog het volgende aan:
Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009. As a result, Adaptive-Sync technology is already incorporated into many of the building block components for displays that rely on eDP for internal video signaling. Newly introduced to the DisplayPort 1.2a specification for external displays, this technology is now formally known as DisplayPort Adaptive-Sync.
https://vesa.org/featured...splayport-video-standard/

Dus idd lang verhaal kort:
nVidia heeft blijkbaar heel slim als eerste ingezien dat een al bestaande algemeen beschikbare technologie ook ingezet kan worden tbv gaming. En heeft vervolgens geprobeerd dat proprietary te maken.

En wat mij betreft daarmee voor consumenten de markt gesplitst en verziekt. Dus blij dat aan die onzin nu een eind is gekomen. Maar goed ik zit dan ook in kamp consumer. :P

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op donderdag 10 januari 2019 @ 22:55:
[...]

Ik heb het meer mensen zien/horen beweren maar ik weet dan niet in welke mate mensen het zo praten voor zichzelf omdat ze er zelf een hebben gekocht. Van jou neem ik het echter aan dus ik houd het in mijn achterhoofd.
@Werelds heeft tot op zekere hoogte gelijk.

De factoren die hij echter vergeet te noemen zijn pixel response en kijkhoek. De inkijkhoeken van IPS zullen altijd beter zijn dan die van VA aangezien je met die techniek geen kleurverzadiging kwijt raakt off axis. De pixel reponse van VA loopt bij sommige kleurovergangen zwaar achter op die van IPS met vaak aan VA gekoppelde termen als black smearing en ghosting tot gevolg.

Dientengevolge zou ik VA nog steeds als inferieur aan IPS willen beschouwen, hoewel dat zeker gerelateerd is aan persoonlijke voorkeur. Sommigen hebben liever IPS glow en/of backlight bleed dan ghosting en vice versa.

Maar om VA de techniek van de toekomst te noemen vind ik kortzichtig. Dit is zo gegroeid bij televisies maar daar worden totaal andere eisen aan gesteld dan aan monitoren. Los daarvan, LCD in zijn huidige vorm is niet de toekomst. Punt. Of dat nou VA of IPS is.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op vrijdag 11 januari 2019 @ 09:06:
In vervolg op de informatieve post van @Werelds geeft Vesa zelf ook nog het volgende aan:


[...]


https://vesa.org/featured...splayport-video-standard/

Dus idd lang verhaal kort:
nVidia heeft blijkbaar heel slim als eerste ingezien dat een al bestaande algemeen beschikbare technologie ook ingezet kan worden tbv gaming. En heeft vervolgens geprobeerd dat proprietary te maken.
Dat is ongeveer de modus operandi van Nvidia. :P
En wat mij betreft daarmee voor consumenten de markt gesplitst en verziekt. Dus blij dat aan die onzin nu een eind is gekomen. Maar goed ik zit dan ook in kamp consumer. :P
Oh ze zijn niet klaar hoor. Nee, Nvidia kan nu doodleuk beginnen met alle goede FreeSync schermen voorzien van G-Sync compatible branding en afdwingen dat er geen FreeSync branding meer op staat. Weet natuurlijk vrijwel geen enkele consument dat zowel G-Sync compatible als FreeSync op elk scherm met Adaptive Sync werken. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Blaat schreef op vrijdag 11 januari 2019 @ 09:48:
De factoren die hij echter vergeet te noemen zijn pixel response en kijkhoek. De inkijkhoeken van IPS zullen altijd beter zijn dan die van VA aangezien je met die techniek geen kleurverzadiging kwijt raakt off axis. De pixel reponse van VA loopt bij sommige kleurovergangen zwaar achter op die van IPS met vaak aan VA gekoppelde termen als black smearing en ghosting tot gevolg.

Dientengevolge zou ik VA nog steeds als inferieur aan IPS willen beschouwen, hoewel dat zeker gerelateerd is aan persoonlijke voorkeur. Sommigen hebben liever IPS glow en/of backlight bleed dan ghosting en vice versa.

Maar om VA de techniek van de toekomst te noemen vind ik kortzichtig. Dit is zo gegroeid bij televisies maar daar worden totaal andere eisen aan gesteld dan aan monitoren. Los daarvan, LCD in zijn huidige vorm is niet de toekomst. Punt. Of dat nou VA of IPS is.
Kijkhoeken vind ik eerlijk gezegd niet zo boeiend voor desktop gebruik. De kijkhoeken van VA zijn nog steeds veel hoger dan die van TN en met een degelijk VA panel ga je ruim over de 140-150 heen, wat voor enig desktop gebruik al meer dan genoeg is.

Pixel response klopt, maar dat is technisch op te lossen. Althans, op hoge refresh rates. Op lagere refreshrates kan het nog een probleem zijn zonder strobing. Na 5 jaar met één van de eerste VA panels op 120 Hz geleefd te hebben (waarbij ik eigenlijk niet zo heel vaak strobing aan zet), kan ik echter niet zeggen dat smearing een groot probleem is. Er zijn maar weinig situaties waarbij je van heel donker naar heel licht gaat, in beweging. Het is niet meer of minder een probleem dan IPS glow en dan ga ik zelf toch liever voor de lagere zwart niveaus en het bijbehorende betere contrast :p

Maar je hebt gelijk, het is een kwestie van voorkeuren. Ik denk alleen dat de problemen van VA goed op te vangen zijn en wellicht verzint er nog iemand een manier om VRR en strobing te combineren. IPS zit gewoon waar het zit, dat contrast zal echt niet meer veel beter worden. Met alle nieuwe pushes voor HDR en dergelijke zal het nog wel iets verbeteren, maar dat geldt ook voor VA, dus het verschil zal blijven.

De échte toekomst ligt uiteraard bij OLED, maar dat is echt nog toekomstmuziek ;)

  • logion
  • Registratie: December 2004
  • Laatst online: 05-12 10:41
Qua response times voor VA, vat de tftcentral review van de LG 32GK850G vat het goed samen voor mij:
Being a VA panel it still struggled with some of those darker transitions and so black smearing was still apparent on moving content in certain situations. We feel that the high refresh rate IPS panels such as the Asus ROG Swift PG279Q (5.0ms G2G average, 144Hz) and Dell Alienware AW3418DW (6.9ms G2G, 120Hz) for instance offered a smoother experience without that dark smearing becoming a problem. Of course you are then having to live with a much lower contrast ratio and put up with the pale "IPS glow" from that technology, so it depends what is important to you. For a VA panel, the 32GK850G was a good option we felt when it came to gaming.
Dusja, bij elke paneeltechniek moet je nog steeds compromissen maken. Oled (of nog verder Microled) lijkt nu eindelijk naar laptops te komen en hopelijk ook in dedicated monitors. Maar ik ga er alleszins niet op wachten voor mijn volgende monitor.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Werelds schreef op donderdag 10 januari 2019 @ 22:42:


[...]

Eens. Er zijn maar weinig monitors waar ik echt warm voor loop, allemaal hebben ze wel iets van problemen. Maar die dingen van de "assemblers" zijn in mijn ervaring toch echt nog een stukje slechter. Bedrijven als Samsung of LG zijn er gewoon iets beter in, want die maken zelf ook panelen. En bedrijven als Dell of Eizo staan al jaren bekend om hun goede kwaliteit, maar daar hangt dan ook een prijskaartje aan. Datzelfde prijskaartje vind je nu op "high-end" gaming monitoren, maar dan zonder de degelijke bouwkwaliteit. Ik heb zelf nog steeds m'n FG2421 als primair scherm (inmiddels net iets meer dan 5 jaar oud en volgens het OSD 24928 branduren <3) en hoewel dit als "vroeg" 120 Hz VA panel niet zo goed is als de huidige VA panels, is het contrast iets waar ik echt gehecht aan ben geraakt. Er staat een IPS panel naast en ik heb het ding goed genoeg gekalibreerd dat ik dat beetje kleurverlies voor lief neem. Het is alsnog vele malen beter dan TN strong :)
Heb momenteel primair een pricewatch: LG 29UB65-P Zwart welke ik gekocht heb in een periode dat ik nauwelijks aan gamen deed en ik heb het vermoeden dat hij niet bijster snel is. De budget HP die ernaast staat schakelt een seconde sneller in. Maar ik heb tot heden geen betrouwbare manier gevonden om de reactietijd zelf te testen. Heb weleens geprobeerd met scherm duplicatie en een foto van een on-screen stopwatch om te kijken hoeveel ms verschil er optrad met de officieel tragere pricewatch: HP 27ea Wit, Zilver . Maar die 2ms kwam daar niet uit. Uberhaupt zie je bij tests altijd hele andere reactietijden dan de opgegeven 1/5/enz ms. Zou die apparatuur te huren zijn :P ?

Wat dat betreft zie ik mezelf nog wel zo'n g-force certified scherm kopen puur omdat ik gewoon geen enkele betrouwbare manier heb om zelf zo'n monitor te beoordelen op basis van waarvoor ik hem zou aanschaffen (Siege).

[ Voor 3% gewijzigd door sdk1985 op 11-01-2019 13:29 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • logion
  • Registratie: December 2004
  • Laatst online: 05-12 10:41
Jouw test lijkt me input lag te meten en niet response times. De 'ms' waarde vermeldt door fabrikanten betreft doorgaans de gray to gray response times, niet op input lag. Met de caveat dat de G2G response times bij sommige paneeltechnieken de laagste is en de response times van donker naar licht merkbaar langer kunnen zijn (tot 3 a 4 maal bij VA bv.) Gelukkig vind je voor upper segment consumentenmonitors doorgaans diepgaande reviews met input lag en response times (tftcentral, pcmonitor info). Toch iets objectiever dan de informatie van de fabrikanten. Helaas laten veel consumenten zich enkel leiden door wat er in de specs staat.

Uiteindelijk blijft je eigen visuele ervaring natuurlijk het meest relevant. Daarbij vind ik het moeilijk inschatten wat de impact is van bv. een 3x hogere response time voor donker/wit transities bij VA vs IPS. In principe kun je N monitors testen en dan 1 overhouden, maar daar kruipt ook erg veel tijd in. En in multimediaketens zijn schermen vaak erg slecht afgesteld: Brightness op 100%, vaak draait het niet op native resolution (bv. er draaien een 10tal monitors op dezelfde content) + dan nog op 60Hz zonder adaptive sync en/of backlight strobing... Enfin, dit alles om maar te zeggen dat een geïnformeerde beslissing maken niet zo evident blijkt te zijn. Overigens begint dit wel wat off topic te worden, misschien moet dit naar een (op te richten) topic over monitors?

[ Voor 8% gewijzigd door logion op 11-01-2019 13:45 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Er is IMO nog nog wel relatie met Nvidia aangezien we net die g-sync compatible dingen krijgen. Als het veel posts worden zou het inderdaad even kunnen worden weggeknipt naar een ander topic :P.

Maar goed ik heb nu wel het idee dat ik iets mis qua responsiviteit ten aanzien van toen ik 15 jaar geleden Call of Duty 2 en Soldier of Fortune 2 (en nog eerder UT 99 enz) speelde. Kan de netcode zijn, kan de 5ms zijn. De 60 Hz verdenk ik minder want toen zaten we ook rond die snelheid. Kan ook een foute herinnering zijn :P. Toen ik mijn monitor kost heb ik in ieder geval doelbewust gekozen voor productivity (ips/verstelbare voet) en niet voor 1ms. Wil best wat investeren in een nieuwe monitor maar zoals gezegd is het zo lastig om in te schatten of je daar wat mee opschiet... Uberhaupt zijn alle IPS panels AFAIK 3-5ms.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Ik vind knippen en verplaatsen naar een aparte draad een goed idee omdat mensen hier duidelijk een discussie over willen voeren en het hier offtopic is. Het houdt meer mensen bezig dus dan is het handig als ze aan de titel van de draad kunnen zien dat het daar wordt besproken. Bedenk hierbij ook dat de monitorbedrijven zelf notoir oneerlijk voorlichten (intransparant, lying by omission zoals ze dat noemen) en dat het dus handig is dat gebruikerservaringen worden gedeeld wanneer mensen van beide type monitors uit eenzelfde productie-periode aan het werk hebben gezien.
Blaat schreef op vrijdag 11 januari 2019 @ 09:48:
[...]


@Werelds heeft tot op zekere hoogte gelijk.

De factoren die hij echter vergeet te noemen zijn pixel response en kijkhoek. De inkijkhoeken van IPS zullen altijd beter zijn dan die van VA aangezien je met die techniek geen kleurverzadiging kwijt raakt off axis. De pixel reponse van VA loopt bij sommige kleurovergangen zwaar achter op die van IPS met vaak aan VA gekoppelde termen als black smearing en ghosting tot gevolg.

Dientengevolge zou ik VA nog steeds als inferieur aan IPS willen beschouwen, hoewel dat zeker gerelateerd is aan persoonlijke voorkeur. Sommigen hebben liever IPS glow en/of backlight bleed dan ghosting en vice versa.

Maar om VA de techniek van de toekomst te noemen vind ik kortzichtig. Dit is zo gegroeid bij televisies maar daar worden totaal andere eisen aan gesteld dan aan monitoren. Los daarvan, LCD in zijn huidige vorm is niet de toekomst. Punt. Of dat nou VA of IPS is.
En @Werelds
Hoe erg is de kleur afhankelijk van de invalshoek? Bij mijn vorige VA-monitor (Samsung Syncmaster, 24'' en 1080p, voor 2010 gemaakt) was het erg genoeg dat als je recht achter de monitor zit dat dan dezelfde kleur (vooral goed zichtbaar bij lichte kleuren) bovenaan op het scherm anders is dan onderaan op het scherm. Is het nog steeds zo dat dezelfde kleur niet op heel het scherm hetzelfde eruit ziet doordat de invalshoek van de pixel naar je oog anders is? Of ga je het alleen maar zien wanneer je naar je scherm loopt of erval weg loopt terwijl het aan staat?

[ Voor 15% gewijzigd door Verwijderd op 11-01-2019 14:17 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
We gaan inderdaad wat off-topic, ik heb een bericht gestuurd naar @dion_b om te kijken of hij ze eenvoudig kan splitsen. Wellicht maak ik wel gewoon een 'Monitor techniek nieuws- en discussietopic' aan waar we dit soort dingen in zetten. Denk echter niet dat ik daar de komende week nog tijd voor ga hebben, dat zal dan moeten als ik terug ben uit Londen.

@Verwijderd: nee, bij moderne VA panelen is dat heel sterk verminderd. Zolang je er recht voor zit zie je er niets van. Het verschilt een beetje per paneel, de panelen van Sharp zijn er over het algemeen iets beter in. Maar je kunt gerust tot een 30 graden (dus een kijkhoek van 60 graden in totaal) "scheef" zitten zonder dat je iets ziet. En zelfs dan is het heel beperkt tot je richting de 60 gaat ofzo. Als jij buiten een hoek van 120 graden zit, dan doe je toch iets fout in je zit positie :P

Verticaal hebben VA panelen wel nog relatief beperkte kijkhoeken wat betreft het contrast, maar ook die zijn bij "normaal" gebruik geen probleem. Met 24" voor m'n neus is er normaal in elk geval niets te zien, als ik dan recht ga staan zie ik zie ik de contrast verschuiving zo rond de 45 graden, dus dat valt reuze mee. Kleuren blijven gewoon goed, maar het contrast schuift. Het is niet voor niets een Vertical Alignment panel - het doel van VA is vooral de horizontale kijkhoek vergroten t.o.v. TN ;)

Verwijderd

Werelds schreef op vrijdag 11 januari 2019 @ 14:50:
@Verwijderd: nee, bij moderne VA panelen is dat heel sterk verminderd. Zolang je er recht voor zit zie je er niets van. Het verschilt een beetje per paneel, de panelen van Sharp zijn er over het algemeen iets beter in. Maar je kunt gerust tot een 30 graden (dus een kijkhoek van 60 graden in totaal) "scheef" zitten zonder dat je iets ziet. En zelfs dan is het heel beperkt tot je richting de 60 gaat ofzo. Als jij buiten een hoek van 120 graden zit, dan doe je toch iets fout in je zit positie :P
Als ik een geodriehoek voor mijn hoofd leg en de lijn volg (best lastig te doen, dat is een inschatting) dan lijk ik bij een 24'' monitor net rond de 30 graden uit te komen met een afstand van 30-45 cm t.o.v. de monitor. Bij 27'' of meer dan 30'' (1440p en 1440p ultrawide) kom je zeker op een horizontale hoek tussen de 30 en de 60 graden uit? Ik denk niet dat je die 60 graden kan overschrijden maar indien mijn vermoeden klopt dat je wel ruim over de 30 heen gaat dan is de vraag hoe sterk de kleur verandert. Hopelijk heb je bij de grotere montiors met 1440p-resolutie betere panels waarbij de kleur pas voldoende verandert bij een grotere hoek.
Voldoende omdat ik veronderstel dat je bij een kleine hoek ook al verandering hebt - ook bij IPS - maar het hier gaat om vanaf welke procentuele verandering het oog of het brein het waarneemt.
Die extra glow en backlightbleeding bij IPS is natuurlijk ook niet ideaal, ook dat beïnvloedt de kleur op een negatieve manier.

Het is een van die dingen die je het best in een winkel ziet maar jij weet hoe slecht de Mediamarkt hiervoor is...
Over de 60 graden zal je inderdaad niet snel gaan, dat zie ik ook nog wel met mijn timmermansoog.

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
Olaf van der Spek schreef op dinsdag 8 januari 2019 @ 16:18:
[...]

Is dat tegenwoordig nog steeds zo?
Een CPU is momenteel complexer dan een GPU dankzij evolutie en het feit dat de "RISC" processors die gewonnen hebben tegenover de CISC's eigenlijk meer en meer zijn afgegleden naar een CISC achtige architectuur (voor elke "speciale" functie aparte, specifieke hardware).

Krijg je branch prediction in orde (dit is nu éénmaal hét spannende element van een cpu .. die kristallen bol is eigenlijk in de cpu wereld min of meer een werkelijkheid :+ de "hit" rate is tegenwoordig schrikbarend hoog) en zet daarbij een goede pipeline infrastructuur met voldoende, snel genoeg cache/registers op de juiste plaatsen (jajaa nu kijken we naar AMD die die op dit punt historisch hierin echt wel de mist is ingegaan, elke fout die je hierbij kan maken heeft AMD ooit eens gemaakt met de nodige gevolgen, eigenlijk wel nuttig daar we voor deze fouten daadwerkelijk IRL voorbeelden hebben samen met de inpact cijfers die voorheen vooral theoretisch waren) en combineer dit met een RISC CPU en tadaa!!
Zoveel complexer dan een GPU is dit tegenwoordig niet meer (GPU's gebruiken tegenwoordig namelijk ook al een versimpelde branch predictors .. hebben ook al pipelines (minder diep) en zijn tegenwoordig ook niet langer een RISC architectuur.

De vraag is echter meer hoe zet je een performante CPU architectuur op poten zonder 1000 patenten per stap te schenden (elke verbetering voor branch prediction wordt namelijk als een zot gepatenteerd, één van de redenen dat wij dat als studenten kunnen bestuderen, maar ook direct de reden dat niemand een branch predictor commercieel mag produceren :( )

Samengevat: Zal nVidia ooit een x86 cpu (laten) produceren: neen! Waarom zouden ze ook.. x86 heeft namelijk juist schaling issues, der is een reden dat zelf Intel wou overstappen naar een nieuwe architectuur
Zal nVidia ooit een ARM cpu (laten) produceren: Inkopper (voor diegene die nog nooit van Tegra (gsm, nu tegenwoordig vooral voor auto's), nVidia shield, of een nintendo switch, hebben gehoord: nVidia doet dit dus al en zal dit de komende jaren wellicht blijven doen .. tot ze er geen winst meer in zien.

Hopen ze hiermee Intel te verslaan? Wie weet, in ieder geval worden er veel meer android devices verkocht dan Wintel pc's. En het ironische is dat men om per 2 jaar blijkbaar gemakkelijk 800+ euro hieraan wilt geven maar een laptop mag niet meer dan een paar 100 euro kosten niet? Het is toch maar voor office, de bank, e-mail eventueel surfen en tax-on-web (België). Je kan zeggen dat Intel direct gaat concurreren met nVidia maar eigenlijk heeft de markt vooral aangetoond dat ARM een gigantische come-back heeft gemaakt en Intel uit zijn primaire markt bijna verdrongen heeft moest quallcomm plots een wit konijn uit zijn hoge hoed vandaan halen en een dubbel zo'n performante cpu kunnen produceren (we kunnen altijd dromen :+ ) dan heeft Intel (en eigenlijk ook AMD maar deze heeft geen fab-kapitaal meer dat plots waardeloos kan worden) een gigantisch probleem: fabs die niets hebben te doen is nog erger dan marktaandeel verliezen, het tweede is pijnlijk, het eerste is dodelijk.

Qua RTX 20xx series vs GTX 11xx series.
Nu wil niemand extra betalen voor een (half) werkende ray-tracing en andere functionaliteiten. Het grappige is dat men 10 jaar geleden soms zelf het dubbele betaalde voor een trager werkende product omdat die een hogere dx versie of iets in die trend had.
Tegen dat die dx's dan eindelijk werkend waren bleken die gpu's niet "alles" te implementeren of zo traag te zijn dat ze die nieuwere games niet eens aankonden (op vga resoluties :9 )

Nu kan je zeggen dat men uit die ervaringen geleerd heeft (yeah right |:( ) ofwel dat men het gewoon te duur vind en dan maar een excuus zoekt.
In feite als je dan toch plant op 720 euro uit te geven snap ik niet waarom je dan niet 10% extra zou uitgeven om effectief "nieuwere" functionaliteiten/grafische opties er bij te krijgen .. tenslotte is het lang geleden dat we eens nieuwe effecten kregen dx 9 -> 12. Veel heb ik niet veel positief zien veranderen namelijk:
  • dx10, verlies aan hardware audio, wat een vooruitgang was dat :X , en xInput die zijn voorganger vervangde .. mensen met een controller aan hun pc zullen hiervoor wel dankbaar zijn maar zo slecht was de voorganger ook weer niet
  • tessellation en multi threading bij dx 11, wel een verbetering, maar vooral voor de interne werking en één van de twee gpu fabricanten kon deze verbeteringen eigenlijk niet omzetten naar winst.. hierdoor zag je hiervan als eindgebruiker ook niet echt veel vooruitgang. Het perfecte voorbeeld hoe brute force het soms niet wint van finesse...
  • dx11.2 wordt nu zowel bij de xbox (console) als pc gebruikt en ondersteunt, console ports zijn nu nog eenvoudiger en goedkoper gewoon genoeg ram (mis)bruiken en gaan met de banaan .. ,wat een vooruitgang was dat ook weer :(
  • dx12: tot nu toe zichtbaar? Noppes,
Hierbij zeg ik niet dat raytracing ofzo het nieuwe "wow" zal worden. Maar als je ziet wat men in de voorgaande jaren als "vooruitgang" mocht beschouwen valt een 10% meerprijs voor eindelijk iets in de juiste richting toch wel goed mee niet? Vroeger kocht je hiervoor alleen een nieuwe "killer" videokaart die wanneer het daadwerkelijk geïmplemeerd werd niet eens werkte. Nu heb je de zekerheid dat het werkt in tenminste 2 games >:) ;(

PS: Moesten mensen het nog niet opgevallen hebben: Er is wel degelijk vooruitgang geboekt de laatste jaren maar dan eerder in het veld van AA bv. Welke nu veel minder een performantie hit vraagt als vroeger en beter werkt. Ironisch genoeg is dit juist een verbetering die minder en minder zinvol is daar we hopelijk allen toch éénmaal eens naar een hoger resolutie scherm zullen overstappen ... one day .. some day .. eventually .. Jaren geleden kon ik in japan 120" of grotere? tv's zien met 8k resolutie met letterlijk 1 demo filmpje van 10 min, wow! .. tis nog altijd evenveel dromen nu als toen van zo'n tv standaard in je huis
Deze vooruitgang is zelfs op het punt gekomen dat niemand meer kijkt naar de kwaliteit van het beeld/AA ..
Maar deze verbeteringen staan op zijn eigen los van dx en API's die games dienen aan te spreken.

Samenvatting: Ik zou juist een GTX11xx serie bekijken als een kostbesparing (niet werkende RTX cores, of minder grote chips indien je er aparte moet voor bijproduceren) en vooral minder verbruikend. Dus eventueel zou je ze zelfs voor de zelfde prijs kunnen verkopen als de RTX kaarten.
Hierdoor heb je als consument 2 keuzes:
  1. Grotere RTX kaart die meer verbruikt, eventueel luider is en mss minder goed overklockt, deze kaart heeft wel alle opties
  2. Kleinere GTX kaart die minder verbruikt, beter bruikbaar in laptops, minder groot, potentieel stiller en eventueel beter overklokt. Spijtig genoeg zal je de laatste dx opties hiervoor wel moeten missen
Ik zie nVidia ons nog de keuze geven tussen beide, voor hetzelfde geld. Geen idee waarom men plots denkt dat nVidia met een goedkoper alternatief op de proppen zal komen wanneer ze nu toch geen concurrentie hebben (en de aankomende concurrentie is dus zeker niet goedkoper totaan het eind van 2019). AMD's CES presentatie was wel een koude douche in dat opzicht .. int beste geval zelfde prestatie eventueel er wat boven, in dx11 enzo eronder .. maar ze zijn 20 euro goedkoper (indien er genoeg voorraad is). Dit zal echt niets doen aan de prijzen in de eerste helft van 2019. Reken het meerverbruik mee (en de extra warmte/geluid) en je zit eigenlijk op dezelfde prijs.

Specs


  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:44
Verwijderd schreef op donderdag 10 januari 2019 @ 14:59:
@sdk1985
Nvidia suggereert dat deze "G-Sync Compatible" (Nvidia's rebranding van FreeSync) monitors falen voor die beeldkwaliteit tests.
Ik haal dat er toch niet uit, als ik kijk naar de tabel zoals gepost lees ik de 2de kolom toch echt als "hebben 300+ extra tests ondergaan" en dan Ja, ja, Nee en niet als hebben de 300+ tests gefaald.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
lightdestroyer schreef op vrijdag 11 januari 2019 @ 16:24:
[...]


Samenvatting: Ik zou juist een GTX11xx serie bekijken als een kostbesparing (niet werkende RTX cores, of minder grote chips indien je er aparte moet voor bijproduceren) en vooral minder verbruikend. Dus eventueel zou je ze zelfs voor de zelfde prijs kunnen verkopen als de RTX kaarten.
Hierdoor heb je als consument 2 keuzes:
  1. Grotere RTX kaart die meer verbruikt, eventueel luider is en mss minder goed overklockt, deze kaart heeft wel alle opties
  2. Kleinere GTX kaart die minder verbruikt, beter bruikbaar in laptops, minder groot, potentieel stiller en eventueel beter overklokt. Spijtig genoeg zal je de laatste dx opties hiervoor wel moeten missen
Ik zie nVidia ons nog de keuze geven tussen beide, voor hetzelfde geld. Geen idee waarom men plots denkt dat nVidia met een goedkoper alternatief op de proppen zal komen wanneer ze nu toch geen concurrentie hebben (en de aankomende concurrentie is dus zeker niet goedkoper totaan het eind van 2019). AMD's CES presentatie was wel een koude douche in dat opzicht .. int beste geval zelfde prestatie eventueel er wat boven, in dx11 enzo eronder .. maar ze zijn 20 euro goedkoper (indien er genoeg voorraad is). Dit zal echt niets doen aan de prijzen in de eerste helft van 2019. Reken het meerverbruik mee (en de extra warmte/geluid) en je zit eigenlijk op dezelfde prijs.
Ik heb er vanaf 14 dec even uitgelegen dus het kan zijn dat ik het heb gemist, maar die GTX 11 betroffen toch alleen laptop kaarten? Of is er ondertussen al een bron die iets over desktop kaarten heeft losgelaten.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Niemand weet het SDK. Mijn vermoeden is dat het enkel om laptop-kaarten zal gaan om het vermogen te beperken.

[ Voor 5% gewijzigd door Verwijderd op 13-01-2019 01:16 ]


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
sdk1985 schreef op zaterdag 12 januari 2019 @ 15:15:
[...]

Ik heb er vanaf 14 dec even uitgelegen dus het kan zijn dat ik het heb gemist, maar die GTX 11 betroffen toch alleen laptop kaarten? Of is er ondertussen al een bron die iets over desktop kaarten heeft losgelaten.
De vraag is zelf of deze kaarten ooit het "licht" zullen zien, tot nu toe zijn het vooral geruchten of hoop van sommige mensen die wel de performantie winst van de nieuwe serie willen maar niet willen extra betalen voor de extra functionaliteiten/enorm grote gpu die ze toch niet plannen te gebruiken in de eerste jaren (en tegen dan wellicht gewoon een nieuwe videokaart aanschaffen).

Wellicht hangt het ook af van wat AMD uitbrengt. Wie weet indien de VII plots stukken beter is dan AMD claimt bv …
Kunnen ze de 2000 serie even duur houden en toch concurreren met een 11xx serie, tot nu toe is daarvoor echter geen reden toe :/

Specs


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
lightdestroyer schreef op zondag 13 januari 2019 @ 07:31:
[...]

De vraag is zelf of deze kaarten ooit het "licht" zullen zien, tot nu toe zijn het vooral geruchten of hoop van sommige mensen die wel de performantie winst van de nieuwe serie willen maar niet willen extra betalen voor de extra functionaliteiten/enorm grote gpu die ze toch niet plannen te gebruiken in de eerste jaren (en tegen dan wellicht gewoon een nieuwe videokaart aanschaffen).

Wellicht hangt het ook af van wat AMD uitbrengt. Wie weet indien de VII plots stukken beter is dan AMD claimt bv …
Kunnen ze de 2000 serie even duur houden en toch concurreren met een 11xx serie, tot nu toe is daarvoor echter geen reden toe :/
Hmm tja. Heb de keynotes van CES ondertussen bekeken en helaas zoals verwacht heeft AMD op CES niets los gelaten over Navi. Ondertussen is er wel een 7nm Vega van 699 aangekondigd (zou die niet in december 2018 komen?). Die ga je niet in de markt zetten als je binnen 6 maanden met een ander top product komt. (Nvidia zie ik daar nog wel voor aan :P ). Dus voorlopig geen nieuwe midrange en ook geen (prijs) concurrentie in high-end.

Als zou dit niet zo zijn dan lijkt mij een prijsverlaging van RTX nog altijd veel logischer dan een aparte line-up. De laatste cijfers van Nvidia geven een record wat betreft gross margin aan dus daar kan echt wel wat af. Sterker nog wanneer Nvidia Ray tracing op die manier bij de middenmoot weg haalt dan is dat niet gunstig voor de omarming van ray tracing door developers. Momenteel is het in het belang van Nvidia dat zo veel mogelijk ontwikkelaars er mee aan de slag gaan. In ieder geval zolang AMD het niet ondersteund (CES gaf aan dat ze er wel aan werken).

[ Voor 10% gewijzigd door sdk1985 op 13-01-2019 15:21 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Dennism schreef op zaterdag 12 januari 2019 @ 10:28:
[...]


Ik haal dat er toch niet uit, als ik kijk naar de tabel zoals gepost lees ik de 2de kolom toch echt als "hebben 300+ extra tests ondergaan" en dan Ja, ja, Nee en niet als hebben de 300+ tests gefaald.
Ik denk dat als een monitor door de 1e test heen komt ze die andere test ook wel proberen. Kan mss zelfs in dezelfde rig.

Mijn monitor gaat de 1e test al niet halen omdat de 40-75 fps range te klein is. (moet factor 2.4 zijn geloof ik).

Mechwarrior Online: Flapdrol


  • LeStef
  • Registratie: Februari 2015
  • Laatst online: 20-12 11:41
Wanneer gingen die 2060's weer in de rekken liggen? 15 januari? Ben niet meer zeker en kan nergens die kaart vinden.

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
LeStef schreef op maandag 14 januari 2019 @ 15:27:
Wanneer gingen die 2060's weer in de rekken liggen? 15 januari? Ben niet meer zeker en kan nergens die kaart vinden.
Release is idd morgen maar of ze ook daadwerkelijk meteen verkrijgbaar zijn...

  • Zingo
  • Registratie: Mei 2009
  • Laatst online: 17-12 21:31
Ik was hoopvol dat met de release van de RTX2060 wel iets te vinden zou zijn over de prijzen. Tot dusver weet alleen Centralpoint ze te leveren voor prijzen waarop je net zo goed een RTX2070 kan halen. Afwachten maar.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Nieuwe drivers van Nvidia laten nu indd een extra optie zien voor Gsync. Gync comptable stond gelijk al ingeschakeld als ik Free sync ultimate op de monitor inschakel.

Afbeeldingslocatie: https://www.mupload.nl/img/b8queg.jpg

Version 417.71 - WHQL

Gaming Technology

Includes support for NVIDIA GeForce RTX 2060 graphics cards as well as support for G-SYNC compatible monitors

Hier kun je de drivers handmatig downloaden.
https://www.geforce.com/drivers/results/141906

Edit

Als ik bij de Nvidia drivers specifieke monitor instellingen gebruik schakelt Free sync 2 ook nog eens in en HDR werkt dan in eens ook heel anders

[ Voor 14% gewijzigd door Gekke Jantje op 15-01-2019 11:38 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • x3rius
  • Registratie: Januari 2006
  • Laatst online: 16-12 17:39
Zingo schreef op dinsdag 15 januari 2019 @ 09:10:
Ik was hoopvol dat met de release van de RTX2060 wel iets te vinden zou zijn over de prijzen. Tot dusver weet alleen Centralpoint ze te leveren voor prijzen waarop je net zo goed een RTX2070 kan halen. Afwachten maar.
Ik zie hier ook al een aantal varianten staan:
https://www.alternate.nl/NVIDIA/GeForce-RTX-2060
https://azerty.nl/categor...e/nvidia_geforce_rtx_2060

[ Voor 9% gewijzigd door x3rius op 15-01-2019 12:07 ]


Verwijderd

Gekke Jantje schreef op dinsdag 15 januari 2019 @ 11:00:
Nieuwe drivers van Nvidia laten nu indd een extra optie zien voor Gsync. Gync comptable stond gelijk al ingeschakeld als ik Free sync ultimate op de monitor inschakel.

[Afbeelding]

Version 417.71 - WHQL

Gaming Technology

Includes support for NVIDIA GeForce RTX 2060 graphics cards as well as support for G-SYNC compatible monitors

Hier kun je de drivers handmatig downloaden.
https://www.geforce.com/drivers/results/141906

Edit

Als ik bij de Nvidia drivers specifieke monitor instellingen gebruik schakelt Free sync 2 ook nog eens in en HDR werkt dan in eens ook heel anders
Ik krijg inderdaad een slechtere HDR evaring op mijn freesync HDR monitor, jammer dat het niet gelijk goed werkt.
Hopelijk maken ze dat nog beter met de volgende driver.

Ook de naam is misleidend, het is AMD Freesync en geen Gsync compatibel.

[ Voor 3% gewijzigd door Verwijderd op 15-01-2019 12:25 ]


  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op dinsdag 15 januari 2019 @ 12:24:
[...]
Ook de naam is misleidend, het is AMD Freesync en geen Gsync compatibel.
Nee hoor, zowel AMD als nVidia maken gebruik van VESA adaptive sync. AMD heeft het freesync genoemd en nVidia g-sync, maar het is gewoon een VESA standaard. Niks van AMD of nVidia bij.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Verwijderd

Blaat schreef op dinsdag 15 januari 2019 @ 12:28:
[...]


Nee hoor, zowel AMD als nVidia maken gebruik van VESA adaptive sync. AMD heeft het freesync genoemd en nVidia g-sync, maar het is gewoon een VESA standaard. Niks van AMD of nVidia bij.
Ik dacht dat dit weer een manier was van Nvidia om AMD “onderuit” te halen om het Gsync compatible te noemen.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op dinsdag 15 januari 2019 @ 12:32:
[...]

Ik dacht dat dit weer een manier was van Nvidia om AMD “onderuit” te halen om het Gsync compatible te noemen.
Het is zeker een manier van nVidia om AMD onderuit te halen, namelijk door het grote koopargument van AMD weg te nemen; goedkopere monitoren met freesync vs duurdere g-sync schermen.

Maar zeggen dat het g-sync noemen misleidend is omdat het freesync is, is pertinent onwaar. Het is beiden een merkgebonden implementatie van de VESA standaard. Hoe ze dat noemen moeten ze zelf weten en heeft niks met misleiding van doen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Lord_Dain
  • Registratie: Februari 2004
  • Laatst online: 23:19
Dus NVidia heeft mensen jarenlang overpriced monitoren laten kopen terwijl hun GPU's gewoon adaptive sync ondersteunen via de drivers? Lekker hoor!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat was gewoon bekend. Het was altijd al een kwestie van wachten wanneer nVidia zou besluiten het ook toe te voegen in de drivers.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • hosee
  • Registratie: November 2003
  • Laatst online: 05-10-2024
Mijn monitor heeft blijkbaar geen freesync en een max. verversing van 81MHz (Beetje overklokt van 75 naar 81.. :) ).
Heb verder in mijn Nvidia control panel bij de "verticale synchronisatie" adaptief aangezet en Crysis 3 bijv. draait nu netjes op 81fps.
Half Life 2 draait voor onbekende reden toch op 75fps i.p.v. 81 maar ook smooth.

Is die optie dan enigszins vergelijkbaar met freesync of gsync?

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Verwijderd schreef op dinsdag 15 januari 2019 @ 12:24:
[...]

Ik krijg inderdaad een slechtere HDR evaring op mijn freesync HDR monitor, jammer dat het niet gelijk goed werkt.
Hopelijk maken ze dat nog beter met de volgende driver.

Ook de naam is misleidend, het is AMD Freesync en geen Gsync compatibel.
Ik heb de oplossing, op mijn 144hz free sync monitor werkt het allemaal goed tot 120hz, met of zonder HDR. Samsung geeft echter wel aan 48 tot 144hz maar het werkt hier echt goed tot 120fps cap, als ik dan iedere keer een paar fps extra toelaat krijg ik telkens een beetje meer tearing op de muren in BF1. Ik test dit soort zaken altijd in bf1 omdat de muren van huizen altijd enorm gevoelig zijn voor tearing. Overigens werkt het nog niet net zo goed al G-sync qua tearing tegenhouden.

Edit

Een andere betere oplossing is v-sync aanzetten en een fps cap op 143fps. Nu super smooth tot 143 fps zonder mouse lag. Het werkt alleen niet zonder v-sync en enkel alleen een fps cap.

[ Voor 39% gewijzigd door Gekke Jantje op 15-01-2019 17:40 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
hosee schreef op dinsdag 15 januari 2019 @ 14:12:
Half Life 2 draait voor onbekende reden toch op 75fps i.p.v. 81 maar ook smooth.
Bij fullscreen doet niet elk spel hetzelfde, sommige spellen herkennen de "custom" resoluties die je in de control panel toevoegt, andere kijken alleen naar wat de monitor beweert te kunnen.

Mechwarrior Online: Flapdrol


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Blaat schreef op dinsdag 15 januari 2019 @ 12:28:
Nee hoor, zowel AMD als nVidia maken gebruik van VESA adaptive sync. AMD heeft het freesync genoemd en nVidia g-sync, maar het is gewoon een VESA standaard. Niks van AMD of nVidia bij.
AMD heeft Freesync toch ontworpen?
Voor zover ik weet heeft VESA het daarna gestandaardiseerd.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Olaf van der Spek schreef op dinsdag 15 januari 2019 @ 16:16:
[...]

AMD heeft Freesync toch ontworpen?
Voor zover ik weet heeft VESA het daarna gestandaardiseerd.
Andersom. Adaptive sync is onderdeel van DP1.2a, welke geintroduceerd is in Januari 2013. De eerste Freesync implementatie zag pas 2 jaar later het licht. :)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Blaat schreef op dinsdag 15 januari 2019 @ 16:19:
Andersom. Adaptive sync is onderdeel van DP1.2a, welke geintroduceerd is in Januari 2013.
Apart, ik zie hier april 2014: https://vesa.org/featured...splayport-video-standard/
Blijkbaar zat het wel al sinds 2009 in eDP:
Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009.

[ Voor 23% gewijzigd door Olaf van der Spek op 15-01-2019 16:23 ]


  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Nog steeds eerder dan de eerste freesync implementatie. ;)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Blaat schreef op dinsdag 15 januari 2019 @ 16:22:
[...]


Nog steeds eerder dan de eerste freesync implementatie. ;)
The DisplayPort Adaptive-Sync specification was ported from the Embedded DisplayPort specification through a proposal to the VESA group by AMD.

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Zingo schreef op dinsdag 15 januari 2019 @ 09:10:
Ik was hoopvol dat met de release van de RTX2060 wel iets te vinden zou zijn over de prijzen. Tot dusver weet alleen Centralpoint ze te leveren voor prijzen waarop je net zo goed een RTX2070 kan halen. Afwachten maar.
Gewoon ff afwachten de prijs gaat gegarandeerd zakken naarmate er meer aanbod is ;)
categorie: Videokaarten

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
375 bij nvidia zelf lijkt nu de goedkoopste 2060.

Mechwarrior Online: Flapdrol


Verwijderd

haarbal schreef op dinsdag 15 januari 2019 @ 17:55:
375 bij nvidia zelf lijkt nu de goedkoopste 2060.
Moet maximaal 250 zijn.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Zou ik ook wel willen ja, maar voor dat geld is niets snellers te halen.

Mechwarrior Online: Flapdrol


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 22:27
RTX 2060 is het model onder de 2070 geworden. De opvolger van de GTX 1060 word de 1160 en zal rond het prijspunt van de 1060 worden gelanceerd.

  • paragon
  • Registratie: April 2000
  • Laatst online: 20-12 12:10
haarbal schreef op dinsdag 15 januari 2019 @ 17:55:
375 bij nvidia zelf lijkt nu de goedkoopste 2060.
Die had ik in m'n winkelwagen. Voorbij PayPal en uiteindelijk ging de transactie niet door. Zou m'n eerste Nvidia kaart worden sinds een GeForce 2GTS

Verwijderd

stylezzz schreef op dinsdag 15 januari 2019 @ 18:30:
RTX 2060 is het model onder de 2070 geworden. De opvolger van de GTX 1060 word de 1160 en zal rond het prijspunt van de 1060 worden gelanceerd.
Dat is omdat de chip zoveel groter is geworden door die RTX en DLSS.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
stylezzz schreef op dinsdag 15 januari 2019 @ 18:30:
RTX 2060 is het model onder de 2070 geworden. De opvolger van de GTX 1060 word de 1160 en zal rond het prijspunt van de 1060 worden gelanceerd.
Heb je daar een bron voor? Ik zie eerder gewoon een GTX 2050 (Ti) op een wat lager prijspunt verschijnen. Maar kan best zijn dat Nvidia nog even wacht op navi, zeker gezien de voorraden 1060's die ze nog zouden moeten hebben.

[ Voor 25% gewijzigd door sdk1985 op 15-01-2019 22:01 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Verwijderd schreef op dinsdag 15 januari 2019 @ 19:18:
[...]

Dat is omdat de chip zoveel groter is geworden door die RTX en DLSS.
Dat rechtvaardigt de hoge prijs toch niet voor de RTX 2060?
De consument heeft niet gevaagd om een grote chip of DLSS. Het is gewoon een opvolger van de 1060 en alle xx60 kaartjes zitten al jaren rond het prijs punt van 200/250 euro.
De GTX 1060 was net zo snel dan de 980 maar wel gewoon de prijs van een xx60 kaart.

Verwijderd

haarbal schreef op dinsdag 15 januari 2019 @ 18:27:
Zou ik ook wel willen ja, maar voor dat geld is niets snellers te halen.
Als de volgende xx60 kaart (hypothetisch) RTX 3060 500 euro word is het ook goed? Want hij presteert net als een 2080 maar dan goedkoper.

Zo vind ik het niet raar dat bedrijven de prijzen omhoog gooit, als de consument het maar blijft aanschaffen. ;)

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:04

XanderDrake

Build the future!

Lord_Dain schreef op dinsdag 15 januari 2019 @ 12:43:
Dus NVidia heeft mensen jarenlang overpriced monitoren laten kopen terwijl hun GPU's gewoon adaptive sync ondersteunen via de drivers? Lekker hoor!
De dynamische range Hz van G-sync monitors is bijna altijd ruimer dan Freesync monitor, waarbij de paar Freesync monitors met grote Hz ranges ongeveer net zo duur zijn als G-sync monitors. Dus ik vind het niet echt terecht om nVidia's G-sync monitors overpriced te noemen. Ze zijn gewoon higher-end.
De meeste Freesync monitors die goed betaalbaar zijn doen 60-75 Hz op 1080p of 1440p. Goedkope 4k monitoren doen vervolgens 40-60 Hz. Lekker boeiend. Daarvoor zou ik niet specifiek Freesync kopen als ik AMDer was.

Echte snelle reactie snelheden zijn 90 - 144 Hz. En bij games waar dat uitmaakt (E-sports) zijn de graphics settings zo dat je op mid-high end GPUs die FPS ook kan halen, tevens fixed dus geen nood aan dynamische Hz. Alleen games zoals Deus Ex Mankind Divided, welke echt zwaar zijn, hebben veel aan lower range dynamic Hz, daar is de reactietijd niet echt belangrijk. Maar mijn 1080Ti of zelfs 1070 heavy OC kon dat spel bijhouden op 60 Hz V-sync.

Op zich nog steeds mooi spul, maar lang niet de killer app (tenminste, hoe ik er eerst over dacht). Dus leuk dat nVidia het nu ondersteund en suf dat ze het eerst niet deden, maar ik denk toch niet dat ik veel meer dan 60 FPS kan registeren in mn 30+ jaar oude hersenen ;)

Al met al ben ik anders gaan kijken naar adaptive sync/Dynamic Hz, het maakt mij een stuk minder uit tegenwoordig. Doe mij maar features zoals Ultra wide, IPS, HDR en/of OLED.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Verwijderd

De dynamische range Hz van G-sync monitors is bijna altijd ruimer dan Freesync monitor, waarbij de paar Freesync monitors met grote Hz ranges ongeveer net zo duur zijn als G-sync monitors.
Onzin!
Vergelijk de 1440p IPS monitors.
Verwijderd schreef op dinsdag 15 januari 2019 @ 22:32:
[...]

Dat rechtvaardigt de hoge prijs toch niet voor de RTX 2060?
Praktisch gezien rechtvaardigt dat wel een hogere prijs aangezien het duurder is om het te maken. De relevante vraag is of dat het een zoveel hogere prijs rechtvaardigt. Waarschijnlijk niet aangezien Nvidia eveneens nog steeds weinig concurrentie heeft. Vega56 is een prima concurrent van de 1070 en 1070 Ti maar in de USA kan je die bijna niet kopen, in ieder geval niet de goede kaarten van Sapphire. Hier kan je ze overigens wel kopen (Caseking). Als je weinig concurrentie hebt dan gaat die prijs ook omhoog. Wie zijn hiervoor verantwoordelijk? De klanten van Nvidia die kaarten blijven kopen voor te hoge prijzen. Zo simpel is het. Vind je de prijs te hoog? Niet mopperen maar niet kopen en wachten totdat de prijzen redelijker zijn en misschien wachten op het aanbod van AMD nadat Navi uitkomt.
Betaal je de prijs? Dan niet mopperen/klagen, want je hebt het er blijkbaar voor over.

[ Voor 10% gewijzigd door Verwijderd op 16-01-2019 09:17 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Verwijderd schreef op dinsdag 15 januari 2019 @ 22:35:
Als de volgende xx60 kaart (hypothetisch) RTX 3060 500 euro word is het ook goed? Want hij presteert net als een 2080 maar dan goedkoper.

Zo vind ik het niet raar dat bedrijven de prijzen omhoog gooit, als de consument het maar blijft aanschaffen. ;)
Het maakt mij niet uit welk nummertje ze op de kaart plakken nee. Als de 3050 ~2x zo snel wordt als de huidige kaart, voor een redelijke prijs, haal ik die.
XanderDrake schreef op woensdag 16 januari 2019 @ 09:09:
De meeste Freesync monitors die goed betaalbaar zijn doen 60-75 Hz op 1080p of 1440p. Goedkope 4k monitoren doen vervolgens 40-60 Hz. Lekker boeiend. Daarvoor zou ik niet specifiek Freesync kopen als ik AMDer was.
Ik wel. Mijn monitor doet 40-75 hz, binnen de range houden is vrij makkelijk. Als ik het uitzet mis ik het gelijk.

Overigens durft ik te beweren dat zelfs een range van 57-61 zin zou hebben. Vsync aan, met ingame limiter cappen op 60. Het resultaat zal minder input lag hebben dan vsync en geen tearing hebben.

Mechwarrior Online: Flapdrol


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 22:27
sdk1985 schreef op dinsdag 15 januari 2019 @ 22:01:
[...]

Heb je daar een bron voor? Ik zie eerder gewoon een GTX 2050 (Ti) op een wat lager prijspunt verschijnen. Maar kan best zijn dat Nvidia nog even wacht op navi, zeker gezien de voorraden 1060's die ze nog zouden moeten hebben.
Leest niemand het nieuws meer?

https://nl.hardware.info/...res-gtx-1160-eerste-model

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:04

XanderDrake

Build the future!

haarbal schreef op woensdag 16 januari 2019 @ 12:03:
Ik wel. Mijn monitor doet 40-75 hz, binnen de range houden is vrij makkelijk. Als ik het uitzet mis ik het gelijk.

Overigens durft ik te beweren dat zelfs een range van 57-61 zin zou hebben. Vsync aan, met ingame limiter cappen op 60. Het resultaat zal minder input lag hebben dan vsync en geen tearing hebben.
Ik hoor hier zo veel meningen over. Ik zou graag eens wetenschappelijke tests zien, frame registratie, reactie snelheid, performance in mp games. Maar niemand is zo rigoureus, ook niet mensen zoals Linux Tech Tips of HWi.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
haarbal schreef op woensdag 16 januari 2019 @ 12:03:
Overigens durft ik te beweren dat zelfs een range van 57-61 zin zou hebben. Vsync aan, met ingame limiter cappen op 60. Het resultaat zal minder input lag hebben dan vsync en geen tearing hebben.
Als de videokaart snel genoeg is om de maximale frametime onder 16.6ms te houden maakt het geen verschil, toch?
Als ie niet snel genoeg is, wat is het voordeel van zo'n beperkt bereik dan?

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Een gerucht op hardware.info op basis van videocardz die zich op een externe bron met een password erop beroepen durf ik geen nieuws te noemen. Maar goed, dat ligt eigenlijk meer aan de berichtgeving die hardware.info sinds de overname door de persgroep plaatst dan dat ik het jouw kan aanrekenen. Beste wat ik ervan kan maken is conjecture
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 15:05:
[...]

Als de videokaart snel genoeg is om de maximale frametime onder 16.6ms te houden maakt het geen verschil, toch?
Als ie niet snel genoeg is, wat is het voordeel van zo'n beperkt bereik dan?
Vermoedelijk doelt hij op het fenomeen dat een game geen strakke frame rate heeft, ook al gebruik je een fps limiter. Strak 60 fps krijg je alleen als je gaat frame bufferen en dat wil je ivm de bijbehorende lag liever niet.

[ Voor 27% gewijzigd door sdk1985 op 16-01-2019 15:17 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
sdk1985 schreef op woensdag 16 januari 2019 @ 15:13:
Vermoedelijk doelt hij op het fenomeen dat een game geen strakke frame rate heeft, ook al gebruik je een fps limiter. Strak 60 fps krijg je alleen als je gaat frame bufferen en dat wil je ivm de bijbehorende lag liever niet.
Wat bedoel je met bufferen? Want met een klein sync bereik buffer je toch net zo hard?

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Verwijderd schreef op dinsdag 15 januari 2019 @ 22:32:
[...]

Dat rechtvaardigt de hoge prijs toch niet voor de RTX 2060?
De consument heeft niet gevaagd om een grote chip of DLSS. Het is gewoon een opvolger van de 1060 en alle xx60 kaartjes zitten al jaren rond het prijs punt van 200/250 euro.
De GTX 1060 was net zo snel dan de 980 maar wel gewoon de prijs van een xx60 kaart.
Deze kaart lijkt eigenlijk veel op de GTX 660 Ti. Die had dezelfde chip als de GTX 670 (en de GTX 680) maar dan wel met een smallere bandbreedte. Nvidia doet nu met de RTX 2060 eigenlijk vrijwel hetzelfde. Toen waren de prijzen $299 voor de 660 Ti, $399 voor de 670 en $499 voor de 680. Nu is dat $349, $499en $699. Nvidia geeft deze keer dus eigenlijk meer korting aan de 6 serie op basis van de high-end chip, alleen de high-end serie is enorm in prijs gestegen dus is het eindresultaat alsnog $50 duurder dan in 2012 het geval was.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 15:05:
[...]

Als de videokaart snel genoeg is om de maximale frametime onder 16.6ms te houden maakt het geen verschil, toch?
Als ie niet snel genoeg is, wat is het voordeel van zo'n beperkt bereik dan?
Het is just in time delivery.

Je spel heeft een cap op 60, dus elke 1/60e seconde wordt de muis gepolled, de cpu doet zijn werk, stuurt de data door naar de gpu, die vervolgens de frame uitrekent, daarna kan de frame gelijk worden weergegeven, aangezien de vorige frame net geheel op het beeld staat en het beeldscherm staat te wachten op de nieuwe frame.

Bij gewone vsync houdt het scherm de stroom tegen, zegt tegen de gpu dat de nieuwe frame nog niet kan worden weergegeven, dus rekent de gpu naar een buffer, en geeft dat door aan de cpu die misschien ook gaat bufferen, uiteindelijk wordt de latency groter omdat er in die ketting de hele tijd gewacht moet worden.

Mechwarrior Online: Flapdrol


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
haarbal schreef op woensdag 16 januari 2019 @ 15:26:
Bij gewone vsync houdt het scherm de stroom tegen,
Bij adaptive sync ook.
zegt tegen de gpu dat de nieuwe frame nog niet kan worden weergegeven, dus rekent de gpu naar een buffer,
GPUs rekenen altijd naar een buffer. Een buffer is ook gewoon maar een stukje van het normale geheugen (op de videokaart).

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 15:28:
GPUs rekenen altijd naar een buffer. Een buffer is ook gewoon maar een stukje van het normale geheugen (op de videokaart).
Ja, maar zodra het klaar is wordt het weergegeven, mits je een ingame fps limiter hebt.

Bij normale vsync blijft het nog even in de buffer hangen.

Mechwarrior Online: Flapdrol


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
haarbal schreef op woensdag 16 januari 2019 @ 15:30:
mits je een ingame fps limiter hebt.
Tenzij? ;)
Bij normale vsync blijft het nog even in de buffer hangen.
Als het scherm nog niet klaar is voor het volgende beeld gebeurd dat bij adaptive sync ook gewoon.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 15:20:
[...]

Wat bedoel je met bufferen? Want met een klein sync bereik buffer je toch net zo hard?
Versimpelde uitleg:
Als je v-sync aanzet dan gaat je software naar een buffer schrijven. Nadat de monitor klaar is voor zijn refresh krijgt deze de eerst volgende volledig gerenderde frame te zien. In de tijden van double buffering gaf dit enorme vertraging, met tripple buffering is dit al beter (dan kan de software gewoon doorwerken). Echter hetgeen op het scherm verschijnt loopt per definitie achter de feiten aan omdat halverwege de refresh de informatie eigenlijk alweer anders is. Op 60 Hz duurt zo'n refresh best lang.

Als je v-sync uitzet dan kun je gedurende je refresh simpelweg een andere frame weergeven. Daardoor krijg je de tearing, maar je hebt dan onder je tear in ieder geval wel de nieuwste informatie. De grootte van de tear geeft eigenlijk goed aan hoeveel informatie je zou missen met v-sync. Schud maar eens snel heen en weer in een shooter en dan zie je het wel.

Bij de sync technieken ben je niet meer afhankelijk van de vaste intervallen en kun je de monitor elk frame, tot aan zijn max Hz, laten weergeven. Daardoor krijg je geen tearing en wordt er ook snel gestart met weergeven van de nieuwste informatie.

[ Voor 6% gewijzigd door sdk1985 op 16-01-2019 15:34 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
sdk1985 schreef op woensdag 16 januari 2019 @ 15:33:
[...]

Versimpelde uitleg:
Als je v-sync aanzet dan gaat je software naar een buffer schrijven. Nadat de monitor klaar is voor zijn refresh krijgt deze de eerst volgende volledig gerenderde frame te zien. In de tijden van double buffering gaf dit enorme vertraging, met tripple buffering is dit al beter (dan kan de software gewoon doorwerken). Echter hetgeen op het scherm verschijnt loopt per definitie achter de feiten aan omdat halverwege de refresh de informatie eigenlijk alweer anders is. Op 60 Hz duurt zo'n refresh best lang.
Dit geldt allemaal ook voor adaptive sync, toch?

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Nee, mits. Je moet de ingame limiter gebruiken, anders is het resultaat idd identiek aan vsync.

Mechwarrior Online: Flapdrol


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 15:35:
[...]

Dit geldt allemaal ook voor adaptive sync, toch?
Nee want dan zou je niets hebben aan g-sync/free-sync/enz. Het basis idee van g-sync is dat elke frame die je doorstuurt wordt weergeven. Haal jij 56 fps dan gaat de monitor op 56 Hz weergeven. Bij een ouderwetse 60 Hz monitor met v-sync zou dat niet werken, dan is de monitor met 1/60e sneller klaar dan de software met 1/56e en zal hij dus een oudere frame uit de buffer nodig hebben. Deze oudere frame blijft vervolgens weer 1/60e in beeld. Tegen die tijd zal er op basis van diezelfde 1/56e wel weer een nieuwe frame klaar staan, maar die is dan ook alweer 'oud' aan gezien 2x 1/56e 35,7ms is en je dan op basis van 1/60e met 33ms net te vroeg was en die pas de derde keer bij 50,0 ms kunt mee pakken. Dat even los van het feit dat je uberhaupt aan het bufferen bent en de vraag is hoeveel vertraging dat al dan niet veroorzaakt met moderne tripple buffering techniek.
haarbal schreef op woensdag 16 januari 2019 @ 15:36:
[...]

Nee, mits. Je moet de ingame limiter gebruiken, anders is het resultaat idd identiek aan vsync.
Rivatuner heb ik tot heden ook niet kunnen betrappen op het veroorzaken van input lag (op 120 fps).

[ Voor 18% gewijzigd door sdk1985 op 16-01-2019 15:45 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
sdk1985 schreef op woensdag 16 januari 2019 @ 15:43:
[...]

Nee want dan zou je niets hebben aan g-sync/free-sync/enz. Het basis idee van g-sync
Ik ben bekend met het idee. Kun je misschien aangeven welke van de claims niet geldt voor a-sync (met een zeer beperkt bereik)?

[ Voor 4% gewijzigd door Olaf van der Spek op 16-01-2019 15:47 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Olaf van der Spek schreef op woensdag 16 januari 2019 @ 15:46:
[...]

Ik ben bekend met het idee. Kun je misschien aangeven welke van de claims niet geldt voor a-sync?
Ik heb nu twee keer enkele minuten een alinea geschreven waarop jij binnen 10 seconde een tegenvraag post. Wat mij betreft is het duidelijk genoeg zo. Ik ben het duidelijk eens met de suggestie dat een monitor met een extreem beperkt VRR ook toegevoegde waarde kan hebben. Dit op basis van hoe ik zelf momenteel Rainbow Six Siege speel, met framerate limiter en een 99% stabiele frame rate. Daar krijg ik in de huidige setup tearing en dat zou zo'n adaptive sync voorkomen. Daar zit het nut van adaptive sync. Tegelijktertijd zou in mijn geval zou een 120 Hz monitor die tevens kan schakelen tussen 104 en 120 Hz perfect zijn. Mijn 1% low is namelijk 9,59ms ofwel 104 FPS aldus FRAPS. Alles daaronder haal ik niet, mijn systeem is snel genoeg. Zou ik een 60 fps cap gebruiken dan kan ik mij prima voorstellen dat een eventuele schommelingen niet lager uit komt dan de voorgestelde 57 tot 61 fps. Op mij komt het idee dus niet gek over. (Los van dat ik voor shooters liever niet op 60 fps wil gamen ).

[ Voor 17% gewijzigd door sdk1985 op 16-01-2019 16:00 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20-12 17:41
Laten we deze dan nog maar eens posten.

ingame limiter>rtss>vsync ok?

Mechwarrior Online: Flapdrol


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op woensdag 16 januari 2019 @ 15:33:
[...]

Versimpelde uitleg:
Als je v-sync aanzet dan gaat je software naar een buffer schrijven. Nadat de monitor klaar is voor zijn refresh krijgt deze de eerst volgende volledig gerenderde frame te zien. In de tijden van double buffering gaf dit enorme vertraging, met tripple buffering is dit al beter (dan kan de software gewoon doorwerken). Echter hetgeen op het scherm verschijnt loopt per definitie achter de feiten aan omdat halverwege de refresh de informatie eigenlijk alweer anders is. Op 60 Hz duurt zo'n refresh best lang.

Als je v-sync uitzet dan kun je gedurende je refresh simpelweg een andere frame weergeven. Daardoor krijg je de tearing, maar je hebt dan onder je tear in ieder geval wel de nieuwste informatie. De grootte van de tear geeft eigenlijk goed aan hoeveel informatie je zou missen met v-sync. Schud maar eens snel heen en weer in een shooter en dan zie je het wel.

Bij de sync technieken ben je niet meer afhankelijk van de vaste intervallen en kun je de monitor elk frame, tot aan zijn max Hz, laten weergeven. Daardoor krijg je geen tearing en wordt er ook snel gestart met weergeven van de nieuwste informatie.
Die vertraging is er helaas nog steeds (dacht ik). Bij v-sync heb je minder vertraging dan bij triple buffering, doordat je maar 1 frame extra in de buffer hebt. Bij triple buffering zijn dat er 2 waardoor een frame langer in de buffers zit. Voordeel is wel dat het fps waarop je gelocked zit meer variatie (vaak hoger) kan hebben dan met double buffering. De vertraging per frame in de buffer kan wel lager zijn dan bij v-sync, omdat je dus meer variatie in de framerate hebt.

In het kort:
Vsync: 60, 30, 20, 15
Tripple buffering: volgens mij ook 45 etc... ik weet niet waarmee hij precies deelt.

Deze is wel interessant:
https://www.techspot.com/...how-many-fps-do-you-need/

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Sp3ci3s8472 schreef op woensdag 16 januari 2019 @ 16:37:
[...]


Die vertraging is er helaas nog steeds (dacht ik). Bij v-sync heb je minder vertraging dan bij triple buffering, doordat je maar 1 frame extra in de buffer hebt. Bij triple buffering zijn dat er 2 waardoor een frame langer in de buffers zit. Voordeel is wel dat het fps waarop je gelocked zit meer variatie (vaak hoger) kan hebben dan met double buffering. De vertraging per frame in de buffer kan wel lager zijn dan bij v-sync, omdat je dus meer variatie in de framerate hebt.

In het kort:
Vsync: 60, 30, 20, 15
Tripple buffering: volgens mij ook 45 etc... ik weet niet waarmee hij precies deelt.

Deze is wel interessant:
https://www.techspot.com/...how-many-fps-do-you-need/
Er is wat verwarring over tripple buffering, sommige games noemen 3 frames bewaren tripple buffering maar ik doelde op de techniek die de meest recente frame uit de buffers pakt. Zie https://www.anandtech.com/show/2794/3

Verder wel een duidelijk stukje op techspot, goede link!
Depending on the kind of game you’re playing, the difference can be anything from very noticeable, to no difference whatsoever. A fast paced game like CS: GO running at 400 FPS on a 60 Hz monitor, with input latency at best around 2.5ms, will feel significantly more responsive to your mouse movements than if you were running the same game at 60 FPS with 16.7ms of latency (or more).

In both cases the display is only showing you a new frame 60 times a second, so it won’t feel as smooth as on a 144 Hz or 240 Hz display. But the difference in input latency is enormous; running at 400 FPS allows you to get your inputs to the display nearly 7 times faster, if not more. Try it out for yourself and you’re bound to feel the difference in responsiveness.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Iets wat voor mij nog niet duidelijk is, waarom is VSync in het algemeen erger qua inputlag dan wat je zou denken op basis van de 60 FPS?
Wordt er meestal triple buffering gebruikt zonder dat het wordt vermeld of zo? Typisch zit je op 50-100 ms bij VSync? Ik heb weleens per ongeluk een spel gespeeld met VSync (Mass Effect 2/3, Deus Ex Human Revolution, Borderlands2), binnen een minuut zat ik in het menu omdat dat dat niet te doen is. Bij LA Noire kan het helaas niet worden uitgeschakeld en het spel is voor mij praktisch onspeelbaar qua besturing (het is dat de daadwerkelijke gameplay van dat spel de moeite waard is).



Ik moet zeggen dat ik inderdaad bij een 60 Hz monitor wel verschil voel tussen 60 FPS en >80 FPS. Het zit hem erin of dat muisbeweging nog in het eerstvolgende plaatje verwerkt wordt of daarna pas.
Wat betreft de grootste leugen uit de gamingbenchmarks (als je denkt aan lies, damned lies and statistics), bedenk dat het verschil in framerendertijd kleiner wordt per X FPS naarmate de FPS hoger is. Van Scott Wasson.
Afbeeldingslocatie: https://pbs.twimg.com/media/DcszUGZV0AAGfVL.jpg:small
Aan dit plaatje kan je eveneens zien dat 100 FPS eigenlijk wel prima is, 60 vs. 100 maakt een enorm groot verschil, 100 vs. 144, dat maakt relatief weinig verschil.
offtopic:
En die arme consolegamers, 33 ms. Die inputlag voel je!

[ Voor 73% gewijzigd door Verwijderd op 16-01-2019 22:14 ]


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Website Videocardz komt opnieuw met het gerucht over een nieuwe Nvidia-kaart zonder RTX cores die dan GTX 1660Ti zou gaan moeten heten:

https://videocardz.com/ne...o-feature-1536-cuda-cores
https://www.eteknix.com/n...gest-sub-2060-experience/

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dat ding gaat zeker komen. nvidia heeft iets nodig op dat prijspunt nu ze alles een laag omhoog hebben geschoven.

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

choogen schreef op donderdag 17 januari 2019 @ 19:13:
Website Videocardz komt opnieuw met het gerucht over een nieuwe Nvidia-kaart zonder RTX cores die dan GTX 1660Ti zou gaan moeten heten:

https://videocardz.com/ne...o-feature-1536-cuda-cores
https://www.eteknix.com/n...gest-sub-2060-experience/
Zo lang als het allemaal onder de RTX2060 zit qua performance level. Onder de cut down TU106 (RTX2060 dus), zal Nvidia geen RT cores noch Tensor cores meer toepassen omdat ze dan echt elke marge gaan wegvagen. De kaart dan als RTX labelen is zelfs voor Nvidia te verwarrend en misleidend. Kan dus zomaar GTX11xx worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Verwijderd schreef op woensdag 16 januari 2019 @ 22:05:
Iets wat voor mij nog niet duidelijk is, waarom is VSync in het algemeen erger qua inputlag dan wat je zou denken op basis van de 60 FPS?
Wordt er meestal triple buffering gebruikt zonder dat het wordt vermeld of zo? Typisch zit je op 50-100 ms bij VSync? Ik heb weleens per ongeluk een spel gespeeld met VSync (Mass Effect 2/3, Deus Ex Human Revolution, Borderlands2), binnen een minuut zat ik in het menu omdat dat dat niet te doen is. Bij LA Noire kan het helaas niet worden uitgeschakeld en het spel is voor mij praktisch onspeelbaar qua besturing (het is dat de daadwerkelijke gameplay van dat spel de moeite waard is).



Ik moet zeggen dat ik inderdaad bij een 60 Hz monitor wel verschil voel tussen 60 FPS en >80 FPS. Het zit hem erin of dat muisbeweging nog in het eerstvolgende plaatje verwerkt wordt of daarna pas.
Wat betreft de grootste leugen uit de gamingbenchmarks (als je denkt aan lies, damned lies and statistics), bedenk dat het verschil in framerendertijd kleiner wordt per X FPS naarmate de FPS hoger is. Van Scott Wasson.
[Afbeelding]
Aan dit plaatje kan je eveneens zien dat 100 FPS eigenlijk wel prima is, 60 vs. 100 maakt een enorm groot verschil, 100 vs. 144, dat maakt relatief weinig verschil.
offtopic:
En die arme consolegamers, 33 ms. Die inputlag voel je!
Was je vorig jaar niet fervent aan het argumenteren dat meer dan 60 fps geen nut had :> ? Verder mee eens dat je het verschil merkt. Tussen 90 en 120 fps vind ik het persoonlijk al lastiger te onderscheiden (op een 60 Hz scherm).

Anyway @Sp3ci3s8472 plaatste net deze link waarbij duidelijk met een plaatje wordt uitgelegd waarom 400 fps nuttig kan zijn op een 60 Hz monitor:
Now let’s look at the Vsync off diagram. The GPU continuously renders regardless of when the display is refreshing, taking 5ms to turn your input into a complete frame. The display can then begin displaying that new frame immediately, albeit it might be only part of that frame. The result is the latency between your input to the game, and when the display can begin showing the results of that input, reduces from 16.7ms to just 5ms. And there won’t be any additional buffers in real world implementations; it’s as fast as that, plus your monitor’s input lag.
And that's where you get the advantage. In this example, running at 200 FPS with Vsync off on a 60 Hz monitor reduces input latency to 5ms, whereas with Vsync on, that latency is at least 16.7ms, if not more.
Even though the display is not able to show all 200 frames per second in its entirety, what the display does show every 1/60th of a second is produced from an input much closer in time to that frame.
This phenomenon, of course, also applies with high refresh monitors. At 144 Hz, for example, you will be able to see many more frames each second so you’ll get a smoother and more responsive experience overall. But running at 200 FPS with Vsync off rather than 144 FPS with Vsync on will still give you a difference between 5ms and upwards of 7ms of input latency.

Now when we’re talking about millisecond differences, you’re probably wondering if you can actually notice this difference in games.
Depending on the kind of game you’re playing, the difference can be anything from very noticeable, to no difference whatsoever. A fast paced game like CS: GO running at 400 FPS on a 60 Hz monitor, with input latency at best around 2.5ms, will feel significantly more responsive to your mouse movements than if you were running the same game at 60 FPS with 16.7ms of latency (or more).

In both cases the display is only showing you a new frame 60 times a second, so it won’t feel as smooth as on a 144 Hz or 240 Hz display. But the difference in input latency is enormous; running at 400 FPS allows you to get your inputs to the display nearly 7 times faster, if not more. Try it out for yourself and you’re bound to feel the difference in responsiveness.
Lijkt mij dat je met een 60 Hz sync monitor kun je alsnog slechter af kunt zijn dan een uncapped unsynced 60 Hz scherm qua input lag. Bij een 144 Hz scherm speelt dat natuurlijk veel minder.

[ Voor 4% gewijzigd door sdk1985 op 18-01-2019 18:53 . Reden: iets aardiger gefraseerd ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
haarbal schreef op woensdag 16 januari 2019 @ 16:05:
Laten we deze dan nog maar eens posten.
[YouTube: FPS Limiter Lag Analysis For G-Sync & V-Sync]
ingame limiter>rtss>vsync ok?
Dit is precies wat ik mij afvroeg; werkt f/g-sync wel lekker in combinatie met externe frame rate limiters. Lijkt erop dat riva tuner het nog prima doet, in geval dat de game zelf een dergelijk systeem niet heeft. Wel jammer dat no-sync/no limit er niet bij staat.

Interessant!

[ Voor 4% gewijzigd door sdk1985 op 18-01-2019 18:49 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

sdk1985 schreef op vrijdag 18 januari 2019 @ 18:38:
[...]

Was je vorig jaar niet fervent aan het argumenteren dat meer dan 60 fps geen nut had :> ?
Nee! Ik beargumenteerde dat het nut veel geringer is met 60 Hz en >60 FPS dan met >>60 Hz en >60 FPS. Ik heb echter mogelijk wel onderschat hoe groot het verschil is ondanks dat ik met gaming het verschil duidelijk merk tussen 60 FPS en 90 FPS. Ik onderschatte wellicht hoe vaak het gebeurt dat je input een frame later wordt verwerkt bij 60 FPS op 60 Hz vs. 90 FPS op 60 Hz
sdk1985 schreef op vrijdag 18 januari 2019 @ 18:48:
[...]

Dit is precies wat ik mij afvroeg; werkt f/g-sync wel lekker in combinatie met externe frame rate limiters.
Dat de grafische kaart een lagere FPS heeft zou niet de adaptive sync moeten verstoren aangezien dat pas optreedt op het moment dat een frame wordt aangeboden?

[ Voor 25% gewijzigd door Verwijderd op 18-01-2019 19:42 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
Momenteel zie ik voorzichtige bevestiging voor mijn hypothese dat de 11xx (1160) puur een laptop reeks wordt. Hele trage scores en een cpu die op 2.1 GHz loopt: https://videocardz.com/ne...-benchmark-results-leaked

[ Voor 23% gewijzigd door sdk1985 op 21-01-2019 22:05 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
sdk1985 schreef op maandag 21 januari 2019 @ 22:05:
Momenteel zie ik voorzichtige bevestiging voor mijn hypothese dat de 11xx (1160) puur een laptop reeks wordt. Hele trage scores en een cpu die op 2.1 GHz loopt: https://videocardz.com/ne...-benchmark-results-leaked
Ik hoop dat het echt aan de cpu ligt, anders kan je véél beter een tweede hands 1060 kopen (geen idee waar je de mining varianten in China voor 75 euro kan vinden, maar voor 130 heb je al de 3gb's) en daarmee nog een jaartje wachten tot de volgende series ...
250-300 euro voor een kaart die 15-25% beter doet dan een 2016 kaart :/

Soit in een laptop is het natuurlijk wel logisch elke winst is mooi meegenomen daar je de kaart een jaar of 2-3 later niet kan upgraden. In een desktop zie ik het nut ervan amper in. Koop jezelf een tweede hands aan de helft (of mss zelf lager) aan de prijs en OC hem tot je aan ongeveer dezelfde performantie geraakt :P.

Maar indien het "laptop-only" wordt gaat er toch snel een GTX 2050 mogen komen daar indien de voorraad aan GTX1060's effectief uitgeput geraakt je plots geen nVidia kaart meer kan kopen in de range waarin de meeste kaarten worden verkocht, totaal onlogisch. En waarom zouden ze dan een GTX 2050 + een GTX1160 laptop only combinatie verkopen .. één ding is duidelijk de overschotten aan véél te dure nieuwe GTX 1060 kaarten heeft ervoor gezorgd dat heel de line up qua pricing om zeep is. En daarbij moet je dan nog rekening houden met de grote voorraad aan 2de hands 1060's die op de markt komen (jajaa dat heb je nu éénmaal voor als je 2 jaar niet vooruitgaat mag je tegen de vorige reeks gaan concurreren aan tweedehands prijzen).

Spijtig dat Navi uitstel heeft als we pech hebben is hierdoor de druk van de ketel voor nVidia om goedkopere kaarten te lanceren :-(
Trouwens ik hou m'n hart vast voor Navi, het is duidelijk dat deze ontwikkeld is voor laag verbruik (Apple hardware en consoles). Sowieso momenteel een zwak punt bij AMD als het dan niet mooi lineair schaalt zitten we met een AMD serie die qua performantie ook amper verbeteringen toont maar wel duurder wordt dankzij een duurder procédé en geheugen. Als ze al veel focus kunnen leggen op discrete gpu's. Indien de productie/performantie van de console gpu's tegenvalt zullen ze wellicht daar nog veel mogen aan werken.
Het weglaten van een Blu-ray lezer enzoverder kan wel kosten besparen maar zowel Sony als MS kunnen het toch niet verantwoorden om een fohn voor onder de tv te verkopen.

PS: Ik blijf overal geruchten lezen dat Samsung 7nm productie van de nVidia kaarten op zich zal nemen heeft iemand daar al een goede bron voor gevonden? Of is het allemaal terug te leiden tot hetzelde vage gerucht? Dat zou er wel voor zorgen dat de 7nm kaarten pas voor eind dit jaar/begin volgend jaar komen in nVidia's geval. Nu als de slechte kwaliteit van de Navi's gelinkt kunnen worden aan het 7nm proces van TSMC kennen we misschien wel de oorzaak waarom nVidia van producent heeft veranderd.
En het is eerder normaal dat nVidia wat achterloopt qua productieprocédé vs ATI/AMD welke vroeger hierin veel avontuurlijker was (met de nodige positieve en negatieve gevolgen). Maar positief nieuws voor de consument is het niet .. nog een jaar vast zitten aan een RTX serie die amper vooruitgang was voor de meeste gamers die niet 600+ wensen uit te geven aan 1 component.

Specs


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
sdk1985 schreef op maandag 21 januari 2019 @ 22:05:
Momenteel zie ik voorzichtige bevestiging voor mijn hypothese dat de 11xx (1160) puur een laptop reeks wordt. Hele trage scores en een cpu die op 2.1 GHz loopt: https://videocardz.com/ne...-benchmark-results-leaked
Bedoel je 1660? :p

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

lightdestroyer schreef op dinsdag 22 januari 2019 @ 10:48:
[...]

Ik hoop dat het echt aan de cpu ligt, anders kan je véél beter een tweede hands 1060 kopen (geen idee waar je de mining varianten in China voor 75 euro kan vinden, maar voor 130 heb je al de 3gb's) en daarmee nog een jaartje wachten tot de volgende series ...
250-300 euro voor een kaart die 15-25% beter doet dan een 2016 kaart :/

Soit in een laptop is het natuurlijk wel logisch elke winst is mooi meegenomen daar je de kaart een jaar of 2-3 later niet kan upgraden. In een desktop zie ik het nut ervan amper in. Koop jezelf een tweede hands aan de helft (of mss zelf lager) aan de prijs en OC hem tot je aan ongeveer dezelfde performantie geraakt :P.
Het gaat denk ik niet aan de CPU liggen, helaas. :/
TU116 zou een 1536 cuda core chip zijn. Nu weten we dat een Turing ongeveer 20% sneller is op cuda core basis dan Maxwell/Pascal. Dat hebben de RTX2060, 2070 en 2080 wel bewezen. Pakken we dan de volgende stap, de GTX1160, dan komt die ongeveer uit op GTX1070 niveau, misschien iets lager. Reken er maar op dat dit de volgende kaart gaat zijn.

Nvidia kan ook niet meer verder met RTX features toevoegen omdat die chips enorm zijn. De marges op de RTX2060 zullen al relatief smal zijn. Uiteraard zullen de AIB's ervoor mogen opdraaien, maar Nvidia zal ook niet veel verdienen. Een niveau lager en RT cores/Tensor cores zijn onrendabel omdat de chips te groot worden.

Ik ben er dus wel van overtuigd dat die GTX1160 eraan zit te komen. Dat gaat je nieuwe "midrange" worden voor €300. Tja, de sprong in prijs/prestatie is in ieder geval beter dan met de RTX2060-2080...
Maar indien het "laptop-only" wordt gaat er toch snel een GTX 2050 mogen komen daar indien de voorraad aan GTX1060's effectief uitgeput geraakt je plots geen nVidia kaart meer kan kopen in de range waarin de meeste kaarten worden verkocht, totaal onlogisch. En waarom zouden ze dan een GTX 2050 + een GTX1160 laptop only combinatie verkopen .. één ding is duidelijk de overschotten aan véél te dure nieuwe GTX 1060 kaarten heeft ervoor gezorgd dat heel de line up qua pricing om zeep is. En daarbij moet je dan nog rekening houden met de grote voorraad aan 2de hands 1060's die op de markt komen (jajaa dat heb je nu éénmaal voor als je 2 jaar niet vooruitgaat mag je tegen de vorige reeks gaan concurreren aan tweedehands prijzen).
Het geeft niks met Pascal overschotten te maken. Nvidia vraagt gewoon wat ze kunnen vragen. Mensen betalen bezopen prijzen zoals €800 voor een RTX2080 gewoon elke keer, waardoor Nvidia elke keer weer duurder word. Het enige dat Nvidia nu tegenzit is dat alle RTX features de Turing chips enorm hebben gemaakt. Marges zullen dus kleiner zijn dan met Pascal.

Verder zal Nvidia TU116 niet lanceren voordat de voorraad GP104 en GP106 echt op is. Dat kan nog wel even gaan duren. Laat dat nu potentieel in het voordeel van AMD gaan werken.
Spijtig dat Navi uitstel heeft als we pech hebben is hierdoor de druk van de ketel voor nVidia om goedkopere kaarten te lanceren :-(
Even heel bot, maar AMD bestaat dus niet om de druk op Nvidia op te voeren. Dat is precies de mentaliteit die de huidige prijzen van Nvidia heeft gecreëerd. Als AMD competitief is, koop alsjeblieft eens een kaart van ze. Anders heb je werkelijk het recht niet om over Nvidia haar prijzen te klagen. ;)
Trouwens ik hou m'n hart vast voor Navi, het is duidelijk dat deze ontwikkeld is voor laag verbruik (Apple hardware en consoles). Sowieso momenteel een zwak punt bij AMD als het dan niet mooi lineair schaalt zitten we met een AMD serie die qua performantie ook amper verbeteringen toont maar wel duurder wordt dankzij een duurder procédé en geheugen. Als ze al veel focus kunnen leggen op discrete gpu's. Indien de productie/performantie van de console gpu's tegenvalt zullen ze wellicht daar nog veel mogen aan werken.
Het weglaten van een Blu-ray lezer enzoverder kan wel kosten besparen maar zowel Sony als MS kunnen het toch niet verantwoorden om een fohn voor onder de tv te verkopen.
Navi is uitgesteld, maar niet tot eind 2019. Nee, verschillende bronnen die allemaal contacten binnen AMD lijken te hebben wijzen op de zomer. Er lijkt namelijk een respin nodig te zijn geweest, die onderhand al uitgevoerd zal zijn. Verder zijn er verschillende Navi's voor verschillende taken. We weten in ieder geval van het bestaan van Navi 10 (midrange) Navi 12 (low end) en Navi 20 (high end). Daarnaast is er waarschijnlijk nog een aparte Navi voor de APU's die tot maximaal 20CU zal gaan. Tot 16CU's weten we eigenlijk al door code in macOS.

Navi 10 is eigenlijk de chip waar we interesse in zullen hebben aangezien Navi 20 waarschijnlijk pas begin 2020 gaat zijn. Dat zou gaan om midrange chip met waarschijnlijk een 256bit bus en 8GB GDDR6. Van verschillende kanten komen nu al een tijdje de geruchten van RTX2070 prestaties voor een zeer agressieve prijsstelling. Dat kan heel goed want deze chip zal zeer waarschijnlijk sub 200mm2 zijn. Het kan moeilijk een 64CU chip worden aangezien Vega 20 dat al is. Waarschijnlijk zit Navi 10 dan ook rond de 40CU's.

Maar hoe ga je precies de sprong maken van een 36CU Polaris naar rond de 40CU die vergelijkbaar presteert met een RTX2070? Tja, ik vermoed al een tijdje dat Navi geen GCN meer is, en daar lijken langzaam aan steeds meer aanleidingen voor te zijn. Alleen een clockspeed verbetering naar bijvoorbeeld 1800MHz gaat het namelijk nooit redden om ruim 60% sneller te zijn met maar 4CU's extra. GDDR6 zal ook wat helpen, maar wederom denk ik geen tientallen procenten. Ik vermoed dus dat er buiten de CU = 64SP's heel wat zaken zullen veranderen. Met de GCN CU lijkt weinig mis, met de rest onderhand wel...

Als laatste consoles. Het lijkt erop dat de PS5 een APU met Zen 2 cores en een Navi 10 gaat krijgen. Het is alleen niet dezelfde Navi 10, maar een "Navi 10 lite". Speciale semi custom chip dus en niet de discrete PC versie. :)
PS: Ik blijf overal geruchten lezen dat Samsung 7nm productie van de nVidia kaarten op zich zal nemen heeft iemand daar al een goede bron voor gevonden? Of is het allemaal terug te leiden tot hetzelde vage gerucht? Dat zou er wel voor zorgen dat de 7nm kaarten pas voor eind dit jaar/begin volgend jaar komen in nVidia's geval. Nu als de slechte kwaliteit van de Navi's gelinkt kunnen worden aan het 7nm proces van TSMC kennen we misschien wel de oorzaak waarom nVidia van producent heeft veranderd.
En het is eerder normaal dat nVidia wat achterloopt qua productieprocédé vs ATI/AMD welke vroeger hierin veel avontuurlijker was (met de nodige positieve en negatieve gevolgen). Maar positief nieuws voor de consument is het niet .. nog een jaar vast zitten aan een RTX serie die amper vooruitgang was voor de meeste gamers die niet 600+ wensen uit te geven aan 1 component.
Voor zover ik weet is het een herhaling van dezelfde bron. Betekent niet dat het niet kan kloppen. Nvidia is gewoon conservatief als het om nieuwe nodes gaat. Ze zijn er ook niet erg goed in problemen omzeilen. Dit in tegenstelling tot AMD die eigenlijk altijd wel relatief vroeg zijn en het vaak ook voor elkaar krijgen. Ik zie dan ook al maanden niet in waarom Nvidia Turing precies voor 2020 zou moeten vervangen? Nvidia zit al jaren op twee jaar cycli en dat gaat echt niet veranderen.

Komt nog eens bij dat Nvidia de komende generaties vast zit aan hun RT cores. Nvidia chip's zullen de komende generaties zulke enorme monsterchips blijven ontwikkelen en lanceren. Dat nodigt een overstap naar quad patterning 7nm absoluut niet uit. Al helemaal niet 7nm zonder tenminste een paar lagen EUV met een zekere mate van volwassenheid in het productieproces. H1/2020 is denk ik al te vroeg voor een Turing vervanging, ongeacht of het TSMC of Samsung word. Vroege overstap kan namelijk zo eindigen in een volgend "Fermi" debacle. Niet zozeer om dezelfde redenen, maar wel om de overstap naar een geavanceerder productieproces met een lijn van enorme chips die de gebruikelijke problemen met yields hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 20-12 16:58
lightdestroyer schreef op dinsdag 22 januari 2019 @ 10:48:
[...]

Ik hoop dat het echt aan de cpu ligt, anders kan je véél beter een tweede hands 1060 kopen (geen idee waar je de mining varianten in China voor 75 euro kan vinden, maar voor 130 heb je al de 3gb's) en daarmee nog een jaartje wachten tot de volgende series ...
250-300 euro voor een kaart die 15-25% beter doet dan een 2016 kaart :/

Soit in een laptop is het natuurlijk wel logisch elke winst is mooi meegenomen daar je de kaart een jaar of 2-3 later niet kan upgraden. In een desktop zie ik het nut ervan amper in. Koop jezelf een tweede hands aan de helft (of mss zelf lager) aan de prijs en OC hem tot je aan ongeveer dezelfde performantie geraakt :P.

Maar indien het "laptop-only" wordt gaat er toch snel een GTX 2050 mogen komen daar indien de voorraad aan GTX1060's effectief uitgeput geraakt je plots geen nVidia kaart meer kan kopen in de range waarin de meeste kaarten worden verkocht, totaal onlogisch. En waarom zouden ze dan een GTX 2050 + een GTX1160 laptop only combinatie verkopen .. één ding is duidelijk de overschotten aan véél te dure nieuwe GTX 1060 kaarten heeft ervoor gezorgd dat heel de line up qua pricing om zeep is. En daarbij moet je dan nog rekening houden met de grote voorraad aan 2de hands 1060's die op de markt komen (jajaa dat heb je nu éénmaal voor als je 2 jaar niet vooruitgaat mag je tegen de vorige reeks gaan concurreren aan tweedehands prijzen).
We hebben al vaker gezien dat Nvidia graag de laptop bouwers tevreden houdt. Zie de geforce 8xx serie die laptop only was. Als ik me niet vergis was het Dell die recent nog aangaf dat een RTX 2060 uberhaupt niet ging werken in hun dunne notebooks dus combineer die twee zaken en een 11xx serie is niet zo heel raar om in laptops op te zien duiken. Die hoeven dan, net als die 8xx serie, helemaal niet bijzonder veel beter te presteren. Het gaat er meer om dat de eind klant denkt iets nieuws te hebben en dat de directe klant (Dell) er in marge iets op vooruit gaat.

Overigens had Nvidia nog 617 miljoen meer inventory dan normaal in het afgelopen kwartaal. Dat zijn behoorlijk wat GTX 1060's. Vergis je niet, die $200 dollar is de retail prijs en niet het bedrag dat Nvidia ontvangt. Zeker nu AMD op CES nog helemaal niets over navi heeft losgelaten heeft Nvidia nog alle tijd. Ik zie ze zelfs nog wel wachten tot AMD die navi lanceert, mits dat nog binnen dit jaar gebeurd, zodat ze meteen de prijs/performance bij benadering kunnen matchen (Nvidia blijft natuurlijk altijd ietsje duurder).

Persoonlijk verwacht ik voor desktops een GTX 2xxx reeks, dus een GTX 2050, GTX 2050 Ti, enz. Dat ligt gewoon meer in lijn met hoe het vroeger ging (denk aan de GT in low-end).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
Wel blijkbaar was er dus nog een andere oplossing om het gat tussen de GTX1050ti die blijkbaar blijft als low end (yeah echt trager kan je niet meer lanceren als de igp's de volgende generatie weer een stap vooruit zetten) en de GTX 1166:
https://nl.hardware.info/...g-meer-gtx-turing-kaarten
Kortom 2 extra filler kaarten die de GTX1060 dienen te vervangen. Indien ze even snel zijn en de lanceer prijzen effectief gehaald worden kunnen we niet klagen: onder de 200 euro voor de nieuwe kaarten.

Maar eerst zien dan geloven.. nieuwe kaarten kosten ook geld om te lanceren indien ze dezelfde performantie halen dan de oude 1060's is er eigenlijk weinig/geen nut/weggegooid geld om nieuwe gpu's te produceren en in de verkoop te gooien (al is het maar omdat je je oude reeks kanibaliseerd welke momenteel zelf voor meer over de toonbank gaat ..).
Normaal doe je dit wegens concurrentie of algemene vooruitgang om je klanten aan te sporen om een nieuwe kaart te gaan kopen.
  • Concurrentie? Welke? Die kaarten van lang, laaang geleden die momenteel handig zijn als bijkomend verwarmingselement? Hun drivers zijn wellicht verbeterd, de kaarten zelf niet en bij de nieuwe reviews krijg je direct vergelijkingen met AMD's nieuwste drivers (hopelijk). Dat is enkel in het nadeel van nVidia
  • Ik zie me al de verkopers proberen hun klanten de nieuwe reeks te verkopen, ja meneer 180-200 euro maar hij is zeker 5-10% sneller dan uw 2 jaar oude kaart! Daarvoor doe je het :|
Leg er dan 100 euro bij en ga voor een RTX2060.. Of wie weet een verloren gelopen Vega kaart ergens in uitverkoop ga je er daadwerkelijk nog op vooruit.
PS: Ook mensen die vroeger 200/250 euro uitgaven (bv GTX 970 gebruikers) gaan er amper op vooruit. Dusja ik snap het doelpubliek niet, diegene die jaren wachten en uiteindelijk maar toegeven, of diegene waarvan hun gpu uiteindelijk bezweken is en ze dringend een nieuwe kaart nodig hebben. Beide doelpublieken zouden dan ook een GTX1060 (eventueel met een nieuw nummertje, doet altijd wonderen) kopen.

En indien ze minder performantie halen: totaal useless rommel |:(

Ik zou wel graag die perspresentatie willen meemaken: Hoe verkoop je even dure en niet snellere kaarten 2 jaar later aan het grote publiek als "nieuw" en "vooruitgang" :+
Zelf de RTX elementen hebben ze laten vallen...
Misschien iets als alle nieuwe kaarten hebben gegarandeerd RGB elementen? :D

Korte samenvatting: Ze hadden dan beter de GTX1060 behouden of gewoon rebranded enige dat kan helpen is een kleinere gpu die dezelfde performantie haalt voor minder productiekosten maar daar geloof ik atm niet in.

Specs


  • The Source
  • Registratie: April 2000
  • Laatst online: 21:24
Ik kreeg verschillende vragen op DM over onze **SPAM**. Gisteren hebben we er een live stream over gedaan die veel vragen beantwoorden, hoop dat het helpt. www.mickeymouse.com
Modbreak:Geen spam :o

[ Voor 30% gewijzigd door dion_b op 24-01-2019 17:35 ]


  • The Source
  • Registratie: April 2000
  • Laatst online: 21:24
The Source schreef op donderdag 24 januari 2019 @ 15:28:
Ik kreeg verschillende vragen op DM over onze **SPAM**. Gisteren hebben we er een live stream over gedaan die veel vragen beantwoorden, hoop dat het helpt. www.mickeymouse.com
[modbreak]Geen spam :o[/]
*knip* commentaar op moderatie aub via dm :)

[ Voor 13% gewijzigd door br00ky op 24-01-2019 20:50 ]


  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:44
Ik lees net op o.a. reddit dat TSMC een probleempje heeft met een van de 12/16nm productie lijnen door gebruik van "sub standaard kwaliteit chemicaliën" o.a. gebruikt voor Nvidia, productie schijnt zelfs tijdelijk gestopt te zijn volgens dit uit het chinees vertaalde artikel:

https://translate.google....8/1367970.htm&sl=zh&tl=en

Ben benieuwd of Nvidia daar nog veel last mee gaat krijgen.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

De Turing verkopen blijken tegen te vallen, zo meldt Nvidia in een recente earning's guidance. De omzetverwachting voor Q4 2018 wordt opnieuw verlaagd, nu met 20% naar $2.2 miljard.

https://nl.hardware.info/...rkopen-lager-dan-verwacht

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dan komt deze "oepsie" van TSMC haar leverancier er nog eens overheen. Batch grondstoffen vervuild dus ze kunnen waarschijnlijk een hele partij wafers grotendeels weggooien. Tja, ik vermoed dat er ook wel wat Turing tussen zal zitten. Als er dus opeens tekorten ontstaan voor bijvoorbeeld de GTX1660Ti, dan weet je denk ik waarom. :P
nieuws: Deel van 12- en 16nm-chips TSMC is onbruikbaar door slechte kwaliteit...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 62 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.