PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
HQ was niet zo happy dat ik een te nieuw ding liet zien, hebben ze er tussen uit gekniptRed Baron schreef op donderdag 23 augustus 2018 @ 23:46:
[...]
Ik had de video gisteravond nog gebookmarked zodat ik het later terug kon kijken, maar het lijkt erop dat de video verwijderd is o.i.d.
Is er nog een kans dat het terug online komt @The Source of heb ik pech gehad?
YouTube: Exclusive Insider look at the NVIDIA GeForce® RTX models from MSI| G...
[ Voor 7% gewijzigd door The Source op 24-08-2018 12:14 ]
After suffering thick inventory of mining graphic cards amid sustained mining chill seen since April 2018, graphic card suppliers including Asustek Computer, Micro-Star International (MSI) and Gigabyte Technology still have to absorb massive contracted shipments from Nvidia before the chipmaker releases its new-generation GPU chips in the near future.
[..]
Accordingly more than 10 graphic card makers have no other choice but to swallow contracted shipments released by Nvidia to deplete its inventories, in order to secure that they can be among the first batch of customers to get sufficient supply quotas of new-generation GPUs.
Dat rijmt dan niet echt met dat bekende gerucht van een paar maanden geleden over een grote AIB partner die 300 000 GPU's terug naar Nvidia mocht sturen omdat ze de kaarten niet verkocht kregen.
Kan alleen maar goed nieuws zijn voor de prijzen toch?choogen schreef op vrijdag 24 augustus 2018 @ 13:25:
https://www.digitimes.com/news/a20180822PD202.html
After suffering thick inventory of mining graphic cards amid sustained mining chill seen since April 2018, graphic card suppliers including Asustek Computer, Micro-Star International (MSI) and Gigabyte Technology still have to absorb massive contracted shipments from Nvidia before the chipmaker releases its new-generation GPU chips in the near future.
[..]
Accordingly more than 10 graphic card makers have no other choice but to swallow contracted shipments released by Nvidia to deplete its inventories, in order to secure that they can be among the first batch of customers to get sufficient supply quotas of new-generation GPUs.
Dat rijmt dan niet echt met dat bekende gerucht van een paar maanden geleden over een grote AIB partner die 300 000 GPU's terug naar Nvidia mocht sturen omdat ze de kaarten niet verkocht kregen.
Ja, dat is ook mijn inschatting.Brilsmurfffje schreef op vrijdag 24 augustus 2018 @ 13:42:
[...]
Kan alleen maar goed nieuws zijn voor de prijzen toch?
Verder hebben we nog helemaal niks gehoord over de rest van Turing. Het lijkt me redelijk om aan te nemen dat de andere kaarten geen tensor cores nog RT cores krijgen om de kosten te drukken. Kleinere RT cores en tensor cores lijken me ook niet erg nuttig. Turing heeft wat extra L1 en L2 cache, en dat zal helpen met per SM prestaties maar voor de rest lijkt er niks verbeterd te zijn. Ik begin me dan ook hardop af te vragen of Nvidia niet tenminste een deel van Pascal gaat rebranden en onder de RTX2070 gaat plaatsen, voor dezelfde prijzen als ze nu vragen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
In die leak van adoredtv hebben ze de 2060 met de TU116 chip.DaniëlWW2 schreef op vrijdag 24 augustus 2018 @ 14:26:
Ik begin me dan ook hardop af te vragen of Nvidia niet tenminste een deel van Pascal gaat rebranden en onder de RTX2070 gaat plaatsen, voor dezelfde prijzen als ze nu vragen.
Ik vermoed een chip die wel fp en int tegelijk kan doen maar zonder al die tensor cores enzo.
Mechwarrior Online: Flapdrol
Het leven is kort dus koop altijd de nieuwste en duurste hardware, want dan heb je er het langs plezier van?
Vind het ook maar een rare redenering.ymmv schreef op vrijdag 24 augustus 2018 @ 16:08:
[...]
Het leven is kort dus koop altijd de nieuwste en duurste hardware, want dan heb je er het langs plezier van?
je moet kijken of de performatie goed is, of prijs/kwaliteit het waard is.
En of je budget hebt ervoor.
Moet wel weggen dat ik de 2080 ook ge-pre-ordered heb.
mijn gtx970 is het stilletjes aan het begeven.
Tomshardware is ook weer lekker objectief zeg.

Geen benchmarks en gewoon zeggen dat je de hoofdprijs maar moet betalen aan Nvidia.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Na 3 weekjes wachten op benchmarks is het product natuurlijk alweer outdatedWhile we don't have final benchmark results, the new features and enhanced performance of the Turing cards make them worth buying now, even at sky-high prices.
[ Voor 16% gewijzigd door Lord_Dain op 24-08-2018 16:41 ]
Mag dan wel knap staaltje techniek zijn, vind het nou niet echt heel mooi te noemen om door een spiegel map heen te lopen
Gamebak Look Behind you, a Three Headed Monkey!
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Voor wie erover begint, bij 1440p heb je nog niet of weinig een CPU bottleneck, dat speelt bij 1080p wel bij veel spellen. Daarom is 1440p een goede resolutie om een eerlijke vergelijking te zien voor dit soort kaarten: aan de ene kant nog geen CPU-bottleneck, aan de andere kant ook geen bottleneck met geheugenbandbreedte voor de oudere kaart.
Ja, maar dat is toch een paar dagen bekend? Zo'n beetje alle reviewers die het mochten uitproberen op Gamescom geven aan dat de 60 FPS niet werd gehaald.Turismo schreef op vrijdag 24 augustus 2018 @ 17:44:
Looool, dit lijkt nou niet echt vloeiend te draaien, zie duidelijk framedrops beneden 60 fps en dan is er nog niet eens actie.
Voorzichtig verwoord als "ik denk niet dat de 60 FPS werd gehaald". Een reviewer zette Fraps aan (je kan je afvragen waarom de rest het niet deed, zo moeilijk was het blijkbaar niet) en zag dat de FPS op 30-40 zat met die 2080 Ti. Dat gaf ik hier eerder ook al aan waar ik uitlegde waarom dit een gimmick is. Zelfs met de 2080 Ti is het niet speelbaar. Nvidia heeft leuke nieuwe technologie en verdient krediet voor het innoveren maar dit wordt pas relevant over 2 generaties of later.
[ Voor 35% gewijzigd door Verwijderd op 24-08-2018 18:37 ]
Ik vermoed dat als er serieuze concurrentie was van AMD we dit nu nog niet hadden gezien, dan hadden ze er nog mee gewacht tot de performance beter was. Nu komen ze er mee weg een product / feature er uit te gooien die eigenlijk nog in de kinderschoenen staat. Kudo's voor wat ze hebben bereikt hoor, maar mensen die een 4k scherm hebben die willen toch niet op 1080p spelen om maar mooie reflecties te hebben?Verwijderd schreef op vrijdag 24 augustus 2018 @ 18:26:
...
Nvidia heeft leuke nieuwe technologie en verdient krediet voor het innoveren maar dit wordt pas relevant over 2 generaties of later.
Zeker niet in spellen als Battlefield en andere snelle games waar je eigenlijk geen tijd hebt om op de eyecandy te letten. Voor een elderscrolls, fallout of witcher kan ik me het misschien nog voorstellen.
C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
OMFG. Tuurlijk er zit een bepaald plezier in om het nieuwste te hebben, dat herken ik wel. Maar welke zichzelf respecterende site gaat zonder benches zo'n verhaal ophangen bij GPU's die alle records verbreken qua prijzen
Krijgen ze betaald van nV ozo
Ik denk dat als ze de die-size aan cuda cores hadden besteed dat je nu 4k als een malle had gedraaid.sdk1985 schreef op vrijdag 24 augustus 2018 @ 19:15:
Combinatie van raytracing en 4k is een niet reëel verwachting dus daar zou ik me niet te druk om maken. Uberhaupt is 4K eigenlijk primair een marketing stunt van de tv fabrikanten om tv's te slijten en lift de monitor markt daar een klein beetje op mee. In de praktijk zijn er veel te weinig games die fatsoenlijk op 4k draaien, in ieder geval naar mijn maatstaven, en loop je nog altijd tegen scaling issues aan. (Ja ik heb zelf een 4K tv en die zit via HDMI gekoppeld aan mijn 1070). Ga je met je 4k monitor terug naar full hd dan ziet het er 9 van de 10 keer toch slechter uit dan op een native full hd scherm. Persoonlijk zie ik dan ook liever ontwikkelingen als ray tracing verschijnen dan een race naar een steeds hogere resolutie.
Raytracing en DLSS is een mooi concept maar komt imo te vroeg. M.n. Raytracing. Raytracing is te zwaar en DLSS is voor nu eigenlijk het meest interessant maar verwacht dat dat voorlopig nog vrij volatiele resultaten geeft.
[ Voor 55% gewijzigd door Help!!!! op 24-08-2018 21:34 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik heb iig heel veel zin om straks door de Russche tunnels te zwerven met RT
Ik moet alleen nog even aan de prijs wennen en ik hoop dat er geen sli/multi gpu beperkingen zijn met Rt.
Voor de rest dadelijk waarschijnlijk eindelijk min. 60 fps in elke game incl. zware enb/reshade configs op 5k met 2080ti sli.
[ Voor 11% gewijzigd door edward2 op 24-08-2018 21:36 ]
Niet op voorraad.
50% accross the board verwacht ik eigenlijk niet. Eerst de benches zien.edward2 schreef op vrijdag 24 augustus 2018 @ 21:31:
50% vooruitgang van 1080ti naar 2080ti vind ik een behoorlijke vooruitgang. Uiteraard is dat op 4k of hoger, deze Gpu is zo snel, dat je steeds langer (hogere res.) CPU limited blijft. Hou er ook rekening mee dat veel devs nog niet zo lang met RT bezig zijn (Dice pas een paar weken?)
Ik heb iig heel veel zin om straks door de Russche tunnels te zwerven met RT.
Ik moet alleen nog even aan de prijs wennen en ik hoop dat er geen sli/multi gpu beperkingen zijn met Rt.
Maar al is het zo, dan kun je het imo toch niet los van die prijs zien. E1300 ipv E750 is imho absurd zelfs al redden ze 50%
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik wacht ook eerst de reviews af. Als het alemaal toch (Veel) minder is, dan zie ik er misschien ook van af.
[ Voor 11% gewijzigd door edward2 op 24-08-2018 21:50 ]
Niet op voorraad.
Als ik het goed begrijp dan zal de RTX 2080 sneller zijn dan de GTX 1080 TI, Dit verklaart mede ook wel meteen waarom de 1080 TI prijzen nu flink aan het dalen zijn. De non FE edities zouden 100 euro goedkoper moeten zijn, aldus Nvidia bij dat event. De RTX 2080 FE kost nu bij release 850, dan zouden de non FE's 750 moeten kosten. Wat nu wel aardig in de buurt komt van de 1080TI prijzen. Maar dan met als extra USB-C en ray tracing.
Dat betekend meteen dat de RTX 2070 ergens qua performance moet uitkomen tussen de huidige 1080 en de 1080 TI voor 540 euro. Als ik het goed begrijp. Natuurlijk blijft het gissen aangezien er nog geen benchmarks zijn.
[ Voor 14% gewijzigd door aex351 op 24-08-2018 22:40 ]
< dit stukje webruimte is te huur >
Verwijderd
Volgens Nvidia zijn de shader cores 1,5x sneller dan Pascal, dus 50% sneller in een aantal geteste games.Lord_Dain schreef op vrijdag 24 augustus 2018 @ 22:04:
Waar op baseer jij die 50% @edward2 ? op de al gereleasede benches of is het wishful thinking?
Verwijderd
Voorlopig is er nog geen enkele serieuze vergelijking te vinden en dat is vreemd wanneer een nieuwe generatie zoveel beter is.aex351 schreef op vrijdag 24 augustus 2018 @ 22:38:
[...]
Als ik het goed begrijp dan zal de RTX 2080 sneller zijn dan de GTX 1080 TI, Dit verklaart mede ook wel meteen waarom de 1080 TI prijzen nu flink aan het dalen zijn. De non FE edities zouden 100 euro goedkoper moeten zijn, aldus Nvidia bij dat event. De RTX 2080 FE kost nu bij release 850, dan zouden de non FE's 750 moeten kosten. Wat nu wel aardig in de buurt komt van de 1080TI prijzen. Maar dan met als extra USB-C en ray tracing.
Dat betekend meteen dat de RTX 2070 ergens qua performance moet uitkomen tussen de huidige 1080 en de 1080 TI voor 540 euro. Als ik het goed begrijp. Natuurlijk blijft het gissen aangezien er nog geen benchmarks zijn.
Dan begrijp je het niet goed.aex351 schreef op vrijdag 24 augustus 2018 @ 22:38:
[...]
Als ik het goed begrijp dan zal de RTX 2080 sneller zijn dan de GTX 1080 TI, Dit verklaart mede ook wel meteen waarom de 1080 TI prijzen nu flink aan het dalen zijn. De non FE edities zouden 100 euro goedkoper moeten zijn, aldus Nvidia bij dat event. De RTX 2080 FE kost nu bij release 850, dan zouden de non FE's 750 moeten kosten. Wat nu wel aardig in de buurt komt van de 1080TI prijzen. Maar dan met als extra USB-C en ray tracing.
Dat betekend meteen dat de RTX 2070 ergens qua performance moet uitkomen tussen de huidige 1080 en de 1080 TI voor 540 euro. Als ik het goed begrijp. Natuurlijk blijft het gissen aangezien er nog geen benchmarks zijn.
Het gaat er juist om dat je op resoluties zoals 4K veel meer hebt aan geheugenbandbreedte dan shader prestaties. De RTX2080 heeft veel meer geheugenbandbreedte dan de GTX1080, en presteert dus een stuk beter met 4K. Vervolgens heeft Pascal ook een probleem met HDR prestaties. Nvidia heeft benchmarks vrijgegeven met 4K en/of HDR en dat kan zomaar eens zeer misleidend blijken. Tot het punt dat de RTX2080 helemaal niet sneller of zelfde vergelijkbaar is met de GTX1080Ti met 1080p of 1440p.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja dat vind ik ook. Maar vanuit een positieve gedachtegang. Het zorgt ervoor dat retail nog even de mogelijkheid heeft om de 1080 en 1080TI tegen een hoge bedrag te verkopen. Immers het blijft onduidelijk. En anderzijds zorgt het voor dat mensen er toch over blijven praten.Verwijderd schreef op vrijdag 24 augustus 2018 @ 22:43:
[...]
Voorlopig is er nog geen enkele serieuze vergelijking te vinden en dat is vreemd wanneer een nieuwe generatie zoveel beter is.
< dit stukje webruimte is te huur >
Ik vind het gewoon raar dat ze videokaarten onthulden op 20 augustus en gelijk de pre-orders open gooiden, terwijl ze consumenten totaal niet laten weten wat ze kopen, op de raytracing techniek na.aex351 schreef op vrijdag 24 augustus 2018 @ 22:50:
[...]
Ja dat vind ik ook. Maar vanuit een positieve gedachtegang. Het zorgt ervoor dat retail nog even de mogelijkheid heeft om de 1080 en 1080TI tegen een hoge bedrag te verkopen. Immers het blijft onduidelijk. En anderzijds zorgt het voor dat mensen er toch over blijven praten.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Helemaal mee eens. Maar ik las hierboven dat ze dat kennelijk ook hebben gedaan bij de release van de 10-serie (1080).RobinNL schreef op vrijdag 24 augustus 2018 @ 23:00:
[...]
Ik vind het gewoon raar dat ze videokaarten onthulden op 20 augustus en gelijk de pre-orders open gooiden, terwijl ze consumenten totaal niet laten weten wat ze kopen, op de raytracing techniek na.
< dit stukje webruimte is te huur >
Je kan Nvidia gerust met je centen vertrouwen.RobinNL schreef op vrijdag 24 augustus 2018 @ 23:00:
[...]
Ik vind het gewoon raar dat ze videokaarten onthulden op 20 augustus en gelijk de pre-orders open gooiden, terwijl ze consumenten totaal niet laten weten wat ze kopen, op de raytracing techniek na.
Verwijderd
Dat denk ik ook, de hogere kosten voor de grotere diesize hadden ze dan liever niet gehad zodat ze voor een lagere prijs de GPU zouden kunnen verkopen.Erkel schreef op vrijdag 24 augustus 2018 @ 19:11:
[...]
Ik vermoed dat als er serieuze concurrentie was van AMD we dit nu nog niet hadden gezien, dan hadden ze er nog mee gewacht tot de performance beter was.
Dit nuanceer ikk wat. Je kan twijfelen over het nut van 4k, al denk ik dat het zeker nut heeft en dat het op termijn ook best verenigbaar is met 4k (maar niet voor 2030 als je echte raytracing wil zonder 'AI'?sdk1985 schreef op vrijdag 24 augustus 2018 @ 19:15:
Combinatie van raytracing en 4k is een niet reëel verwachting dus daar zou ik me niet te druk om maken. Uberhaupt is 4K eigenlijk primair een marketing stunt van de tv fabrikanten om tv's te slijten en lift de monitor markt daar een klein beetje op mee. In de praktijk zijn er veel te weinig games die fatsoenlijk op 4k draaien, in ieder geval naar mijn maatstaven, en loop je nog altijd tegen scaling issues aan. (Ja ik heb zelf een 4K tv en die zit via HDMI gekoppeld aan mijn 1070). Ga je met je 4k monitor terug naar full hd dan ziet het er 9 van de 10 keer toch slechter uit dan op een native full hd scherm. Persoonlijk zie ik dan ook liever ontwikkelingen als ray tracing verschijnen dan een race naar een steeds hogere resolutie.
Een groter probleem dan 4k is de ultra-obsessie die gamers hebben en die de industrie cultiveert door steeds maar te benchmarken met ultra-instellingen. Zet de instellingen 1 of 2 standen lager en je ziet meestal geen verschil in beeldkwaliteit maar de FPS stijgt sterk. Ondertussen heb je veel minder AA nodig bij die hogere resolutie wat een aardige trade-off is met de anderszins hogere belasting. Maar ja, reviewers vinden het zinvol om te benchmarken met nutteloze ultra-instellingen en dan lijkt het alsof het niet speelbaar is met 4k terwijl dat toch echt onzin is. Het is niet zo zinvol om 4k met lage instellingen te spelen maar 4k met hoge instellingen geeft een aanzienlijk beter beeld dan 1080p met ultra-instellingen. Met de kanttekening dat voor sommige instellingen ultra wel zinvol is, het punt is dat je hier selectief met moet zijn.
Ik zou zelf een hogere resolutie textures ook erg fijn vinden, dat zou erg veel toevoegen, net als beter licht.
Het lijkt me ook goed om erbij stil te staan dat het belangrijk is wat als norm werd genomen door de developer. Als hoge instellingen als norm wordt genomen bij resolutie X (hiervoor wordt de code geschreven) dan haal je bij diezelfde resolutie X een betere visuele kwaliteit met minder belasting van de grafische kaart dan wanneer laag/medium instellingen bij een lagere resolutie als norm wordt genomen. Er zit dus nog veel rek in wanneer consoles in de toekomst minder primitief worden. Veel mensen staren zich blindt op de GPU die in de X1X en de PS4 Pro zit (niets om over naar huis te schrijven maar een forse verbetering in vergelijking met de voorgangers) maar mensen vergeten hoe verschrikkelijk gedateerd die CPU's zijn. Die oude AMD-CPU's hebben een zeer lage single-core performance in vergelijking met Ryzen en dan is de klokfrequentie ook nog eens zeer laag. Dat beperkt op dit moment sterk wat je uit de grafische kaart haalt, in het bijzonder bij de X1X. Zo gauw die consoles beter worden zal je betere graphics zien op dezelfde hardware met dezelfde FPS bij nieuwere spellen.
Tenslotte nog even het Vulkan/DX12 stokpaardje. Dat alleen al helpt gigantisch om een veel hoger drawcalls aan te kunnen met een grafische kaart, zowel de CPU als de GPU worden bij Vulkan en DX12 - als het niet om slechts een wrapper gaat en de code vanaf het begin hiervoor ontwikkeld is - minder zwaar belast bij exact dezelfde grafische kaart en dezelfde output.
https://www.hardocp.com/n...nst_preordering_hardware/
Vraag me af of Tomshardware misschien ook een mailtje van Nvidia heeft gehad...
PenguinEmperor schreef op zaterdag 25 augustus 2018 @ 02:21:
Je kunt je kennelijk beter niet uitspreken tegen het pre-orderen van de nieuwe Nvidia kaarten:
https://www.hardocp.com/n...nst_preordering_hardware/
Vraag me af of Tomshardware misschien ook een mailtje van Nvidia heeft gehad...

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Oké: uitleg van een half uur over waarom de 50 % performance upgrade in feite waarschijnlijk meer rond de 20-25% ligt als je de 2080 VS de 1080 pakt. Spoiler: Nvidia doet er alles aan om een misleidende grafiek te make zodat het allemaal beter lijkt dan het is. En je moet ongeveer een raketgeleerde zijn om het te doorzien.
[ Voor 39% gewijzigd door Grotbewoner op 25-08-2018 09:46 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Het verleden heeft laten zien dat zo goed als elke slide van nvidia een vertekend beeld gaf. Dus ik geef al een paar jaar al niks meer om die slides. Ik wacht gewoon de professionele reviews af zoals die van gamers nexus.Gekke Jantje schreef op zaterdag 25 augustus 2018 @ 09:32:
Ik geloof het pas als de onafhankelijke reviews komen want nu lees je vooral veel speculaties en je hebt Nvidia's eigen slider die te rooskleurig kan zijn.
Wie goed doet, die goed ontmoet.
Pff, kon je op wachten natuurlijk, wat een apen!PenguinEmperor schreef op zaterdag 25 augustus 2018 @ 02:21:
Je kunt je kennelijk beter niet uitspreken tegen het pre-orderen van de nieuwe Nvidia kaarten:
https://www.hardocp.com/n...nst_preordering_hardware/
Video'tje maar ff geliked
Nee, die hebben een paar rigs extra gehad voor dit artikelVraag me af of Tomshardware misschien ook een mailtje van Nvidia heeft gehad...

Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
Het hele concept dat je 3 weken moet wachten op rest van info en benches is sowieso uitermate irritant.
PS:
Heb heel wat meer streamers zien zeggen dat pre-order zonder benches meestal niet verstandig is.
Wellicht worden die niet gesponsord door nvidia.
[ Voor 12% gewijzigd door Help!!!! op 25-08-2018 10:06 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Tussen de 1080 en de 2080 is het 50% voor 4k + HDR + DLSS (dus een lagere rendered resolutie waarbij een deel van de pixels wordt 'gegokt'), dat is nogal belangrijk omdat bij Pascal de FPS aardig zakt zo gauw je HDR aan zet. De realistische vooruitgang is eerder rond de 30% voor 4k+HDR, kijk naar 1440p en geen HDR en het is weer lager. Lies, damned lies and statistics.edward2 schreef op vrijdag 24 augustus 2018 @ 21:31:
50% vooruitgang van 1080ti naar 2080ti vind ik een behoorlijke vooruitgang. Uiteraard is dat op 4k of hoger
[ Voor 18% gewijzigd door Verwijderd op 25-08-2018 10:30 ]
Mooi man, eens kijken hoeveel domme schapen erin trappen
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Moet zeggen dat Jim aardig actief is, terwijl hij juist al een paar heeft aangegeven de markt voor videokaarten eigenlijk niet meer interessant te vinden.
Je beseft je hopelijk dat het zinloos is om mensen te veroordelen om op basis hiervan een RTX aan te schaffen, toch? In plaats van wijzen en lachen is het veel beter om mensen te informeren zodat ze deze kaarten niet kopen. Zo leert Nvidia hun lesje en proberen ze dit niet nog een keertje, met nog hogere prijzen.Gekke Jantje schreef op zaterdag 25 augustus 2018 @ 10:56:
[...]
Mooi man, eens kijken hoeveel domme schapen erin trappen

Iets zeggen en iets doen zijn twee geheel andere dingen.Dennism schreef op zaterdag 25 augustus 2018 @ 11:12:
[...]
Moet zeggen dat Jim aardig actief is, terwijl hij juist al een paar heeft aangegeven de markt voor videokaarten eigenlijk niet meer interessant te vinden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja inderdaad. Ze willen alleen positieve reclame dus. En doen gewoon aan censuur als iets ze niet bevalt. Misschien een frontpage nieuwsbericht waardig?PenguinEmperor schreef op zaterdag 25 augustus 2018 @ 02:21:
Je kunt je kennelijk beter niet uitspreken tegen het pre-orderen van de nieuwe Nvidia kaarten:
https://www.hardocp.com/n...nst_preordering_hardware/
Vraag me af of Tomshardware misschien ook een mailtje van Nvidia heeft gehad...
< dit stukje webruimte is te huur >
Dat zeker, niet dat ik het erg vind trouwensDaniëlWW2 schreef op zaterdag 25 augustus 2018 @ 11:15:
Iets zeggen en iets doen zijn twee geheel andere dingen.
Het probleem is dieper. Je merkt dit ook op tweakers in veel topics. Elke FPS die je erbij kunt krijgen is meegenomen. Als je game bij dipjes onder de 60fps komt is het al een reden om duurder te nemen. We betalen graaf meer voor weinig extras. Kijk bv in aankoop advies topics, waar soms pc’s voorbij komen van 2000 euro. Een stap minder voelt gelijk als achteruitgang. Veel mensen willen niet horen dat een kaart overkill is. As je 5 jaar geleden aangaf dat game pc rond die prijs verkocht worden werd je voor gek verklaard. Nu is het een normaal bedrag voor een game pc.DaniëlWW2 schreef op zaterdag 25 augustus 2018 @ 11:15:
[...]
Je beseft je hopelijk dat het zinloos is om mensen te veroordelen om op basis hiervan een RTX aan te schaffen, toch? In plaats van wijzen en lachen is het veel beter om mensen te informeren zodat ze deze kaarten niet kopen. Zo leert Nvidia hun lesje en proberen ze dit niet nog een keertje, met nog hogere prijzen
Wil Nvidia echt geld binnen harken? Laat ze bij populatie multiplayer games duidelijk maken wie hier een 2080ti heeft door een extra icoontje achter zijn/haar naam. Je zult merken dat de kaarten dan nog beter verkopen.
Heel simpel gezegd; ik vermoed dat benchmarks helemaal niks doen.
[ Voor 10% gewijzigd door grote_oever op 25-08-2018 11:45 ]
Gebeurd ook overal over Jensen (Nvidia) moeten mensen dan ook maar laten. Gelijke monniken gelijke kappen.DaniëlWW2 schreef op zaterdag 25 augustus 2018 @ 11:15:
[...]
Je beseft je hopelijk dat het zinloos is om mensen te veroordelen om op basis hiervan een RTX aan te schaffen, toch? In plaats van wijzen en lachen is het veel beter om mensen te informeren zodat ze deze kaarten niet kopen. Zo leert Nvidia hun lesje en proberen ze dit niet nog een keertje, met nog hogere prijzen.
Mensen kunnen toch zelf nadenken, zeker diegene die dit soort losse GPU's kopen wachten wel op de benchmarks. Daarnaast is het nog al persoonlijk of meneer A de prijs waard vind en meneer B niet. Het is dus niet aan mij om GPU's af te raden vanwege specuaties die nu rond gaan. Af wachten en niet pre orderen.
Maar als iemand mij na de launch om advies vraagt, en TR is zeer traag, en iemand wil dan voor RT een van deze nieuwe Nvidia kaarten kopen zal ik het ook afraden puur voor RT.
[ Voor 7% gewijzigd door Gekke Jantje op 25-08-2018 12:09 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Ben ik het mee eens, maar wat moet eraan gedaan worden? Vrijwel alle benchmarks zijn tegenwoordig met ultra settings en 8xMSAA. Gooi MSAA naar 2x en je zal waarschijnlijk al flink wat winnen frames. Zo kan je mensen moeilijk overtuigen dat ze genoeg hebben aan een goedkopere kaart. Ik kijk ook nauwelijks meer naar benchmarks bij aankoopadvies. Ik heb de prestatieniveaus aardig in mijn hoofd zitten en kijk juist naar de prijs/kwaliteit. 90%+ heeft dan echt niks meer dan een GTX1060 6GB/RX580 8GB nodig. Veel hebben niet eens meer dan een RX570 4GB nodig maar die was een jaar niet te krijgen...grote_oever schreef op zaterdag 25 augustus 2018 @ 11:42:
[...]
Het probleem is dieper. Je merkt dit ook op tweakers in veel topics. Elke FPS die je erbij kunt krijgen is meegenomen. Als je game bij dipjes onder de 60fps komt is het al een reden om duurder te nemen. We betalen graaf meer voor weinig extras. Kijk bv in aankoop advies topics, waar soms pc’s voorbij komen van 2000 euro. Een stap minder voelt gelijk als achteruitgang. Veel mensen willen niet horen dat een kaart overkill is. As je 5 jaar geleden aangaf dat game pc rond die prijs verkocht worden werd je voor gek verklaard. Nu is het een normaal bedrag voor een game pc.
Wil Nvidia echt geld binnen harken? Laat ze bij populatie multiplayer games duidelijk maken wie hier een 2080ti heeft door een extra icoontje achter zijn/haar naam. Je zult merken dat de kaarten dan nog beter verkopen.
Heel simpel gezegd; ik vermoed dat benchmarks helemaal niks doen.
Zelf vertik ik het om meer dan €400 neer te leggen voor een echte high end videokaart, maar ik lijk daar een minderheid in te zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
de markt voorDennism schreef op zaterdag 25 augustus 2018 @ 11:12:
[...]
Moet zeggen dat Jim aardig actief is, terwijl hij juist al een paar heeft aangegeven de markt voor videokaarten eigenlijk niet meer interessant te vinden.
Hij zei niets over het niet langer interessant vinden van de technologie. Hij heeft slechts de hoop laten vallen dat AMD de komende jaren terug weerstand biedt aan Nvidia in alle segmenten van de markt. Dat komt uiteindelijk wel weer (ergens tussen 2021 en 2023, ik heb goede hoop dat ze in 2021 weer in alle segmenten tegelijkertdij een nieuwe generatie uitbrengen en met de nieuwe architectuur waarvan de patenten zijn ontdekt) maar voor nu is de high-end enkel voor Nvidia, voor de 80-90% van de gamers biedt AMD echter ook prima opties wanneer de prijzen weer normaal zijn.
Maar inderdaad, Jim zegt dat hij het niet meer interessant vindt maar uit zijn daden blijkt anders.
Hoeveel procent van de gamers gamet met VSync aan? Dat lijkt mij een kleine minderheid als je kijkt naar de gamers die zo geïnteresseerd zijn in de FPS maar misschien denken jullie er anders over. Enkel bij VSync maakt kan die ene frame extra het verschil maken, je zal anders niet echt het verschil merken tussen 59 en 60. Belangrijker: als je dipjes beneden de 60 komen, zet de instellingen dan lager. De ultra-waanzin.grote_oever schreef op zaterdag 25 augustus 2018 @ 11:42:
[...]
Het probleem is dieper. Je merkt dit ook op tweakers in veel topics. Elke FPS die je erbij kunt krijgen is meegenomen. Als je game bij dipjes onder de 60fps komt is het al een reden om duurder te nemen.
Het zou me niet verbazen.Wil Nvidia echt geld binnen harken? Laat ze bij populatie multiplayer games duidelijk maken wie hier een 2080ti heeft door een extra icoontje achter zijn/haar naam. Je zult merken dat de kaarten dan nog beter verkopen.

Het is voor sommige mensen een statussymbool zoals een sportauto of een horloge.
Ja, sommige mensen betalen idiote bedragen voor een klein beetje extra. Zelf trek ik de grens op €400-500 voor een grafische kaart, €350 voor een CPU. Over RAM zullen we het maar niet hebben.
[ Voor 93% gewijzigd door Verwijderd op 25-08-2018 13:24 ]
YouTube: Response to Tom's Hardware's Insane "Just Buy It" ...
Verwijderd
De grote vraag: deed hij dit om gunsten van Nvidia te krijgen of wou hij enkel dwars zijn omdat mensen klagen over de hoge prijzen? Het laatste zou dom zijn want hij creëert de schijn dat ze een wit voetje willen halen bij Nvidia.PenguinEmperor schreef op zaterdag 25 augustus 2018 @ 14:18:
Mooie reactie op de editorial van Tomshardware (door Gamersnexus):
YouTube: Response to Tom's Hardware's Insane "Just Buy It" ...
Plus, wat Steve ook zegt, het is belachelijk om dit soort dingen te zeggen als je zelf een website bent die grafische kaarten recenseert. Dan zeg je eigenlijk "Lees gewoon geen recensies meer en koop die dingen gewoon. Joh, ik ben helemaal niet nodig. Hef mij maar op!"Verwijderd schreef op zaterdag 25 augustus 2018 @ 15:06:
[...]
De grote vraag: deed hij dit om gunsten van Nvidia te krijgen of wou hij enkel dwars zijn omdat mensen klagen over de hoge prijzen? Het laatste zou dom zijn want hij creëert de schijn dat ze een wit voetje willen halen bij Nvidia.
Doel is tom's hardware besproken krijgen op reddit, social media, reaction video's, enz.Verwijderd schreef op zaterdag 25 augustus 2018 @ 15:06:
[...]
De grote vraag: deed hij dit om gunsten van Nvidia te krijgen of wou hij enkel dwars zijn omdat mensen klagen over de hoge prijzen? Het laatste zou dom zijn want hij creëert de schijn dat ze een wit voetje willen halen bij Nvidia.
Argument is dat het niet loont om nu een last-gen kaart te kopen en dat het ook niet loont om te gaan wachten op een price-drop. Achterliggende gedachte in an sich nog wel te begrijpen. Bij Pascal was het ook optimaal om binnen 4 tot 6 weken te kopen, iedereen die later kocht was slechter af omdat de prijzen niet minder werden terwijl je wel minder lang van dezelfde prestaties kon genieten. Het is alleen extreem geformuleerd om zo zichzelf onderwerp van discussie te maken. In het artikel staan echt een aantal absurde statements.
Ik heb daar echte en andere voorkeur in. Ik heb jaren lang de boot afgehouden met de overstap van 1680x1050 naar 1920x1080. Verschil in scherpte vond ik zelf minimaal terwijl de impact op de framerate gigantisch was. Voor mij gaan speelbare framerates en de kwaliteit van effecten altijd boven een hogere native resolutie. Een overdreven voorbeeld zijn de Unreal Tournament 99 en 2003 4K screenshots. Als je moet kiezen, heb je dan liever Unreal 3 op 1920x1080 of de voorgaande games op 4K?Verwijderd schreef op vrijdag 24 augustus 2018 @ 23:40:
[...]
Dat denk ik ook, de hogere kosten voor de grotere diesize hadden ze dan liever niet gehad zodat ze voor een lagere prijs de GPU zouden kunnen verkopen.
[...]
Dit nuanceer ikk wat. Je kan twijfelen over het nut van 4k, al denk ik dat het zeker nut heeft en dat het op termijn ook best verenigbaar is met 4k (maar niet voor 2030 als je echte raytracing wil zonder 'AI'?). De andere vraag is of dat 1080p genoeg is. Naar mijn mening niet, de pixels zijn nog steeds best groot voor de afstand tot de monitor bij 24''. 27'' en 1440p is al veel beter, als je er dan ook nog eens een breedbeeld 1440p van maakt dan is dat alweer een forse verbetering. Het houdt wat mij betreft op waar je het verschil niet meer ziet.
Een groter probleem dan 4k is de ultra-obsessie die gamers hebben en die de industrie cultiveert door steeds maar te benchmarken met ultra-instellingen. Zet de instellingen 1 of 2 standen lager en je ziet meestal geen verschil in beeldkwaliteit maar de FPS stijgt sterk. Ondertussen heb je veel minder AA nodig bij die hogere resolutie wat een aardige trade-off is met de anderszins hogere belasting. Maar ja, reviewers vinden het zinvol om te benchmarken met nutteloze ultra-instellingen en dan lijkt het alsof het niet speelbaar is met 4k terwijl dat toch echt onzin is. Het is niet zo zinvol om 4k met lage instellingen te spelen maar 4k met hoge instellingen geeft een aanzienlijk beter beeld dan 1080p met ultra-instellingen. Met de kanttekening dat voor sommige instellingen ultra wel zinvol is, het punt is dat je hier selectief met moet zijn.
Ik zou zelf een hogere resolutie textures ook erg fijn vinden, dat zou erg veel toevoegen, net als beter licht.
Tegenwoordig zit ik al een tijd op 2560x1080 op 29 inch (95.81 PPI) met daarnaast 1920x1080 op 27 inch (81.59 PPI). Natuurlijk zien bepaalde dingen er scherper uit op hoge ppi. Mijn telefoon heeft 575.92 PPI (S7), mijn TV 89.91 PPI (normale tv 44 PPI) en mijn surface pro 220 PPI. Echter in al die gevallen speel ik liever op lagere resolutie met dus hogere framerates op de hoogste detail settings. Civilization V op 30 fps vind ik al een drama. Dan maar op 95 PPI
[ Voor 65% gewijzigd door sdk1985 op 25-08-2018 15:31 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ja op de voorlopige presentatieslides en een schatting naar aanleiding van de specs.(corecount, bandbreedte mem. en grotere cachesizes)Lord_Dain schreef op vrijdag 24 augustus 2018 @ 22:04:
Waar op baseer jij die 50% @edward2 ? op de al gereleasede benches of is het wishful thinking?
(De 50% winst uit die slide is zonder supersampling.)
Tevens zal de bandbreedte met de nieuwe bridge flink toenemen, zodat je er vooral op hoge res. en sli merkbaar op vooruit moet gaan.
Maar uiteraard eerst even de daadwerkelijke benches afwachten. Ben ook benieuwd hoe Turing presteert met asynchrone comp. en low level api's, Volta liet daar al winst zien.
[ Voor 7% gewijzigd door edward2 op 25-08-2018 16:29 ]
Niet op voorraad.
Ik geef die schrijver voor Tom's hardware gelijk als geld geen rol speelt. Als je niet moeilijk doet over het uitgeven van 1000 euro dan kun je inderdaad beter zo'n high end kaart nu kopen dan een voor jou te verwaarlozen bedrag proberen te besparen.PenguinEmperor schreef op zaterdag 25 augustus 2018 @ 14:18:
Mooie reactie op de editorial van Tomshardware (door Gamersnexus):
YouTube: Response to Tom's Hardware's Insane "Just Buy It" ...
Ik heb dat met nieuwe consoles. Zo'n ding kost 400 euro. Als ik twee jaar wacht, is die 100 euro goedkoper. Nou, da's minder dan wat wekelijks uitgeef aan uitgaan en mijn hobbies. Ik geef 100 euro probleemloos uit, dus moet ik dan twee jaar wachten om geld te besparen? Dacht het niet.
Maar bij een grafische kaart die twee of drie keer duurder is, terwijl ik minder op mijn PC game, dan gaat het bedrag wel weer een rol spelen. Ik kan de kaart nog steeds kopen wanneer ik wil, maar ik begin me toch op het achterhoofd te krabben over het bedrag.
Nu breng jij er nuance in, maar er zit totaal geen nuance in het hele verhaal. Het is gewoon letterlijk "Nieuwe Nvidia kaarten goed, als je wacht ben je een gekkie, kopen, kopen, kopen!"ymmv schreef op zaterdag 25 augustus 2018 @ 17:12:
[...]
Ik geef die schrijver voor Tom's hardware gelijk als geld geen rol speelt. Als je niet moeilijk doet over het uitgeven van 1000 euro dan kun je inderdaad beter zo'n high end kaart nu kopen dan een voor jou te verwaarlozen bedrag proberen te besparen.
Het is gewoon een heel, heel raar verhaal. Vooral voor een website die zelf dus recensies doet! Waarvan dus een journalist eerder nog een goed betoog hield waarin werd gezegd dat je het beste kon wachten. Die nu dus door zijn eigen editor onderuit getrapt wordt. Het stinkt gewoon aan alle kanten.
https://www.tomshw.de/201...nschenverstand-editorial/
Verwijderd
Mogelijk maar dit is geen goede manier om dat te doen. Een pikante stelling innemen is prima maar je moet het dan wel geloofwaardig houden. Zoals jijzelf aangeeft, er staan "een aantal absurde statements" in het artikel.sdk1985 schreef op zaterdag 25 augustus 2018 @ 15:16:
[...]
Doel is tom's hardware besproken krijgen op reddit, social media, reaction video's, enz.
Ja, de FPS is belangrijker, in ieder geval zolang je onder een bepaalde - afhankelijk van de persoon en het type spel - FPS-grens zit. Op een gegeven moment kan je wel een trade-off doen tussen de FPS en de grafische kwaliteit. Voor een doorsnee singleplayer spel wil ik mogelijk liever 100 FPS met 4k dan 150 FPS met 1080p/1440p, maar 60 FPS vind ik te laag. Het kan overigens ook dat ik 100 FPS niet goed genoeg blijk te vinden want hoger dan 60 Hz heb ik met een LCD-monitor nog niet mogen ervaren, ik kan echter wel met zekerheid zeggen dat 60 Hz. met 60+ FPS voor mij onvoldoende is aangezien ik duidelijk de inputlag merk.Ik heb daar echte en andere voorkeur in. Ik heb jaren lang de boot afgehouden met de overstap van 1680x1050 naar 1920x1080. Verschil in scherpte vond ik zelf minimaal terwijl de impact op de framerate gigantisch was. Voor mij gaan speelbare framerates en de kwaliteit van effecten altijd boven een hogere native resolutie. Een overdreven voorbeeld zijn de Unreal Tournament 99 en 2003 4K screenshots. Als je moet kiezen, heb je dan liever Unreal 3 op 1920x1080 of de voorgaande games op 4K?
Tegenwoordig zit ik al een tijd op 2560x1080 op 29 inch (95.81 PPI) met daarnaast 1920x1080 op 27 inch (81.59 PPI). Natuurlijk zien bepaalde dingen er scherper uit op hoge ppi. Mijn telefoon heeft 575.92 PPI (S7), mijn TV 89.91 PPI (normale tv 44 PPI) en mijn surface pro 220 PPI. Echter in al die gevallen speel ik liever op lagere resolutie met dus hogere framerates op de hoogste detail settings. Civilization V op 30 fps vind ik al een drama. Dan maar op 95 PPI. Tenzij die 4K monitoren 1920x1080 goed native gaan weergeven zal het bij mij nog wel een jaar of 5 duren voor ik een 4K scherm voor mijn desktop aanschaf. Zo'n 34" 3440x1440 • 120Hz wordt echter wel steeds aantrekkelijker nu de prijzen dalen en de Windows scaling aan het verbeteren is. Let er ook even op dat het voor je ogen niet goed is om naar te kleine letters te kijken op die 30 cm van je monitor.
De vraag is dan hoe je die betere graphics krijgt. Zoals ik het zie is 4k niet per se zoveel meer belastend dan 1440p. Zoals gezegd, bij 4k kan de AA op een lagere stand, dat geldt dus ook voor zaken zoals schaduws. Weer andere grafische features leunen meer op geheugen-bandbreedte (textures). Je moet een goede balans zoeken. Liever hoge instellingen bij 1080p dan lage instellingen bij 4k? Ja. Maar wat als het gaat tussen zeer hoge instellingen bij 1440p en hoge instellingen bij 4k? Dat wordt een lastigere afweging.
Wat betreft jouw laatste opmerking, ik begrijp nagenoeg geen Windows, bij Linux zijn er versies die goed schalen met de resolutie van de monitor en waarbij de letters niet lelijk worden.
Gamen doe ik vooral met Windows - momenteel dualbooten, in de toekomst waarschijnlijk met passthrough - maar bij spellen is het tegenwoordig steeds vaker netjes aangepast aan de resolutie.
Verwijderd
Je kan gamen met een HDR-televisie maar dat is ook niets want dan zit je met een gigantisch grote inputlag, tenzij iemand een wel heel erg traag reactievermogen heeft zal hij het merken. Een goede HDR-monitor met een 4k-resolutie en G-Sync kost uit mijn hoofd ongeveer €2500.
[ Voor 74% gewijzigd door Verwijderd op 25-08-2018 20:41 ]
Tja, het is allemaal wel high end spul, dus toch al niet bedoeld voor de gemiddelde gebruiker. Je moet toch in ieder geval al een een redelijk inkomen hebben. Misschien moet je nu voor de high end echt weer een stukje hoger op de totempaal staan. En als je gewoon modaal verdiend, en je was gewend toch altijd te sparen voor het beste van het beste, moet je accepteren dat dit nu niet meer kan.Verwijderd schreef op zaterdag 25 augustus 2018 @ 20:39:
Denk even na over welk percentage van de gamers een 4k-scherm met HDR heeft?
Je kan gamen met een HDR-televisie maar dat is ook niets want dan zit je met een gigantisch grote inputlag, tenzij iemand een wel heel erg traag reactievermogen heeft zal hij het merken. Een goede HDR-monitor met een 4k-resolutie en G-Sync kost uit mijn hoofd ongeveer €2500.
Ik denk dat het met deze prijzen zelfs voor de echte high end gebruiker met een dikke portomonnee lastiger wordt uit te leggen thuis. Ik bedoel, een 1080Ti met monitor was nog wel te doen (voor mensen met een goed inkomen) met geschat zo tussen de 1000 en 2000 euro, maar nu gaat de hobby toch al snel richting de 5000 euro. Dat wordt dan even een tijdje op de bank slapen!
Je scherm hoort ook 2x zo duur te zijn dan je GPU. Het scherm gaat veel langer mee en leuk om op 'n hoge resolutie te gamen terwijl het er niet uitziet.Verwijderd schreef op zaterdag 25 augustus 2018 @ 20:39:
Denk even na over welk percentage van de gamers een 4k-scherm met HDR heeft?
Je kan gamen met een HDR-televisie maar dat is ook niets want dan zit je met een gigantisch grote inputlag, tenzij iemand een wel heel erg traag reactievermogen heeft zal hij het merken. Een goede HDR-monitor met een 4k-resolutie en G-Sync kost uit mijn hoofd ongeveer €2500.
Verder ben ik het niet helemaal eens met je opmerking over de televisie. Ik zou op mijn oled tv (2016 model en sindsdien ook in mijn bezit, dus hij voelt alweer oud eigenlijk

Gelukkig in het Duits. Dat zal iedereen snappen.The Source schreef op zaterdag 25 augustus 2018 @ 20:18:
Igor heeft een update over zijn collega Derek geschreven![]()
https://www.tomshw.de/201...nschenverstand-editorial/
< dit stukje webruimte is te huur >
Kort samengevat, ze vinden het artikel van de 'editor in chief' uiterst infantiel en distantiëren zich ervan.aex351 schreef op zaterdag 25 augustus 2018 @ 21:31:
[...]
Gelukkig in het Duits. Dat zal iedereen snappen.
Ik betwijfel dat wel een klein beetje moet ik zeggen. Denk dat een heel groot deel van de mensen die inputlag aanzienlijk minder merkt dan HDR wel of niet.Verwijderd schreef op zaterdag 25 augustus 2018 @ 20:39:
Denk even na over welk percentage van de gamers een 4k-scherm met HDR heeft?
Je kan gamen met een HDR-televisie maar dat is ook niets want dan zit je met een gigantisch grote inputlag, tenzij iemand een wel heel erg traag reactievermogen heeft zal hij het merken. Een goede HDR-monitor met een 4k-resolutie en G-Sync kost uit mijn hoofd ongeveer €2500.
[ Voor 20% gewijzigd door giantgiantus op 25-08-2018 22:05 ]
Ik heb hier een ellenlange discussie over gehad maar vraag me dit ook serieus af. Er zijn wel wat statistieken te vinden (denk aan Steam) maar als we daar van uit moeten gaan zijn er alleen al voor 4K niet heel veel gamers, zelfde geldt voor 1440p. Echter lijkt het alsof sommigen mensen er bij zweren dat UHD/4K de heilige grail is en voor hen staat het vast dat iedereen als ze in 2018 nog niet op 4K zitten, dit zeker wel in 2019 het geval is.. terwijl er toch heel veel nieuwe 1080p schermen worden uitgebracht en de adoptie naar 4K heel traag gaat.. daarom ben ik zelf van mening dat gaming op 4K nog redelijk niche is, laten we het ruim nemen, misschien 5% van de gamers?Verwijderd schreef op zaterdag 25 augustus 2018 @ 20:39:
Denk even na over welk percentage van de gamers een 4k-scherm met HDR heeft?
En dan hebben we het nog niet over 4K+HDR.. kijk ook naar de prijzen van die monitoren. Niche for sure.
[ Voor 5% gewijzigd door Lord_Dain op 25-08-2018 22:45 ]
Dat is ook iets wat ik dus nooit begrijp, mensen die een gigantisch bedrag (700+) aan een videokaart uitgeven en dan op een scherm van 100 euro gamen met een TN paneelPaprika schreef op zaterdag 25 augustus 2018 @ 21:14:
[...]
Je scherm hoort ook 2x zo duur te zijn dan je GPU. Het scherm gaat veel langer mee en leuk om op 'n hoge resolutie te gamen terwijl het er niet uitziet.![]()
Verder ben ik het niet helemaal eens met je opmerking over de televisie. Ik zou op mijn oled tv (2016 model en sindsdien ook in mijn bezit, dus hij voelt alweer oud eigenlijk) geen FPS spellen gaan spelen, maar er zijn zat spellen waarvoor ik graag even op de bank ga zitten om te gamen. Denk aan turn-based spellen als Pillars of Eternity, Divinity, de meeste strategy spellen (geen spellen met focus op micro), simulatie spellen, racing, adventure spellen, RPGs, sports. Zeker in singeplayer modes is dat gewoon prima te doen naar mijn mening.

Verwijderd
Ja, je gaat hopelijk niet zo'n grafische kaart combineren met een TN-monitor of een €150 kostende IPS monitor met 60 Hz. Dat zou een slechte verdeling van je geld zijn voor deze hobby. Aan de andere kant betaal je met €2500 een forse premie om iets eerder bepaalde technologie te hebben waarvan de toegevoegde waarde minimaal is, ik denk dat een ultrawide 1440p veel meer waarde toevoegt. Wil je per se goed beeld? Koop daarnaast een OLED-scherm.Paprika schreef op zaterdag 25 augustus 2018 @ 21:14:
[...]
Je scherm hoort ook 2x zo duur te zijn dan je GPU. Het scherm gaat veel langer mee en leuk om op 'n hoge resolutie te gamen terwijl het er niet uitziet.
Turn based spellen en simulatie-spellen, die zou ik op zo'n scherm spelen. De rest wat jij noemt niet.Verder ben ik het niet helemaal eens met je opmerking over de televisie. Ik zou op mijn oled tv (2016 model en sindsdien ook in mijn bezit, dus hij voelt alweer oud eigenlijk) geen FPS spellen gaan spelen, maar er zijn zat spellen waarvoor ik graag even op de bank ga zitten om te gamen. Denk aan turn-based spellen als Pillars of Eternity, Divinity, de meeste strategy spellen (geen spellen met focus op micro), simulatie spellen, racing, adventure spellen, RPGs, sports. Zeker in singeplayer modes is dat gewoon prima te doen naar mijn mening.
Ik heb een Windows based steam box in de woonkamer staan op mijn OLED HDR tv. Daar speel ik eigenlijk liever mijn games dan achter de pc, tenzij het shooters of RTS games zijn.Verwijderd schreef op zondag 26 augustus 2018 @ 02:34:
Dat is het andere uiterste van het spectrum, Sp3ci3s8472
[...]
Ja, je gaat hopelijk niet zo'n grafische kaart combineren met een TN-monitor of een €150 kostende IPS monitor met 60 Hz. Dat zou een slechte verdeling van je geld zijn voor deze hobby. Aan de andere kant betaal je met €2500 een forse premie om iets eerder bepaalde technologie te hebben waarvan de toegevoegde waarde minimaal is, ik denk dat een ultrawide 1440p veel meer waarde toevoegt. Wil je per se goed beeld? Koop daarnaast een OLED-scherm.
[...]
Turn based spellen en simulatie-spellen, die zou ik op zo'n scherm spelen. De rest wat jij noemt niet.
HDR is dan ook echt een toevoeging alleen voorlopig voorbehouden aan de ps4 pro gezien de fps drop die het oplevert. Vanuit dat perspectief zie ik daar ook wel brood in turing. 4k hdr is gewoon pittig voor je videokaart.
Het lijstje games wat hdr ondersteunt is beperkt dus de nood is niet hoog, maar nieuwe titels als Assassin's Creed Odyssey zou ik graag in volle glorie spelen.
De inputlag die het oplevert is met een controller veel minder storend dan met een muis. Je went er zelfs aan en je houdt er rekening mee. Alleen QTE zijn lastiger... Naja die mijd ik ook liever.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Of menen moeten leren sparen voor hun hobby, zelfs zonder modaal inkomen moet het dan lukken om eens per 2 jaar een dik systeem te bouwen, stop met onnodig veel autorijden, stop met een paar keerPenguinEmperor schreef op zaterdag 25 augustus 2018 @ 21:04:
[...]
Tja, het is allemaal wel high end spul, dus toch al niet bedoeld voor de gemiddelde gebruiker. Je moet toch in ieder geval al een een redelijk inkomen hebben. Misschien moet je nu voor de high end echt weer een stukje hoger op de totempaal staan. En als je gewoon modaal verdiend, en je was gewend toch altijd te sparen voor het beste van het beste, moet je accepteren dat dit nu niet meer kan.
Ik denk dat het met deze prijzen zelfs voor de echte high end gebruiker met een dikke portomonnee lastiger wordt uit te leggen thuis. Ik bedoel, een 1080Ti met monitor was nog wel te doen (voor mensen met een goed inkomen) met geschat zo tussen de 1000 en 2000 euro, maar nu gaat de hobby toch al snel richting de 5000 euro. Dat wordt dan even een tijdje op de bank slapen!
per week uit eten gaan, stop met snoep en snacks te kopen, dan doe je ook nog eens wat voor je gezondheid, koop geen dure smartphones, dure merkkleding, smart watches, drones en dure 4k TV's met HDR, 2 keer per jaar op vakantie, huur geen huis in Amsterdam wat zijn geld niet waard is 600+ euro voor een celletje met maar 1 slaapkamer.
[ Voor 4% gewijzigd door Gekke Jantje op 26-08-2018 08:30 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Zit ik er ff prima bij met mijn €100 TN-tje, blijkt die 2e hands 660 van €50 de perfecte kaart te zijnPaprika schreef op zaterdag 25 augustus 2018 @ 21:14:
[...]
Je scherm hoort ook 2x zo duur te zijn dan je GPU. Het scherm gaat veel langer mee en leuk om op 'n hoge resolutie te gamen terwijl het er niet uitziet.
Grapjes daargelaten, ik denk dat dat soort regels niet werken, persoonlijk heb ik niet het idee dat ik het verschil zie tussen TN en IPS, zonder ze vergelijkend naast elkaar te zetten (of je het over een heel erg shitty laptopscherm van 10 jaar terug hebt), of althans, ik stoor me er niet aan. Freesync/Gsync heb ik ook weing behoefte aan, zolang de framerate in de buurt van de 60 blijft stoor ik me niet aan een stottertje
Videokaartwise though, zou ik prima een 1060 of 570 kunnen gebruiken voor de volgende Doom, maar of een scherm van €400 de prijs waard zou zijn voor mij? doubt it
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings
Op een 4k tv spidf naar de versterker voor 5.1 geluid prima zo .
Verwijderd
En dat allemaal voor een hobby/GPu.. dan ben je wel gekke Jantje.Gekke Jantje schreef op zondag 26 augustus 2018 @ 08:24:
[...]
Of menen moeten leren sparen voor hun hobby, zelfs zonder modaal inkomen moet het dan lukken om eens per 2 jaar een dik systeem te bouwen, stop met onnodig veel autorijden, stop met een paar keer
per week uit eten gaan, stop met snoep en snacks te kopen, dan doe je ook nog eens wat voor je gezondheid, koop geen dure smartphones, dure merkkleding, smart watches, drones en dure 4k TV's met HDR, 2 keer per jaar op vakantie, huur geen huis in Amsterdam wat zijn geld niet waard is 600+ euro voor een celletje met maar 1 slaapkamer.
Stop met leven, BUY 2080 NOAWWW!! (je kan solliciteren voor Editor in Chief bij TH JantjeGekke Jantje schreef op zondag 26 augustus 2018 @ 08:24:
[...]
Of menen moeten leren sparen voor hun hobby, zelfs zonder modaal inkomen moet het dan lukken om eens per 2 jaar een dik systeem te bouwen, stop met onnodig veel autorijden, stop met een paar keer
per week uit eten gaan, stop met snoep en snacks te kopen, dan doe je ook nog eens wat voor je gezondheid, koop geen dure smartphones, dure merkkleding, smart watches, drones en dure 4k TV's met HDR, 2 keer per jaar op vakantie, huur geen huis in Amsterdam wat zijn geld niet waard is 600+ euro voor een celletje met maar 1 slaapkamer.
Zelfde ervaring hier. Een 550€ IPS en een 500€ VA scherm (beide 1440p) op mijn buro gehad, allerlei kleine irritante zaken aan die VA en IPS schermen die je bij een TN scherm niet hebt. Uiteindelijk uitgekomen op een 1080p 144Hz monitor, TN.. TN ja.. bevalt uitstekend for the time being.vectormatic schreef op zondag 26 augustus 2018 @ 09:09:
[...]
Grapjes daargelaten, ik denk dat dat soort regels niet werken, persoonlijk heb ik niet het idee dat ik het verschil zie tussen TN en IPS, zonder ze vergelijkend naast elkaar te zetten
[ Voor 32% gewijzigd door Lord_Dain op 26-08-2018 10:37 ]
[ Voor 98% gewijzigd door Beakzz op 26-08-2018 11:33 ]
Ik heb ook totaal geen interesse in 4K gaming, maar wil wel VR er maximaal goed uit laten zien en gewoon met 100+ fps games op 1440 kunnen spelen.
Nu heb ik aardig wat diehard pc gamers om me heen en ik zie bij niemand als eerste wens 4K gamen eigenlijk en ook geen €1000+ schermen. Gewoon mooie graphics die smooth draaien.
Waarom neem je dan geen 1440p 144hz TNLord_Dain schreef op zondag 26 augustus 2018 @ 10:34:
[...]
Stop met leven, BUY 2080 NOAWWW!! (je kan solliciteren voor Editor in Chief bij TH Jantje)
[...]
Zelfde ervaring hier. Een 550€ IPS en een 500€ VA scherm (beide 1440p) op mijn buro gehad, allerlei kleine irritante zaken aan die VA en IPS schermen die je bij een TN scherm niet hebt. Uiteindelijk uitgekomen op een 1080p 144Hz monitor, TN.. TN ja.. bevalt uitstekend for the time being.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Sorry voor de offtopic. Dan komen we dus bij het nadeel van TN... kijkhoeken
Precies dat. Volgens mij is 4K ideaal als je veel beeldschermwerk moet doen en of beeld/videobewerking e.d. Voor gamen zou ik persoonlijk 1440p hebben op iets van 27" en dan wel natuurlijk smooth met flink wat fps. Als de 20xx serie goed performed op 1440p (en dan negeer ik raytracing) waarbij ik nieuwe games op Ultra kan spelen dan is dat het belangrijkste.Beakzz schreef op zondag 26 augustus 2018 @ 11:32:
Nu heb ik aardig wat diehard pc gamers om me heen en ik zie bij niemand als eerste wens 4K gamen eigenlijk en ook geen €1000+ schermen. Gewoon mooie graphics die smooth draaien.
[ Voor 57% gewijzigd door Lord_Dain op 26-08-2018 11:47 ]
Als mensen heel erg blij worden van IPS schermen; hardstikke mooi, ieder zijn ding. Ik ben hardstikke blij met mijn TN scherm (een AOC Agon ag271qx).
Maar goed, met die nuance in het achterhoofd, ik ben het wel eens met het idee dat je geen 2080Ti straks moet gaan combineren met een scherm van 100 euro. Daar kun je nog net een 1080p scherm van kopen, en dat dan met een videokaart waar je echt 4k HDR op moet gaan spelen wil je het aan jezelf kunnen verantwoorden...
Verwijderd schreef op zondag 26 augustus 2018 @ 09:49:
[...]
En dat allemaal voor een hobby/GPu.. dan ben je wel gekke Jantje.
Dan heb je veel gekke Jantjes, mensen die een mooie BMW kopen, mensen die 2 keer per jaar op vakantie gaan, mensen die een extra groot huis kopen, mensen die edelstenen en mineralen verzamelen. Eigenlijk is iedereen die een beetje leeft wel gekke JantjeLord_Dain schreef op zondag 26 augustus 2018 @ 10:34:
[...]
Stop met leven, BUY 2080 NOAWWW!! (je kan solliciteren voor Editor in Chief bij TH Jantje)
[...]
Zelfde ervaring hier. Een 550€ IPS en een 500€ VA scherm (beide 1440p) op mijn buro gehad, allerlei kleine irritante zaken aan die VA en IPS schermen die je bij een TN scherm niet hebt. Uiteindelijk uitgekomen op een 1080p 144Hz monitor, TN.. TN ja.. bevalt uitstekend for the time being.
Of willen jullie zeggen dat je aan het sparen zijn voor een praalgraf?
Edit
@Verwijderd Een mooi huis heeft zeker niets met status te maken?

Heren.
Doe dan ook niet zo neerbuigend als het om een 1000 euro GPU gaat, ieder zijn luxe prioriteiten..
[ Voor 46% gewijzigd door Gekke Jantje op 26-08-2018 15:22 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Verwijderd
Maar hoeveel procent van de gamers heeft zo'n mooie OLED HDR televisie? Dat is nog steeds behoorlijk een niche-markt. Zelfs 4k met goede HDR voor LCD-televisies (meestal VA) is nog redelijk niche (maar wel veel minder dan OLED HDR). Nu is €900-1400 (2080 en 2080 Ti) voor een grafische kaart ook erg niche dus als er een groep is die zo'n scherm gebruikt dan is het deze groep maar die prijzen zullen begin 2019 aardig dalen en dan voor AIB-varianten met betere koeling etc.Blaat schreef op zondag 26 augustus 2018 @ 07:52:
[...]
Ik heb een Windows based steam box in de woonkamer staan op mijn OLED HDR tv. Daar speel ik eigenlijk liever mijn games dan achter de pc, tenzij het shooters of RTS games zijn.
HDR is dan ook echt een toevoeging alleen voorlopig voorbehouden aan de ps4 pro gezien de fps drop die het oplevert. Vanuit dat perspectief zie ik daar ook wel brood in turing. 4k hdr is gewoon pittig voor je videokaart.
Het lijstje games wat hdr ondersteunt is beperkt dus de nood is niet hoog, maar nieuwe titels als Assassin's Creed Odyssey zou ik graag in volle glorie spelen.
De inputlag die het oplevert is met een controller veel minder storend dan met een muis. Je went er zelfs aan en je houdt er rekening mee. Alleen QTE zijn lastiger... Naja die mijd ik ook liever.
Natuurlijk wil ook ik graag uiteindelijk spellen met HDR spelen, dat komt vanzelf ook naar de monitors toe (een fatsoenlijke implementatie voor <€1000), zolang Ubisoft en Steam niet failliet gaan voor die tijd kan ik later nog eens ACO en opvolgers met HDR spelen.
Ondertussen zal HDR beter worden: meer segmenten, groter contrast en betere software. Zoals altijd bij hardware betaal je flink extra om iets eerder bepaalde performance te krijgen.
Eerlijk gezegd, ik heb jarenlang een TN-monitor gehad en nu jarenlang een IPS-monitor, ik zou voor geen goud terug willen. Het grooste probleem van TN is dat je onmogelijk zo voor de monitor kan zitten dat dezelfde kleur op heel het scherm er hetzelfde uitziet (doordat de hoek tussen je ogen en die pixels varieert), het maakt daarom weinig uit hoe goed je het kalibreert, de kleurkwaliteit blijft matig. Het hangt ervan af of dat je genoegen neemt met een RR van 75 Hz. of dat je per se die hogere RR wil hebben en het ervoor over hebt om flink wat kleurkwaliteit in te leveren. Voor 75 Hz. zijn IPS monitors goedkoop: €100-200, zet je de stap naar een hoge RR dan stijgt de prijs enorm sterk bij 1080p, uit mijn hoofd €300-400. Zelf zou ik dan de stap zetten naar 1440p IPS maar dat wordt voor veel gamers te duur (meer dan wat ze ervoor over hebben).PenguinEmperor schreef op zondag 26 augustus 2018 @ 12:25:
Als we dan toch offtopic bezig zijn. Hier ook iemand met een TN scherm (en die heeft geen 100 euro gekost). Ik word een beetje moe van opmerkingen als zouden TN schermen voor sloebers zijn en moet iedere "echte" liefhebber per se echt een IPS scherm hebben. Het ene TN scherm is het andere niet, en er zitten tegenwoordig mooie bij. Je moet natuurlijk niet de allergoedkoopste nemen, maar als je een mooie neemt scheelt het nog enkele honderden euro's tegenover eenzelfde IPS paneel, en er is ook veel minder risico op back light bleeding en IPS glow.
Als mensen heel erg blij worden van IPS schermen; hardstikke mooi, ieder zijn ding. Ik ben hardstikke blij met mijn TN scherm (een AOC Agon ag271qx).
Maar goed, met die nuance in het achterhoofd, ik ben het wel eens met het idee dat je geen 2080Ti straks moet gaan combineren met een scherm van 100 euro. Daar kun je nog net een 1080p scherm van kopen, en dat dan met een videokaart waar je echt 4k HDR op moet gaan spelen wil je het aan jezelf kunnen verantwoorden...
De heren hebben een goed punt, als je zoveel geld besteedt aan je andere hardware waarom dan niet wat meer aan de monitor? Stel dat je een kaart van €400-500 gebruikt en na 4 jaar vervang je die dan besteed je in 8 jaar tijd €800-1000 aan slechts de grafische kaart. De rest van het systeem zal gemakkelijk tegen de €1000 of meer kosten in die tijd. Dan is een monitor van €500-600 in verhouding. Het gaat er niet zo zeer om of dat je veel of weinig te besteden hebt maar hoe je het in een goede verhouding inzet om het maximale uit je hardware te halen. Zelf haal ik in dat verband graag het geluid aan, iets wat bijna alle gamers stevig verwaarlozen, ook veel gamers die die 1080 Ti en een monitor van €2000 hebben. Dat is eveneens geen goede verdeling van je geld voor die hobby.
[ Voor 45% gewijzigd door Verwijderd op 26-08-2018 14:53 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
In combinatie met LCD, bij OLED is dat mogelijk anders. Maar een goed punt, HDR in de avond (veronderstellende dat je 's nachts wil slapen) is waarschijnlijk een slecht idee. Dat komt door het blauwe licht van die monitors. Midden op de dag is het geen probleem om die in volle stand te zetten. Ik raad iedereen aan om zoveel mogelijk een dark theme te gebruiken (browser, Youtube, desktop, alle programma's die het ondersteunen zoals een tekst-editor), dat scheelt ook erg veel. Helaas ondersteunt Tweakers het nog niet.sdk1985 schreef op zondag 26 augustus 2018 @ 14:47:
Dat hele HDR wil je mogelijk niet. Ik weet nog wel toen ik mijn nieuwe 4K tv (zonder HDR) had dat ik de eerste 3 dagen letterlijk niet heb geslapen. Uiteindelijk opgelost door de tv op de donkerste stand te zetten. Met HDR wordt het alleen maar feller. Voor mij zal het in ieder geval geen goed idee zijn...
[quote]Gekke Jantje schreef op zondag 26 augustus 2018 @ 13:54:
@Verwijderd Een mooi huis heeft zeker niets met status te maken?

[/quote]
Niet noodzakelijk! Het zou voor mij voor 100% gaan om voldoende ruimte voor een mooie pianovleugel en rust (geen last van andere mensen hun herrie en zij horen mij niet wanneer ik musiceer), de status kan me gestolen worden. Niet iedereen geeft iets om status, Jantje. Maar genoeg offtopic.
[ Voor 20% gewijzigd door Verwijderd op 26-08-2018 15:19 ]
Ook snap ik niet dat monitoren zo duur zijn met hdr. Je kan vrij goedkoop een oled of lcd hdr tv kopen, waarom dat niet mogelijk is met monitoren is me een raadsel.
Wellicht komt het omdat er een heel raar fetisjisme is ontstaan voor fps. Zelfs als een monitorfabricant een mooi hdr scherm maakt met 60fps wordt dit in de reviews op internet volledig afgemaakt door een kleine zeer vocale minderheid op internet. En apparaten zonder goede reviews worden heden ten dage niet meer goed verkocht.
Verwijderd
Twee mogelijke verklaringen die ik zie: de monitors zijn al lang geen prioriteit meer voor die bedrijven (Samsung en LG met name) en bij televisies is het gemakkelijker om HDR uit te voeren omdat ze groter zijn. Als je bij dezelfde resolutie evenveel lichtsegmenten wil...giantgiantus schreef op zondag 26 augustus 2018 @ 16:30:
Het rare met hdr is dat de pc daarop echt behoorlijk achterloopt op de consoles. In mijn ogen vreemd want hdr maakt echt een giga verschil.
Ook snap ik niet dat monitoren zo duur zijn met hdr. Je kan vrij goedkoop een oled of lcd hdr tv kopen, waarom dat niet mogelijk is met monitoren is me een raadsel.
Wellicht komt het omdat er een heel raar fetisjisme is ontstaan voor fps. Zelfs als een monitorfabricant een mooi hdr scherm maakt met 60fps wordt dit in de reviews op internet volledig afgemaakt door een kleine zeer vocale minderheid op internet. En apparaten zonder goede reviews worden heden ten dage niet meer goed verkocht.
Je hebt binnenin zo'n apparaat een constructie nodig waardoor het licht uit het ene segment wordt geblokkeerd in de andere segmenten. Als je van dichterbij naar zo'n scherm kijkt dan zie je ook gemakkelijker problemen doordat er nog te weinig segmenten zijn.
[ Voor 4% gewijzigd door Verwijderd op 26-08-2018 18:25 ]
Inderdaad, het ging mij om de verhouding van prijs; een duurder TN paneel is een heel stuk beter dan een goedkope van 100 euro. Vaak zijn dat panelen die 6bit + FRC zijn (FRC is dithering, waardoor het lijkt alsof je meer kleuren hebt), althans vroeger; ze hebben vaak ook een slechte inkijkhoek wat de kleuren verpest.PenguinEmperor schreef op zondag 26 augustus 2018 @ 12:25:
Als we dan toch offtopic bezig zijn. Hier ook iemand met een TN scherm (en die heeft geen 100 euro gekost). Ik word een beetje moe van opmerkingen als zouden TN schermen voor sloebers zijn en moet iedere "echte" liefhebber per se echt een IPS scherm hebben. Het ene TN scherm is het andere niet, en er zitten tegenwoordig mooie bij. Je moet natuurlijk niet de allergoedkoopste nemen, maar als je een mooie neemt scheelt het nog enkele honderden euro's tegenover eenzelfde IPS paneel, en er is ook veel minder risico op back light bleeding en IPS glow.
Als mensen heel erg blij worden van IPS schermen; hardstikke mooi, ieder zijn ding. Ik ben hardstikke blij met mijn TN scherm (een AOC Agon ag271qx).
Maar goed, met die nuance in het achterhoofd, ik ben het wel eens met het idee dat je geen 2080Ti straks moet gaan combineren met een scherm van 100 euro. Daar kun je nog net een 1080p scherm van kopen, en dat dan met een videokaart waar je echt 4k HDR op moet gaan spelen wil je het aan jezelf kunnen verantwoorden...
Natuurlijk zijn er nadelen aan IPS en VA varianten. Alleen zijn die in mijn ogen meer aanwezig bij TN. Dat zal niet voor iedereen gelden. Een goedkoop (lees 100 euro) IPS scherm zal waarschijnlijk meer last hebben van een hoge input lag en IPS glow.
Overigens kan je het verschil tussen 8bit en 10bit nog steeds goed zijn. Het verschil tussen 8bit + FRC en 10bit is al weer kleiner.

Bron:
https://www.avsforum.com/...play-panel-bit-depth.html
Ik gebruik F.lux om dat op te lossen, aanrader. Het verminderd het blauwe licht zorgt voor een lage kleurtemperatuur. Hierdoor wordt je slaapritme ook minder beinvloed door het blauwe licht.sdk1985 schreef op zondag 26 augustus 2018 @ 14:47:
Dat hele HDR wil je mogelijk niet. Ik weet nog wel toen ik mijn nieuwe 4K tv (zonder HDR) had dat ik de eerste 3 dagen letterlijk niet heb geslapen. Uiteindelijk opgelost door de tv op de donkerste stand te zetten. Met HDR wordt het alleen maar feller. Voor mij zal het in ieder geval geen goed idee zijn...
Windows 10 heeft iets vergelijkbaars, alleen is dat weer een halfbakken implementatie. Werkt voor geen meter met meerdere schermen en heeft weinig opties.
[ Voor 17% gewijzigd door Sp3ci3s8472 op 26-08-2018 19:03 ]
Beetje belerend
Ik hoop overigens dat Havok en Physx beide een stille dood sterven en dat er meer gebruik wordt gemaakt door Bullet. Weg met proprietary troep.
Beetje verneukeratief plaatje natuurlijk, het verschil is niet zo dramatisch als dat hier lijkt, daarbij komt dat ik hier op een 6-bit paneel geen verschil tussen de twee zou mogen zien als de plaatjes correct waren en dat is niet zo.Sp3ci3s8472 schreef op zondag 26 augustus 2018 @ 18:56:
[...]
Inderdaad, het ging mij om de verhouding van prijs; een duurder TN paneel is een heel stuk beter dan een goedkope van 100 euro. Vaak zijn dat panelen die 6bit + FRC zijn (FRC is dithering, waardoor het lijkt alsof je meer kleuren hebt), althans vroeger; ze hebben vaak ook een slechte inkijkhoek wat de kleuren verpest.
Natuurlijk zijn er nadelen aan IPS en VA varianten. Alleen zijn die in mijn ogen meer aanwezig bij TN. Dat zal niet voor iedereen gelden. Een goedkoop (lees 100 euro) IPS scherm zal waarschijnlijk meer last hebben van een hoge input lag en IPS glow.
Overigens kan je het verschil tussen 8bit en 10bit nog steeds goed zijn. Het verschil tussen 8bit + FRC en 10bit is al weer kleiner.
[afbeelding]
Bron:
https://www.avsforum.com/...play-panel-bit-depth.html
[...]
Ik gebruik F.lux om dat op te lossen, aanrader. Het verminderd het blauwe licht zorgt voor een lage kleurtemperatuur. Hierdoor wordt je slaapritme ook minder beinvloed door het blauwe licht.
Windows 10 heeft iets vergelijkbaars, alleen is dat weer een halfbakken implementatie. Werkt voor geen meter met meerdere schermen en heeft weinig opties.
Overigens zou je bij statische beelden geen verschil mogen zien tussen 6bpc+FRC en 8bpc. In principe is je oog te traag om die vlotte wisseling tussen verschillende kleurtinten mee te krijgen. Ga je naar een bewegend plaatje kijken wordt het een ander verhaal, dan zie je vaak dat objecten een gestippelde omlijning hebben.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Blijkbaar zou het te maken hebben met de chroma subsampling. Geen scherm kan op 4K alles aan (4:4:4 en >= 60hz en HDR) door een gebrek aan bandbreedte:giantgiantus schreef op zondag 26 augustus 2018 @ 16:30:
Het rare met hdr is dat de pc daarop echt behoorlijk achterloopt op de consoles. In mijn ogen vreemd want hdr maakt echt een giga verschil.
Ook snap ik niet dat monitoren zo duur zijn met hdr. Je kan vrij goedkoop een oled of lcd hdr tv kopen, waarom dat niet mogelijk is met monitoren is me een raadsel.
http://community.cedia.ne.../2017/06/22/4k-60-444-hdr
Console gamers zitten er al een aantal jaar rondheen te fietsen. Uiteindelijk moeten ze genoegen nemen met een compromis (meestal terug gaan naar 4:2:0).
Ook de RTX zal niet alles aan kunnen tenzij je dubbele kabels gebruikt. DisplayPort 1.4 en HDMI 2.0 zijn te magere beestjes om alle boxen af te tikken.
TV's op 4K zenden enkel uit op 60hz (of 50hz), dus die zijn lager dan monitors op 144hz 4K. Dat geeft een goedkopere prijs begrijp ik.
Dank voor deze toelichting. Dan is het wel echt raar dat ze in dergelijke kaarten geen hdmi 2.1 stoppen.algalid schreef op maandag 27 augustus 2018 @ 07:57:
[...]
Blijkbaar zou het te maken hebben met de chroma subsampling. Geen scherm kan op 4K alles aan (4:4:4 en >= 60hz en HDR) door een gebrek aan bandbreedte:
http://community.cedia.ne.../2017/06/22/4k-60-444-hdr
Console gamers zitten er al een aantal jaar rondheen te fietsen. Uiteindelijk moeten ze genoegen nemen met een compromis (meestal terug gaan naar 4:2:0).
Ook de RTX zal niet alles aan kunnen tenzij je dubbele kabels gebruikt. DisplayPort 1.4 en HDMI 2.0 zijn te magere beestjes om alle boxen af te tikken.
TV's op 4K zenden enkel uit op 60hz (of 50hz), dus die zijn lager dan monitors op 144hz 4K. Dat geeft een goedkopere prijs begrijp ik.
Kleine correctie, consoles schakelen in HDR modus terug naar 4:2:2, niet 4:2:0. In de meeste gevallen is dit ook afdoende overigens, in maar een paar specifieke scenario's is banding of color washing aanwezig op 4:2:2. In non HDR modus gebruiken consoles ook gewoon full range RGB.algalid schreef op maandag 27 augustus 2018 @ 07:57:
[...]
Blijkbaar zou het te maken hebben met de chroma subsampling. Geen scherm kan op 4K alles aan (4:4:4 en >= 60hz en HDR) door een gebrek aan bandbreedte:
http://community.cedia.ne.../2017/06/22/4k-60-444-hdr
Console gamers zitten er al een aantal jaar rondheen te fietsen. Uiteindelijk moeten ze genoegen nemen met een compromis (meestal terug gaan naar 4:2:0).
Ook de RTX zal niet alles aan kunnen tenzij je dubbele kabels gebruikt. DisplayPort 1.4 en HDMI 2.0 zijn te magere beestjes om alle boxen af te tikken.
TV's op 4K zenden enkel uit op 60hz (of 50hz), dus die zijn lager dan monitors op 144hz 4K. Dat geeft een goedkopere prijs begrijp ik.
Op 2160p zijn de effecten van chroma subsampling ook veel minder heftig dan op 1080p.
Ook hebben de meeste TV's gewoon 120Hz panelen, alleen de meerderheid daarvan accepteert geen signaal met meer dan 60Hz. De beeldverwerking van de TV in kwestie kan er dan frames bij interpoleren zoals dat bij de PSVR ook gebeurt.
[ Voor 3% gewijzigd door Blaat op 27-08-2018 08:14 ]
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Hoezo heeft een grafische optie als RTX kabel bandbreedte nodig, RTX is toch heel wat anders dan een breder kleuren bereid, hz en resoluties?algalid schreef op maandag 27 augustus 2018 @ 07:57:
[...]
Blijkbaar zou het te maken hebben met de chroma subsampling. Geen scherm kan op 4K alles aan (4:4:4 en >= 60hz en HDR) door een gebrek aan bandbreedte:
http://community.cedia.ne.../2017/06/22/4k-60-444-hdr
Console gamers zitten er al een aantal jaar rondheen te fietsen. Uiteindelijk moeten ze genoegen nemen met een compromis (meestal terug gaan naar 4:2:0).
Ook de RTX zal niet alles aan kunnen tenzij je dubbele kabels gebruikt. DisplayPort 1.4 en HDMI 2.0 zijn te magere beestjes om alle boxen af te tikken.
TV's op 4K zenden enkel uit op 60hz (of 50hz), dus die zijn lager dan monitors op 144hz 4K. Dat geeft een goedkopere prijs begrijp ik.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Hij bedoelt een RTX kaart, niet RTX als technologie.Gekke Jantje schreef op maandag 27 augustus 2018 @ 08:20:
[...]
Hoezo heeft een grafische optie als RTX kabel bandbreedte nodig, RTX is toch heel wat anders dan een breder kleuren bereid, hz en resoluties?
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Bedankt voor de aanvulling. 4:2:0 en 4:2:2 vallen idd minder op als je wat verder van de TV zit (en die 2160P helpt uiteraard). Je merkt wel het "groezelige" effect op als je er met je neus op zit zoals bij een monitor. Sommige mensen krijgen er zelfs hoofdpijn van (tis niet gemaakt voor uren browsing en/of tekstlezen).Blaat schreef op maandag 27 augustus 2018 @ 08:03:
Kleine correctie, consoles schakelen in HDR modus terug naar 4:2:2, niet 4:2:0. In de meeste gevallen is dit ook afdoende overigens, in maar een paar specifieke scenario's is banding of color washing aanwezig op 4:2:2. In non HDR modus gebruiken consoles ook gewoon full range RGB.
Bij 120Hz tv's is het ook opletten voor fabrikanten die wel zo verversen maar voor de rest enkel aan "black frame insertion" doen. Dit is zeker een goede techniek voor statische fps zoals een serie maar geeft teleurstelling bij de "pc game mode". En dan is er nog het probleem van input-beperking. Zelfs al is het scherm 120Hz, als de input enkel max 60Hz is, dan sta je daar mooi.
De beperking van HDMI 2.0 zal de output van de TV bepalen. In ieder geval zijn de 144Hz 4K monitors (met GSync) dun bezaaid en peperduur, dus de meeste mensen zullen idd niet veel merken in de praktijk van tegenvallende RTX kaarten. Maar de perceptie is wel gezet ook al heb je zo'n monitor niet.
[ Voor 5% gewijzigd door algalid op 27-08-2018 11:03 ]
Zeker! Chroma subsampling valt het sterkst op bij kleine objecten met harde contrasten, e.g. zwarte letters in een wit browservenster. Die krijgen in de regel een groene halo.algalid schreef op maandag 27 augustus 2018 @ 10:59:
[...]
Bedankt voor de aanvulling. 4:2:0 en 4:2:2 vallen idd minder op als je wat verder van de TV zit (en die 2160P helpt uiteraard). Je merkt wel het "groezelige" effect op als je er met je neus op zit zoals bij een monitor. Sommige mensen krijgen er zelfs hoofdpijn van (tis niet gemaakt voor uren browsing en/of tekstlezen).
Bij een game is het al een stuk lastiger te zien omdat de contrasten minder groot zijn en de objecten in beeld meestal veel groter. Zelfs de HUD is in games van lomper uitgevoerd dan browsertekst, dankzij consoles en de bijbehorende grotere kijkafstand.
Daar moet je inderdaad op letten. Black frame insertion ben ik totaal geen fan van. Het halveert de helderheid, laat je beeld zichtbaar flikkeren en voegt verder niks toe in mijn ogen. Gelukkig kan je dat in veel gevallen wel uitzetten. Zelf laat mijn TV's altijd 30hz of 60hz naar 120hz interpoleren (de extra input lag en artifacts boeien mij niet zo) dus ik heb er wel baat bij.Bij 120Hz tv's is het ook opletten voor fabrikanten die wel zo verversen maar voor de rest enkel aan "black frame insertion" doen. Dit is zeker een goede techniek voor statische fps zoals een serie maar geeft teleurstelling bij de "pc game mode". En dan is er nog het probleem van input-beperking. Zelfs al is het scherm 120Hz, als de input enkel max 60Hz is, dan sta je daar mooi.
HDMI heeft in ieder geval een grote inhaalslag gemaakt op DP, daar ben ik al heel blij mee. Voorheen was DP eigenlijk je enige optie als je 4k wilde, tegenwoordig is dat gelukkig anders. Maar 4k144 + HDR gaat zeker niet te standaard worden op korte termijn. Veel te bewerkelijk en te duur. In dat geval is het niet zo erg dat DP en HDMI de throughput daarvoor niet hebben.De beperking van HDMI 2.0 zal de output van de TV bepalen. In ieder geval zijn de 144Hz 4K monitors (met GSync) dun bezaaid en peperduur, dus de meeste mensen zullen idd niet veel merken in de praktijk van tegenvallende RTX kaarten. Maar de perceptie is wel gezet ook al heb je zo'n monitor niet.
Wat was het ook alweer? Vanaf 98Hz schaalde die nieuwe ROG Swift terug naar 4:2:0? Dus in windows krijg je wel die fantastische groene halo's om je tekst te zien, tenzij je in windows de refresh rate lager of HDR uit zet.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.