• sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Werelds schreef op vrijdag 28 december 2018 @ 00:59:
[...]

FTFY ;)

EVGA's Precision X1 mag die functie overigens ook gebruiken, dus als daar nog geen versie van is die het mogelijk maakt met Pascal, zal dat op korte termijn wel gebeuren.
Quotes editen is niet zo netjes ;).

Maar goed zo ver ik weet waren vroeger zowel MSI Afterburner als EVGA Precision X skins van RivaTuner. Echter dat is enkele jaren geleden volledig uit elkaar geklapt toen MSI exclusief x64 zou krijgen en EVGA vervolgens met een 'in house' versie kwam. Heb ik iets gemist en is die ruzie bijgelegd? Want zo niet dan is het maar de vraag of die functie op korte termijn in precision op duikt...

edit: EVGA Precision XOC 6.2.7 van 5/8/2018 heeft een OC scanner knop. Die waren blijkbaar bijna 2 maanden eerder. Ik ga er eens op drukken :+ .

[ Voor 8% gewijzigd door sdk1985 op 29-12-2018 01:32 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op zaterdag 29 december 2018 @ 01:17:
[...]

Quotes editen is niet zo netjes ;).
Dat was juist het punt ;)
Maar goed zo ver ik weet waren vroeger zowel MSI Afterburner als EVGA Precision X skins van RivaTuner. Echter dat is enkele jaren geleden volledig uit elkaar geklapt toen MSI exclusief x64 zou krijgen en EVGA vervolgens met een 'in house' versie kwam. Heb ik iets gemist en is die ruzie bijgelegd? Want zo niet dan is het maar de vraag of die functie op korte termijn in precision op duikt...

edit: EVGA Precision XOC 6.2.7 van 5/8/2018 heeft een OC scanner knop. Die waren blijkbaar bijna 2 maanden eerder. Ik ga er eens op drukken :+ .
Ze zijn allemaal op de RT core gebaseerd. Maakt niet uit welke GPU fabrikant het is, als ze een GPU monitor/OC tool hebben kun je er 99,9% zeker van zijn dat het op RT gebaseerd is (er is een reden dat ze allemaal nagenoeg identieke functionaliteit hebben ;)). MSI heeft enkele jaren geleden inderdaad wat exclusiviteit gehad, maar Alexey verkoopt dat tegenwoordig breder.

Verwijderd

@sdk1985
Het was volstrekt duidelijk voor de lezers dat hij Jantje zijn citaat aanpaste en het stond ook direct onder het citaat. ;)
Ik zie niet wat daar niet netjes aan is. Het is meer bondig dan eronder typen dat het niet klopt omdat...

[ Voor 35% gewijzigd door Verwijderd op 29-12-2018 16:51 ]


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Werelds schreef op zaterdag 29 december 2018 @ 12:50:
[...]

Dat was juist het punt ;)


[...]

Ze zijn allemaal op de RT core gebaseerd. Maakt niet uit welke GPU fabrikant het is, als ze een GPU monitor/OC tool hebben kun je er 99,9% zeker van zijn dat het op RT gebaseerd is (er is een reden dat ze allemaal nagenoeg identieke functionaliteit hebben ;)). MSI heeft enkele jaren geleden inderdaad wat exclusiviteit gehad, maar Alexey verkoopt dat tegenwoordig breder.
Gisteren is hij gestopt na 5 volt puntjes van de pak hem beet 30 in te stellen punten. Dus die scanner van EVGA werkt nog niet lekker.
Verwijderd schreef op zaterdag 29 december 2018 @ 16:48:
@sdk1985
Het was volstrekt duidelijk voor de lezers dat hij Jantje zijn citaat aanpaste en het stond ook direct onder het citaat. ;)
Ik zie niet wat daar niet netjes aan is. Het is meer bondig dan eronder typen dat het niet klopt omdat...
Een citaat hoor je niet mee te rommelen. Tijd argument lijkt me ook niet echt relevant gezien de grote teksten die wij hier altijd plaatsen ;). Als ik heel flauw was geweest dan had ik nu iets raars in deze quote gezet om mijn punt te maken. Ik zal me inhouden :9 .



Laatste gerucht RTX 2060 350 dollar MSRP en het prestatie niveau van de 1070 Ti (449). https://nl.hardware.info/...i-onthuld-voor-350-dollar

[ Voor 37% gewijzigd door sdk1985 op 29-12-2018 22:54 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
sdk1985 schreef op zaterdag 29 december 2018 @ 22:31:

Laatste gerucht RTX 2060 350 dollar MSRP en het prestatie niveau van de 1070 Ti (449). https://nl.hardware.info/...i-onthuld-voor-350-dollar
Eerst zien, dan geloven, op alle fronten (1070TI performance?, € 350,-?. stroomverbruik <= 1070TI?, hitteontwikkeling <= 1070TI?) ik geloof er niks van Ik heb er vooralsnog niet héél veel vertrouwen in, als ik de prijs setting van de overige 20** kaarten bekijk.

Voor Raytracing hoef je hem niet te kopen, want 2fps speelt niet zo lekker, dus waarom zou je hem dan wel willen als ook maar één van bovengenoemde punten niet waar zijn mogen blijken?

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
zion schreef op zaterdag 29 december 2018 @ 23:02:
[...]

Eerst zien, dan geloven, op alle fronten (1070TI performance?, € 350,-?. stroomverbruik <= 1070TI?, hitteontwikkeling <= 1070TI?) ik geloof er niks van Ik heb er vooralsnog niet héél veel vertrouwen in, als ik de prijs setting van de overige 20** kaarten bekijk.

Voor Raytracing hoef je hem niet te kopen, want 2fps speelt niet zo lekker, dus waarom zou je hem dan wel willen als ook maar één van bovengenoemde punten niet waar zijn mogen blijken?
Stroomverbruik hebben ze het niet over gehad, ging puur om performance. Bron zou een gelekte Nvidia reviewers guide zijn. (Dus wij van wc eend niveau is hoog).

Hoe dan ook:
According to the same guide, RTX 2060 is said to provide playable experience in Battlefield V with ray tracing enabled (1080p):
Battlefield V: RT Off: 90 FPS
Battlefield V: RT On + DLSS Off: 65 FPS
Battlefield V: RT On + DLSS On: 88 FPS
Maar goed dat is verder ook niet zo relevant wanneer de kaart voor 350 dollar de prestaties van een nu 450 dollar kostende kaart gaat leveren. In dat geval zijn die extra's (RT, DLSS, tensor cores) mooi meegenomen maar koop je hem gewoon als goedkopere 1070 variant.

Echt ongeloofwaardig is het niet want ik merk aan mijn eigen GTX 1070 dat die echt geen high-end meer te noemen is. Dat niveau is in 2019 ongetwijfeld als midrange te bestempelen.

[ Voor 6% gewijzigd door sdk1985 op 29-12-2018 23:08 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
dit was totaal offtopic, dus nutteloos.... excuses

[ Voor 93% gewijzigd door zion op 29-12-2018 23:25 ]

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op zaterdag 29 december 2018 @ 22:31:
Een citaat hoor je niet mee te rommelen. Tijd argument lijkt me ook niet echt relevant gezien de grote teksten die wij hier altijd plaatsen ;). Als ik heel flauw was geweest dan had ik nu iets raars in deze quote gezet om mijn punt te maken. Ik zal me inhouden :9 .
Daarom stond er ook FTFY ;)

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
sdk1985 schreef op zaterdag 29 december 2018 @ 01:17:
[...]

Quotes editen is niet zo netjes ;).

Maar goed zo ver ik weet waren vroeger zowel MSI Afterburner als EVGA Precision X skins van RivaTuner. Echter dat is enkele jaren geleden volledig uit elkaar geklapt toen MSI exclusief x64 zou krijgen en EVGA vervolgens met een 'in house' versie kwam. Heb ik iets gemist en is die ruzie bijgelegd? Want zo niet dan is het maar de vraag of die functie op korte termijn in precision op duikt...

edit: EVGA Precision XOC 6.2.7 van 5/8/2018 heeft een OC scanner knop. Die waren blijkbaar bijna 2 maanden eerder. Ik ga er eens op drukken :+ .
Het werkt wel lekker op zich de hele voltage freq curve word aangepas en ik zag bij mijn GTX 1080 Ti hogere clocks bij een lager voltage. Je kun ook nog een hoger voltage geven en fanpeed omhoog krikken Ik ga maar eens kijken wat er dan gebeurd.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
De oc scanner werkt helaas niet op mijn mining/hobby systemen. 6x1070 erin maar zodra ik op de oc scan knop druk gebeurt er helemaal niks.

Wie goed doet, die goed ontmoet.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Battlefield V NVIDIA Ray Tracing - CPU Testing
Modbreak:Alleen een link dumpen is geen GoT-waardige post. Geef tenminste een samenvatting/mening erbij :o

[ Voor 26% gewijzigd door dion_b op 04-01-2019 13:10 ]

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

YouTuber "The Good Old Gamer" vraagt zich waarom sommige mensen in de commentaren onder zijn video Nvidia's huidige prijsbeleid lopen te verdedigen - terwijl ze daar zelf de vervelende gevolgen van ondervinden in de vorm van verhoudingsgewijs duurdere kaarten.

Waarschijnlijk is het gewoon een manier om psychologisch hun eigen recente aankoop van een RTX Nvidia-kaart te kunnen blijven rechtvaardigen, terwijl de performance die de RTX kaarten leveren vaak al beschikbaar was tijdens de vorige Pascal generatie (met uitzondering van de RTX 2080Ti). Daarnaast denk ik dat mensen na een aantal jaar met dezelfde kaart gespeeld te hebben waarschijnlijk sowieso verlangen naar een stevigere GPU, waarbij sommigen kennelijk inmiddels bereid zijn om daaraan meer geld te besteden dan aan het toenmalige budget voor hun GTX 1060.

The Good Old Gamer gaat vooral uit van de situatie waarin gamers een upgrade overwegen en nu nog op bijv. een GTX 1060 6GB niveau zitten. Ze kunnen straks voor $350 een RTX 2060 aanschaffen. Die kaart is weliswaar flink sneller dan de GTX 1060 GB, maar ook een stuk duurder dan de GTX 1060 6GB ooit was (nml. $249). Destijds waren er ook snellere kaarten beschikbaar voor een hogere prijs zoals de GTX 1070 (en later de 1070Ti), maar op dat moment werden die kennelijk te duur geacht. En dus zou een rationele consument niet twee jaar later alsnog voor een duurdere kaart moeten gaan, zeker wanneer de nieuwe GPU-generatie niet langer een betere performance-per-dollar levert (zoals traditioneel het geval was de afgelopen jaren) dan de oude generatie. Eigenlijk vindt The Good Old Gamer dat Nvidia's RTX 2060 kaart gewoon niet interessant is en dat je hem links moet laten liggen.

Er bestaan natuurlijk ook gamers die voor het eerst een game PC samenstellen en dus niet upgraden, maar gewoon nog geen enkele GPU hebben. Voor hun geldt dan een andere overweging.


NB: Omdat de kritiek op de prijsstelling van videokaarten zich eigenlijk uitsluitend richt op Nvidia leek het me beter in deze draad hierop te reageren dan in de AMD draad waarin de link oorspronkelijk gepost werd.

  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

choogen schreef op vrijdag 4 januari 2019 @ 14:00:
[...]


YouTuber "The Good Old Gamer" vraagt zich waarom sommige mensen in de commentaren onder zijn video Nvidia's huidige prijsbeleid lopen te verdedigen - terwijl ze daar zelf de vervelende gevolgen van ondervinden in de vorm van verhoudingsgewijs duurdere kaarten.

Waarschijnlijk is het gewoon een manier om psychologisch hun eigen recente aankoop van een RTX Nvidia-kaart te kunnen blijven rechtvaardigen, terwijl de performance die de RTX kaarten leveren vaak al beschikbaar was tijdens de vorige Pascal generatie (met uitzondering van de RTX 2080Ti). Daarnaast denk ik dat mensen na een aantal jaar met dezelfde kaart gespeeld te hebben waarschijnlijk sowieso verlangen naar een stevigere GPU, waarbij sommigen kennelijk inmiddels bereid zijn om daaraan meer geld te besteden dan aan het toenmalige budget voor hun GTX 1060.

The Good Old Gamer gaat vooral uit van de situatie waarin gamers een upgrade overwegen en nu nog op bijv. een GTX 1060 6GB niveau zitten. Ze kunnen straks voor $350 een RTX 2060 aanschaffen. Die kaart is weliswaar flink sneller dan de GTX 1060 GB, maar ook een stuk duurder dan de GTX 1060 6GB ooit was (nml. $249). Destijds waren er ook snellere kaarten beschikbaar voor een hogere prijs zoals de GTX 1070 (en later de 1070Ti), maar op dat moment werden die kennelijk te duur geacht. En dus zou een rationele consument niet twee jaar later alsnog voor een duurdere kaart moeten gaan, zeker wanneer de nieuwe GPU-generatie niet langer een betere performance-per-dollar levert (zoals traditioneel het geval was de afgelopen jaren) dan de oude generatie. Eigenlijk vindt The Good Old Gamer dat Nvidia's RTX 2060 kaart gewoon niet interessant is en dat je hem links moet laten liggen.

Er bestaan natuurlijk ook gamers die voor het eerst een game PC samenstellen en dus niet upgraden, maar gewoon nog geen enkele GPU hebben. Voor hun geldt dan een andere overweging.


NB: Omdat de kritiek op de prijsstelling van videokaarten zich eigenlijk uitsluitend richt op Nvidia leek het me beter in deze draad hierop te reageren dan in de AMD draad waarin de link oorspronkelijk gepost werd.
Dit volgt toch de trend van mobiele telefoons? Het high end model is ook elke generatie duurder, doordat er op videokaarten al sowieso minder concurrentie is en de aankoop van een kaart puur gebaseerd is op performance (fps) gaan de budget kaarten mee omhoog.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Help!!!! schreef op donderdag 3 januari 2019 @ 19:21:
Battlefield V NVIDIA Ray Tracing - CPU Testing
[modbreak]Alleen een link dumpen is geen GoT-waardige post. Geef tenminste een samenvatting/mening erbij :o[/]
@dion_b

Als iemand alleen een link plaatst (liefst wel omgebouwd zoals ik heb gedaan) heb ik daar geen probleem mee want ik kan daar genoeg mee.

Een samenvatting tikken waar een link wat mij betreft al duidelijk genoeg is vind ik onzin.

Verder zegt het toevoegen van tekst / quote om het toevoegen van tekst / quote mij niets.
Er is / ik heb er namelijk niet altijd iets relevants over te zeggen. Soms is het gewoon interessant om iets te lezen of op gewezen te worden en met anderen te delen. Andere GOT’ers hebben er vervolgens misschien wel een mening over die ze willen ventileren of over willen discussieren.

Tuurlijk een heel topic met alleen links zal minder interessant zijn maar dat is totaal niet aan de orde omdat het merendeel vd mensen op GOT niet lijkt te kunnen wachten om uitgebreid hun verhaal neer te zetten. :P

In de topics waar ik meer actief ben plaats ik regelmatig links en volgensmij worden die topic’s daar zeker niet minder van. Wellicht vergis ik me daarin en regent het TR’s. Maar ik zal daar mee stoppen want als het dit soort geneuzel oplevert dan is het me dat niet waard. :) En ik wil uiteraard GOT niet omlaag halen qua niveau :+
Modbreak:Commentaar over moderatie aub niet in-topic. Je krijgt zo van ons een DM.

[ Voor 2% gewijzigd door dion_b op 04-01-2019 14:42 ]

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Brilsmurfffje schreef op vrijdag 4 januari 2019 @ 14:13:
[...]


Dit volgt toch de trend van mobiele telefoons? Het high end model is ook elke generatie duurder, doordat er op videokaarten al sowieso minder concurrentie is en de aankoop van een kaart puur gebaseerd is op performance (fps) gaan de budget kaarten mee omhoog.
Dat argument lees ik wel vaker, maar het overtuigt me eigenlijk niet. High-end smartphones zijn tegenwoordig duidelijke statusproducten waarbij rationele (prijs)overwegingen een veel kleinere rol spelen dan bij videokaarten. Een dure iPhone in je hand verleent je in sommige kringen status, terwijl een GPU thuis zit opgeborgen in je PC en zelfs daarin vaak niet eens zichtbaar is, dus wat mij betreft gaat de vergelijking met de prijsstelling van steeds duurdere smartphones niet op.

Het klopt dat AMD moeite heeft om in de high-end GPU-markt de strijd met Nvidia aan te gaan, maar voor het niveau van de RTX 2060 kan AMD nu al zeker goed meekomen (en met straks de RX 3000 series al helemaal). Op dat vlak is er dus ook niet minder concurrentie dan -pak 'm beet- zes jaar geleden.

Een RTX 2060 (en zelfs een GTX 1060) vind ik trouwens geen budget kaart, dat is gewoon midrange.

  • Brilsmurfffje
  • Registratie: December 2007
  • Niet online

Brilsmurfffje

Parttime Prutser

choogen schreef op vrijdag 4 januari 2019 @ 14:28:
[...]


Dat argument lees ik wel vaker, maar het overtuigt me eigenlijk niet. High-end smartphones zijn tegenwoordig duidelijke statusproducten waarbij rationele (prijs)overwegingen een veel kleinere rol spelen dan bij videokaarten. Een dure iPhone in je hand verleent je in sommige kringen status, terwijl een GPU thuis zit opgeborgen in je PC en zelfs daarin vaak niet eens zichtbaar is, dus wat mij betreft gaat de vergelijking met de prijsstelling van steeds duurdere smartphones niet op.
Dit is niet anders voor videokaarten, zat fora waar mensen pc specs onder hun berichten hebben staan, de jeugd koopt massaal producten die vloggers/youtubers/streamers gebruiken. Op YouTube stikt het ook van de filmpjes waar mensen laten zien hoe hun pc spelletje draait.

Vroeger duwde je een GeForce 6800 in je pc, plakte je die gave 3D casebadge op je creme witte atx toren en was je helemaal het mannetje als je vriendje op bezoek kwam. Dit tijd is nu voorbij met het internet en social media kan je steeds beter pronken met je nieuwe spullen
Het klopt dat AMD moeite heeft om in de high-end GPU-markt de strijd met Nvidia aan te gaan, maar voor het niveau van de RTX 2060 kan AMD nu al zeker goed meekomen (en met straks de RX 3000 series al helemaal). Op dat vlak is er dus ook niet minder concurrentie dan -pak 'm beet- zes jaar geleden.

Een RTX 2060 en zelfs een GTX 1060 vind ik trouwens geen budget kaart, dat is gewoon midrange.
Marketing van Nvidia, hoeveel spellen er wel niet beginnen met een Nvidia banner. AMD heeft ook wat ongelukkige releases gehad, vega als mooi laatste voorbeeld, na undervolting een prima kaart, zonder loopt het ding hopeloos te throttlen.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Brilsmurfffje schreef op vrijdag 4 januari 2019 @ 14:36:
[...]


Dit is niet anders voor videokaarten, zat fora waar mensen pc specs onder hun berichten hebben staan, de jeugd koopt massaal producten die vloggers/youtubers/streamers gebruiken. Op YouTube stikt het ook van de filmpjes waar mensen laten zien hoe hun pc spelletje draait.

Vroeger duwde je een GeForce 6800 in je pc, plakte je die gave 3D casebadge op je creme witte atx toren en was je helemaal het mannetje als je vriendje op bezoek kwam. Dit tijd is nu voorbij met het internet en social media kan je steeds beter pronken met je nieuwe spullen
Hoewel ik je redenering wel kan volgen denk ik dat je overschat hoeveel mensen enig besef hebben van de naamgeving van videokaarten. Op Tweakers zegt het iemand nog wel iets dat je kennelijk een vette GTX 1080Ti in je kast hebt zitten, maar de gewone man of vrouw zegt dat helemaal niets. Diezelfde man of vrouw is veel makkelijker onder de indruk te krijgen van een dure iPhone, een Louis Vuitton tas of een Rolex horloge. Dat zijn werkelijk luxegoederen met een veel universelere zeggingskracht en juist daarom kun je als producent daar echt belachelijke prijzen voor vragen. Die vlieger gaat niet op bij videokaarten: je kunt niet elke generatie $100 bij de prijs op blijven gooien en verwachten dat consumenten in gelijke mate je producten zullen blijven kopen.

Ik denk ook dat verkoop van de RTX kaarten een tegenvaller zal blijken te zijn voor Nvidia. En AMD zal daarvan dit jaar kunnen profiteren - als ze het eindelijk een keer goed aanpakken (met name qua verkrijgbaarheid direct na launch).

Ik denk ook niet dat Nvidia zelf ervan uitgaat dat zijn GPU's nu als luxe/statusgoederen kunnen worden beschouwd (met het dienovereenkomstig prijskaartje), maar dat ze op de langere termijn wel met iets onderscheidends moesten komen om de eigen positie te kunnen handhaven op de GPU markt. Nvidia ziet voorlopig zijn kans schoon om de R&D kosten van de RTX technologie terug te winnen via het uitknijpen van de high-end consument - zolang AMD het bedrijf daar mee laat wegkomen.

[ Voor 12% gewijzigd door choogen op 04-01-2019 15:30 ]


  • Richo999
  • Registratie: November 2016
  • Laatst online: 19-11 13:01
choogen schreef op vrijdag 4 januari 2019 @ 15:11:
[...]
Ik denk ook niet dat Nvidia zelf ervan uitgaat dat zijn GPU's nu als luxe/statusgoederen kunnen worden beschouwd (met het dienovereenkomstig prijskaartje), maar dat ze op de langere termijn wel met iets onderscheidends moesten komen om de eigen positie te kunnen handhaven op de GPU markt. Nvidia ziet voorlopig zijn kans schoon om de R&D kosten van de RTX technologie terug te winnen via het uitknijpen van de high-end consument - zolang AMD het bedrijf daar mee laat wegkomen.
Die opmerking dat AMD Nvidia ermee weg laat komen vind ik erg laag.... Gegeven dat AMD niet altijd 100% stabiele producten aflevert, maar even goed. Als niemand AMD koopt of aanraad omdat Nvidia toch beter is krijg je situaties in de gpu markt anno nu. Wij als consumenten creëren dit soort situaties toch echt zelf (Slimme marketing helpt daar natuurlijk bij).
Als je je hier niet aan wil mee doen, moet je het niet kopen, zo redeneer ik tenminste. Heb nu een vega 64 en ben er dik tevreden mee, want hij performed beter als een1080

AMD Ryzen 5800X,BeQuiet Darkrock Pro4, Asus B550-E ROG Strix, AMD 6800XT, 32Gb G.Skill TridentZ 3600MHz, Seasonic Focus Plus Gold 850W, Kingston KC3000 1 TB, Samsung Evo 960 500Gb, Samsung Evo 850 1Tb / Samsung 860 Evo 1 Tb, be quiet! Light Base 600 LX


Verwijderd


Hij beargumenteert waarom het toekomstperspectief van Nvidia minder goed is dan wat veel mensen denken en hij speculeert dat mr. Leather Jacket (Jensen Huang) in 2019 Nvidia gaat verlaten. In het kort:
- In het gaming-segment is er een ontwikkeling naar geïntegreerde graphics wat binnenkort voor de meeste gamers (1080p 60Hz) zal gaan volstaan, zeker nu die e-'sport' spellen en MoBa's populair worden
- Voor al die andere segmenten legt Nvidia het af tegen andere bedrijven (bijvoorbeeld Google) die ASIC's aanbieden (bijvoorbeeld voor multiply-add instructies) die meer kunnen voor die specifieke taak als de duurdere kaarten van Nvdia voor aanzienlijk lagere kosten.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Verwijderd schreef op zondag 6 januari 2019 @ 11:41:
[YouTube: Profile: Jensen Huang. Is this his last year as NVidia CEO?]
Hij beargumenteert waarom het toekomstperspectief van Nvidia minder goed is dan wat veel mensen denken en hij speculeert dat mr. Leather Jacket (Jensen Huang) in 2019 Nvidia gaat verlaten. In het kort:
- In het gaming-segment is er een ontwikkeling naar geïntegreerde graphics wat binnenkort voor de meeste gamers (1080p 60Hz) zal gaan volstaan, zeker nu die e-'sport' spellen en MoBa's populair worden
- Voor al die andere segmenten legt Nvidia het af tegen andere bedrijven (bijvoorbeeld Google) die ASIC's aanbieden (bijvoorbeeld voor multiply-add instructies) die meer kunnen voor die specifieke taak als de duurdere kaarten van Nvdia voor aanzienlijk lagere kosten.
Indrukwekkende analyse van de industrie in de breedte in de genoemde video. Knap dat iemand kennelijk op al die dossiers de ontwikkelingen bij kan houden en in perspectief weet te plaatsen.

Voor Jensen Huang ziet het er inderdaad niet goed uit, zeker nu blijkbaar ook naar buiten gekomen is dat hij voor $18 miljoen aan Nvidia aandelen heeft verkocht - net nadat analisten het aandeel een koopaanbeveling hadden gegeven (mede) als gevolg van zijn leugens tijdens de persconferentie.

Dat gaat hem zeker de kop kosten. Wonderlijk dat zo'n briljante vent zich niet de gevolgen van zijn leugenachtige uitspraken heeft gerealiseerd. Jensen hield lang vol dat de crypto-gekte slechts een heel beperkte invloed had op het aantal verkochte Nvidia-GPU's en beweerde dat de stijging van het aantal verkochte kaarten grotendeels te verklaren viel doordat gamers steeds vaker Fortnite en PUBG wilden spelen... Tegelijkertijd claimde Jensen dat Nvidia zulk uitstekend inzicht had in de eigen verkoopkanalen en die ook prima kon managen (incl. het voorraadbeheer)....

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
Blijkbaar heeft nog niemand commentaar gegeven op de geruchten dat Ampère bij Samsung zou worden geproduceerd ipv tsmc. Dat zou een gigantische move zijn komende van 1 van de geprefereerde partners bij de nieuwe kleinere productieprocessen.
Hoeveel jaar is het niet dat tsmc en nVidia 2 handen op 1 buik zijn?
De vraag is dus waarom (die geruchten) : Samsung veel goedkoper of flexibeler in het aantal te bestellen/reserveren wafers?
Tsmc die niet een min aantal kan garanderen?
Voor zover ik het weet loopt Samsung echt niet (veel) voor op tsmc. En de productie is sowieso pas gepland voor 2020. Mede door de vertraging die het vraagt om van producent te veranderen?
Natuurlijk nu AMD het effen laat afweten is het ideaal moment om die vertraging te slikken indien je de verhuis sowieso plande...

Specs


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:41
Niet gewoon weer wat extra low end productie bij Samsung? de 1050(Ti) werd toch ook al door Samsung gemaakt?

Mechwarrior Online: Flapdrol


Verwijderd

TSMC werkte net zo nauw samen met AMD als met Nvidia, alleen koos AMD de laatste ronde(s) voor GF omwille van hun WSA.
choogen schreef op zondag 6 januari 2019 @ 15:09:
[...]


Indrukwekkende analyse van de industrie in de breedte in de genoemde video. Knap dat iemand kennelijk op al die dossiers de ontwikkelingen bij kan houden en in perspectief weet te plaatsen.
Kijk/luister ook naar zijn video over ARM. Een zeer goede analyse. X86 heeft 1 groot probleem: het is niet zo geschikt voor multithreading. Ik denk dat het geen vraag is of dat X86 wordt vervangen maar wanneer dat gaat gebeuren.
Voor Jensen Huang ziet het er inderdaad niet goed uit, zeker nu blijkbaar ook naar buiten gekomen is dat hij voor $18 miljoen aan Nvidia aandelen heeft verkocht - net nadat analisten het aandeel een koopaanbeveling hadden gegeven (mede) als gevolg van zijn leugens tijdens de persconferentie.

Dat gaat hem zeker de kop kosten. Wonderlijk dat zo'n briljante vent zich niet de gevolgen van zijn leugenachtige uitspraken heeft gerealiseerd. Jensen hield lang vol dat de crypto-gekte slechts een heel beperkte invloed had op het aantal verkochte Nvidia-GPU's en beweerde dat de stijging van het aantal verkochte kaarten grotendeels te verklaren viel doordat gamers steeds vaker Fortnite en PUBG wilden spelen... Tegelijkertijd claimde Jensen dat Nvidia zulk uitstekend inzicht had in de eigen verkoopkanalen en die ook prima kon managen (incl. het voorraadbeheer)....
Laten we GPP ook niet vergeten, dit viel heel erg slecht en was een blunder van jewelste.
Veel mensen die zeer intelligent zijn zijn niet verstandig, veel mensen die niet zeer intelligent zijn (meestal zijn die mensen wel redelijk intelligent) zijn wel verstandig. Intelligentie is een middel wat helpt om verstandig te kunnen zijn maar het hangt van een mens zijn karakter af of dat hij ervoor kiest om intelligentie daarvoor te gebruiken. Daarnaast, macht corrumpeert.

[ Voor 3% gewijzigd door Verwijderd op 06-01-2019 20:14 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Eindelijk.

De oude "FreeSync 1" monitors zullen niet goedgekeurd worden, omdat daar geen LFC toegepast kan worden. Maar ik gok dat elke monitor die een bereik van X - 3X heeft gewoon goedgekeurd gaat worden, omdat dat ook de vereiste voor LFC is.

Nu hopen dat de verkopen van G-Sync monitors dusdanig kelderen dat ze de stekker uit dat achterlijke programma trekken.

offtopic:
*SNIP*


Modbreak:Doe nou niet. Commentaar over moderatie niet in-topic. Punt.

[ Voor 86% gewijzigd door dion_b op 07-01-2019 11:23 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Eindelijk zeg. Helaas maakt Nvidia het weer verwarrend en moeilijk want blijkbaar zal het ook werken op niet gecertificeerde schermen. Moet je het handmatig aanzetten. Wel waardeloos dit als je de afgelopen maanden een G-Sync scherm had gekocht. :P


De RTX2060 is trouwens ook aangekondigd. $349/€369 voor de FE, lijkt sterk op een cut down TU 106. :)
nieuws: Nvidia presenteert GeForce RTX 2060 voor 369 euro

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • jeffreygek1
  • Registratie: December 2012
  • Laatst online: 17-11 20:45
Werelds schreef op maandag 7 januari 2019 @ 10:21:
[...]

Eindelijk.

De oude "FreeSync 1" monitors zullen niet goedgekeurd worden, omdat daar geen LFC toegepast kan worden. Maar ik gok dat elke monitor die een bereik van X - 3X heeft gewoon goedgekeurd gaat worden, omdat dat ook de vereiste voor LFC is.
Dat ze niet als G-Sync compatible bestempeld worden hoeft toch nog niet meteen te betekenen dat het niet zal gaan werken. Uit andere nieuwsartikels kan ik opmaken dat eigenlijk alle FreeSync monitoren zouden moeten werken. Veel net wat oudere FreeSync monitoren zijn niet als FreeSync 2 bestempeld, maar zouden kwa specs wel voldoen aan LFC.

  • belblade
  • Registratie: Juli 2005
  • Laatst online: 08-10 13:24

belblade

Belgian wacko

ik heb dus een duur g-sync scherm gekocht een jaar geleden (pg279q) en als ik het goed heb zit ik nu wel vast aan nvidia voor sync (want mijn scherm ondersteunt geen freesync maar omgekeerd kunnen alle mensen met (compatibele) freesync schermen wel gewoon blijven kiezen tussen amd & nvidia.... Netjes is dat...

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
jeffreygek1 schreef op maandag 7 januari 2019 @ 10:50:
[...]

Dat ze niet als G-Sync compatible bestempeld worden hoeft toch nog niet meteen te betekenen dat het niet zal gaan werken. Uit andere nieuwsartikels kan ik opmaken dat eigenlijk alle FreeSync monitoren zouden moeten werken. Veel net wat oudere FreeSync monitoren zijn niet als FreeSync 2 bestempeld, maar zouden kwa specs wel voldoen aan LFC.
Dat is ook wat ik bedoel, maar met "FreeSync 1" bedoel ik de oorspronkelijke reeks FS producten, die vaak 48-75 draaien. FS2 wordt vooral op monitors met HDR geplakt, daar tussenin zit nog iets dat meestal gewoon als "FreeSync" bestempeld wordt.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Na mijn idee werkt Gsync al met de huidige WHQL drivers want gek genoeg kan ik nu ook voor het eerst Free Sync 2 op mijn monitor inschakelen zonder dat het beeld uit valt en de monitor free sync weer uit zet en de Nvidia driver zich herstellen.

Normaal kan ik free sync dus niet inschakelen op de monitor en nu wel. Dit gaat om de Samsung C32hg70 die tussen de 40 en 144hz free sync ondersteund.
Afbeeldingslocatie: https://www.mupload.nl/img/cyuafj7p39.jpg

[ Voor 42% gewijzigd door Gekke Jantje op 07-01-2019 11:05 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • jeffreygek1
  • Registratie: December 2012
  • Laatst online: 17-11 20:45
Werelds schreef op maandag 7 januari 2019 @ 10:51:
[...]

Dat is ook wat ik bedoel, maar met "FreeSync 1" bedoel ik de oorspronkelijke reeks FS producten, die vaak 48-75 draaien. FS2 wordt vooral op monitors met HDR geplakt, daar tussenin zit nog iets dat meestal gewoon als "FreeSync" bestempeld wordt.
Als ik naar mijn FreeSync 1 monitor kijk, deze heeft een range van 35-120 en zou dus eigenlijk geschikt moeten zijn voor in ieder geval LFC.

Al met al wel een vooruitgang op het gebied van losse standaarden, denk alleen wel dat mensen die een G-Sync monitor hebben gekocht minder blij zullen zijn. :/

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
jeffreygek1 schreef op maandag 7 januari 2019 @ 10:55:
Al met al wel een vooruitgang op het gebied van losse standaarden, denk alleen wel dat mensen die een G-Sync monitor hebben gekocht minder blij zullen zijn. :/
Hun producten zullen blijven werken. En als ze teleurgesteld zijn dat er nu gelijkwaardige producten voor minder geld te krijgen zijn, is dat hun eigen fout ;)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Gekke Jantje schreef op maandag 7 januari 2019 @ 10:53:
Na mijn idee werkt Gsync al met de huidige WHQL drivers want gek genoeg kan ik nu ook voor het eerst Free Sync 2 op mijn monitor inschakelen zonder dat het beeld uit valt en de monitor free sync weer uit zet en de Nvidia driver zich herstellen.

Normaal kan ik free sync dus niet inschakelen op de monitor en nu wel. Dit gaat om de Samsung C32hg70 die tussen de 40 en 144hz free sync ondersteund.
[Afbeelding]
Zijn dat de drivers van begin december?

Afbeelding werkt overigens niet, waarschijnlijk alleen als je ingelogd bent op het HWI forum :)

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Werelds schreef op maandag 7 januari 2019 @ 11:03:
[...]

Zijn dat de drivers van begin december?

Afbeelding werkt overigens niet, waarschijnlijk alleen als je ingelogd bent op het HWI forum :)
Ja dat klopt, het zijn de 417.35 drivers. Ik zal de afbeelding wel even op een andere manier uploaden.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Paprika
  • Registratie: September 2007
  • Laatst online: 02:06
Dit is wel killing voor:
pricewatch: LG 34GK950G Zwart

Tov deze:
pricewatch: LG 34GK950F-B Rood, Zwart

De Gsync versie gaat "maar" tot 120hz wegens 't feit dat de goedkopere module niet 144Hz aankan op die resolutie. Ik wilde zelf de F versie kopen alleen al daardoor, maar nu is er geen enkele reden om nog te kiezen voor de G variant.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik vraag me dan af hoe het dan zit met UHD schermen die niet aan die 3:1 verhouding voldoen.

Ik heb een UHD scherm met een bereik van 40-60Hz. Werkt het dan helemaal niet of staat het dan standaard uit en is het wel in te schakelen? :?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • jeffreygek1
  • Registratie: December 2012
  • Laatst online: 17-11 20:45
Blaat schreef op maandag 7 januari 2019 @ 11:08:
Ik vraag me dan af hoe het dan zit met UHD schermen die niet aan die 3:1 verhouding voldoen.

Ik heb een UHD scherm met een bereik van 40-60Hz. Werkt het dan helemaal niet of staat het dan standaard uit en is het wel in te schakelen? :?
Zoals ik het heb begrepen zou G-Sync op alle FreeSync compatible monitoren moeten gaan werken. Hier verschillen de verschillende nieuwskanalen nog wel van elkaar.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Paprika schreef op maandag 7 januari 2019 @ 11:08:
Dit is wel killing voor:
pricewatch: LG 34GK950G Zwart

Tov deze:
pricewatch: LG 34GK950F-B Rood, Zwart

De Gsync versie gaat "maar" tot 120hz wegens 't feit dat de goedkopere module niet 144Hz aankan op die resolutie. Ik wilde zelf de F versie kopen alleen al daardoor, maar nu is er geen enkele reden om nog te kiezen voor de G variant.
Niet goedkoper, wel minder capabel :P

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Gekke Jantje schreef op maandag 7 januari 2019 @ 10:53:
Na mijn idee werkt Gsync al met de huidige WHQL drivers want gek genoeg kan ik nu ook voor het eerst Free Sync 2 op mijn monitor inschakelen zonder dat het beeld uit valt en de monitor free sync weer uit zet en de Nvidia driver zich herstellen.

Normaal kan ik free sync dus niet inschakelen op de monitor en nu wel. Dit gaat om de Samsung C32hg70 die tussen de 40 en 144hz free sync ondersteund.
[Afbeelding]
Zo werkt dat niet, in de videokaart driver moet je het inschakelen. En aangezien die in die driver nog geen ondersteuning heeft zal het nog niet werken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
-The_Mask- schreef op maandag 7 januari 2019 @ 11:24:
[...]

Zo werkt dat niet, in de videokaart driver moet je het inschakelen. En aangezien die in die driver nog geen ondersteuning heeft zal het nog niet werken.
Dat wist ik niet, echter moet je op mijn model monitor ook zelf free sync inschakelen anders werkt het ook niet via de drivers. Er zit niet voor niets een knop op waarin je free sync op verschillende standen kunt zetten, uit, standaard engine en ultimate engine. Een tijd terug kon ik dat niet eens inschakelen zo dat het aan bleef staan en het beeld niet uit viel en dat kan nu dus wel in eens. Er lijkt dus wel wat veranderd in de huidige Nvidia drivers.

[ Voor 5% gewijzigd door Gekke Jantje op 07-01-2019 11:29 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

choogen schreef op zondag 6 januari 2019 @ 15:09:
[...]


Indrukwekkende analyse van de industrie in de breedte in de genoemde video. Knap dat iemand kennelijk op al die dossiers de ontwikkelingen bij kan houden en in perspectief weet te plaatsen.

Voor Jensen Huang ziet het er inderdaad niet goed uit, zeker nu blijkbaar ook naar buiten gekomen is dat hij voor $18 miljoen aan Nvidia aandelen heeft verkocht - net nadat analisten het aandeel een koopaanbeveling hadden gegeven (mede) als gevolg van zijn leugens tijdens de persconferentie.

Dat gaat hem zeker de kop kosten. Wonderlijk dat zo'n briljante vent zich niet de gevolgen van zijn leugenachtige uitspraken heeft gerealiseerd. Jensen hield lang vol dat de crypto-gekte slechts een heel beperkte invloed had op het aantal verkochte Nvidia-GPU's en beweerde dat de stijging van het aantal verkochte kaarten grotendeels te verklaren viel doordat gamers steeds vaker Fortnite en PUBG wilden spelen... Tegelijkertijd claimde Jensen dat Nvidia zulk uitstekend inzicht had in de eigen verkoopkanalen en die ook prima kon managen (incl. het voorraadbeheer)....
Om het wat luchtig te maken :P:


offtopic:
Als ik s'achts niet kan slapen dan zet ik dit op :+.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Gekke Jantje schreef op maandag 7 januari 2019 @ 11:28:
[...]


Dat wist ik niet, echter moet je op mijn model monitor ook zelf free sync inschakelen anders werkt het ook niet via de drivers. Er zit niet voor niets een knop op waarin je free sync op verschillende standen kunt zetten, uit, standaard engine en ultimate engine. Een tijd terug kon ik dat niet eens inschakelen zo dat het aan bleef staan en het beeld niet uit viel en dat kan nu dus wel in eens. Er lijkt dus wel wat veranderd in de huidige Nvidia drivers.
Je kan het aanzetten wat je wil. Zo lang als de Nvidia driver het niet ondersteunt zal het niet werken. Nvidia heeft zelf aangekondigd dat ze het per 15 januari implementeren, dus dan zal het ook echt werken. ;)


Verder kon ik dit niet laten, sorry. :P
Afbeeldingslocatie: https://tweakers.net/ext/f/SFD7ynaNCCbeljfymVJcwIfA/thumb.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 17-12 20:36

Deathchant

Don't intend. Do!

Ik zag in het plaatje een relatief klein lijstje staan van de monitors die gesupported gaan worden. Zijn dit de enige die supported worden, of is er ergens anders nog een lijstje te vinden? Ik zie namelijk de Asus MG278Q erop staan, en ik heb de Asus MG279Q.

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Deathchant schreef op maandag 7 januari 2019 @ 14:02:
Ik zag in het plaatje een relatief klein lijstje staan van de monitors die gesupported gaan worden. Zijn dit de enige die supported worden, of is er ergens anders nog een lijstje te vinden? Ik zie namelijk de Asus MG278Q erop staan, en ik heb de Asus MG279Q.
Gecertificeerd =/= supported. Alle FreeSync monitors zouden in principe gewoon moeten werken alleen dat beperkte lijstje is wat ze getest en gecertificeerd hebben.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
DaniëlWW2 schreef op maandag 7 januari 2019 @ 13:31:
[...]


Je kan het aanzetten wat je wil. Zo lang als de Nvidia driver het niet ondersteunt zal het niet werken. Nvidia heeft zelf aangekondigd dat ze het per 15 januari implementeren, dus dan zal het ook echt werken. ;)


Verder kon ik dit niet laten, sorry. :P
[Afbeelding]
Normaal kon ik dat dus niet aanzetten op mijn monitor want dan kon ik geen eens een foto nemen van het beeld waar in het aan stond en schakelde het scherm niet uit. Er is dus al het een en ander veranderd in de drivers. Anders koop je het scherm ook maar en test je het ook als je me niet geloofd.

Hoezo ook sorry zeggen bij het plaatje, moet het mij wat doen ofzo?

[ Voor 4% gewijzigd door Gekke Jantje op 07-01-2019 14:13 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


Verwijderd

Beter absurd laat dan nooit. :X
Dit geeft voor mij aan dat Nvidia inschat dat mensen van Nvidia naar AMD overstappen als ze het niet ondersteunen of dat mensen van AMD naar Nvidia overstappen als ze het wel ondersteunen, waarom anders zou Nvidia dat doen? De vraag is dan nog welke van de twee Nvidia inschat, of beide.

Laten we in deze discussie niet vergeten dat Nvidia al een flinke tijd adaptive syncing ondersteunde voor laptops die geen G-Sync hadden (want geen ruimte!).
Werelds schreef op maandag 7 januari 2019 @ 10:21:
[...]

Eindelijk.

De oude "FreeSync 1" monitors zullen niet goedgekeurd worden, omdat daar geen LFC toegepast kan worden. Maar ik gok dat elke monitor die een bereik van X - 3X heeft gewoon goedgekeurd gaat worden, omdat dat ook de vereiste voor LFC is.

Nu hopen dat de verkopen van G-Sync monitors dusdanig kelderen dat ze de stekker uit dat achterlijke programma trekken.
Een kwestie van tijd, lijkt mij. Een gamer die op de hoogte is van de ontwikkelingen gaat straks niet een G-Sync monitor kopen wanneer de equivalente FreeSync monitor (denk aan de 1440p-monitors) hetzelfde presteert maar €200 minder kost.
DaniëlWW2 schreef op maandag 7 januari 2019 @ 10:46:
[...]


Eindelijk zeg. Helaas maakt Nvidia het weer verwarrend en moeilijk want blijkbaar zal het ook werken op niet gecertificeerde schermen. Moet je het handmatig aanzetten. Wel waardeloos dit als je de afgelopen maanden een G-Sync scherm had gekocht. :P
Tja, dat doen ze zichzelf aan. Je weet dat FreeSync een open standaard is en dat het dus elk moment kan gebeuren dat Nvidia het wel ondersteunt om marketingtechnische redenen. Achteraf gezien hadden wij kunnen voorspellen dat Nvidia hier ergens in 2018/2019 mee zou komen: RTX wat best wel duur is voor de geboekte vooruitgang (als je DLSS en RTX weg laat, om duidelijke redenen), AMD wat net de RX 590 uitbracht (niet geweldig maar wel een bedreiging voor de GTX 1060) en met Navi een forse bedreiging gaat vormen voor 80-90% van de segmenten (t/m de GTX 2070 vermoedelijk) en natuurlijk al een lange tijd het dalende marktaandeel van G-Sync en het stijgende marktaandeel van FreeSync. Het is eerder bijzonder dat Nvidia niet eerder deze stap zette. :)

offtopic:
Ik ga hier niet in detail in op AMD maar het is de enige concurrent voor gaming dus bij het bespreken van Nvidia ontkomt je er niet aan om hen er soms bij te betrekken en aangezien het nu gaat om het ondersteunen van FreeSync door Nvidia...

[ Voor 150% gewijzigd door Verwijderd op 07-01-2019 18:42 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Deathchant schreef op maandag 7 januari 2019 @ 14:02:
Ik zag in het plaatje een relatief klein lijstje staan van de monitors die gesupported gaan worden. Zijn dit de enige die supported worden, of is er ergens anders nog een lijstje te vinden? Ik zie namelijk de Asus MG278Q erop staan, en ik heb de Asus MG279Q.
Zelfde hier. Maar de M279Q heeft wel significant kleiner Freesync bereik, dus misschien is dat de reden dat hij niet in dat lijstje voorkomt. Nu kan je dat bereik wel aanpassen. Ik dacht alleen dat een ruim 2X tussen hoogste en laagste frequentie al genoeg was voor LFC

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Je had het beter wel kunnen laten aangezien de comic de plank nogal mis slaat. Het was natuurlijk Nvidia dat al ruim voor 2011 (Scott Wasson frame time) met frame pacing bezig bleek te zijn en ook met g-sync kwam voor adaptive sync uberhaupt een VESA standaard werd.

Verder zat dit er al aan te komen, dit is de druk van Intel die niet heel lang geleden hebben bevestigd met adaptive sync bezig te zijn. Als ik het niet in dit topic had voorspeld dan wel in het Radeon topic.

Overigens doet Nvidia nogal een belofte:
"We're going to test every async monitor the world has made, and for the ones that pass, we're going to certify them, and we're going to optimize the software to support them, and we're going to turn it on in our software so that whatever Geforce customer enjoys that panel can now enjoy it as if they purchased a G-Sync monitor."
Sissors schreef op maandag 7 januari 2019 @ 22:42:
[...]

Zelfde hier. Maar de M279Q heeft wel significant kleiner Freesync bereik, dus misschien is dat de reden dat hij niet in dat lijstje voorkomt. Nu kan je dat bereik wel aanpassen. Ik dacht alleen dat een ruim 2X tussen hoogste en laagste frequentie al genoeg was voor LFC
2.5x

[ Voor 24% gewijzigd door sdk1985 op 07-01-2019 23:05 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

"We're going to test every async monitor the world has made, and for the ones that pass, we're going to certify them, and we're going to optimize the software to support them, and we're going to turn it on in our software so that whatever Geforce customer enjoys that panel can now enjoy it as if they purchased a G-Sync monitor."
Waarom zou je dan nog een G-Sync monitor kopen :+. Blijkbaar vind zelfs Nvidia dat er geen verschil in zit.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
choogen schreef op zondag 6 januari 2019 @ 15:09:
[...]

Wonderlijk dat zo'n briljante vent zich niet de gevolgen van zijn leugenachtige uitspraken heeft gerealiseerd. Jensen hield lang vol dat de crypto-gekte slechts een heel beperkte invloed had op het aantal verkochte Nvidia-GPU's en beweerde dat de stijging van het aantal verkochte kaarten grotendeels te verklaren viel doordat gamers steeds vaker Fortnite en PUBG wilden spelen... Tegelijkertijd claimde Jensen dat Nvidia zulk uitstekend inzicht had in de eigen verkoopkanalen en die ook prima kon managen (incl. het voorraadbeheer)....
Tot heden is de impact op de omzetcijfers ook nihil, de laatste 3 kwartalen zaten alle drie rond de 3.2 miljard omzet. Crypto lijkt dus inderdaad geen problematische invloed te hebben op de omzet. Vergeet niet dat de omzet in 2015 nog rond de 1.1 miljard zat. Bedrijfseconomisch is er voor Nvidia nog altijd geen vuiltje aan de lucht. Al zouden ze die hele toename in onverkochte gpu's morgen shredden dan nog staan ze er beter voor dan in 2015. De stijging van de beurskoers tov 2015 lag echter niet in lijn met de toename van de omzet en de winst, daar is het mis gegaan. Daar is echt flink gehyped en dus ook veel geld verdampt. Dat is echter geen goede reflectie van hoe het met Nvidia zelf gaat.

Ik zou eerder fronsen bij het feit dat AMD al jaren lang de staat van de Radeon divisie verbergt tussen de cpu cijfers. Daardoor weten zowel wij, investeerders en concurrentie niet wat er precies gebeurd. We weten niet wat de omzet is en niet of er uberhaupt winst wordt gemaakt op de gpu tak. Het is alleen af te leiden op basis van semi vage afspraken van de CEO tijdens de conference calls.
Sp3ci3s8472 schreef op maandag 7 januari 2019 @ 23:06:
[...]


Waarom zou je dan nog een G-Sync monitor kopen :+. Blijkbaar vind zelfs Nvidia dat er geen verschil in zit.
Haha dat zou nou eens een mooie vraag zijn voor een kritische journalist.

[ Voor 30% gewijzigd door sdk1985 op 07-01-2019 23:18 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
Sp3ci3s8472 schreef op maandag 7 januari 2019 @ 23:06:
[...]


Waarom zou je dan nog een G-Sync monitor kopen :+. Blijkbaar vind zelfs Nvidia dat er geen verschil in zit.
Misschien een ietwat leek vraag/opmerking maar ik dacht dat er wel degelijk een merkbaar verschil tussen freesync en gsync zat?

Vooral met wild fluctuerende framerates. 40-120fps bijvoorbeeld bij wat slechter geoptimaliseerde games.

Wie goed doet, die goed ontmoet.


Verwijderd

Qua implementatie wel, qua effect niet echt sinds de afgelopen 2-2,5 jaar en zelfs voor die tijd was het verschil eigenlijk irrelevant. Google maar met LFC en je zal het begrijpen. Er zijn allerlei kleine verschillen maar dat is op het niveau muggenzifterij vanuit gebruikersperspectief.
sdk1985 schreef op maandag 7 januari 2019 @ 23:03:
[...]

Je had het beter wel kunnen laten aangezien de comic de plank nogal mis slaat. Het was natuurlijk Nvidia dat al ruim voor 2011 (Scott Wasson frame time) met frame pacing bezig bleek te zijn en ook met g-sync kwam voor adaptive sync uberhaupt een VESA standaard werd.
Alleen deed Nvidia dat met proprietary dure hardware (een FPGA-module die in de monitor ingebouwd moet worden) terwijl AMD een elegante oplossing bedacht via software en een reeds bestaande standaard met ene volledig open systeem wat ook door Nvidia en Intel gebruikt kan worden terwijl Nvidia nooit heeft toegestaan dat AMD G-Sync gebruikt.
Het effect is ongeveer hetzelfde maar de implementatie verschilt nogal, je kan dus niet stellen dat Nvidia enige kudos verdient voor FreeSync, je kan wel stellen dat Nvidia als eerste met een vorm van adaptive syncing kwam. Nvidia kwamt met een dure en mogelijk lucratieve oplossing, AMD bracht het naar 100% van de gamers die het willen gebruiken, ook de mensen die met een grafische kaart van <= €300 gamen.
Verder zat dit er al aan te komen, dit is de druk van Intel die niet heel lang geleden hebben bevestigd met adaptive sync bezig te zijn.
Dat kan meespelen maar aangezien het waarschijnlijk nog een paar jaar zal duren voordat Intel een fatsoenlijke gaming-kaart op de markt brengt lijkt het mij dat jij Intel teveel krediet geeft. Ik schat in dat het meer met de 590 (de 1060 is nu een minder interessante optie) en Navi te maken heeft. We zullen het nooit weten.

[ Voor 25% gewijzigd door Verwijderd op 08-01-2019 09:24 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op maandag 7 januari 2019 @ 23:03:
Je had het beter wel kunnen laten aangezien de comic de plank nogal mis slaat. Het was natuurlijk Nvidia dat al ruim voor 2011 (Scott Wasson frame time) met frame pacing bezig bleek te zijn en ook met g-sync kwam voor adaptive sync uberhaupt een VESA standaard werd.
Je bedoelt hoe Nvidia PSR uit eDP 1.3 (en nog een aantal DP dingen, maar 90% zit in PSR) nam, daar een stuk DRM omheen plakte en het G-Sync noemde? Dezelfde DP standaard waar ze zo tergend traag in mee gaan, ook al is die superieur aan HDMI en waar zij juist telkens de laatste waren die iets implementeerden? ;)

Adaptive Sync werd wellicht later een standaard dan G-Sync, de onderliggende technologie voor beide komt gewoon alsnog bij VESA vandaan. Waar Nvidia zoals gewoonlijk wel eerder mee was, was het vinden van een manier om geld uit iets te melken dat dat eigenlijk niet hoort te produceren.

Wie de credits voor PSR verdient weet ik niet 100% zeker, bij VESA is dat niet altijd duidelijk. Het is waarschijnlijk echter Parade Technologies, aangezien zij toentertijd de dev presentaties gaven (en verantwoordelijk zijn voor veel van eDP). Dat is één van de stille krachten in de industrie. Je kent ze niet, maar de kans is groot dat je hun producten wel in je huis hebt of hebt gehad ;)
Verder zat dit er al aan te komen, dit is de druk van Intel die niet heel lang geleden hebben bevestigd met adaptive sync bezig te zijn. Als ik het niet in dit topic had voorspeld dan wel in het Radeon topic.
Intel heeft in 2015 al aangegeven "er mee bezig te zijn". Dat gaat allemaal tergend traag daar.
AtlAntA schreef op dinsdag 8 januari 2019 @ 07:57:
Misschien een ietwat leek vraag/opmerking maar ik dacht dat er wel degelijk een merkbaar verschil tussen freesync en gsync zat?

Vooral met wild fluctuerende framerates. 40-120fps bijvoorbeeld bij wat slechter geoptimaliseerde games.
Al heel lang niet meer. Dat lag ook niet specifiek aan wild fluctuerende framerates, maar aan goedkopere panelen die een beperkt refresh rate bereik hadden. De allereerste FS monitors hadden vaak een bodem van 40 of 48 Hz en daaronder werkte het niet meer. Inmiddels heeft AMD LFC toegepast in de driver, zoals Nvidia dat in de G-Sync FPGA doet. Draai jij 30 FPS en het paneel kan niet lager dan 48 Hz? Dan refresht hij op 60 Hz, waarbij elk frame verdubbeld wordt.

Dat is ook waar één van mythes rond G-Sync vandaan komt: "G-Sync kan tot 1 Hz !11!!". Nee, dat kan het niet en heeft het nooit gekund. Het kan tot 1 FPS "vloeiend" (kuch) weergeven, maar niet tot 1 Hz refreshen. Refresh rates liggen bij het gebruikte TFT paneel en G-Sync verandert daar helemaal niets aan.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Sp3ci3s8472 schreef op maandag 7 januari 2019 @ 23:06:
[...]


Waarom zou je dan nog een G-Sync monitor kopen :+. Blijkbaar vind zelfs Nvidia dat er geen verschil in zit.
Als je ern bepaald model wil die geen free sync ondersteund of een minder bereik heeft van de sync.
Je hebt ook nog de aparte Nvidia HDR 1000 monitoren.

Ik vermoed dus dat G sync veel minder voor gaat komen en enkel alleen op exclusieve monitoren.

Daarom zou je dus nog een G sync monitor kunnen kopen.

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Werelds schreef op dinsdag 8 januari 2019 @ 10:18:
[...]


[...]

Intel heeft in 2015 al aangegeven "er mee bezig te zijn". Dat gaat allemaal tergend traag daar.


[...]
Het was nu en stukje concreter dan dat. Zo 123 geen tijd de bron te vinden/controleren maar AFAIK in 2019 de desktop gpu en de aankomende IGP iteratie zou adaptive sync ondersteunen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 28-11 15:09
Ik heb de indruk dat de meesten het gewoon te ver zoeken :Y)

Kijk gewoon naar de nieuwe tv's die uitkomen... HDMI 2.1 zal dit jaar eindelijk doorbreken en de grootste reden om de "2019" variant van een dure tv te kopen is de variabele framerate dat deze tv's ondersteunen.

Hierdoor kan nVidia (en AMD en Intel) niet anders meer dan dit implementeren. Het lijkt misschien een kleine minderheid van gebruikers die hun pc aan hun tv koppelen maar het is een groter "vinkje" dan 5% meer fps of raytracing dat je nog maar in één game kan daadwerkelijk gebruiken.

Nu momenteel ondersteunt enkel de Xbox (X) de variabele framerate maar ik vermoed dat er wel updates zullen uitkomen zodat ook de PS4 (enkel de pro?) en de shield dit ook zullen ondersteunen. Geen idee wat Nintendo zal doen .. die switch zijn performantie is sowieso niet supper maar soit je weet nooit dat ze een firmware update uitbrengen (niet zoveel werk daar de driver ondersteuning van dat aspect toch vanuit nVidia dient te komen).
Sowieso zal de htpc markt dus niet kunnen achterblijven, en zelfs nVidia zal niet kunnen verantwoorden waarom een GTX1030/1050 (of hun opvolgers) variabele framerate zouden hebben maar hun grotere broers niet .. (buiten het feit dat je gewoon die drivers gewoon zou kunnen aanpassen om ook te werken met de andere kaarten).

Het is dus zeker geen toeval dat de berichtgeving en de verspreiding van de driver overeenkomt met de aankondigen van de nieuwe tv series ;)

PS: Moesten sommige het CES nieuws niet volgen: nVidia (en andere bedrijven) hopen goed geld te verdienen met de nieuwe TV's.
Wellicht als reactie op de hopeloos gestagneerde markt van pc schermen. Sorry anno 2019 is het "standaard" pc scherm nog steeds 1080p |:( (Op m'n werk is de resolutie zelfs nog lager ... )
Hell m'n oud koreaans scherm is nog steeds beter dan alles wat ze nu proberen te verkopen onder de 500 euro -__- (enige spijt: ik had er direct twee voor mijn eigen moeten kopen ipv 1)
Dusja niet verwonderlijk dat veel gamers meer en meer een sneller respons 55-65" TV nemen die dan nog van hogere kwaliteit is dan sommige "gamers" pc schermen die dan veel kleiner zijn en je de hoofdprijs mag betalen voor 60hz+ en waarvan de kijkhoeken gewoon onbestaande zijn... (probeer maar eens in de winkel een TV verkopen met zo'n kijkhoeken >:) )
Waarom je dan een dief van je portemonnee bent en geen console koopt die goedkoper is dan zelfs een "mid-end" gpu .. geen idee voor de prijs van de games moet je allezinds niet bij de pc blijven :p. Gelukkig iedereen zijn voorkeur maar als de nieuwe consoles uitkomen zal de gpu markt nog een serieuse klap kunnen krijgen

Specs


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sdk1985 schreef op maandag 7 januari 2019 @ 23:12:
[...]

Tot heden is de impact op de omzetcijfers ook nihil, de laatste 3 kwartalen zaten alle drie rond de 3.2 miljard omzet. Crypto lijkt dus inderdaad geen problematische invloed te hebben op de omzet.
Is dat zo? Kun je uit een gelijk gebleven omzet concluderen dat crypto waarschijnlijk geen problematische invloed heeft gehad :? Er was sprake van een flinke build up in inventories. Grosso modo heeft nvidia normaal gesproken tegen de 800m inventory. Sinds 30.04.18 liep dit ineens op tot 1400m per 30.10.18.

Als de voorraad die nvidia dacht te verkopen ook tijdig volgens planning verkocht was geweest dan hadden ze niet teveel voorraad gehad en dan was de omzet in bijv 19Q3 (30.07 tot 30.10.2018) waarschijnlijk redelijk stuk hoger geweest dan nu is gerapporteerd.

Denk interessant om te zien wat de 19Q4 cijfers laten zien qua inventory en revenue ontwikkeling.
Vergeet niet dat de omzet in 2015 nog rond de 1.1 miljard zat. Bedrijfseconomisch is er voor Nvidia nog altijd geen vuiltje aan de lucht. Al zouden ze die hele toename in onverkochte gpu's morgen shredden dan nog staan ze er beter voor dan in 2015. De stijging van de beurskoers tov 2015 lag echter niet in lijn met de toename van de omzet en de winst, daar is het mis gegaan. Daar is echt flink gehyped en dus ook veel geld verdampt. Dat is echter geen goede reflectie van hoe het met Nvidia zelf gaat.
Jouw post lijkt me ook geen goede reflectie. Hoe goed het met nvidia gaat lijkt me vooral afhankelijk van het toekomstperspectief en dat filmpje dat CHBF postte staan wel wat interessante angles die niet allemaal zo positief zijn, integendeel.

[ Voor 3% gewijzigd door Help!!!! op 08-01-2019 11:50 ]

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

sdk1985 schreef op maandag 7 januari 2019 @ 23:12:
[...]

Tot heden is de impact op de omzetcijfers ook nihil, de laatste 3 kwartalen zaten alle drie rond de 3.2 miljard omzet. Crypto lijkt dus inderdaad geen problematische invloed te hebben op de omzet. Vergeet niet dat de omzet in 2015 nog rond de 1.1 miljard zat. Bedrijfseconomisch is er voor Nvidia nog altijd geen vuiltje aan de lucht.
Nvidia zal zeker niet omvallen als gevolg van de crypto neergang, maar de halvering van de beurskoers geeft wel aan dat beleggers een stuk vertrouwen zijn kwijtgeraakt (overigens kreeg de hele techsector sowieso een knauw in de tweede helft van 2018). De impact van de geïmplodeerde crypto-vraag zal zich waarschijnlijk pas echt laten gelden in de resultaten voor het huidige kwartaal (Q4 2018): verwacht wordt een omzet van $2.7 miljard i.p.v. de $3.4 waarop werd gehoopt. Het is vreemd dat het crypto-effect zich niet al scherper in de Q3 resultaten heeft vertaald, maar handige accountants kunnen hebben geholpen om het effect wat meer over ook de toekomstige kwartalen uit te spreiden. Wanneer je trouwens alleen naar de totale omzetcijfers kijkt kunnen business units die wel groeien de omzetdaling van de gaming tak compenseren en zo het beeld wat positiever kleuren dan het eigenlijk is.

Mijn commentaar ging vooral over hoe Jensen Huang pochte over hoe goed zijn bedrijf inzicht heeft in de eigen verkoopkanalen en het voorraadbeheer. Ook beweerde JH dat dat de crypto gekte weinig bijdroeg aan de omzet van de GPU-divisie en dat het grotere aantal verkochte kaarten kon worden verklaard door het succes van spellen als PUBG en Fortnite. Op die woorden moest hij afgelopen november opeens terugkomen en dat viel niet goed (18% daling van het aandeel in één dag):

In its disappointing earnings report Thursday, Nvidia executives outlined a drop in revenue for the current quarter based on lack of demand for its gaming cards. Cryptocurrency mining had fueled demand for those chips late last year. But that has all but dried up as bitcoin and other cryptocurrencies' prices nosedived and "mining" for many of those is no longer profitable.

These chips are now being sold on secondary markets, adding to surplus inventory, which weighed the company's fourth-quarter guidance. On a call with analysts following the report Thursday, CEO Jensen Huang said it could take up to two quarters to move through that additional inventory.

"The crypto hangover lasted longer than we expected," Huang said on a call with analysts following the earnings release.


[..]

"Our Q4 outlook for gaming reflects very little shipment in the midrange Pascal segment to allow channel inventory to normalize," Nvidia's chief financial officer, Colette Kress, told analysts on a conference call after the company announced its results.

It will take one to two quarters to go through the extra inventory, Huang said on the call.

"This is surely a setback, and I wish we had seen it earlier," he said.


https://www.cnbc.com/2018...ing-chips-evaporates.html

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
Werelds schreef op dinsdag 8 januari 2019 @ 10:18:
[...]

Je bedoelt hoe Nvidia PSR uit eDP 1.3 (en nog een aantal DP dingen, maar 90% zit in PSR) nam, daar een stuk DRM omheen plakte en het G-Sync noemde? Dezelfde DP standaard waar ze zo tergend traag in mee gaan, ook al is die superieur aan HDMI en waar zij juist telkens de laatste waren die iets implementeerden? ;)

Adaptive Sync werd wellicht later een standaard dan G-Sync, de onderliggende technologie voor beide komt gewoon alsnog bij VESA vandaan. Waar Nvidia zoals gewoonlijk wel eerder mee was, was het vinden van een manier om geld uit iets te melken dat dat eigenlijk niet hoort te produceren.

Wie de credits voor PSR verdient weet ik niet 100% zeker, bij VESA is dat niet altijd duidelijk. Het is waarschijnlijk echter Parade Technologies, aangezien zij toentertijd de dev presentaties gaven (en verantwoordelijk zijn voor veel van eDP). Dat is één van de stille krachten in de industrie. Je kent ze niet, maar de kans is groot dat je hun producten wel in je huis hebt of hebt gehad ;)


[...]

Intel heeft in 2015 al aangegeven "er mee bezig te zijn". Dat gaat allemaal tergend traag daar.


[...]

Al heel lang niet meer. Dat lag ook niet specifiek aan wild fluctuerende framerates, maar aan goedkopere panelen die een beperkt refresh rate bereik hadden. De allereerste FS monitors hadden vaak een bodem van 40 of 48 Hz en daaronder werkte het niet meer. Inmiddels heeft AMD LFC toegepast in de driver, zoals Nvidia dat in de G-Sync FPGA doet. Draai jij 30 FPS en het paneel kan niet lager dan 48 Hz? Dan refresht hij op 60 Hz, waarbij elk frame verdubbeld wordt.

Dat is ook waar één van mythes rond G-Sync vandaan komt: "G-Sync kan tot 1 Hz !11!!". Nee, dat kan het niet en heeft het nooit gekund. Het kan tot 1 FPS "vloeiend" (kuch) weergeven, maar niet tot 1 Hz refreshen. Refresh rates liggen bij het gebruikte TFT paneel en G-Sync verandert daar helemaal niets aan.
Dank voor je uitleg. Ben al weer een tijdje op zoek naar een 2e 27 inch 1440p 144hz ips scherm naast mijn huidige Acer (?). Maar de gsync tax is iets wat me toch tegen heeft gehouden. Nu zou ik in theorie gewoon het freesync equivalent van mijn huidige gsync scherm kunnen kopen en die ernaast zetten. Ik ga er gemakshalve maar even vanuit dat deze setup gewoon zou werken.

[ Voor 29% gewijzigd door AtlAntA op 08-01-2019 13:22 ]

Wie goed doet, die goed ontmoet.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Help!!!! schreef op dinsdag 8 januari 2019 @ 11:47:
[...]


[...]

Jouw post lijkt me ook geen goede reflectie. Hoe goed het met nvidia gaat lijkt me vooral afhankelijk van het toekomstperspectief en dat filmpje dat CHBF postte staan wel wat interessante angles die niet allemaal zo positief zijn, integendeel.
Nvidia is sinds 2012 zeer succesvol te noemen met een netto winst van 600 miljoen per jaar en een omzet van pak hem beet 4 miljard. Dit bleef eigenlijk zo tot aan 2015. Het Nvidia van 2018 deed 9 miljard omzet met een netto winst van 3 miljard. Ik heb het filmpje niet gezien maar aangezien Nvidia zojuist in 1 jaar alvast voor 6 jaar alvast de normale winst binnen heeft gehaald hoef je je over dat bedrijf echt geen zorgen te maken.


Daar komt het R&D hamer verhaal nog even bij. Voor wie het is vergeten, mei 2016 voorspelde ik dat AMD Radeon door hun beperkte R&D budget niet meer in staat zou zijn een high-end gpu te introduceren en dat we de eerste keer minimaal een jaar zouden moeten wachten om vervolgens helemaal geen high-end concurrentie te zien. Helaas is die voorspelling uitgekomen, vega kwam een jaar later en is samen met de 1070 ondertussen als midrange te bestempelen (zie perf 2080/2080ti). Die R&D hamer werkt echter twee kanten op. Als je kijkt naar Nvidia dan zie je dat die de R&D uitgaven enorm aan het opschalen zijn. Van 280M per kwartaal in 2012 > 349M in 2015 > 462M in 2016 > 605M in 2018. Dat is een verdriedubbeling. Om dit even in perspectief te plaatsen, AMD zit met 363M nog altijd onder hun oude top van 465M uit 2008 en halen net 60% van het budget van Nvidia.

Als ik nu een nieuwe voorspelling zou moeten doen dan zie ik het gebeuren dat Nvidia alsnog de cpu markt betreed. Er zijn nu behoorlijk wat factoren die dit faciliteren. In de eerste plaats heeft Nvidia nu de financiële slagkracht om de strijd aan te gaan met Intel. Ze zijn een veelvoud sterker dan AMD, zowel in omzet, R&D als winst. Tegelijk heeft Intel openlijk de oorlog aan Nvidia heeft verklaard, het liep al vaker stroef zie Nforce, maar nu komt Intel met een desktop GPU. Tot slot was er een reden dat Nvidia in het verleden heeft afgezien van de x86 route en dat was dat de CEO vond dat het niet zinnig was een markt te betreden waar AMD met goede ontwerpen (zijn woorden) er alsnog niet in slaagde winst te maken. Echter AMD slaagt er nu wel in winst te maken dus die reden vervalt.
Huang also heavily emphasized ARM as the future of not just NVIDIA, but the entire CPU business. In the course of his discussion of ARM vs. x86, he elaborated a bit on the rationale behind Project Denver. Huang was quite clear that NVIDIA could have chosen to produce an x86 processor—he described the licensing and technical problems associated with making an x86 CPU as "solvable" for NVIDIA. But he gave two reasons why the company opted not to go down that road.

NVIDIA Tegra 250
First was the fact that there was already another company attempting to compete with Intel in the x86 market (AMD), mostly without success. Why, he asked, would NVIDIA want to jump in and make a type of product that AMD, whose processor designs he praised, had been struggling to turn a profit with for years? So in Huang's telling, there was simply no good business case for taking on Intel in x86, with AMD's troubles serving as concrete proof of the folly of trying to compete with Intel in making yet another x86 processor.
The second reason that Huang gave for going with ARM was that he wanted the company to do something that had never been done before—to make a product that didn't yet exist. In his talk of breaking new ground, he seemed to be referring to both Kal-El (the recently unveiled quad-core Tegra 3 chip) and Project Denver as examples of NVIDIA making something brand new. Both projects see NVIDIA pushing the ARM architecture to new heights of performance, and will let the chipmaker claim a set of "firsts" (i.e., first quad-core A9 part on the market, and first desktop-caliber ARM/GPU combo part).
Verder lijkt de beste man te doen waar hij voldoening uit haalt. Dus als hij zich nu aangevallen voelt door Intel zou hij best eens een draai kunnen maken en als persoonlijke missie het verslaan van Intel als nummer 1 te maken.

Mocht dit gebeuren dan zou dat voor ons gamers in ieder geval erg mooi zijn; drie bedrijven met zowel CPU's als GPU's.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op dinsdag 8 januari 2019 @ 13:26:
Als ik nu een nieuwe voorspelling zou moeten doen dan zie ik het gebeuren dat Nvidia alsnog de cpu markt betreed. Er zijn nu behoorlijk wat factoren die dit faciliteren. In de eerste plaats heeft Nvidia nu de financiële slagkracht om de strijd aan te gaan met Intel. Ze zijn een veelvoud sterker dan AMD, zowel in omzet, R&D als winst. Tegelijk heeft Intel openlijk de oorlog aan Nvidia heeft verklaard, het liep al vaker stroef zie Nforce, maar nu komt Intel met een desktop GPU. Tot slot was er een reden dat Nvidia in het verleden heeft afgezien van de x86 route en dat was dat de CEO vond dat het niet zinnig was een markt te betreden waar AMD met goede ontwerpen (zijn woorden) er alsnog niet in slaagde winst te maken. Echter AMD slaagt er nu wel in winst te maken dus die reden vervalt.


[...]


Verder lijkt de beste man te doen waar hij voldoening uit haalt. Dus als hij zich nu aangevallen voelt door Intel zou hij best eens een draai kunnen maken en als persoonlijke missie het verslaan van Intel als nummer 1 te maken.

Mocht dit gebeuren dan zou dat voor ons gamers in ieder geval erg mooi zijn; drie bedrijven met zowel CPU's als GPU's.
Die kans was, en is, heel klein.

Het licentie probleem is een heel reëel probleem. Ze moeten daarvoor niet alleen bij Intel zijn, ook bij AMD en VIA (ja, dat lees je goed; deels eigen patenten, deels opgekocht via NS/Cyrix). Die drie hebben bijna alle patenten in handen voor x86 zelf, IA-32 (Intel), x86-64 (AMD) en de verschillende aanverwante instructiesets (x87, MMX, SSE, AVX, VT-x, AMD-V, enzovoort).

Huang kan wel zeggen dat het "solvable" is, maar feit blijft dat er al bijna 20 jaar niemand het nog probeert. Er worden wel nog x86 licenties afgenomen, maar dat is voor specifieke, kleinschalige producten. Zelfs IBM probeert het niet meer, en dan heb je het over het bedrijf dat aan de wieg van de PC, vele opslagmethodes en -media en andere I/O stond, dat al 25 jaar onafgebroken miljarden winst draait. Waar wij vanaf weten tenminste, want vóór 1995 waren hun cijfers niet publiek. Die draaien al een omzet richting het tienvoudige van Nvidia's omzet sinds vóór Nvidia überhaupt bestond (sterker nog, begin deze eeuw was dat over de 100 miljard, nu is het 'slechts' 80..). Datzelfde bedrijf was ook decennia lang het enige dat zich met Intel kon meten qua fabs. Zij en Cyrix hadden een ontwerp dat Intel en AMD écht het vuur aan de schenen kon leggen. Cyrix bestaat niet eens meer, juist doordat ze problemen hadden met patenten. Gelukkig had Cyrix zelf nog wat patenten om Intel mee om de oren te slaan, anders was hun fusie met NS wellicht niet eens doorgegaan.

De kosten voor Nvidia zouden niet te vergelijken zijn met die van Intel en AMD. Even los van de benodigde R&D (waar ik sterk van betwijfel of ze daar de know-how voor zouden kunnen rekruteren) en productie kosten, zouden de licentie kosten alleen astronomisch zijn.

Daar wás vroeger wel een weg omheen: partneren met IBM. Zij zouden technisch gezien de chips dan maken en dan was er geen probleem (wat kleinere bedrijven hebben dat vroeger gedaan). Ik weet echter niet of die vlieger nog op gaat, nu IBM fabless is.

En een CPU is simpelweg veel complexer dan een GPU. De reden dat Cyrix/IBM faalden was niet omdat hun ontwerp inherent slecht was. Integendeel, hun 5x86 was verrekte efficiënt. Het schaalde echter voor geen meter en ging ook niet lekker omhoog in kloksnelheid. Dus toen Intel en AMD richting de GHz vlogen, hielden zij dat niet bij. Zelfs "ouderwetse" GPU's (dus vóór het hele unified shaders verhaal) waren lachertjes vergeleken met CPU's als het op complexiteit aan komt. Hedendaagse GPU's zijn bijna lachwekkend "simpel" vergeleken met CPU's. Het feit dat Huang denkt dat zij dat zomaar zouden kunnen doen is eigenlijk best wel zorgwekkend. Denver is namelijk geenszins vergelijkbaar met wat Intel en AMD momenteel produceren. Voor vector instructies zou dat ding het waarschijnlijk wel goed doen, maar al het andere nou niet echt.

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
lightdestroyer schreef op dinsdag 8 januari 2019 @ 11:47:
PS: Moesten sommige het CES nieuws niet volgen: nVidia (en andere bedrijven) hopen goed geld te verdienen met de nieuwe TV's.
Wellicht als reactie op de hopeloos gestagneerde markt van pc schermen.
High-framerate monitoren zijn er al jaren, hoeveel TVs die 120+ fps ondersteunen zijn er momenteel te koop?
Gestagneerd is nogal overdreven.
Ook 1440p/1600p monitoren zijn er al een decennium.

Consoles (en PCs) hebben sowieso nogal moeite met het renderen van 4K op een fatsoenlijke framerate.

[ Voor 16% gewijzigd door Olaf van der Spek op 08-01-2019 16:03 ]


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Werelds schreef op dinsdag 8 januari 2019 @ 15:34:
En een CPU is simpelweg veel complexer dan een GPU.
Is dat tegenwoordig nog steeds zo?

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
Olaf van der Spek schreef op dinsdag 8 januari 2019 @ 16:18:
[...]

Is dat tegenwoordig nog steeds zo?
Ja. Juist nu is dat zo. Ik heb het dan wel over de "logische" opbouw, niet de fysieke bouw. Fysiek denk ik dat je GPU's wel als complexer mag bestempelen.

Een GPU is vrij "los" vergeleken met een CPU, waar je tig stages en pipelines aan elkaar moet knopen. De meeste delen van een GPU kunnen met aparte dingen bezig zijn, registers zijn relatief vrij te gebruiken, de instructiesets zijn relatief klein, nagenoeg geen beveiligingsdingetjes waar je rekening mee moet houden.

Fysiek is dat juist een nadeel, waardoor GPU's nog geen 4-5 GHz aantikken. Juist doordat je zo veel kleine onderdeeltjes hebt, moeten ze ook allemaal gelijk tikken en dat kost een hoop fysiek schakelwerk. Een "core" is dan ook iets heel anders bij de twee. Waar een GPU een scheduler, een instruction decoder en dergelijke in z'n geheel heeft, heeft een CPU er daar één per core van.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Werelds schreef op dinsdag 8 januari 2019 @ 15:34:
[...]

Die kans was, en is, heel klein.

Het licentie probleem is een heel reëel probleem. Ze moeten daarvoor niet alleen bij Intel zijn, ook bij AMD en VIA (ja, dat lees je goed; deels eigen patenten, deels opgekocht via NS/Cyrix). Die drie hebben bijna alle patenten in handen voor x86 zelf, IA-32 (Intel), x86-64 (AMD) en de verschillende aanverwante instructiesets (x87, MMX, SSE, AVX, VT-x, AMD-V, enzovoort).

Huang kan wel zeggen dat het "solvable" is, maar feit blijft dat er al bijna 20 jaar niemand het nog probeert. Er worden wel nog x86 licenties afgenomen, maar dat is voor specifieke, kleinschalige producten. Zelfs IBM probeert het niet meer, en dan heb je het over het bedrijf dat aan de wieg van de PC, vele opslagmethodes en -media en andere I/O stond, dat al 25 jaar onafgebroken miljarden winst draait. Waar wij vanaf weten tenminste, want vóór 1995 waren hun cijfers niet publiek. Die draaien al een omzet richting het tienvoudige van Nvidia's omzet sinds vóór Nvidia überhaupt bestond (sterker nog, begin deze eeuw was dat over de 100 miljard, nu is het 'slechts' 80..). Datzelfde bedrijf was ook decennia lang het enige dat zich met Intel kon meten qua fabs. Zij en Cyrix hadden een ontwerp dat Intel en AMD écht het vuur aan de schenen kon leggen. Cyrix bestaat niet eens meer, juist doordat ze problemen hadden met patenten. Gelukkig had Cyrix zelf nog wat patenten om Intel mee om de oren te slaan, anders was hun fusie met NS wellicht niet eens doorgegaan.

De kosten voor Nvidia zouden niet te vergelijken zijn met die van Intel en AMD. Even los van de benodigde R&D (waar ik sterk van betwijfel of ze daar de know-how voor zouden kunnen rekruteren) en productie kosten, zouden de licentie kosten alleen astronomisch zijn.

Daar wás vroeger wel een weg omheen: partneren met IBM. Zij zouden technisch gezien de chips dan maken en dan was er geen probleem (wat kleinere bedrijven hebben dat vroeger gedaan). Ik weet echter niet of die vlieger nog op gaat, nu IBM fabless is.

En een CPU is simpelweg veel complexer dan een GPU. De reden dat Cyrix/IBM faalden was niet omdat hun ontwerp inherent slecht was. Integendeel, hun 5x86 was verrekte efficiënt. Het schaalde echter voor geen meter en ging ook niet lekker omhoog in kloksnelheid. Dus toen Intel en AMD richting de GHz vlogen, hielden zij dat niet bij. Zelfs "ouderwetse" GPU's (dus vóór het hele unified shaders verhaal) waren lachertjes vergeleken met CPU's als het op complexiteit aan komt. Hedendaagse GPU's zijn bijna lachwekkend "simpel" vergeleken met CPU's. Het feit dat Huang denkt dat zij dat zomaar zouden kunnen doen is eigenlijk best wel zorgwekkend. Denver is namelijk geenszins vergelijkbaar met wat Intel en AMD momenteel produceren. Voor vector instructies zou dat ding het waarschijnlijk wel goed doen, maar al het andere nou niet echt.
Huh, er zijn toch juist twee nieuwe spelers bij gekomen op de cpu markt?

edit:
Voor wie het heeft gemist. AMD heeft EPYC via een joint venture aan Chengdu Haiguang IC Design Co. gegeven waaruit Hygon Dhyana CPUs in de vorm van een cross licensing agreement zijn gekomen. Tevens hebben we Zhaoxin met hun KaiXian reeks welke de cross licensing agreement van Via gebruiken.

Bovenstaande mede mogelijk gemaakt door de schikking van Intel met de FTC waarbij de overeenkomsten met AMD, Nvidia en Via zijn aangepast zodat die opzichzelf joint ventures en licensing agreements mogen aangaan met derde partijen zonder te worden aangeklaagd voor 'patent infringement'. Dat was deze: https://www.ftc.gov/news-...ive-conduct-against-intel In dit geval is dat dus twee keer gebeurd met een Chinese partij.

Overigens ben ik geen amerikaanse advocaat maar bedrijven (monopolisten) zijn tot zekere hoogte verplicht tot het afgeven van licenties en Nvidia kan nu Intel de gpu markt betreed op basis daarvan een behoorlijk steekhoudende argument aanleveren. Vergelijk het in Nederland met de AFM die bijvoorbeeld KPN verplicht hun netwerk open te stellen en dat mogelijk nu ook voor Ziggo gaat doen.

[ Voor 14% gewijzigd door sdk1985 op 08-01-2019 18:37 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-12 08:57
sdk1985 schreef op dinsdag 8 januari 2019 @ 18:25:
[...]

Huh, er zijn toch juist twee nieuwe spelers bij gekomen op de cpu markt?

edit:
Voor wie het heeft gemist. AMD heeft EPYC via een joint venture aan Chengdu Haiguang IC Design Co. gegeven waaruit Hygon Dhyana CPUs in de vorm van een cross licensing agreement zijn gekomen. Tevens hebben we Zhaoxin met hun KaiXian reeks welke de cross licensing agreement van Via gebruiken.

Bovenstaande mede mogelijk gemaakt door de schikking van Intel met de FTC waarbij de overeenkomsten met AMD, Nvidia en Via zijn aangepast zodat die opzichzelf joint ventures en licensing agreements mogen aangaan met derde partijen zonder te worden aangeklaagd voor 'patent infringement'. Dat was deze: https://www.ftc.gov/news-...ive-conduct-against-intel In dit geval is dat dus twee keer gebeurd met een Chinese partij.

Overigens ben ik geen amerikaanse advocaat maar bedrijven (monopolisten) zijn tot zekere hoogte verplicht tot het afgeven van licenties en Nvidia kan nu Intel de gpu markt betreed op basis daarvan een behoorlijk steekhoudende argument aanleveren. Vergelijk het in Nederland met de AFM die bijvoorbeeld KPN verplicht hun netwerk open te stellen en dat mogelijk nu ook voor Ziggo gaat doen.
Jij hebt het over Higon (AMD) en Zhaoxin (VIA). Dat zijn twee joint ventures tussen die bedrijven en de Chinese overheid (specifiek Shanghai in het geval van VIA). In beide gevallen kan de Chinese kant gebruik maken van de x86 licentie van de betrokken bedrijven doordat die bedrijven een meerderheidsbelang hebben in de JV. Om AMD's geval er bij te nemen: Higon is een JV tussen AMD en THATIC. THATIC is een holding, die op zijn beurt weer om 2 JV's draait: Chengdu MicroElectronics en Chengdu IC. Chengdu ME is voor 51% eigendom van AMD, IC voor 30% - de overige 49% / 70% zijn eigendom van THATIC. Op papier doet ME de productie van de chips, IC het ontwerp en verkoop. Het feit dat AMD voor 51% eigenaar van ME is, is de reden dat zij x86 producten mogen produceren.

Dus, de enige reden dat die productie mogelijk is, is omdat AMD 51% in handen heeft en de licentie dus in hun handen blijft (op papier). Er is geen licentie afgegeven aan IC óf aan Higon (wat sowieso dus slechts een holding is). Dat mag namelijk nog steeds niet, die licentie is eigendom van Intel, dus AMD kán die niet af geven.

Met andere woorden: wil Nvidia x86 producten maken, hebben ze twee keuzes:
- De licenties correct afnemen bij Intel, AMD en VIA
- Een JV aan gaan met één van die 3 waarbij de andere partij grootaandeelhouder is

Zie je het al voor je? Nvidia in een JV waar Intel of AMD 51% eigenaar van is? :9

De enige optie zou VIA zijn, maar dan moeten die ook de productie op zich nemen en laat daar nou het probleem zitten. Zhaoxin is gebaseerd op VIA's bestaande ontwerp en dat is een SoC. Dat is geenszins een concurrent voor Intel of AMD. Wat we weten van hun beste / nieuwste product (KX-6000, 8 cores op 3 GHz met DDR4) scoren ze in GeekBench iets van 1600-1700 SC, 10k-11k MC. De vorige generatie (KX-U5580; 8 cores op 1,8 GHz met DDR4) deed pakweg 1240-1260 en 5500-5550. Die laatste kun je nog wel vinden op GB, de 6000 hebben ze van GB af laten halen.

Om dat wat perspectief te geven, dat is het niveau van een Pentium N4200 (4 cores, 2,5 GHz, DDR3) of net iets daarboven. Die zit ergens rond de 1450 en 3950 respectievelijk. Daar moet dus nog heel veel gebeuren. Vooral ook omdat het TDP van de 5000 18W schijnt te zijn...

VIA heeft geen ervaring met het soort CPU's dat Nvidia zou moeten bouwen. Ik zie dat niet gebeuren en ik denk dat je het wel met me eens bent dat een JV met één van de andere twee even waarschijnlijk is als warp drive in 2063 ;)

En zeker moeten bedrijven licenties afgeven, maar dat hoeft niet gratis.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-12 16:49

Sp3ci3s8472

@ 12 graden...

lightdestroyer schreef op dinsdag 8 januari 2019 @ 11:47:
Ik heb de indruk dat de meesten het gewoon te ver zoeken :Y)

Kijk gewoon naar de nieuwe tv's die uitkomen... HDMI 2.1 zal dit jaar eindelijk doorbreken en de grootste reden om de "2019" variant van een dure tv te kopen is de variabele framerate dat deze tv's ondersteunen.

Hierdoor kan nVidia (en AMD en Intel) niet anders meer dan dit implementeren. Het lijkt misschien een kleine minderheid van gebruikers die hun pc aan hun tv koppelen maar het is een groter "vinkje" dan 5% meer fps of raytracing dat je nog maar in één game kan daadwerkelijk gebruiken.

Nu momenteel ondersteunt enkel de Xbox (X) de variabele framerate maar ik vermoed dat er wel updates zullen uitkomen zodat ook de PS4 (enkel de pro?) en de shield dit ook zullen ondersteunen. Geen idee wat Nintendo zal doen .. die switch zijn performantie is sowieso niet supper maar soit je weet nooit dat ze een firmware update uitbrengen (niet zoveel werk daar de driver ondersteuning van dat aspect toch vanuit nVidia dient te komen).
Sowieso zal de htpc markt dus niet kunnen achterblijven, en zelfs nVidia zal niet kunnen verantwoorden waarom een GTX1030/1050 (of hun opvolgers) variabele framerate zouden hebben maar hun grotere broers niet .. (buiten het feit dat je gewoon die drivers gewoon zou kunnen aanpassen om ook te werken met de andere kaarten).

Het is dus zeker geen toeval dat de berichtgeving en de verspreiding van de driver overeenkomt met de aankondigen van de nieuwe tv series ;)

PS: Moesten sommige het CES nieuws niet volgen: nVidia (en andere bedrijven) hopen goed geld te verdienen met de nieuwe TV's.
Wellicht als reactie op de hopeloos gestagneerde markt van pc schermen. Sorry anno 2019 is het "standaard" pc scherm nog steeds 1080p |:( (Op m'n werk is de resolutie zelfs nog lager ... )
Hell m'n oud koreaans scherm is nog steeds beter dan alles wat ze nu proberen te verkopen onder de 500 euro -__- (enige spijt: ik had er direct twee voor mijn eigen moeten kopen ipv 1)
Dusja niet verwonderlijk dat veel gamers meer en meer een sneller respons 55-65" TV nemen die dan nog van hogere kwaliteit is dan sommige "gamers" pc schermen die dan veel kleiner zijn en je de hoofdprijs mag betalen voor 60hz+ en waarvan de kijkhoeken gewoon onbestaande zijn... (probeer maar eens in de winkel een TV verkopen met zo'n kijkhoeken >:) )
Waarom je dan een dief van je portemonnee bent en geen console koopt die goedkoper is dan zelfs een "mid-end" gpu .. geen idee voor de prijs van de games moet je allezinds niet bij de pc blijven :p. Gelukkig iedereen zijn voorkeur maar als de nieuwe consoles uitkomen zal de gpu markt nog een serieuse klap kunnen krijgen
Precies, mijn volgende tv wordt er sowieso een met Freesync/Adaptive Sync en ik zal vast niet de enige zijn die hier op zit te wachten. Ik heb een media pc/game pc en op 4k is het fijn als je geen last hebt van tearing. Daarnaast ondersteunt de xbox het al. Ik hoop dat Sony niet achterblijft en gewoon meedoet, dan kan mijn PS4 hier ook gebruik van maken.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
https://videocardz.com/ne...-1180-spotted-on-gfxbench

GTX 1180 (waarschijnlijk) benchmark op Linux gelekt. Lijkt erop dat het identieke Turing chips zijn zonder rt cores met ook zo goed als identieke scores. Als de prijs goed is zal dit best wel eens een goed verkopende serie kunnen worden.

Mits er een 1180ti uitkomt voor 700 euro (hopelijk minder maar zal wel niet) dan zou een upgrade vanaf mijn huidige 1080ti nog te overwegen zijn.

[ Voor 1% gewijzigd door AtlAntA op 09-01-2019 08:44 . Reden: Nuance toegevoegd. ]

Wie goed doet, die goed ontmoet.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AtlAntA schreef op woensdag 9 januari 2019 @ 08:17:
https://videocardz.com/ne...-1180-spotted-on-gfxbench

GTX 1180 (waarschijnlijk) benchmark op Linux gelekt. Lijkt erop dat het identieke Turing chips zijn zonder rt cores met ook zo goed als identieke scores. Als de prijs goed is zal dit best wel eens een goed verkopende serie kunnen worden.

Mits er een 1180ti uitkomt voor 700 euro (hopelijk minder maar zal wel niet) dan zou een upgrade vanaf mijn huidige 1080ti nog te overwegen zijn.
Een 1180ti voor ongeveer die prijs zou ik ook interessant vinden. Raytracing en DLSS wordt pas 1 of 2 generaties later interessant.

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat zit onder de prijs van de RTX 2080, zal nooit gebeuren want daarmee zal de RTX serie volledig onverkoopbaar worden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
-The_Mask- schreef op woensdag 9 januari 2019 @ 09:55:
Dat zit onder de prijs van de RTX 2080, zal nooit gebeuren want daarmee zal de RTX serie volledig onverkoopbaar worden.
Mocht de 11xx serie doorgaan dan lijkt het me in zo goed als elke prijsstelling (onder de rtx serie dan) een middelvinger naar de de rtx20xx kopers. Al helemaal in de huidige non existente raytracing games wereld.

Wie goed doet, die goed ontmoet.


  • jgj82
  • Registratie: Juli 2006
  • Laatst online: 19:12

jgj82

Ja, maar = nee

AtlAntA schreef op woensdag 9 januari 2019 @ 10:17:
[...]


Mocht de 11xx serie doorgaan dan lijkt het me in zo goed als elke prijsstelling (onder de rtx serie dan) een middelvinger naar de de rtx20xx kopers. Al helemaal in de huidige non existente raytracing games wereld.
Early adopters fee..
had je met de Vega 64 FE ook.

Verwijderd

Hardware Unboxed kreeg voor de RX 2060 geen first day sample en drivers voor review van Nvidia. Hij denkt dat Nvidia hem afsneed omdat hij kritisch was over RTX (te duur, beter wachten een latere generatie)).
AtlAntA schreef op woensdag 9 januari 2019 @ 10:17:
[...]


Mocht de 11xx serie doorgaan dan lijkt het me in zo goed als elke prijsstelling (onder de rtx serie dan) een middelvinger naar de de rtx20xx kopers. Al helemaal in de huidige non existente raytracing games wereld.
Ach, dat de 20xx geen goede deal is kon iedereen weten voordat die het kocht. Je betaalt een early adopters fee omdat die die zo groot is en omdat Nvidia geen of weinig (voor de RTX 2070 hebben ze wel een concurrent) concurrentie heeft in dat segment. We wisten al dat de eerste grafische kaarten op TSMC 7 nm in de eerste helft van 2019 zouden verschijnen, dan kan je zien aankomen dat die 20xx binnen een jaar na de launch van de 20xx serie wordt vervangen en dat deze kaarten een veel betere performance/€ zullen geven, want een veel betere node. Als de kaarten een normale prijs zouden hebben gehad dan is het een ander verhaal maar je kiest er zelf voor om die kaarten voor een aanzienlijk hogere prijs te kopen dan dat het geval zou zijn als Nvidia wel concurrentie zou hebben.

Wat betreft de 11xx serie, we zullen het wel gaan zien wat dat wordt. Het zou ook enkel op laptops kunnen zijn gericht aangezien die RTX- en Tensor-kernen niet erg handig zijn voor een laptop (vermogen).
Werelds schreef op dinsdag 8 januari 2019 @ 21:57:
Ik zie dat niet gebeuren en ik denk dat je het wel met me eens bent dat een JV met één van de andere twee even waarschijnlijk is als warp drive in 2063 ;)
Maak daar maar "minder waarschijnlijk" van wat meer over die mogelijke JV zegt dan over die warpdrive. :+

[ Voor 74% gewijzigd door Verwijderd op 09-01-2019 13:15 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik geloof dus echt niks van een GTX1180 waar de RT cores uitgesloopt zijn. Nvidia gaat echt niet met zichzelf concurreren. :')

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
DaniëlWW2 schreef op woensdag 9 januari 2019 @ 13:32:
Ik geloof dus echt niks van een GTX1180 waar de RT cores uitgesloopt zijn. Nvidia gaat echt niet met zichzelf concurreren. :')
De prijs is allesbepalend en aangezien ze zelf beide producten verkopen kunnen ze prima ervoor zorgen dat ze niet één van de producten uit de markt drukken. Een RTX 2080 Ti zonder RT met een GTX 1180 Ti naam voor minder als een RTX 2080 werkt natuurlijk niet.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op woensdag 9 januari 2019 @ 13:49:
[...]

De prijs is allesbepalend en aangezien ze zelf beide producten verkopen kunnen ze prima ervoor zorgen dat ze niet één van de producten uit de markt drukken. Een RTX 2080 Ti zonder RT met een GTX 1180 Ti naam voor minder als een RTX 2080 werkt natuurlijk niet.
Dat begrijp ik, maar hoe wou je die puzzel precies oplossen zonder dat Nvidia met zichzelf concurreert?
Een speculatieve GTX1180 gaat echt niet langzamer zijn dan de RTX2060. Vervolgens staat de vraag open waar je precies een GTX1180 moet positioneren. Je gaat altijd een RTX kaart volledig kannibaliseren als de GTX goedkoper is. Gelijke prijs, gelijke prestaties maar een heeft wel RT features en dan koopt iedereen de RTX.
Een GTX1180 is voor mij dan ook niks meer dan Nvidia die met zichzelf gaat concurreren. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Bijvoorbeeld een 10 of 15% lagere prijs om maar iets te noemen. Er zal altijd een percentage zijn waarbij ongeveer de helft kiest voor RTX en de andere helft voor GTX. De kunst is het om die van tevoren te bepalen.

[ Voor 54% gewijzigd door -The_Mask- op 09-01-2019 14:05 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Wellicht verkopen de RTX kaarten minder dan gepland en is de extra marge die ze vermoedelijk op de wel verkochte kaarten vangen onvoldoende compensatie. Uiteindelijk wil nvidia stijgende omzetten laten zien. Dus dat zal links of rechtsom ergens vandaan moeten komen.
Wellicht is er wel degelijk concurrentie van AMD op komst.

Een kleinere, goedkopere chip die ook goedkoper geprijst is, bijv 100 onder de RTX kaarten, is dan niet zo onlogisch. RTX kan dan blijven als de Premium lijn. Veel RTX kopers zullen dat niet zo leuk vinden, maar ja nvidia doet wel meer dingen die niet ideaal zijn.

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-The_Mask- schreef op woensdag 9 januari 2019 @ 14:02:
Bijvoorbeeld een 10 of 15% lagere prijs om maar iets te noemen. Er zal altijd een percentage zijn waarbij ongeveer de helft kiest voor RTX en de andere helft voor GTX. De kunst is het om die van tevoren te bepalen.
Stel dat ze het doen met een RTX2080 = GTX1180 + RT cores. Pak een RTX2080 van €800 en trek 10% van de prijs eraf. Zit je op €720. Wie koopt er nou nog de RTX? Welke elke reviewer, oke misschien niet "just buy it Toms", zal de GTX aanraden. Verder blijft een product zoals RTX2080 een niche waar weinig volume gedraaid zal worden. Nu moet Nvidia ook nog eens twee aparte lijnen gaan aanhouden en productie tussen deze twee balanceren zonder met onverkoopbare voorraden voor een van de twee komen te zitten? Hebben we het nog niet over extra R&D gehad of tape-out kosten.

Verder is Nvidia al bijna twee decennia bezig met het opbouwen van een ecosysteem en hun chips juist vol aan het stoppen met extra hardware en functies. RTX is hier de volgende stap in. Waarom zouden ze na een paar maanden hun nieuwste innovatie passeren? Ze hebben juist met Turing veel moeite gedaan om hun productlijn te segmenteren en productiekosten te drukken door drie grote chips te ontwikkelen. TU-102, TU-104 en TU-106 voor drie aparte high end segmenten ongekend. De RTX2060Ti zit er ook al aan te komen, met dank aan ASUS. ;)
nieuws: Asus noemt RTX 2060 Ti voor laptops en introduceert nieuwe RoG-notebooks

De RTX2060, de RTX2060Ti en RTX2070 zijn high end. RTX2080 is enthousiast en er is ook nog ruimte voor de RTX2070Ti, een cut down TU-104. Die zie ik ook nog wel verschijnen. Dan heb je de gaten in je line-up wel gevuld zonder een aparte lijn te hoeven introduceren. Wat wint Nvidia dus precies met twee lijnen? Die vraag blijft zo zonder antwoord. Daarom geloof ik er niks van.
Help!!!! schreef op woensdag 9 januari 2019 @ 14:07:
Wellicht verkopen de RTX kaarten minder dan gepland en is de extra marge die ze vermoedelijk op de wel verkochte kaarten vangen onvoldoende compensatie. Uiteindelijk wil nvidia stijgende omzetten laten zien. Dus dat zal links of rechtsom ergens vandaan moeten komen.
Wellicht is er wel degelijk concurrentie van AMD op komst.

Een kleinere, goedkopere chip die ook goedkoper geprijst is, bijv 100 onder de RTX kaarten, is dan niet zo onlogisch. RTX kan dan blijven als de Premium lijn. Veel RTX kopers zullen dat niet zo leuk vinden, maar ja nvidia doet wel meer dingen die niet ideaal zijn.
Dat kan dus niet. ;)
Je kan al jarenlang niet even een chip meer pakken, er wat uithalen en deze in productie brengen en verkopen binnen het tijdsbestek van een paar maanden. Brengt Nvidia echt een GTX11xx serie uit, dan hebben ze dit waarschijnlijk twee jaar geleden al gepland, als het niet langer is. Dat zou dus betekenen dat Nvidia jaren geleden al wist dat RTX zou floppen en ze een paar maanden later een nieuwe lijn uit moesten brengen. Dat roept bij mij de vraag op, waarom de RTX nog uitbrengen en niet meteen de GTX11xx series? :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 17-12 20:36

Deathchant

Don't intend. Do!

Ik ben me ook af aant vragen hoe ze het gaan doen qua prijzen als ze de huidige RTX kaarten hetzelfde laten.
Ik ga even wild speculeren, dus neem het aub niet voor mijn absolute waarheid aan ;)
Ze willen zichzelf niet in de voet schieten door Ray Tracing niks waard te laten zijn dus ik geloof ook niet dat ze enorm veel met de prijs gaan doen, net zoals dat Intel ook bijna niks met de prijzen doet voor zijn KF-modellen t.o.v. K-modellen, terwijl toch de iGPU ontbreekt.
een iGPU is niet zomaar een nutteloze feature, en toch kost het je evenveel om een CPU te kiezen zonder als met.

Mijn conclusie: ik denk dat nvidia de prijzen wel iets lager moét doen, want anders kun je net zo goed een RTX kopen en het nooit aanzetten, maar het zal wellicht niet veel lager zijn omdat ze idd hun eigen raytracing-argumenten niet overboord moeten gooien.

Wellicht is het iets in de trand van:

RTX2080Ti = 1200
GTX1180Ti = 1100

RTX2080 = 900
GTX1180 = 800

RTX2070 = 550
GTX1170 = 450

RTX2060 = 350
GTX1160 = 300

Dan kunnen mensen zelf bepalen of 100 euro in het high-end segment (en 50 euro in mid-end segment) redelijk is om wel voor ray tracing te gaan of niet.

[ Voor 3% gewijzigd door Deathchant op 09-01-2019 15:43 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 00:24
Er schijnt ook al sprake te zijn van een RTX 2050: https://www.techpowerup.com/gpu-specs/geforce-rtx-2050.c3342

Ik ben benieuwd op welk prijspeil die kaart gaat zitten, wellicht op wat de GTX 1060 nu kost?

  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 23:22
DaniëlWW2 schreef op woensdag 9 januari 2019 @ 13:32:
Ik geloof dus echt niks van een GTX1180 waar de RT cores uitgesloopt zijn. Nvidia gaat echt niet met zichzelf concurreren. :')
Kan wel zo zijn, maar aan de andere kant is er een hele groep mensen die wel zin heeft in een upgrade, maar de huidige prijzen simpelweg niet wil accepteren.

Het kan zijn dat mijn directe omgeving een grote uitzondering is, maar inclusief mijn persoon zijn er in mijn directe leefomgeving al 4 mensen die graag van een 1060/1070 naar een toprange kaart willen verhuizen. Ik had het geld letterlijk al klaar liggen om deze keer voor de beste kaart te gaan en ondanks dat ik ook het geld heb voor een 2080 TI kan ik het niet over mijn hart verkrijgen om dat geld ook echt aan Nvidia te overhandigen.

Dus als AMD nu met een topkaart komt dan stap ik zonder problemen over naar het andere kamp. komen ze met een 2080TI van €900 - €1000 dan is er een goede kans dat ik blijf. Nu verwacht ik niet heel veel van AMD, maar ondertussen verkoopt Nvidia al niets aan 4 mensen hier die graag geld aan gaming uit geven dus ik kan mij voorstellen dat aardig wat mensen het even aankijken.

Het hele RTX verhaal doet mij niets, tenminste niet zolang ik er flink framerate voor moet inleveren dus dan heb ik toch het gevoel dat ik flink betaal voor iets wat ik niet ga gebruiken. Voor mij is vooral de prestatie/scherpte in VR/Sim games in combinatie met 90+ fps belangrijk.

[ Voor 9% gewijzigd door Beakzz op 09-01-2019 16:13 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Beakzz schreef op woensdag 9 januari 2019 @ 16:11:
[...]


Kan wel zo zijn, maar aan de andere kant is er een hele groep mensen die wel zin heeft in een upgrade, maar de huidige prijzen simpelweg niet wil accepteren.
Die slikken Nvidia hun prijzen dan maar of kopen niks nieuws. Sinds wanneer is Nvidia filantropisch? ;)
Kijk, ik vind dat ook waardeloos omdat ik uiteindelijk ook in "kamp consument" zit. Ik heb alleen niet de illusie dat Nvidia ook maar iets om je mening over de prijzen van hun hardware geeft. AMD zal het meer interesseren en dan alleen omdat die marktaandeel willen veroveren. AMD is verder net zo filantropisch als Nvidia.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 23:22
DaniëlWW2 schreef op woensdag 9 januari 2019 @ 16:18:
[...]

Die slikken Nvidia hun prijzen dan maar of kopen niks nieuws. Sinds wanneer is Nvidia filantropisch? ;)
Kijk, ik vind dat ook waardeloos omdat ik uiteindelijk ook in "kamp consument" zit. Ik heb alleen niet de illusie dat Nvidia ook maar iets om je mening over de prijzen van hun hardware geeft. AMD zal het meer interesseren en dan alleen omdat die marktaandeel willen veroveren. AMD is verder net zo filantropisch als Nvidia.
Dat is toch ook precies wat ik zeg? We slikken het niet en kopen het dus niet. Heeft echt helemaal niets met filantropische instellingen te maken. uiteindelijk kunnen ze misschien meer per kaart verdienen, maar veel minder verkopen en dan heb je toch minder winst als bedrijf. Kijken of de aandeelhouders dat kunnen waarderen ;)

Van mij hoeft Nvidia dus helemaal niets, maar ik kan mij voorstellen dat als een groepje hardcore gamers met goede verdiensten het er al niet voor over hebben dat het om een veel grotere groep gaat.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Beakzz schreef op woensdag 9 januari 2019 @ 16:22:
[...]


Dat is toch ook precies wat ik zeg? We slikken het niet en kopen het dus niet. Heeft echt helemaal niets met filantropische instellingen te maken. uiteindlelijk kunnen ze misschien meer per kaart verdienen, maar veel minder verkopen en dan heb je toch minder winst als bedrijf. Kijken of de aandeelhouders dat kunnen waarderen ;)

Van mij hoeft Nvidia dus helemaal niets, maar ik kan mij voorstellen dat als een groepje hardcore gamers met goede verdiensten het er al niet voor over hebben dat het om een veel grotere groep gaat.
Ah, dat bedoel je. Tja, je boodschap kwam dan niet goed aan. Je lijkt namelijk te suggereren dat de GTX11xx er wel gaat komen omdat gamers dit willen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
DaniëlWW2 schreef op woensdag 9 januari 2019 @ 16:24:
[...]


Ah, dat bedoel je. Tja, je boodschap kwam dan niet goed aan. Je lijkt namelijk te suggereren dat de GTX11xx er wel gaat komen omdat gamers dit willen. :)
Mijn gamer hartje begint sneller te kloppen bij het idee van de gtx 11 serie dan toendertijd bij de rtx20 serie. Dus misschien heeft nvidia een tijd geleden wel voorzien dat dit zou gebeuren en daarom de 11 serie in gang gezet.

Misschien heeft nvidia wel voorzien dat lang niet iedereen happig zou zijn op de rtx kaarten en dat dit een soort van trapsgewijs introductie wordt over meerdere jaren. Beetje "voorzichtig" introduceren zeg maar. ;)

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op woensdag 9 januari 2019 @ 17:03:
[...]


Mijn gamer hartje begint sneller te kloppen bij het idee van de gtx 11 serie dan toendertijd bij de rtx20 serie. Dus misschien heeft nvidia een tijd geleden wel voorzien dat dit zou gebeuren en daarom de 11 serie in gang gezet.

Misschien heeft nvidia wel voorzien dat lang niet iedereen happig zou zijn op de rtx kaarten en dat dit een soort van trapsgewijs introductie wordt over meerdere jaren. Beetje "voorzichtig" introduceren zeg maar. ;)
Waarom dit wensdenken nog? Nvidia geeft helemaal niks om je. Het enige wat Nvidia kan interesseren is hoeveel je uit wil geven. Een goedkopere high-end Turing is gewoon wensdenken en niks meer. Nvidia verdient niet eens het voordeel van de twijfel meer na de afgelopen jaren van prijsstijgingen, prestatieafremming, GameWorks, GPP etc.

[ Voor 4% gewijzigd door DaniëlWW2 op 09-01-2019 17:21 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Beakzz schreef op woensdag 9 januari 2019 @ 16:11:
[...]


Kan wel zo zijn, maar aan de andere kant is er een hele groep mensen die wel zin heeft in een upgrade, maar de huidige prijzen simpelweg niet wil accepteren.

Het kan zijn dat mijn directe omgeving een grote uitzondering is, maar inclusief mijn persoon zijn er in mijn directe leefomgeving al 4 mensen die graag van een 1060/1070 naar een toprange kaart willen verhuizen. Ik had het geld letterlijk al klaar liggen om deze keer voor de beste kaart te gaan en ondanks dat ik ook het geld heb voor een 2080 TI kan ik het niet over mijn hart verkrijgen om dat geld ook echt aan Nvidia te overhandigen.

Dus als AMD nu met een topkaart komt dan stap ik zonder problemen over naar het andere kamp. komen ze met een 2080TI van €900 - €1000 dan is er een goede kans dat ik blijf. Nu verwacht ik niet heel veel van AMD, maar ondertussen verkoopt Nvidia al niets aan 4 mensen hier die graag geld aan gaming uit geven dus ik kan mij voorstellen dat aardig wat mensen het even aankijken.

Het hele RTX verhaal doet mij niets, tenminste niet zolang ik er flink framerate voor moet inleveren dus dan heb ik toch het gevoel dat ik flink betaal voor iets wat ik niet ga gebruiken. Voor mij is vooral de prestatie/scherpte in VR/Sim games in combinatie met 90+ fps belangrijk.
Vorig jaar is gebleken dat consumenten bereid zijn om dik 400 euro neer te tellen voor een kaart met een MSRP van $249. Dus wat dat betreft is die nieuwe MSRP $349 van de RTX 2060 niet ondenkbaar. Hetzelfde voor de 2070 (welke prijs/prestatie overigens prima te pruimen is momenteel). Ik heb zo'n 1060 / rx 580 voor dik 400 ook niemand aangeraden, maar blijkbaar kan het.

Wordt die hele 11 serie overigens niet gewoon een laptop dingetje?

[ Voor 5% gewijzigd door sdk1985 op 09-01-2019 17:38 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Beakzz
  • Registratie: Juni 2008
  • Laatst online: 23:22
sdk1985 schreef op woensdag 9 januari 2019 @ 17:36:
[...]

Vorig jaar is gebleken dat consumenten bereid zijn om dik 400 euro neer te tellen voor een kaart met een MSRP van $249. Dus wat dat betreft is die nieuwe MSRP $349 van de RTX 2060 niet ondenkbaar. Hetzelfde voor de 2070 (welke prijs/prestatie overigens prima te pruimen is momenteel). Ik heb zo'n 1060 / rx 580 voor dik 400 ook niemand aangeraden, maar blijkbaar kan het.

Wordt die hele 11 serie overigens niet gewoon een laptop dingetje?
Oh dat geloof ik zo. Maar toch denk ik dat er een heel verschil is in de klasse onder de €500 en boven de €1000. Zelf heb ik geen kinderen, een ruim budget voor gamen en hoef ik aan mijn vriendin ook geen verantwoording af te dragen voor dat soort uitgaven. Maar ik denk dat er best veel mensen wel moeten overleggen met een partner om dit soort bedragen uit te geven voor de hobby (het blijft natuurlijk niet bij die kaart).

Dan heb ik het natuurlijk enkel over gaming. Geen idee of een 2080Ti ook veel toegepast wordt in het bedrijfsleven eerlijk gezegd.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
DaniëlWW2 schreef op woensdag 9 januari 2019 @ 17:20:
[...]


Waarom dit wensdenken nog? Nvidia geeft helemaal niks om je. Het enige wat Nvidia kan interesseren is hoeveel je uit wil geven. Een goedkopere high-end Turing is gewoon wensdenken en niks meer. Nvidia verdient niet eens het voordeel van de twijfel meer na de afgelopen jaren van prijsstijgingen, prestatieafremming, GameWorks, GPP etc.
Het is geen wensdenken. De rtx kaarten zijn mij te duur voor wat ze zijn. Nu er een kans(je) is dat er wel kaarten komen die doen wat ik wil voor een hopelijk acceptabele prijs heeft nvidia een grotere kans om mijn geld te krijgen. En net als @Beakzz eerder ook al zei zijn er in mijn directe omgeving ook al meerdere mensen die er precies zo over denken.

Natuurlijk bestaat er een kans dat nvidia hun rtx serie gaat kannibaliseren maar ze zullen toch liever wat minder geld krijgen van consumenten dan helemaal géén geld?

Wie goed doet, die goed ontmoet.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AtlAntA schreef op woensdag 9 januari 2019 @ 18:10:
[...]


Het is geen wensdenken. De rtx kaarten zijn mij te duur voor wat ze zijn. Nu er een kans(je) is dat er wel kaarten komen die doen wat ik wil voor een hopelijk acceptabele prijs heeft nvidia een grotere kans om mijn geld te krijgen. En net als @Beakzz eerder ook al zei zijn er in mijn directe omgeving ook al meerdere mensen die er precies zo over denken.

Natuurlijk bestaat er een kans dat nvidia hun rtx serie gaat kannibaliseren maar ze zullen toch liever wat minder geld krijgen van consumenten dan helemaal géén geld?
Dat is dus precies wensdenken. Je hoopt op een goedkoper product met vergelijkbare prestaties. Je negeert elk argument hiertegen omdat je minder wil betalen. Zo werkt Nvidia dus niet, en zo heeft Nvidia nooit een product op de markt gebracht. Nvidia vraagt altijd het maximale voor het minimale. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

De reden waarom nvidia dit wel zou kunnen gaan doen is hierboven al vermeldt. Te weinig revenue growth omdat mensen de kaarten te duur vinden en er te weinig verkocht word.

Ik vind het behoorlijk aannemelijk dat nvidia al in design fase rekening heeft gehouden met het feit dat RTX in de eerste iteratie te groot, te duur, te weinig performant zou zijn en dus te risicovol. En dus het ontwerp zo heeft gemaakt dat RTX logic er relatief makkelijk afgesloopt kan worden. Danwel gewoon twee ontwerpen. Maar goed het zou wel een slecht verhaal zijn om nu ineens een GTX variant te droppen dus dat maakt het weer onaannemelijk.

De prijzen in de post van Deathchant komen wel al behapbaarder over.

Maar misschien is het idd alleen een referentie naar laptop designs.

For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.


  • Darksequence
  • Registratie: December 2016
  • Laatst online: 14-12 18:26
Ik vermoed dat ALS nvidea een gtx1180 uitbrengt de msrp maximaal tussen de 75-50 euro onder de rtx2080 zal liggen. Zo kan die ervoor zorgen dat consumenten makkelijker de overstap naar de rtx kaart maken. Want als je gaat vergelijken en toch al zo'n bedrag gaat uitgeven kan je net zo goed 50,- extra betalen voor tensor en raytrace cores, just incase.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 18:40
DaniëlWW2 schreef op woensdag 9 januari 2019 @ 19:48:
[...]


Dat is dus precies wensdenken. Je hoopt op een goedkoper product met vergelijkbare prestaties. Je negeert elk argument hiertegen omdat je minder wil betalen. Zo werkt Nvidia dus niet, en zo heeft Nvidia nooit een product op de markt gebracht. Nvidia vraagt altijd het maximale voor het minimale. :/
Nvidia vraagt inderdaad het maximale voor het minimale. Dat zal zo goed als elk bedrijf doen. En ik betaal het liefst het minimale voor het maximale. :p

Nvidia wil ons geld. Daarvoor zullen ze een product moeten maken die we willen kopen. In mijn geval is de rtx serie dat product niet. Dus probeert nvidia het met een 'ander' product. Ik hoop voor hun dat dat lukt want dan zijn we allebeide tevreden. ;)

Als jij dat als wensdenken ziet dan hebben we beide een andere betekenis van dat woord in gedachten. 8)

Maargoed deze discussie begint ietwat off topic te geraken. :Y

[ Voor 1% gewijzigd door AtlAntA op 10-01-2019 00:53 . Reden: Ik typ langzamer dan ik denk (gelukkig) dus ik sla soms wat woordjes over. ]

Wie goed doet, die goed ontmoet.


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 16:58
Beakzz schreef op woensdag 9 januari 2019 @ 17:52:
[...]


Oh dat geloof ik zo. Maar toch denk ik dat er een heel verschil is in de klasse onder de €500 en boven de €1000. Zelf heb ik geen kinderen, een ruim budget voor gamen en hoef ik aan mijn vriendin ook geen verantwoording af te dragen voor dat soort uitgaven. Maar ik denk dat er best veel mensen wel moeten overleggen met een partner om dit soort bedragen uit te geven voor de hobby (het blijft natuurlijk niet bij die kaart).

Dan heb ik het natuurlijk enkel over gaming. Geen idee of een 2080Ti ook veel toegepast wordt in het bedrijfsleven eerlijk gezegd.
De grootste omzet zit niet in de high-end kaarten van boven de $400 dollar, dat blijft dus uberhaupt een beetje onder het motto 'wat de gek ervoor geeft'. Zie top10 steam om een idee te krijgen van de verdeling tussen de x50, x60, x70, x80 en x80 ti. De duurdere kaarten van AMD (Vega) komen in de top100 uberhaupt niet voor. Het zijn echt de midrange kaarten die tegenwoordig de dienst uit maken.
NVIDIA GeForce GTX 1060
15.39%

NVIDIA GeForce GTX 1050 Ti
9.31%


NVIDIA GeForce GTX 1050
5.16%


NVIDIA GeForce GTX 1070
4.16%


NVIDIA GeForce GTX 960
3.56%


NVIDIA GeForce GTX 970
3.06%


NVIDIA GeForce GTX 750 Ti
2.95%


NVIDIA GeForce GTX 1080
2.85%


NVIDIA GeForce GTX 960M
1.71%


NVIDIA GeForce GTX 1080 Ti
1.68%

[ Voor 5% gewijzigd door sdk1985 op 10-01-2019 00:50 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Viel het jullie ook op dat Nvidia suggereerde dat geen van de FreeSync monitors hun grafische kwaliteit test doorstaat? Die rare tabel met G-Sync, Utlra G-Sync (of zoiets) en G-Sync Compatible? Bedrijven hebben voor minder een rechtszaak gestart want dit is aantoonbaar onjuist (en dus smaad), niet als je naar de beste FreeSync monitors en de equivalente G-Sync monitors kijkt.

  • Gekke Jantje
  • Registratie: November 2017
  • Laatst online: 15-09-2020
Zal wel gaan om monitors die vanaf 70 hz werken, dat is ook gewoon oplichting. Er worden overigens nog verl meer getest in de toekomt en Free Sync gaat op alle monitor werken. Dus een goedkeuring van Nvidia slaat sowieso al nergens op.

Edit

In de nieuwe 3dmark met raytracing aan doet Pascal het ook niet slecht tegenover Turing. Is het dan geen fp16 werk?. Zie de scores maar eens op de 3dmark website met gemiddeld 28fps op 1440p , 😉

Edit 2

Klik je op de link zie je er onder dat het toch om de RTX 2080 (ti) gaat.

[ Voor 92% gewijzigd door Gekke Jantje op 10-01-2019 09:36 ]

Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:04

XanderDrake

Build the future!

Weet iemand waar die Mid-range priced High end performance GPU van AMD blijft? Al de geruchten gingen daarover.

[ Voor 9% gewijzigd door XanderDrake op 10-01-2019 12:07 ]

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Blaat
  • Registratie: September 2007
  • Laatst online: 15-12 19:10

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

XanderDrake schreef op donderdag 10 januari 2019 @ 08:57:
Weet iemand waar die Mid-range priced High end performance GPU van AMD blijft? Al de geruchten gingen daarover.
Zit je daarvoor niet op de verkeerde plek in het nVidia topic? Of ben je gewoon aan het rellen? :P

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:04

XanderDrake

Build the future!

Blaat schreef op donderdag 10 januari 2019 @ 10:14:
[...]


Zit je daarvoor niet op de verkeerde plek in het nVidia topic? Of ben je gewoon aan het rellen? :P
Oeps je hebt gelijk. Had twee topics open staan maar in de foute gepost.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca

Pagina: 1 ... 61 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.