Van welke kaart kom je?Denzo schreef op donderdag 20 september 2018 @ 11:34:
[...]
Mijn RTX 2080 wordt vandaag afgeleverd 'before end of day', aldus UPS, dus die belofte komt NVIDIA in ieder geval wel na in tegenstelling tot de 2080 Ti.
Welke heb je besteld?Denzo schreef op donderdag 20 september 2018 @ 11:34:
[...]
Mijn RTX 2080 wordt vandaag afgeleverd 'before end of day', aldus UPS, dus die belofte komt NVIDIA in ieder geval wel na in tegenstelling tot de 2080 Ti.
01010100011010000110010100100000010011110100111001000101001000000011101000101001
De Founder's Edition bij NVIDIA zelf
De Asus GTX 970 STRIX OC, dus dit is echt een flinke upgrade. Sinds kort namelijk een 3440x1440 ultrawide en daar kon de 970 echt niet meer meekomen helaas.
edit:
[ Voor 6% gewijzigd door Denzo op 20-09-2018 11:58 ]
Naar voren getrokken is deze release zeker. Of het uit angst voor AMD is? Denk het niet, want Navi laat nog wel even op zich wachten. Het zal wel mee spelen, maar de hoofd reden zal het niet zijn.enchion schreef op woensdag 19 september 2018 @ 22:05:
Deze release was logisch geweest op 7nm maar niet waar ze nu op zitten, en zeker niet voor dit geld.
Zijn ze bang voor de "Next -Gen" van AMD ? En willen ze de dx12+RTX markt alvast geclaimed hebben voordat AMD met weer concurrerende hardware uitkomt, of sneakpreviews daarover. (hebben ze schrik gekregen van AMD`s succes tegen Intel dmv IF)
En is daarom de release van hun design met RTX een half jaar tot een jaar naar voren getrokken ?
Heeft nVidia zijn "next-gen" nu dus op een hogere node gebakken dan oorspronkelijk gepland, en hadden ze oorspronkelijk een 1090 serie gepland voor deze node maar is die komen te vervallen.
Ik denk dat het vooral een kwestie van marketing is. Ze wilden iets op de markt hebben na de aankondigingen van DXR en RTX. Dat stond allemaal al jaren gepland, echter zullen ze ook al een hele tijd geleden beseft hebben dat 7nm niet op tijd zou zijn, vandaar dit stop-gap product. De hype blijft op deze manier in leven.
Wat zijn aannames? Die cijfers die ik aan haal? Nou, nee, die komen rechtstreeks van de Metro devs. Dat het er met 1 ray een stuk minder uit gaat zien? Ook niet echt. Als je je een beetje in leest in hoe RT werkt, weet je dat het aantal rays per pixel bij RT is belangrijker voor de kwaliteit dan het aantal samples bij bijvoorbeeld AA. Ook bij RT krijg je te maken met diminishing returns, maar die grens ligt een stuk hoger.MariusV schreef op woensdag 19 september 2018 @ 23:55:
@Werelds Dat ben ik niet met je eens. De scepsis is terecht, niet de kritiek. Het zijn aannames (Assumtion is the mother of all.. ) op basis van halve/ gedeeltelijke informatie en vooral beelden.
Er is nog niets bekend( Wat zeker ook aan Nvidia te wijten is). Wacht nou even totdat je je ideeën kunt staven met feiten( benchmarks en real world performance in games. Dan heb je het hele verhaal en kun je je mening vormen.
Voor de duidelijkheid, ik ben geen fanboy die pro Nvidia is( zo fraai is dat bedrijf niet), ik wil mijn mening graag baseren op feiten, niet meer, niet minder
Dan rest mijn statement dat in hun demo AO en overige lichtbronnen afwezig zijn. Tuurlijk, daar hebben ze niets over gezegd en dat blijft mijn aanname. Het is echter een aanname op basis van beelden van henzelf en als zij claimen dat de maps wel de nodige lichtbronnen hebben en dat er weldegelijk AO is, dan is het een knap staaltje belabberd werk.
Ik begrijp je punt, maar vergeet niet dat RT niets nieuws is. We weten ook 100% zeker dat het niet gaat om volledig getracete (getracede? hoe spel je dat in god's naam
Begrijp me niet verkeerd, ik zal de eerste zijn die vol bovenop RT springt over een 18-24 maanden. Ik bouw inmiddels bijna 25 jaar m'n eigen PC's en ben gedurende al die jaren voorstander geweest van vele render technieken. Ik had als 10-jarige knul in '96 al een Voodoo naast m'n Mach64 geplakt. Ik ben nog steeds één van de grootste voorstanders van MSAA of zelfs SSAA boven PPAA (FXAA, MLAA, SMAA) op dit forum - ik lever met alle plezier wat FPS in als het betekent dat ik MSAA krijg in plaats van dat afgrijselijke FXAA. Tessellation is zo veel mooier dan bumpmapping en een heel effectief hulpmiddel voor LoD (hoewel de meeste engines het verprutsen). Al dit soort dingen zie ik graag.
Maar dit soort techniek is in z'n eerste iteratie nooit je van het - en vooral Ray Tracing, wat gewoon de heilige graal is, heeft *veel* meer kracht nodig dan we nu kunnen krijgen. MSAA is ook het beste voorbeeld wat dat betreft; dat bestond al heel lang en er waren al meerdere pogingen gedaan om het te versnellen. NV10 ROP's konden native blenden; R100 deed het een jaar of twee later ook (al was daar iets mis mee; ATI deed toen iets raars met resamplen meen ik). 3DFX had een briljante oplossing met hun rotated-grid T-buffer oplossing die kwalitatief beter was dan die blenders van ATI en Nvidia. Maar het was pas met R300 (zoals die chip nog wel meer dingen briljant deed) dat ATI MSAA ineens heel reëel maakte. Waar je voorheen vaak 30% moest inleveren, was dat met R300 hooguit 15%, vaak nog minder.
Dat is het punt waar wij nu met RT zitten. De hardware ervoor begint te komen en het is een verdomd goed begin. Maar die marketing hype is gewoon fout, waar vele consumenten helaas in zullen trappen. Geef het echter een generatie of twee en je zult zien dat de denoising algoritmes veel beter werken en dat ze slimmer met rays omspringen, waardoor het je geen 50% performance gaat kosten, maar slechts 20%.
Verwijderd
Ik mag hopen dat je inziet dat die marketing juist cruciaal is voor adoptie. Raytracing zegt de meeste mensen niet zoveel, veel gamers die zon kaart kopen hebben zowiezo geen idee bij de technieken. Hoe wil je ze dan laten overstappen op een een render techniek die in hun ogen bijna hetzelfde doet maar velen malen zwaarder is. Tevens ben ik ook van mening dan volledig geraytraced scenes in games helemaal niet gewenst is. Je kan juist het beste van beide werelden pakken en deze hybride manier van renderen doorzetten.Werelds schreef op donderdag 20 september 2018 @ 12:21:
[...]
Dat is het punt waar wij nu met RT zitten. De hardware ervoor begint te komen en het is een verdomd goed begin. Maar die marketing hype is gewoon fout, waar vele consumenten helaas in zullen trappen. Geef het echter een generatie of twee en je zult zien dat de denoising algoritmes veel beter werken en dat ze slimmer met rays omspringen, waardoor het je geen 50% performance gaat kosten, maar slechts 20%.
Die marketing moet je als tech persoon door heen prikken maar wel accepteren want het is echt wel nodig willen we raytracing mainstream laten worden.
Ik doelde meer op wat er na NAVI en VEGA gaat komen, wat AMD dus Next-Gen noemt, wat dus ook waarschijnlijk een chiplet structuur gaat worden.Werelds schreef op donderdag 20 september 2018 @ 12:21:
[...]
Naar voren getrokken is deze release zeker. Of het uit angst voor AMD is? Denk het niet, want Navi laat nog wel even op zich wachten. Het zal wel mee spelen, maar de hoofd reden zal het niet zijn.
Ik denk dat het vooral een kwestie van marketing is. Ze wilden iets op de markt hebben na de aankondigingen van DXR en RTX. Dat stond allemaal al jaren gepland, echter zullen ze ook al een hele tijd geleden beseft hebben dat 7nm niet op tijd zou zijn, vandaar dit stop-gap product. De hype blijft op deze manier in leven.
Vega 7nm komt dit jaar nog, Navi komt begin volgend jaar, en Next Gen zou uitkomen tussen 2019 en 2020 maw eerste previews/teasers over Next Gen zouden best al rond volgend jaar zomer te zien kunnen zijn.
Nu heerst er nog een sfeer van "op AMD hoeven we niet te wachten", maar die sfeer kan binnen een half jaar-een jaar compleet omgeslagen zijn. (een chiplet structuur zou de prijsstructuur voor GPU`s ook compleet omver schoppen, ookal zou nVidia dan met nieuwe goed werkende technieken uitkomen dan zou niemand de hoeveelheid geld ervoor over hebben die er nu voor gevraagd wordt. )
Dus marketing-technisch is het voor nVidia nu de sweetspot om met nieuwe hardware uit te komen.
Getraceerde !Ik begrijp je punt, maar vergeet niet dat RT niets nieuws is. We weten ook 100% zeker dat het niet gaat om volledig getracete (getracede? hoe spel je dat in god's naam) scenes;
Buiten het feit dat op 7nm of de RT cores sneller kunnen lopen of dat ze er 2x zoveel op kunnen plakken.Dat is het punt waar wij nu met RT zitten. De hardware ervoor begint te komen en het is een verdomd goed begin. Maar die marketing hype is gewoon fout, waar vele consumenten helaas in zullen trappen. Geef het echter een generatie of twee en je zult zien dat de denoising algoritmes veel beter werken en dat ze slimmer met rays omspringen, waardoor het je geen 50% performance gaat kosten, maar slechts 20%.
btw is zo`n RT core nou een programmeerbare PU of is het een 1 trick pony. (kunnen die cores door de markt ook voor andere doeleinden gebruikt gaan worden)
How do you save a random generator ?
Ja joh, want dankzij al die marketing is 3D geweldig geslaagd, hebben we overal volledig gesimuleerd water en super realistische natuurkundige dingen in games!Verwijderd schreef op donderdag 20 september 2018 @ 12:38:
Ik mag hopen dat je inziet dat die marketing juist cruciaal is voor adoptie. Raytracing zegt de meeste mensen niet zoveel, veel gamers die zon kaart kopen hebben zowiezo geen idee bij de technieken. Hoe wil je ze dan laten overstappen op een een render techniek die in hun ogen bijna hetzelfde doet maar velen malen zwaarder is. Tevens ben ik ook van mening dan volledig geraytraced scenes in games helemaal niet gewenst is. Je kan juist het beste van beide werelden pakken en deze hybride manier van renderen doorzetten.
Die marketing moet je als toch persoon door heen prikken maar het is echt wel nodig willen we raytracing mainstream laten worden.
Alle gekheid op een stokje: nee, dat is niet nodig. Ik durf te wedden dat zelfs in dit topic, 90% van de posters en lezers geen flauw benul heeft wat tessellation precies is en doet, behalve dan dat het performance kost. Velen zullen ook niet weten wat nu precies het verschil tussen MSAA en PPAA is, behalve dan dat de eerstgenoemde zwaarder is en "hekjes en zo niet zo goed kan". Vroeger hadden de meesten ook geen idee wat AF was, behalve dan dat het performance kostte. Zelfs nu zullen velen dat niet weten, net zoals velen niet zullen weten waarom het zo belangrijk was dat het angle-independent werd. Programmable shaders? Elke GPU heeft het tegenwoordig, maar waarom en hoe en wat ervoor kwam? Weten de meesten niet. Niks van dit alles heeft zulke serieuze marketing gehad als RTX en toch zijn het allemaal dingen die in elke game zitten.
Wat nodig is voor adoptie, zijn twee dingen:
1. een uniforme API en aanpak
2. markt penetratie in de zin dat alle gangbare hardware het kan versnellen
1 hebben we in principe, dat is DXR. Hopelijk blijft Nvidia daar vol achter staan en komt er via RTX geen al te gekke poespas waar AMD niets mee kan. Het gebrek aan een degelijke API is waarom 3D keihard op z'n bek is gegaan (naast de kosten). Had je een dure 3D monitor, bleek game A of B alleen de andere kant te ondersteunen. En als je dan een nieuwe wilde, moest je ook weer een ander brilletje hebben.
2 heeft tijd nodig. AMD heeft er nog geen hardware voor en dit speelgoed is veel te duur voor 99% van de markt. Dit zijn niet de volume producten. Die vind je op ergens tussen een derde en een vijfde van de prijzen die we nu zien. Van zo'n 150 tot rond de 300 euro is waar het volume zit. Dat is waarom de 970 zo immens populair is. Die zat net op dat randje van wel of niet te duur zijn voor het grootste deel van de markt. Dat is waarom R300, G80/G92, RV770, Cypress, GF104/GF114 zo'n succes waren. Stuk voor stuk zaten die net op die rand.
Zolang dit voorbehouden blijft aan producten die meer kosten dan de gemiddelde game PC, zet het geen zoden aan de dijk. Ongeacht hoeveel marketing er achter zit.
offtopic:
Voelt zo gek om ineens een Nederlands woord te gebruiken tussen alle andere termen
Voelt zo gek om ineens een Nederlands woord te gebruiken tussen alle andere termen
Min of meer een 1-trick pony voor zover ik begrepen heb. Het is echt een ASIC. De tensor cores zijn iets flexibeler, maar in feite ook gewoon bedoeld voor 4x4 matrices. Bij iets anders kun je het net zo goed op een shader processor laten lopen.Buiten het feit dat op 7nm of de RT cores sneller kunnen lopen of dat ze er 2x zoveel op kunnen plakken.
btw is zo`n RT core nou een programmeerbare PU of is het een 1 trick pony. (kunnen die cores door de markt ook voor andere doeleinden gebruikt gaan worden)
Verwijderd
Ja dankzij die marketing hebben we nu al die leuke snufjes !, zo werkt de wereld nou eenmaal.Werelds schreef op donderdag 20 september 2018 @ 14:17:
[...]
Ja joh, want dankzij al die marketing is 3D geweldig geslaagd, hebben we overal volledig gesimuleerd water en super realistische natuurkundige dingen in games!
Alle gekheid op een stokje: nee, dat is niet nodig. Ik durf te wedden dat zelfs in dit topic, 90% van de posters en lezers geen flauw benul heeft wat tessellation precies is en doet, behalve dan dat het performance kost. Velen zullen ook niet weten wat nu precies het verschil tussen MSAA en PPAA is, behalve dan dat de eerstgenoemde zwaarder is en "hekjes en zo niet zo goed kan". Vroeger hadden de meesten ook geen idee wat AF was, behalve dan dat het performance kostte. Zelfs nu zullen velen dat niet weten, net zoals velen niet zullen weten waarom het zo belangrijk was dat het angle-independent werd. Programmable shaders? Elke GPU heeft het tegenwoordig, maar waarom en hoe en wat ervoor kwam? Weten de meesten niet. Niks van dit alles heeft zulke serieuze marketing gehad als RTX en toch zijn het allemaal dingen die in elke game zitten.
Wat nodig is voor adoptie, zijn twee dingen:
1. een uniforme API en aanpak
2. markt penetratie in de zin dat alle gangbare hardware het kan versnellen
1 hebben we in principe, dat is DXR. Hopelijk blijft Nvidia daar vol achter staan en komt er via RTX geen al te gekke poespas waar AMD niets mee kan. Het gebrek aan een degelijke API is waarom 3D keihard op z'n bek is gegaan (naast de kosten). Had je een dure 3D monitor, bleek game A of B alleen de andere kant te ondersteunen. En als je dan een nieuwe wilde, moest je ook weer een ander brilletje hebben.
2 heeft tijd nodig. AMD heeft er nog geen hardware voor en dit speelgoed is veel te duur voor 99% van de markt. Dit zijn niet de volume producten. Die vind je op ergens tussen een derde en een vijfde van de prijzen die we nu zien. Van zo'n 150 tot rond de 300 euro is waar het volume zit. Dat is waarom de 970 zo immens populair is. Die zat net op dat randje van wel of niet te duur zijn voor het grootste deel van de markt. Dat is waarom R300, G80/G92, RV770, Cypress, GF104/GF114 zo'n succes waren. Stuk voor stuk zaten die net op die rand.
Zolang dit voorbehouden blijft aan producten die meer kosten dan de gemiddelde game PC, zet het geen zoden aan de dijk. Ongeacht hoeveel marketing er achter zit.
[...]
offtopic:
Voelt zo gek om ineens een Nederlands woord te gebruiken tussen alle andere termen
[...]
Min of meer een 1-trick pony voor zover ik begrepen heb. Het is echt een ASIC. De tensor cores zijn iets flexibeler, maar in feite ook gewoon bedoeld voor 4x4 matrices. Bij iets anders kun je het net zo goed op een shader processor laten lopen.
Dankzij marketing kopen mensen kaarten zodat developers uberhaupt overwegen om de nieuwste snufjes in hun games te stoppen.
en ja iedereen weet dat het performance kost maar waarom wil iedereen toch gebruikmaken van een features die performance kosten ?
Een heel simpel antwoord: Omdat we het er mooier uit vinden zien.
En hoe weten we dat het er mooier uitziet ? dankzij marketing....
en zonder eerst marketing te doen weten we niet hoe het er potentieel uitziet, kip en ei verhaal.
Hoe je nou dat met een onsamenhangend verhaal dat tegen probeert te spreken snap ik niet.
dit bewijst alleen maar dat marketing juist werkt, mensen weten niet hoe het technisch in elkaar steekt maar wel hoe het eind resultaat er uit ziet, dankzij marketing..... en kopen dan vervolgens een kaart die deze snufjes ondersteunen.Alle gekheid op een stokje: nee, dat is niet nodig. Ik durf te wedden dat zelfs in dit topic, 90% van de posters en lezers geen flauw benul heeft wat tessellation precies is en doet, behalve dan dat het performance kost. Velen zullen ook niet weten wat nu precies het verschil tussen MSAA en PPAA is, behalve dan dat de eerstgenoemde zwaarder is en "hekjes en zo niet zo goed kan". Vroeger hadden de meesten ook geen idee wat AF was, behalve dan dat het performance kostte. Zelfs nu zullen velen dat niet weten, net zoals velen niet zullen weten waarom het zo belangrijk was dat het angle-independent werd. Programmable shaders? Elke GPU heeft het tegenwoordig, maar waarom en hoe en wat ervoor kwam? Weten de meesten niet. Niks van dit alles heeft zulke serieuze marketing gehad als RTX en toch zijn het allemaal dingen die in elke game zitten.
Zeggen dat deze dingen geen serieuze marketing hebben gehad is ontkennen dat Demo's en presentaties de afgelopen decenia zijn gegeven waarbij deze features hebben gepresenteerd.
En hoe krijg je markt penetratie......2. markt penetratie in de zin dat alle gangbare hardware het kan versnellen
Zie AMD die leuke features onwikkelt maar deze niet goed weet te marketen en te verkopen aan consumenten. De enige vorm van marketing die ze dan vervolgens moeten omarmen is het openstandaard/source model om nog enige marktpenetratie te bewerkstelligen..
Laat ik het zo stellen, Hoe verwacht jij ooit dat realtime Raytracing van de grond komt wanneer het ten koste gaat van "traditionele prestaties" /prijs van het product ?
Er kunnen immer potentieel minder CUDA Cores op de "die" want er komen RT cores bij.
Zonder marketing om adoptie te bewerkstelligen gaat dit niet van de grond komen.
[ Voor 22% gewijzigd door Verwijderd op 20-09-2018 16:34 ]
Verwijderd
Dat is het discussiepunt niet. Natuurlijk is 4k beter dan 1080p/1440p, de vraag is alleen wat betere graphics oplevert met dezelfde FPS met de huidige hardware: 1080p/1440p met hogere instellingen of 4k met lagere instellingen. Daarnaast is het een kwestie van welke FPS je als het minimum gewenste beschouwt, dit uiteraard afhankelijk van het type spel. Tenslotte zijn er nog allerlei gebrekkige implementaties van developers die 4k in de weg staan: elementen die niet netjes scalen...NotSoSteady schreef op donderdag 20 september 2018 @ 01:12:
[...]
Sorry, maar als je eenmaal 4K hebt gezien, dan wil je nooit meer terug naar 1080p.
Om nog maar te zwijgen over hoe matig veel besturingssystemen omgaan met 4k.
Ik twijfel er niet aan dat over 10 jaar gaming met 4k of een hogere resolutie 'standaard' is maar momenteel is het hooguit realistisch voor <1% van de gamers die zoveel geld kunnen en willen besteden aan het iets vroeger gebruik maken van een feature die later gemeengoed wordt en deze mensen moeten dan ook nog eens genoegen nemen met allerlei early-adopters problemen.
Het werkt dus niet, het feit dat we het er hier over hebben is naar mijn mening juist bewijs dat we door de marketing heen prikken. Ik ga dan ook deze kaart niet kopen. Als genoeg mensen dit inzien/vinden, dan wordt RT(X) gewoon een flop.Verwijderd schreef op donderdag 20 september 2018 @ 16:09:
[...]
dit bewijst alleen maar dat marketing juist werkt, mensen weten niet hoe het technisch in elkaar steekt maar wel hoe het eind resultaat er uit ziet, dankzij marketing..... en kopen dan vervolgens een kaart die deze snufjes ondersteunen.
Zeggen dat deze dingen geen serieuze marketing hebben gehad is ontkennen dat Demo's en presentaties de afgelopen decenia zijn gegeven waarbij deze features hebben gepresenteerd.
Verwijderd
Of marketing van nvidia nu effectief is of niet is ook helemaal niet het discussie punt, of het cruciaal is voor Nvidia en adoptie van nieuwe technieken wel.Lord_Dain schreef op donderdag 20 september 2018 @ 16:52:
[...]
Het werkt dus niet, het feit dat we het er hier over hebben is naar mijn mening juist bewijs dat we door de marketing heen prikken. Ik ga dan ook deze kaart niet kopen. Als genoeg mensen dit inzien/vinden, dan wordt RT(X) gewoon een flop.
Dat jij nu niet deze kaart gaat kopen omdat je hem te duur vind waarschijnlijk zegt juist dat marketing cruciaal is omdat het product en de techniek zichzelf niet weet te verkopen of jou weet over te halen.
[ Voor 4% gewijzigd door Verwijderd op 20-09-2018 17:02 ]
Sorry maar ik vind 'te duur' een raar argument. Nee hij is niet te duur an sich. Ik kan er 10 bestellen maar ik doe het niet want ik vind de prijs/perf niet in balans. En in die overweging tot aanschaf neem ik ook mee wat ik voor ogen heb qua games en wensen. Dus het is (voor mij) een no brainer om hem niet te kopen. Dit kan natuurlijk in de toekomst veranderen maar ik denk het niet.Verwijderd schreef op donderdag 20 september 2018 @ 16:58:
[...]
Of marketing van nvidia nu effectief is of niet is ook helemaal niet het discussie punt, of het cruciaal is voor Nvidia en adoptie van nieuwe technieken wel.
Dat jij nu niet deze kaart gaat kopen omdat je hem te duur vind waarschijnlijk zegt juist dat marketing cruciaal is omdat het product en de techniek zichzelf niet weet te verkopen of jou weet over te halen.
Verwijderd
Te duur is altijd relatief, ik heb ook nergens gezegd dat je het niet kan betalen.Lord_Dain schreef op donderdag 20 september 2018 @ 17:16:
[...]
Sorry maar ik vind 'te duur' een raar argument. Nee hij is niet te duur an sich. Ik kan er 10 bestellen maar ik doe het niet want ik vind de prijs/perf niet in balans. En in die overweging tot aanschaf neem ik ook mee wat ik voor ogen heb qua games en wensen. Dus het is (voor mij) een no brainer om hem niet te kopen. Dit kan natuurlijk in de toekomst veranderen maar ik denk het niet.
Ergo, je vind hem te duur.ik vind de prijs/perf niet in balans
Verwijderd
Wij zijn niet representatief voor de gamers.Lord_Dain schreef op donderdag 20 september 2018 @ 16:52:
[...]
Het werkt dus niet, het feit dat we het er hier over hebben is naar mijn mening juist bewijs dat we door de marketing heen prikken. Ik ga dan ook deze kaart niet kopen. Als genoeg mensen dit inzien/vinden, dan wordt RT(X) gewoon een flop.
En dit snap ik dan weer niet, 2080 nu al te koop vanaf 799,- nipt sneller dan de 1080TI, maar ook maar nipt duurder.Lord_Dain schreef op donderdag 20 september 2018 @ 17:16:
Sorry maar ik vind 'te duur' een raar argument. Nee hij is niet te duur an sich. Ik kan er 10 bestellen maar ik doe het niet want ik vind de prijs/perf niet in balans. En in die overweging tot aanschaf neem ik ook mee wat ik voor ogen heb qua games en wensen. Dus het is (voor mij) een no brainer om hem niet te kopen. Dit kan natuurlijk in de toekomst veranderen maar ik denk het niet.
Krijg je dus gratis die hele RT/DLSS meuk bij, die nu nog niet zo heel veel doet, maar over 6 maanden wel.....
Dus nieuwe kaart, nieuwe features, zelfde geld.
2080TI sneller dan Titan XP, nieuwe features, zelfde geld.
Dat het teleurstellend is dat ze hun voorgangers niet uit het water blazen snap ik best, maar kon je ook niet verwachten op dit productieprocedé.
Als je nú (vandaag, of zolang de prijzen niet veranderen van alle kaarten momenteel op de markt) een nieuwe kaart moet kopen, waarom dan een oude 1080TI tov een nieuwe 2080?
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Ik heb hetzelfde besluit genomen, maar als je je bedenkt dat je recent voor 650 het 1080Ti topmodel van Gigabyte kon bestellen en de topmodellen van de 2080 nu eerder richting de 1000 zitten is het wel logisch dat men de 2080 als duur ervaart...zion schreef op donderdag 20 september 2018 @ 17:36:
[...]
En dit snap ik dan weer niet, 2080 nu al te koop vanaf 799,- nipt sneller dan de 1080TI, maar ook maar nipt duurder.
Krijg je dus gratis die hele RT/DLSS meuk bij, die nu nog niet zo heel veel doet, maar over 6 maanden wel.....
Dus nieuwe kaart, nieuwe features, zelfde geld.
2080TI sneller dan Titan XP, nieuwe features, zelfde geld.
Dat het teleurstellend is dat ze hun voorgangers niet uit het water blazen snap ik best, maar kon je ook niet verwachten op dit productieprocedé.
Als je nú (vandaag, of zolang de prijzen niet veranderen van alle kaarten momenteel op de markt) een nieuwe kaart moet kopen, waarom dan een oude 1080TI tov een nieuwe 2080?
Die 650 euro was wel een actie (1 dag) en was NIET het topmodel. Voor de rest ga ik met je meePaprika schreef op donderdag 20 september 2018 @ 17:56:
[...]
Ik heb hetzelfde besluit genomen, maar als je je bedenkt dat je recent voor 650 het 1080Ti topmodel van Gigabyte kon bestellen en de topmodellen van de 2080 nu eerder richting de 1000 zitten is het wel logisch dat men de 2080 als duur ervaart...
Ik koop ook geen 1080Ti, waarom zou ik deze kopen als ik ook niet de RTX2080 koop? Want inderdaad de performance / prijs is zo goed als gelijk. Ben ik nog steeds annoyed as hell dat er in 2 jaar tijd geen performance bijkomt voor hetzelfde aantal € wat je er toen ook al voor betaalde. Dat is geen vooruitgang. Ja inderdaad al die extra hardware op de kaart, kan ik nu niet gebruiken, er is geen garantie voor dat ik het ga / kunnen gebruiken en op basis van hete lucht heb ik nog nooit iets gekocht to be fair.zion schreef op donderdag 20 september 2018 @ 17:36:
[...]
En dit snap ik dan weer niet, 2080 nu al te koop vanaf 799,- nipt sneller dan de 1080TI, maar ook maar nipt duurder.
Krijg je dus gratis die hele RT/DLSS meuk bij, die nu nog niet zo heel veel doet, maar over 6 maanden wel.....
Dus nieuwe kaart, nieuwe features, zelfde geld.
2080TI sneller dan Titan XP, nieuwe features, zelfde geld.
Dat het teleurstellend is dat ze hun voorgangers niet uit het water blazen snap ik best, maar kon je ook niet verwachten op dit productieprocedé.
Als je nú (vandaag, of zolang de prijzen niet veranderen van alle kaarten momenteel op de markt) een nieuwe kaart moet kopen, waarom dan een oude 1080TI tov een nieuwe 2080?
Geen woorden in de mond leggen s.v.p. de prijs perf ratio vind ik teleurstellend en ook de vooruitgang in perf/€, dat maakt het voor mij een principe kwestie en een keuze. Als er morgen een product is wat alles uit het water blaast en 1000€ kost dan zou deze wellicht wel voldoen aan mijn wensen. De RTX2080 doet dit niet, de RTX2080Ti is overkill voor mijn behoefte. Even kort samengevat ik vind de kaart niet te duur op zich, maar ik vind de kaart 'te duur ten opzichte van wat hij brengt qua vooruitgang en features en performance'. Zo beter?
[ Voor 20% gewijzigd door Lord_Dain op 20-09-2018 19:05 ]
Verwijderd
Doe ik toch ook niet niet? "Duur" heeft niks te maken met het niet kunnen betalen van iets maar met de waarde. Jij vind de waarde niet groot genoeg ten opzicht even de prijs, dan noemen we dat in Nederlandse taal gewoon "iets te duur vinden".Lord_Dain schreef op donderdag 20 september 2018 @ 19:00:
Geen woorden in de mond leggen s.v.p. de prijs perf ratio vind ik teleurstellend en ook de vooruitgang in perf/€, dat maakt het voor mij een principe kwestie en een keuze. Als er morgen een product is wat alles uit het water blaast en 1000€ kost dan zou deze wellicht wel voldoen aan mijn wensen. De RTX2080 doet dit niet, de RTX2080Ti is overkill voor mijn behoefte. Even kort samengevat ik vind de kaart niet te duur op zich, maar ik vind de kaart 'te duur ten opzichte van wat hij brengt qua vooruitgang en features en performance'. Zo beter?
Offtopic/
Als de AH morgen voor een kilo appels 1 euro meer vraagt dan de jumbo, dirk en andere supermarkten terwijl het dezelfde appels zijn dan vind ik ze ook "te duur" maar dat zegt dan niet dat ik de appels niet kan betalen
Je zegt hier dus iets heel tegenstrijdigs.ik vind de kaart niet te duur op zich, maar ik vind de kaart 'te duur ten opzichte van wat hij brengt qua vooruitgang en features en performance'. Zo beter?
Dus voel je niet zo aangevallen als ik zeg dat jij de kaarten te duur vind.
[ Voor 8% gewijzigd door Verwijderd op 20-09-2018 19:16 ]
Ik snap de frustraties allemaal wel hoor hier. Ik zelf zit ook in hetzelfde bootje. Je hebt eigenlijk nu paar een paar opties ervan uitgaande dat de 2080 TI geen optie is vanwege dat behoorlijke bedrag:
1) je koopt (voorlopig) geen kaart en wacht even af.
2) je koopt een tweedehandse kaart.
3) je koopt een 1080TI die iets goedkoper is dan de 2080.
4) je koopt een 2080.
Optie 1 is zeker de optie voor mensen die al op een 1080 TI zitten, maar voor de andere mensen die wel een upgrade nodig hebben valt deze af. Verder denk ik ook niet dat de prijzen zo sterk gaan veranderen. Je kan blijven wachten en niet kopen, maar dan blijf je ook wachten. Ga er niet vanuit dat de volgende 7nm kaarten ineens keihard in de aanbieding zijn, de kaarten zijn eigenlijk alleen maar duurder geworden.
Optie 2 is voor sommigen misschien wel een goede. Persoonlijk heb ik dat liever niet, je weet immers nooit wat er met de kaart gedaan is en garantie is ook niet altijd beschikbaar.
Optie 3 is wel leuk maar waar gaat dit eigenlijk over. Voor die 100 a 200 euro verschil zit je wel een kaart uit 2016 te kopen in 2018. Ja de performance is vrijwel zelfde, maar dit neemt niet weg dat de 2080 toch wel wat "meer" kan dan de 1080 TI. En ook zal nvidia de komende tijd hierop focussen om nieuwere games ervoor te optimaliseren. Voor mij persoonlijk voelt dit dan als een slechte keuze om voor oude technologie nu te gaan alleen maar om dat bedrag te besparen, maar ieder zijn eigen mening natuurlijk
.
Optie 4 Hier ga ik dan dus toch mee met @zion, dat dit hier momenteel de beste keus is. Dit was een ander verhaal geweest als de 1080 TI op 500 zat maar voor een redelijke kaart zoals een MSI Gaming variant betaal je momenteel toch alweer 815, dan kan je net zo goed voor de nieuwe technologie gaan. Met de 2080 heb je tenminste nog kans dat jij mee kan als de technologie gebruikt wordt, met de 1080 TI doe je automatisch al niet mee. En als je dan op dat moment achteraf terug kijkt, dan was die keuze voor die besparing een nog slechtere keuze. Als het niet wordt gebruikt, dan jammer maar dan nog heb je hoogstens die 100 a 200 betaald aan de optimalisaties en voor het gevoel dat je met een nieuw product thuis komt.
1) je koopt (voorlopig) geen kaart en wacht even af.
2) je koopt een tweedehandse kaart.
3) je koopt een 1080TI die iets goedkoper is dan de 2080.
4) je koopt een 2080.
Optie 1 is zeker de optie voor mensen die al op een 1080 TI zitten, maar voor de andere mensen die wel een upgrade nodig hebben valt deze af. Verder denk ik ook niet dat de prijzen zo sterk gaan veranderen. Je kan blijven wachten en niet kopen, maar dan blijf je ook wachten. Ga er niet vanuit dat de volgende 7nm kaarten ineens keihard in de aanbieding zijn, de kaarten zijn eigenlijk alleen maar duurder geworden.
Optie 2 is voor sommigen misschien wel een goede. Persoonlijk heb ik dat liever niet, je weet immers nooit wat er met de kaart gedaan is en garantie is ook niet altijd beschikbaar.
Optie 3 is wel leuk maar waar gaat dit eigenlijk over. Voor die 100 a 200 euro verschil zit je wel een kaart uit 2016 te kopen in 2018. Ja de performance is vrijwel zelfde, maar dit neemt niet weg dat de 2080 toch wel wat "meer" kan dan de 1080 TI. En ook zal nvidia de komende tijd hierop focussen om nieuwere games ervoor te optimaliseren. Voor mij persoonlijk voelt dit dan als een slechte keuze om voor oude technologie nu te gaan alleen maar om dat bedrag te besparen, maar ieder zijn eigen mening natuurlijk
Optie 4 Hier ga ik dan dus toch mee met @zion, dat dit hier momenteel de beste keus is. Dit was een ander verhaal geweest als de 1080 TI op 500 zat maar voor een redelijke kaart zoals een MSI Gaming variant betaal je momenteel toch alweer 815, dan kan je net zo goed voor de nieuwe technologie gaan. Met de 2080 heb je tenminste nog kans dat jij mee kan als de technologie gebruikt wordt, met de 1080 TI doe je automatisch al niet mee. En als je dan op dat moment achteraf terug kijkt, dan was die keuze voor die besparing een nog slechtere keuze. Als het niet wordt gebruikt, dan jammer maar dan nog heb je hoogstens die 100 a 200 betaald aan de optimalisaties en voor het gevoel dat je met een nieuw product thuis komt.
Een dag later weet ik eigenlijk niet wat ik van Turing moet vinden.
Aan de ene kant heeft Nvidia voor het eerst sinds 2014 eens echt een nieuwe GeForce architectuur gelanceerd. De optimalisaties in cache en de grote revisie van SM ontwerp hebben zeker hun effect. DLSS is potentieel zeer interessant en de stap van Nvidia om met een implementatie voor ray tracing te komen kan ik ook alleen maar toejuichen.
Ik vraag me alleen hardop af of Nvidia wel de juiste keuzes heeft gemaakt. De kaarten zijn duur, heel erg duur. Dat zijn ze niet alleen maar omdat Nvidia optimaal gebruik maakt van haar monopoliepositie, maar ook omdat de chips erg groot zijn. TU-104 is al 545mm2 en heeft daarmee een slechtere performance per mm2 dan GP102. TU-102 is met 754mm2 een monster en die chip haar prestatie per mm2 is ronduit slecht buiten high refresh 4K gaming te noemen. Juist voor die laatste categorie is het hele ray tracing verhaal op het moment vrij zinloos. Voor 4K heb je eerst schaders, clocks en ROP's nodig en dan is de RTX2080Ti een cut down van de volledige chip. Op 1080P waar de extra ray tracing capaciteit wel zal tellen, presteert de kaart in de regel nauwelijks beter dan de RTX2080. Daar lijken low level API's de uitkomt te moeten bieden omdat de kaart simpelweg niet genoeg draw calls kan ontvangen in DX11. Een ander verklaring waarom de RTX1080Ti zo hard wegvalt op lagere resoluties heb ik niet.
Wat ook niet helpt is dat de RT cores een eerste implementatie van ray tracing zijn. Er worden nu al heel wat hoekjes afgesneden in die demo's en dan bestaan er alsnog grote twijfels over framerates bij 1920x1080P. Hogere resoluties kan je wel vergeten dat het enigszins acceptabel zal draaien. De hardware zal ook niet verbeteren waardoor je al snel een zeer interessante, maar uiteindelijk niet functionele technologie koopt. Tegen de tijd dat je serieus ray tracing games krijgt zal blijken dat de huidige hardware het niet goed aankan en je alweer moet upgraden.
Dit is ook een hopeloos "kip-ei" scenario omdat als Nvidia het niet implementeert, developers niet beginnen met ray tracing in games. Mensen die nu een RTX kopen vanwege ray tracing hoeven alleen niet te verwachten dat ze veel plezier gaan belezen van die functionaliteit. Ervoor betalen moeten ze wel.
Alles bij elkaar vind ik deze twee producten denk ik veel meer teleurstellend dan innovatief. Ik kan het gevoel niet afschudden dat Nvidia een generatie te vroeg is met RT en beter de RT cores uit Turing had kunnen halen en de chips veel kleiner had kunnen maken en zich meer had moeten richten op traditionele shader en ROPs prestaties. Die zitten zeker in Turing, maar het zijn gewoon te weinig traditionele shaders om echt een verschil te maken met Pascal.
Dan de prijs. Tja, wat moet ik ervan zeggen? Ik richt me meer op de technologie dan de prijs aangezien ik een van deze kaarten toch nooit ging kopen. Persoonlijk beschouw ik de prijzen als een duidelijk symptoom van een ernstig gebrek aan concurrentie. Als AMD met wat beters was gekomen dan Vega dan hadden we deze prijzen nooit gehad. In dat opzicht neem ik het Nvidia niet eens kwalijk wat ze vragen. Aan de andere kant is de prijs/prestatie van de RTX2080 wel erg teleurstellend te noemen. Het is gewoon niks beter dan een product van anderhalf jaar geleden.
Van de RTX2070 verwacht ik iets meer, of eigenlijk eerder iets minder teleurstelling. Qua prijs zullen die waarschijnlijk rond de €650 uitkomen, misschien iets minder. Qua prestaties zullen ze de GTX1080 waarschijnlijk verslaan en daarmee gaan die een soort van acceptabel zijn. De hoge prijs, de relatief lage prestaties en het lage aantal SM's gaan het alleen moeilijk maken om er een speculatieve maar onherroepelijke TU-107/8 naast te zetten die als mainstream model moet dienen. TU-106 heeft nu 2304 18 SM's en waarschijnlijk komt er nog een cut down versie van deze chip. Ik zie dus eigenlijk niet hoe Nvidia een TU-107/8 kan lanceren zonder RT cores, met meer dan 14 SM's zonder dat ze TU-106 gaan kannibaliseren. Een dergelijke chip zou namelijk waarschijnlijk onder de 300mm2 blijven en dus veel goedkoper zijn. Een 18 SM chip zonder RT cores zal de RTX2070 helemaal kannibaliseren.
Ook de optie van GP104 rebranden zie ik als problematisch. De volle GP104 chip zal waarschijnlijk veel te dicht bij de RTX2070 zitten en veel goedkoper moeten zijn om als mainstream te dienen. De GTX1080 begint nu een beetje bij €500+ en dat is waarschijnlijk al goedkoop genoeg om de RTX2070 te kannibaliseren op prijs/kwaliteit en dan is het ook nog eens een kleinere en goedkopere chip om te maken. Maakt Nvidia die goedkoper dan kannibaliseren ze de RTX1070 echt. Maakt Nvidia de kaarten duurder dan hebben ze geen mainstream aanbod en daar zit nog steeds het volume.
Als laatste wordt wordt met een dergelijke prijsstelling zoals Nvidia nu wil hanteren, RX Vega zowat competitief, zowel prijstechnisch en performance per mm2. Dat is denk ik de meest vernietigende argument dat je kan geven over de RTX lijn. Zeker als Navi zou verschijnen met RX Vega vergelijkbare prestaties, maar een stuk goedkoper. Nvidia heeft dan niks om mee te reageren en kan alleen maar de RTX2070 flink in prijs laten zakken als reactie.
Ik zeg dus Poor Volta Turing.
Sorry, kon het niet laten.
Aan de ene kant heeft Nvidia voor het eerst sinds 2014 eens echt een nieuwe GeForce architectuur gelanceerd. De optimalisaties in cache en de grote revisie van SM ontwerp hebben zeker hun effect. DLSS is potentieel zeer interessant en de stap van Nvidia om met een implementatie voor ray tracing te komen kan ik ook alleen maar toejuichen.
Ik vraag me alleen hardop af of Nvidia wel de juiste keuzes heeft gemaakt. De kaarten zijn duur, heel erg duur. Dat zijn ze niet alleen maar omdat Nvidia optimaal gebruik maakt van haar monopoliepositie, maar ook omdat de chips erg groot zijn. TU-104 is al 545mm2 en heeft daarmee een slechtere performance per mm2 dan GP102. TU-102 is met 754mm2 een monster en die chip haar prestatie per mm2 is ronduit slecht buiten high refresh 4K gaming te noemen. Juist voor die laatste categorie is het hele ray tracing verhaal op het moment vrij zinloos. Voor 4K heb je eerst schaders, clocks en ROP's nodig en dan is de RTX2080Ti een cut down van de volledige chip. Op 1080P waar de extra ray tracing capaciteit wel zal tellen, presteert de kaart in de regel nauwelijks beter dan de RTX2080. Daar lijken low level API's de uitkomt te moeten bieden omdat de kaart simpelweg niet genoeg draw calls kan ontvangen in DX11. Een ander verklaring waarom de RTX1080Ti zo hard wegvalt op lagere resoluties heb ik niet.
Wat ook niet helpt is dat de RT cores een eerste implementatie van ray tracing zijn. Er worden nu al heel wat hoekjes afgesneden in die demo's en dan bestaan er alsnog grote twijfels over framerates bij 1920x1080P. Hogere resoluties kan je wel vergeten dat het enigszins acceptabel zal draaien. De hardware zal ook niet verbeteren waardoor je al snel een zeer interessante, maar uiteindelijk niet functionele technologie koopt. Tegen de tijd dat je serieus ray tracing games krijgt zal blijken dat de huidige hardware het niet goed aankan en je alweer moet upgraden.
Dit is ook een hopeloos "kip-ei" scenario omdat als Nvidia het niet implementeert, developers niet beginnen met ray tracing in games. Mensen die nu een RTX kopen vanwege ray tracing hoeven alleen niet te verwachten dat ze veel plezier gaan belezen van die functionaliteit. Ervoor betalen moeten ze wel.
Alles bij elkaar vind ik deze twee producten denk ik veel meer teleurstellend dan innovatief. Ik kan het gevoel niet afschudden dat Nvidia een generatie te vroeg is met RT en beter de RT cores uit Turing had kunnen halen en de chips veel kleiner had kunnen maken en zich meer had moeten richten op traditionele shader en ROPs prestaties. Die zitten zeker in Turing, maar het zijn gewoon te weinig traditionele shaders om echt een verschil te maken met Pascal.
Dan de prijs. Tja, wat moet ik ervan zeggen? Ik richt me meer op de technologie dan de prijs aangezien ik een van deze kaarten toch nooit ging kopen. Persoonlijk beschouw ik de prijzen als een duidelijk symptoom van een ernstig gebrek aan concurrentie. Als AMD met wat beters was gekomen dan Vega dan hadden we deze prijzen nooit gehad. In dat opzicht neem ik het Nvidia niet eens kwalijk wat ze vragen. Aan de andere kant is de prijs/prestatie van de RTX2080 wel erg teleurstellend te noemen. Het is gewoon niks beter dan een product van anderhalf jaar geleden.
Van de RTX2070 verwacht ik iets meer, of eigenlijk eerder iets minder teleurstelling. Qua prijs zullen die waarschijnlijk rond de €650 uitkomen, misschien iets minder. Qua prestaties zullen ze de GTX1080 waarschijnlijk verslaan en daarmee gaan die een soort van acceptabel zijn. De hoge prijs, de relatief lage prestaties en het lage aantal SM's gaan het alleen moeilijk maken om er een speculatieve maar onherroepelijke TU-107/8 naast te zetten die als mainstream model moet dienen. TU-106 heeft nu 2304 18 SM's en waarschijnlijk komt er nog een cut down versie van deze chip. Ik zie dus eigenlijk niet hoe Nvidia een TU-107/8 kan lanceren zonder RT cores, met meer dan 14 SM's zonder dat ze TU-106 gaan kannibaliseren. Een dergelijke chip zou namelijk waarschijnlijk onder de 300mm2 blijven en dus veel goedkoper zijn. Een 18 SM chip zonder RT cores zal de RTX2070 helemaal kannibaliseren.
Ook de optie van GP104 rebranden zie ik als problematisch. De volle GP104 chip zal waarschijnlijk veel te dicht bij de RTX2070 zitten en veel goedkoper moeten zijn om als mainstream te dienen. De GTX1080 begint nu een beetje bij €500+ en dat is waarschijnlijk al goedkoop genoeg om de RTX2070 te kannibaliseren op prijs/kwaliteit en dan is het ook nog eens een kleinere en goedkopere chip om te maken. Maakt Nvidia die goedkoper dan kannibaliseren ze de RTX1070 echt. Maakt Nvidia de kaarten duurder dan hebben ze geen mainstream aanbod en daar zit nog steeds het volume.
Als laatste wordt wordt met een dergelijke prijsstelling zoals Nvidia nu wil hanteren, RX Vega zowat competitief, zowel prijstechnisch en performance per mm2. Dat is denk ik de meest vernietigende argument dat je kan geven over de RTX lijn. Zeker als Navi zou verschijnen met RX Vega vergelijkbare prestaties, maar een stuk goedkoper. Nvidia heeft dan niks om mee te reageren en kan alleen maar de RTX2070 flink in prijs laten zakken als reactie.
Ik zeg dus Poor Volta Turing.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Optie 3 is alleen leuk als de prijzen onder de €600 zakken voor de goede kaarten uit de TI serie. Zelf kom ik ook tot de conclusie dat optie 4 het beste is, maar het voelt gewoon niet goed om die te kopen voor mij. Toch kan je er op rekenen dat drivers en nieuwe games meer verschil gaan laten zien tussen de 1080Ti en de 2080.laugh schreef op donderdag 20 september 2018 @ 19:24:
Ik snap de frustraties allemaal wel hoor hier. Ik zelf zit ook in hetzelfde bootje. Je hebt eigenlijk nu paar een paar opties ervan uitgaande dat de 2080 TI geen optie is vanwege dat behoorlijke bedrag:
1) je koopt (voorlopig) geen kaart en wacht even af.
2) je koopt een tweedehandse kaart.
3) je koopt een 1080TI die iets goedkoper is dan de 2080.
4) je koopt een 2080.
Optie 1 is zeker de optie voor mensen die al op een 1080 TI zitten, maar voor de andere mensen die wel een upgrade nodig hebben valt deze af. Verder denk ik ook niet dat de prijzen zo sterk gaan veranderen. Je kan blijven wachten en niet kopen, maar dan blijf je ook wachten. Ga er niet vanuit dat de volgende 7nm kaarten ineens keihard in de aanbieding zijn, de kaarten zijn eigenlijk alleen maar duurder geworden.
Optie 2 is voor sommigen misschien wel een goede. Persoonlijk heb ik dat liever niet, je weet immers nooit wat er met de kaart gedaan is en garantie is ook niet altijd beschikbaar.
Optie 3 is wel leuk maar waar gaat dit eigenlijk over. Voor die 100 a 200 euro verschil zit je wel een kaart uit 2016 te kopen in 2018. Ja de performance is vrijwel zelfde, maar dit neemt niet weg dat de 2080 toch wel wat "meer" kan dan de 1080 TI. En ook zal nvidia de komende tijd hierop focussen om nieuwere games ervoor te optimaliseren. Voor mij persoonlijk voelt dit dan als een slechte keuze om voor oude technologie nu te gaan alleen maar om dat bedrag te besparen, maar ieder zijn eigen mening natuurlijk.
Optie 4 Hier ga ik dan dus toch mee met @zion, dat dit hier momenteel de beste keus is. Dit was een ander verhaal geweest als de 1080 TI op 500 zat maar voor een redelijke kaart zoals een MSI Gaming variant betaal je momenteel toch alweer 815, dan kan je net zo goed voor de nieuwe technologie gaan. Met de 2080 heb je tenminste nog kans dat jij mee kan als de technologie gebruikt wordt, met de 1080 TI doe je automatisch al niet mee. En als je dan op dat moment achteraf terug kijkt, dan was die keuze voor die besparing een nog slechtere keuze. Als het niet wordt gebruikt, dan jammer maar dan nog heb je hoogstens die 100 a 200 betaald aan de optimalisaties en voor het gevoel dat je met een nieuw product thuis komt.
Momenteel heb ik een 1070 en ik mag echt niet klagen, maar ik kan wel wat meer power gebruiken voor simracen in VR met ai. Dat is het enige waar mijn pc momenteel moeite mee heeft. Mijn plan was dan ook all in te gaan bij een nieuwe serie kaarten, maar €1300 neerleggen voor een kaart die waarschijnlijk volgend jaar (misschien 2) flink getopt gaat worden? Nah thanks.
En de 2080 had ik zonder twijfel gekocht als het een €750,- max kaart was geweest, maar €899 voelt echt als teveel betalen voor me. Terecht of onterecht het is mijn gevoel. Aan de andere kant als ik het per uur plezier bekijk is het bijna niks
@Beakzz Welkom in NL zal ik zeggen
. Als we de US dollars op de nvidia site zouden om rekenen naar euros dan hebben we de 2080 voor 680 euro, en de 2080 TI voor 1019 euro. Dat voelt dan toch wel veel en beter aan dan al bijna de 1000 betalen voor de 2080.
Tja, maar je kunt ook stellen dat de huidige EU situatie het heeft verpestlaugh schreef op donderdag 20 september 2018 @ 20:10:
@Beakzz Welkom in NL zal ik zeggen. Als we de US dollars op de nvidia site zouden om rekenen naar euros dan hebben we de 2080 voor 680 euro, en de 2080 TI voor 1019 euro. Dat voelt dan toch wel veel en beter aan dan al bijna de 1000 betalen voor de 2080.
USD prijzen zijn zonder BTW, omdat die afhankelijk is van de staat waar je het bestelt.laugh schreef op donderdag 20 september 2018 @ 20:10:
@Beakzz Welkom in NL zal ik zeggen. Als we de US dollars op de nvidia site zouden om rekenen naar euros dan hebben we de 2080 voor 680 euro, en de 2080 TI voor 1019 euro. Dat voelt dan toch wel veel en beter aan dan al bijna de 1000 betalen voor de 2080.
die $799 = 680 euro + btw = 809 (19%) of 822 (21%)
die $1200 = 1020 euro + btw = 1213 (19%) of 1234 (21%)
Bij Alternate is er een GTX 2080 momenteel leverbaar voor 799:
pricewatch: Inno3D GeForce RTX 2080 X2 OC
Diezelfde Inno3D versie van de GTX 2080 Ti staat ook voor 1179 euro als pre-order.
Dus prijzen hoeven niet overdreven veel duurder te zijn dan in de USA ofzo.
[ Voor 25% gewijzigd door SmokingCrop op 20-09-2018 20:36 ]
Ik vind de kaarten veel te duur voor wat ze brengen ook in vergelijking tot de vorige generatie.DaniëlWW2 schreef op donderdag 20 september 2018 @ 19:46:
Een dag later weet ik eigenlijk niet wat ik van Turing moet vinden.![]()
.............
De innovaties zoals DLSS en in mindere mate de Raytracing zijn wel heel erg interessant maar toen ik de die-shots en omvang zag had ik gelijk flinke bedenkingen bij Turing.
Er gaat in verhouding veel die-space naar Tensor en RT cores. Die space die niet heel goed lijkt te renderen en bovendien geen generieke prestaties levert.
We zitten nu met zeer dure kaarten waarbij op launchdate door de reviewers nog niet eens 1 game getest kon worden op DLSS en Raytracing. (Voor het laatste heb je wel een MS windows update nodig maar het zal toch niet zo zijn dat dit voor Nvidia niet beschikbaar is. Misschien zit het al in de fast ring). Eigenlijk gewoon bizar als je ziet hoeveel die-space besteed is, hoeveel geld er gevraagd wordt en hoeveel marketing aan RT besteed is en wordt. Zie ook keynote.
Daarbij zullen naar verwachting de kaarten onder de 2070 geen Tensor en RT cores hebben. Er is dus voor lange tijd maar een kleine groep potentiele gebruikers die zich ook nog moet opbouwen.
Ik had veel liever gezien dat ze dit op 7nm geintroduceerd hadden en dan over de hele lijn. Zelfs 7nm is denk ik nog aan de vroege kant voor hybrid raytracing.
Hopelijk dat we binnenkort toch wat reviews van echte games met RT en DLSS krijgen.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Niet helemaal volgens mij. De BTW zit tussen de 5 en 10%, met de hoogste van Louisiana (10.02%), en dan gaat het aardig tikken bij grote bedragen als deze wordt vergeleken met de 21%.SmokingCrop schreef op donderdag 20 september 2018 @ 20:32:
[...]
USD prijzen zijn zonder BTW, omdat die afhankelijk is van de staat waar je het bestelt.
die $799 = 680 euro + btw = 809 (19%) of 822 (21%)
die $1200 = 1020 euro + btw = 1213 (19%) of 1234 (21%)
Bij Alternate is er een GTX 2080 momenteel leverbaar voor 799:
pricewatch: Inno3D GeForce RTX 2080 X2 OC
Diezelfde Inno3D versie van de GTX 2080 Ti staat ook voor 1179 euro als pre-order.
Dus prijzen hoeven niet overdreven veel duurder te zijn dan in de USA ofzo.
Die $1200 = 1020 euro + 10% btw = 1030. Dit is dan meteen een heel ander bedrag vergeleken met de 1213 die jij aan gaf
Tsja, dat is echter niet de schuld van de bedrijven, maar van de NL/BE overheid die zoveel belastingen erop zetlaugh schreef op donderdag 20 september 2018 @ 20:59:
[...]
Niet helemaal volgens mij. De BTW zit tussen de 5 en 10%, met de hoogste van Louisiana (10.02%), en dan gaat het aardig tikken bij grote bedragen als deze wordt vergeleken met de 21%.
Die $1200 = 1020 euro + 10% btw = 1030. Dit is dan meteen een heel ander bedrag vergeleken met de 1213 die jij aan gaf. De 1030 euro is dan toch net iets netter dan de 1259 euro voor FE bij ons hier. Maarja, hier hebben we natuurlijk niks aan. Het is of we kopen het, of we kopen het niet, maar wel leuk om even te zien hoeveel dit nou eigenlijk scheelt.
Verhuizen is dus de boodschap
[ Voor 6% gewijzigd door SmokingCrop op 20-09-2018 21:10 ]
Tja zoals Anand Lal Shimpi wel eens zei: "There's no such thing as a bad product, only a bad price."Help!!!! schreef op donderdag 20 september 2018 @ 20:40:
[...]
Ik vind de kaarten veel te duur voor wat ze brengen ook in vergelijking tot de vorige generatie.
De innovaties zoals DLSS en in mindere mate de Raytracing zijn wel heel erg interessant maar toen ik de die-shots en omvang zag had ik gelijk flinke bedenkingen bij Turing.
Er gaat in verhouding veel die-space naar Tensor en RT cores. Die space die niet heel goed lijkt te renderen en bovendien geen generieke prestaties levert.
We zitten nu met zeer dure kaarten waarbij op launchdate door de reviewers nog niet eens 1 game getest kon worden op DLSS en Raytracing. (Voor het laatste heb je wel een MS windows update nodig maar het zal toch niet zo zijn dat dit voor Nvidia niet beschikbaar is. Misschien zit het al in de fast ring). Eigenlijk gewoon bizar als je ziet hoeveel die-space besteed is, hoeveel geld er gevraagd wordt en hoeveel marketing aan RT besteed is en wordt. Zie ook keynote.
Daarbij zullen naar verwachting de kaarten onder de 2070 geen Tensor en RT cores hebben. Er is dus voor lange tijd maar een kleine groep potentiele gebruikers die zich ook nog moet opbouwen.
Ik had veel liever gezien dat ze dit op 7nm geintroduceerd hadden en dan over de hele lijn. Zelfs 7nm is denk ik nog aan de vroege kant voor hybrid raytracing.
Hopelijk dat we binnenkort toch wat reviews van echte games met RT en DLSS krijgen.
Verder heb ik nu al zo vaak aangegeven dat mijn interesse voornamelijk op de techniek ligt dat ik geen zin meer heb dit nog verder te herhalen.
Ik kijk dus eigenlijk niet zo naar de prijs omdat ik persoonlijk geen interesse heb er eentje te kopen. Natuurlijk vind ik de prijzen bezopen, maar met die constatering kan je weinig. Heb je over een aantal maanden een nieuwe videokaart nodig kan je kiezen tussen dit, Vega of Polaris.
Ik betwijfel ook of 7nm het fundamentele probleem van deze lijn zou oplossen. Dat zou ik willen definiëren te vroeg en te veel op ray tracing en te weinig op traditionele shader en ROPs performance waardoor de concurrent kans krijgt om in te lopen.
Verder is 7nm is eigenlijk een beetje "eng" als productieproces. De kosten per tape-out was ik laats op ingegaan in het AMD, en die zijn niet mals. Turing bestaat nu al uit drie onthulde chips en daar komen er waarschijnlijk nog een paar bij. Bij elkaar zou een 7nm tape-out van die drie chips je hoogstwaarschijnlijk al meer dan $1 miljard kosten. Dat is dan zonder garantie dat de chips geen absoluut waardeloze yields hebben. Ga je super "smerig" inschatten (dus ervan uitgaan dat je 100% schaling krijgt die je nooit zal hebben) hoe groot die TU-102 zou zijn op 7nm, dan kom je alsnog over de 550mm2 uit. TU-104 zal dan 400mm2+ zijn. Dat zal te produceren zijn, op termijn, maar denk ik niet dit jaar zonder serieuze problemen. Ik vermoed zo dat EUV machines hier behoorlijk helpen.
Dan heb je dus geen product terwijl iedereen die een Pascal wil hebben, nu wel een Pascal heeft. Met uitstel stagneren je verkopen alleen maar. Moeten die miners niet ook nog hun inventaris gaan dumpen, want dan heb je helemaal problemen. Nee, ik begrijp Nvidia hun keuze wel voor deze monsterlijke 16/12nm chips. Dat is bekent terrein en de kosten/baten alsmede de risicoanalyse zullen beter zijn geweest.
Vervolgens negeer je nu eigenlijk wel het stuk van mijn reactie dat ik zelf veel interessanter vond dan de prijs. Omdat Nvidia geen stap zet in prijs/prestaties, en omdat de chips zo enorm zijn dat er weinig ruimte is voor prijsdalingen zonder fors in te leveren op omzet en winstmarges, geeft Nvidia AMD alle kans om bij te blijven met subpar producten. Dat is denk ik het grote falen van GeForce 20. Ze hebben zichzelf ook zo in een hoek gemanoeuvreerd dat ze hun eigen lijn kannibaliseren als ze met een fatsoenlijke mainstream product komen zonder RT cores. Dat vind ik ook vanuit technisch oogpunt veel interessanter.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Eerhm, 1200=1020 + 10% btw = € 1030laugh schreef op donderdag 20 september 2018 @ 20:59:
[...]
Niet helemaal volgens mij. De BTW zit tussen de 5 en 10%, met de hoogste van Louisiana (10.02%), en dan gaat het aardig tikken bij grote bedragen als deze wordt vergeleken met de 21%.
Die $1200 = 1020 euro + 10% btw = 1030.
*does not compute*
1200=1020*110%= € 1122,-
Nog steeds een verschil, maar een stuk kleiner
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Zelf ben ik nog wel benieuwd wat DLSS gaat toevoegen in games.
Ik denk dat daar ook echt nog wel wat op gewonnen gaat worden.
En ik heb nog geen RTX 2080 ti in sli voorbij zien komen.
Toch wel nieuwsgierig wat de nieuwe bridge doet en wat voor cijfers eruit komen
Ik denk dat daar ook echt nog wel wat op gewonnen gaat worden.
En ik heb nog geen RTX 2080 ti in sli voorbij zien komen.
Toch wel nieuwsgierig wat de nieuwe bridge doet en wat voor cijfers eruit komen
Intel i7 8700K / Z370 Maximus X Code / 16GB G-SKILL 3200 C14 / ASUS Strix 3090 / Lian Li O11 Dynamic / NZXT X62 / Samsung 970 EVO 500GB
Is dlss niet enorm nutteloos als je 4k gamed? No need for AA is mijn ervaring?
Niet iedereen gamed op 4K (1440p high FPS wordt meer gebruikt) en zelfs op 4K heb ik toch echt graag AA...TweakerVincent schreef op donderdag 20 september 2018 @ 23:12:
Is dlss niet enorm nutteloos als je 4k gamed? No need for AA is mijn ervaring?
Dat je prijs niet kan dalen zonder marge te verliezen volgt eigenlijk al uit de definitie van marge. Nvidia heeft echter enorme marges en er zal dus ongetwijfeld ruimte genoeg zijn. Q2 2019 kunnen we zien of de marges post-launch zijn gedaald maar met de huidige prijzen zal dat wel meevallen… Wie geen ruimte heeft is AMD, die verkopen waarschijnlijk al videokaarten zonder winst.DaniëlWW2 schreef op donderdag 20 september 2018 @ 21:50:
[...]
Vervolgens negeer je nu eigenlijk wel het stuk van mijn reactie dat ik zelf veel interessanter vond dan de prijs. Omdat Nvidia geen stap zet in prijs/prestaties, en omdat de chips zo enorm zijn dat er weinig ruimte is voor prijsdalingen zonder fors in te leveren op omzet en winstmarges, geeft Nvidia AMD alle kans om bij te blijven met subpar producten. Dat is denk ik het grote falen van GeForce 20. Ze hebben zichzelf ook zo in een hoek gemanoeuvreerd dat ze hun eigen lijn kannibaliseren als ze met een fatsoenlijke mainstream product komen zonder RT cores. Dat vind ik ook vanuit technisch oogpunt veel interessanter.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Natuurlijk kan de prijs wel dalen zonder marge te verliezen.sdk1985 schreef op vrijdag 21 september 2018 @ 00:31:
[...]
Dat je prijs niet kan dalen zonder marge te verliezen volgt eigenlijk al uit de definitie van marge.
X kost 100 euro en wordt verkocht voor 200 euro.
Y kost 50 euro en wordt verkocht voor 151 euro.
Y en X zijn qua wat ze bieden verder gelijk aan elkaar. Alleen kostprijs en verkoopprijs verschillen.
Ik ben nu wel erg benieuwd naar jouw definitie van marge.
Dan waren ze waarschijnlijk allang gestopt. Enfin, volgens jou verkopen ze waarschijnlijk al sinds 2006 videokaarten zonder winst.sdk1985 schreef op vrijdag 21 september 2018 @ 00:31:
Wie geen ruimte heeft is AMD, die verkopen waarschijnlijk al videokaarten zonder winst.
Met de huidige prijzen draaien ze waarschijnlijk wel winst. Kijk anders even naar de MSRP. Dan kan ik dat "zonder winst" verkopen niet rijmen met de te korten en de ook daardoor gestegen prijzen. Ook als ik daar de gestegen geheugenprijzen bij in acht neem.
[ Voor 37% gewijzigd door madmaxnl op 21-09-2018 10:39 ]
Jij verwart het soort marketing dat er nu gaande is met een enkel demo'tje van iemand (MS of een game dev die iets moois in een game had). Want dat is alles wat dingen zoals AA, AF, Tessellation, Tiled Resources ooit hebben gehad qua "marketing". Dat was tech marketing, dit is allemaal sales marketing.Verwijderd schreef op donderdag 20 september 2018 @ 16:09:
En hoe weten we dat het er mooier uitziet ? dankzij marketing....
en zonder eerst marketing te doen weten we niet hoe het er potentieel uitziet, kip en ei verhaal.
[...]
dit bewijst alleen maar dat marketing juist werkt, mensen weten niet hoe het technisch in elkaar steekt maar wel hoe het eind resultaat er uit ziet, dankzij marketing..... en kopen dan vervolgens een kaart die deze snufjes ondersteunen.
Zeggen dat deze dingen geen serieuze marketing hebben gehad is ontkennen dat Demo's en presentaties de afgelopen decenia zijn gegeven waarbij deze features hebben gepresenteerd.
Bij al die dingen hadden games zeker ook demo's waarbij bepaalde features van hun engine werden uitgelicht. Dat is nu nog steeds zo. Wat géén van al deze dingen heeft gehad is een hele marketing campagne rondom één enkele feature - en al helemaal geen marketing die min of meer buiten de games om gaat en direct op de consument is gericht.
RT(X) wordt als revolutie gepresenteerd, in plaats van als rendering techniek die games kunnen gebruiken. Zelfs PhysX en GameWorks zijn niet zo overdreven in de markt gezet.
Dat krijg je door het simpelweg in GPU's in te bakken. Niemand kocht ooit de 9700 omdat het ding zo goed was met AA. Niemand kocht GPU's omdat hun AF zo goed was. Niemand heeft een GPU gekocht omdat deze zo veel beter was met tessellation. Geen hond heeft G80 gekocht omdat deze unified shaders had. Men kocht GPU's omdat ze snel en betaalbaar waren, punt. De G80 GTS varianten en G92 (8800 GT) zijn de producten waar het volume zat, niet de Ultra's/GTX. De 9700 verkocht ook beter dan de Pro. hetzelfde geldt voor de 460/560, 750 Ti, 680/770, 960-970, 1050-1070. Dát zijn de producten die de markt penetreren, niet de halo-producten.En hoe krijg je markt penetratie......of alles gratis weg geven of goeie marketing
Markt penetratie begint bij interesse van devs. Die interesse komt enerzijds uit het beschikbaar zijn van een stabiele API, anderzijds uit de aard van de techniek. Als de techniek een game mooier of sneller kan maken, zal er interesse zijn. Heb je dat, dan is het aan GPU fabrikanten om de hardware simpelweg in te bakken.
Dat brengt me dan ook bij een ander verschil: alle andere nieuwe technologie de afgelopen 20 jaar zat al enkele jaren in GPU's voordat games er vol op in sprongen. Waarom? Omdat die technologie markt penetratie moet krijgen en dat lukt niet met GPU's die zo duur zijn. Die technologie moet het eerst zover schoppen dat het in de GPU zit en vervolgens een jaar, twee jaar, doorontwikkeld worden om sneller en goedkoper te worden zodat het in de low- tot midrange GPU's zit en het grootste deel van de markt er dus toegang toe heeft.
MSAA bestond al eind jaren 90 maar brak pas echt door in 2001/2002. En zoals gezegd werd het met R300 een standaard gegeven dankzij hoe snel het toen kon.
Er zit gewoon een groot verschil tussen hoe AMD/ATI en Nvidia dat doen. ATI heeft dat nooit met veel bombarie gedaan en toch zijn die dingen doorgebroken. Vergeet ook niet dat je tessellation en tiled resources aan hen te danken hebtZie AMD die leuke features onwikkelt maar deze niet goed weet te marketen en te verkopen aan consumenten. De enige vorm van marketing die ze dan vervolgens moeten omarmen is het openstandaard/source model om nog enige marktpenetratie te bewerkstelligen..
En in het begin van het DX9 tijdperk was het toch echt ATI die de dienst uitmaakte. Helaas wordt dat vaak vergeten.
Deze producten gaan sowieso geen markt penetratie bewerkstelligen, ongeacht hoe veel marketing er achter zit. De 2080 is al onbetaalbaar voor velen, laat staan de Ti. Iets met een druppel en een gloeiende plaat. Dat is geen markt penetratie.Laat ik het zo stellen, Hoe verwacht jij ooit dat realtime Raytracing van de grond komt wanneer het ten koste gaat van "traditionele prestaties" /prijs van het product ?
Er kunnen immer potentieel minder CUDA Cores op de "die" want er komen RT cores bij.
Zonder marketing om adoptie te bewerkstelligen gaat dit niet van de grond komen.
Nogmaals: alle technieken (en nog vele anderen) die ik eerder heb genoemd hadden al jaren hardware ingebakken voordat het allemaal echt door brak. Dat kostte toen ook gewoon die-space. Die jaren zijn nodig om de hardware te verfijnen en goedkoper te maken, zodat het bij de consument komt. Nvidia kan dit niet afdwingen, tenzij ze massaal devs gaan forceren specifiek RTX te gebruiken. Heb je het begin van het DX9 tijdperk niet mee gemaakt? ATI had toen de overmacht: zij hadden de render technieken, zij hadden de hardware, zij hadden het markt aandeel. Met DX9 konden heel veel leuke dingen (zie HL2 DX8 vs DX9). En toch begon dat pas halverwege 2005 een beetje serieus te worden (HL2 was een vroege uitzondering) doordat Nvidia zo ver achter lag. DX9 kon je gewoon niet draaien op NV3x en NV4x (begin 2004 voor Ultra, zomer voor de GT) had tijd nodig om verkocht te worden. Dan heb je het over een jaar of 3 waarin de API en hardware bestonden maar niet breed gebruikt werden - en met een generatie producten die verdomd goed verkochten. R300 ging heel lekker en NV4x werd goedkoop genoeg in de markt gezet om snel hun fout met NV3x te corrigeren. Dat is waarom rendering technieken toen vooruit gingen, niet "omdat het bestond" en er een deel van de markt (serieuze) toegang toe had.
@Werelds mooi verwoord, niets aan toe te voegen, behalve dan dat het lijkt alsof sommigen het niet willen horen en zien. Dat snap ik ook wel, mensen hebben hier jaren op zitten wachten en dan komt er opeens een 'RTX' uit de hoge hoed getoverd en niet de gedroomde prijs/perf knaller.. dus ik snap de teleurstelling hier en daar wel en misschien zelfs wel borderline ongeloof.
Wat ik me wel afvraag, blijft dit zo de komende generaties, want dan is een GPU straks net zo duur als 2 high end gaming PC's. Het kán eigenlijk niet, ik denk dat er nu toch echt met de portemonnee gestemd gaat worden en dat de verkoop nog wel eens tegen kan vallen.
Wat ik me wel afvraag, blijft dit zo de komende generaties, want dan is een GPU straks net zo duur als 2 high end gaming PC's. Het kán eigenlijk niet, ik denk dat er nu toch echt met de portemonnee gestemd gaat worden en dat de verkoop nog wel eens tegen kan vallen.
Om het maar even met een Engelse uitdrukking te verwoorden: the ball's in AMD's court now.Lord_Dain schreef op vrijdag 21 september 2018 @ 12:20:
@Werelds mooi verwoord, niets aan toe te voegen, behalve dan dat het lijkt alsof sommigen het niet willen horen en zien. Dat snap ik ook wel, mensen hebben hier jaren op zitten wachten en dan komt er opeens een 'RTX' uit de hoge hoed getoverd en niet de gedroomde prijs/perf knaller.. dus ik snap de teleurstelling hier en daar wel en misschien zelfs wel borderline ongeloof.
Wat ik me wel afvraag, blijft dit zo de komende generaties, want dan is een GPU straks net zo duur als 2 high end gaming PC's. Het kán eigenlijk niet, ik denk dat er nu toch echt met de portemonnee gestemd gaat worden en dat de verkoop nog wel eens tegen kan vallen.
Het is aan AMD te antwoorden. Zij moeten eerst met een DXR implementatie komen die met Nvidia mee kan - of dat met ASIC's gebeurt of op een andere manier doet er niet toe. Ik laat dit heel bewust open, omdat AMD verdomd veel met hun SP's kan waar Nvidia aparte ALU's voor in bakt. AMD doet gewoon alles van INT4 tot INT32 en FP16/FP32 op dezelfde ALU's, waar Nvidia aparte INT ALU's in bakt. Het zou me niets verbazen als zij met een SP komen die ze ook kunnen gebruiken om RT te versnellen; of dat ze een manier uitvogelen om "gewone" SP's ook voor 4x4 matrix rekenwerk te gebruiken op dezelfde snelheid als een Tensor core. Het grote verschil tussen GCN en Nvidia's architectuur (tot aan Volta/Turing, zie hieronder) zit hem in de flexibiliteit. GCN kan veel, héél veel, met de SP's. Nvidia heeft veel meer dedicated hardware die slechts enkele functies doen - die doen ze dan ook wel heel goed, waar AMD vervolgens wat meer moeite heeft met het allemaal te verdelen omdat het op tig manieren kan.
De volgende stap is producten op de markt brengen. En reken maar dat AMD niet meer gaat rekenen voor een GPU dan sommige mensen aan een auto uitgeven. Zij zullen denk ik gewoon op de normale high-end prijs gaan zitten (zo'n €600-700), waarna Nvidia zal antwoorden. Allemaal toekomst praat voor volgend jaar op z'n vroegst denk ik.
Turing's aansturing zit wel anders in elkaar dan Maxwell/Pascal (ik ga dat gewoon Maxcal noemen
Wat overigens enkele eerdere opmerkingen betreft omtrent de ongelijke performance sprongen in sommige games: dat is waar Nvidia's nieuwe ALU's hun werk doen. Wolfenstein 2's workload is wat diverser dan gemiddeld (FP16 bijvoorbeeld), dus Nvidia kan daar goed gebruik maken van hun nieuwe INT en FP16 capaciteiten.
[ Voor 5% gewijzigd door Werelds op 21-09-2018 12:36 ]
Beetje de inverse van zeg 'n jaar of 8-10 geleden bijna? Al is AMD nu wel breder inzetbaar dan NVIDIA in die tijd, maar dat acht ik ook deels 'n gevolg van de algehele technische voortgang sindsdien.Werelds schreef op vrijdag 21 september 2018 @ 12:34:
[...]
Het grote verschil tussen GCN en Nvidia's architectuur (tot aan Volta/Turing, zie hieronder) zit hem in de flexibiliteit. GCN kan veel, héél veel, met de SP's. Nvidia heeft veel meer dedicated hardware die slechts enkele functies doen - die doen ze dan ook wel heel goed, waar AMD vervolgens wat meer moeite heeft met het allemaal te verdelen omdat het op tig manieren kan.
Dat is denk ik geen slechte vergelijking. TeraScale 1 in de HD2000 serie, dus laat in 2007 ergens? Het verschil is wel minder extreem, Nvidia is echt niet terug naar pixel/vertex shader pipelines gegaan, maar het zijn ook niet puur unified shaders meerPaprika schreef op vrijdag 21 september 2018 @ 12:37:
[...]
Beetje de inverse van zeg 'n jaar of 8-10 geleden bijna? Al is AMD nu wel breder inzetbaar dan NVIDIA in die tijd, maar dat acht ik ook deels 'n gevolg van de algehele technische voortgang sindsdien.
Verwijderd
AA, AF, en Tiled resources hadden ook in vele mate minder impact op de beeldkwaliteit destijds dan dat RTX en tesselation dat nu doen.Werelds schreef op vrijdag 21 september 2018 @ 12:08:
[...]
Jij verwart het soort marketing dat er nu gaande is met een enkel demo'tje van iemand (MS of een game dev die iets moois in een game had). Want dat is alles wat dingen zoals AA, AF, Tessellation, Tiled Resources ooit hebben gehad qua "marketing". Dat was tech marketing, dit is allemaal sales marketing.
Ik wou ook net aanhalen dat Nvidia juist tesselation veel gepromoot heeft, zie gameworks/hariworks dus je kan niet zeggen dat tesselation geen grote marketing heeft gehad. Gameworks is immers 1 grote marketing campagne.
En dat is niet terrecht ? waar eerder hebben we realtime Raytracing in games gezien voor een product wat nu in de schappen ligt ?Bij al die dingen hadden games zeker ook demo's waarbij bepaalde features van hun engine werden uitgelicht. Dat is nu nog steeds zo. Wat géén van al deze dingen heeft gehad is een hele marketing campagne rondom één enkele feature - en al helemaal geen marketing die min of meer buiten de games om gaat en direct op de consument is gericht.
RT(X) wordt als revolutie gepresenteerd, in plaats van als rendering techniek die games kunnen gebruiken. Zelfs PhysX en GameWorks zijn niet zo overdreven in de markt gezet.
Zon grote wijziging in de renderpipeline gebeurt niet vaak dus er is zeker wel sprake van een revolutie. Niet alleen die van Raytracing maar ook die van Deep learning.
Hier ben ik het fundementeel niet mee eens, mensen kopen producten om dat ze beter zijn, beter kan dus in het geval van grafische kaarten beteken dat ze sneller zijn of een mooier beeld produceren. Je cherrypicked nu 1 van die 2 en doet nu net alsof er geen consumenten zijn die grafische kaarten kopen vanwege nieuwe features.[...]
Dat krijg je door het simpelweg in GPU's in te bakken. Niemand kocht ooit de 9700 omdat het ding zo goed was met AA. Niemand kocht GPU's omdat hun AF zo goed was. Niemand heeft een GPU gekocht omdat deze zo veel beter was met tessellation. Geen hond heeft G80 gekocht omdat deze unified shaders had. Men kocht GPU's omdat ze snel en betaalbaar waren, punt. De G80 GTS varianten en G92 (8800 GT) zijn de producten waar het volume zat, niet de Ultra's/GTX. De 9700 verkocht ook beter dan de Pro. hetzelfde geldt voor de 460/560, 750 Ti, 680/770, 960-970, 1050-1070. Dát zijn de producten die de markt penetreren, niet de halo-producten.
Zonder de hardware ervoor hebben die devs niks om het op te developen en waarom zouden ze intresse hebben in iets wat 99% van de gamers niet heeft.Markt penetratie begint bij interesse van devs. Die interesse komt enerzijds uit het beschikbaar zijn van een stabiele API, anderzijds uit de aard van de techniek. Als de techniek een game mooier of sneller kan maken, zal er interesse zijn. Heb je dat, dan is het aan GPU fabrikanten om de hardware simpelweg in te bakken.
Marktpenetratie hoeft dus niet te bgeinnen bij Devs, dit heeft Nvidia ook al meerder malen bewezen door middel van gameworks waarbij ze niet wachten op de gratie van developers.
Dit bewijst alleen maar mijn hele argument dat marketing Cruciaal is voor Nvidia om adoptie te bewerkstelligen.Dat brengt me dan ook bij een ander verschil: alle andere nieuwe technologie de afgelopen 20 jaar zat al enkele jaren in GPU's voordat games er vol op in sprongen. Waarom? Omdat die technologie markt penetratie moet krijgen en dat lukt niet met GPU's die zo duur zijn. Die technologie moet het eerst zover schoppen dat het in de GPU zit en vervolgens een jaar, twee jaar, doorontwikkeld worden om sneller en goedkoper te worden zodat het in de low- tot midrange GPU's zit en het grootste deel van de markt er dus toegang toe heeft.
MSAA bestond al eind jaren 90 maar brak pas echt door in 2001/2002. En zoals gezegd werd het met R300 een standaard gegeven dankzij hoe snel het toen kon.
[...]
Er zit gewoon een groot verschil tussen hoe AMD/ATI en Nvidia dat doen. ATI heeft dat nooit met veel bombarie gedaan en toch zijn die dingen doorgebroken. Vergeet ook niet dat je tessellation en tiled resources aan hen te danken hebt
En in het begin van het DX9 tijdperk was het toch echt ATI die de dienst uitmaakte. Helaas wordt dat vaak vergeten.
[...]
Deze producten gaan sowieso geen markt penetratie bewerkstelligen, ongeacht hoe veel marketing er achter zit. De 2080 is al onbetaalbaar voor velen, laat staan de Ti. Iets met een druppel en een gloeiende plaat. Dat is geen markt penetratie.
ik quote mijzelf maar weer even.
Je bent het er dus mee eens dat Marketing voor nvidia nu de enige manier is om dit van de grond te krijgen ?Ik mag hopen dat je inziet dat die marketing juist cruciaal is voor adoptie. Raytracing zegt de meeste mensen niet zoveel, veel gamers die zon kaart kopen hebben zowiezo geen idee bij de technieken. Hoe wil je ze dan laten overstappen op een een render techniek die in hun ogen bijna hetzelfde doet maar velen malen zwaarder is. Tevens ben ik ook van mening dan volledig geraytraced scenes in games helemaal niet gewenst is. Je kan juist het beste van beide werelden pakken en deze hybride manier van renderen doorzetten.
Die marketing moet je als toch persoon door heen prikken maar het is echt wel nodig willen we raytracing mainstream laten worden.
Vroeger was de markt heel anders, toen was er nog concurrentie en kreeg je nieuwe features er "gratis" bij en was dat juist een sellingpoint om niet voor de concurrent zijn kaart te gaan. Nu mag je daar extra voor betalen.Nogmaals: alle technieken (en nog vele anderen) die ik eerder heb genoemd hadden al jaren hardware ingebakken voordat het allemaal echt door brak. Dat kostte toen ook gewoon die-space. Die jaren zijn nodig om de hardware te verfijnen en goedkoper te maken, zodat het bij de consument komt. Nvidia kan dit niet afdwingen, tenzij ze massaal devs gaan forceren specifiek RTX te gebruiken. Heb je het begin van het DX9 tijdperk niet mee gemaakt? ATI had toen de overmacht: zij hadden de render technieken, zij hadden de hardware, zij hadden het markt aandeel. Met DX9 konden heel veel leuke dingen (zie HL2 DX8 vs DX9). En toch begon dat pas halverwege 2005 een beetje serieus te worden (HL2 was een vroege uitzondering) doordat Nvidia zo ver achter lag. DX9 kon je gewoon niet draaien op NV3x en NV4x (begin 2004 voor Ultra, zomer voor de GT) had tijd nodig om verkocht te worden. Dan heb je het over een jaar of 3 waarin de API en hardware bestonden maar niet breed gebruikt werden - en met een generatie producten die verdomd goed verkochten. R300 ging heel lekker en NV4x werd goedkoop genoeg in de markt gezet om snel hun fout met NV3x te corrigeren. Dat is waarom rendering technieken toen vooruit gingen, niet "omdat het bestond" en er een deel van de markt (serieuze) toegang toe had.
Verder blijf ik erbij dat Raytracing moeilijk van de grond gaat komen zolang het ten koste gaat van rasterization performance en de prijs van de GPU.
Ik kan mij niet herinneren dan AA/AF en tile rendering 25% van de "die" in beslag namen en 35% duurder werden dus je redenatie dat deze situatie vergelijkbaar is met die van toen loopt nogal scheef in mijn ogen.
Dus zoals ik al zei heeft Nvidia 2 keuzes om markt penetratie te bewerkstelligen, of (de tech) gratis weg geven (RT cores voor de gehele linie zonder de extra kosten) of Marketing.
Daar ben ik het absoluut niet met je eens.Verwijderd schreef op vrijdag 21 september 2018 @ 12:57:
[...]
AA, AF, en Tiled resources hadden ook in vele mate minder impact op de beeldkwaliteit destijds dan dat RTX en tesselation dat nu doen.

Je vergeet dat in de tijd dat AA populair werd we allemaal nog op lage resoluties zaten te werken van 800x600-1280x1024. Op die resolutie is AA veel beter zichtbaar dan op de huidige schermen met een hogere DPI.
Tiled Resources (megatextures) zul je visueel misschien niet snel zien. Tot je gaat zien dat er veel minder herhaling in textures zitten.
In de tijd dat AA en AF uitkwamen heeft het volgens mij veel meer impact gehad dan RT nu heeft. Een heleboel effecten waarvoor Nvidia RT nu gebruikt zijn behoorlijk goed te faken, het kost misschien wat meer werk voor de developer maar het kan wel. Dingen zoals soft shadows, reflecties, en global illumation zijn prima te faken dat zat al in de eerste Crysis.
Juist AA en AF zijn niet te faken.
Het stuk over tesselation, de hardware was er al 10 jaar voordat het populair werd pas toen Nvidia er beter in was dan AMD gingen ze het marketen; met de meest foute implementaties (Crysis 2).
Oeioeioei. AA en AF minder impact op beeldkwaliteit toen dan RT nu? AF was juist een hele grote sprong omdat textures nu ineens ook scherp waren buiten die 3 meter voor je. AA spreekt voor zich, lijkt me.Verwijderd schreef op vrijdag 21 september 2018 @ 12:57:
[...]
AA, AF, en Tiled resources hadden ook in vele mate minder impact op de beeldkwaliteit destijds dan dat RTX en tesselation dat nu doen.
En vooral als ik kijk naar wat Metro met RT doet, kan ik niet zeggen dat het zo idioot veel beter uit ziet. Reflecties in BF V zijn leuk maar om nu te stellen dat dat veel meer impact heeft dan AF 15+ jaar geleden? Nee, sorry. In beide gevallen ga je van blurry mess naar (relatief) scherp beeld. En dat was toen ook echt wel een dingetje.
Nvidia gebruikt tessellation in verschillende delen van hun SDK's, maar nooit is tessellation er door hen uitgepikt om te promoten. Zelfs weinig games hebben er echt op gehamerd, hoewel heel veel games het weldegelijk gebruiken.Ik wou ook net aanhalen dat Nvidia juist tesselation veel gepromoot heeft, zie gameworks/hariworks dus je kan niet zeggen dat tesselation geen grote marketing heeft gehad. Gameworks is immers 1 grote marketing campagne.
Je bedoelt zoiets als de revolutie die we met DX9 of unified shaders hadden?En dat is niet terrecht ? waar eerder hebben we realtime Raytracing in games gezien voor een product wat nu in de schappen ligt ?
Zon grote wijziging in de renderpipeline gebeurt niet vaak dus er is zeker wel sprake van een revolutie. Niet alleen die van Raytracing maar ook die van Deep learning.
En nee, het is geen revolutie. Een deel van de render pipeline wordt gewijzigd. Niet alles kán via RT, omdat de hardware het nog niet trekt. Met DX9 gingen wel veel engines volledig op de schop met écht nieuwe render pipelines; en met unified shaders al helemaal, want toen werd "deferred" ineens het sleutelwoord.
Dat is nu nog niet aan de orde. Slechts een klein deel van de pipelines krijgt nu een alternatieve implementatie; kan ook niet anders, want de markt is er nog niet klaar voor.
Die zijn er ook nauwelijks. Heb jij iemand een 7970 zien kopen omdat die Partially Resident Textures, beter bekend als Tiled Resources, had? Of een 5870/480 voor tessellation? Of een 9700 omdat die in theorie HDR lighting kon doen? We kochten die dingen omdat ze gewoon idioot snel waren. In de praktijk zag je die technieken namelijk nog niet en tegen de tijd dat ze wel gemeengoed werden, stond de volgende generatie al te trappelen met hogere kloksnelheden, kleinere chips en optimalisaties in de hardware.Hier ben ik het fundementeel niet mee eens, mensen kopen producten om dat ze beter zijn, beter kan dus in het geval van grafische kaarten beteken dat ze sneller zijn of een mooier beeld produceren. Je cherrypicked nu 1 van die 2 en doet nu net alsof er geen consumenten zijn die grafische kaarten kopen vanwege nieuwe features.
Wat ik wel zie is grapjurken die beweren dat ze bijvoorbeeld een Titan X(p) voor "pro doeleinden" kopen, ook al hebben die GPU's geen reet meer dan de rest van de GeForce lijn behalve geheugen. Geen FP64 performance, geen massaal aantal display outputs, geen single-slot versies, geen ECC. Alleen wat meer geheugen. En nee, dat was niet genoeg om "HPC toepassingen te ontwikkelen" of iets in die trant, daarvoor heb je meer nodig. Voor een PoC heb je geen Titan nodig.
Ik geef het op, want je wilt het niet inzien.Zonder de hardware ervoor hebben die devs niks om het op te developen en waarom zouden ze intresse hebben in iets wat 99% van de gamers niet heeft.
Over 12 maanden heeft 99% van de gamers nog steeds geen toegang tot DXR of RT. Deze producten zorgen niet voor markt penetratie. Daar zal de 3060 (of hoe deze ook gaat heten) en AMD's tegenhanger pas voor zorgen - als dat al zo snel gebeurt.
Wat de rest van je post betreft: lees de mijne eens goed. Vroeger ging je juist niet voor een product omdat die een feature had wat de concurrent niet had. Je ging voor het product omdat je meer waar voor je geld kreeg. En dat lag nooit aan de features, dat lag aan de prestaties en de prijs. Want je wist dat de concurrent diezelfde feature binnen enkele maanden ook wel had als dat nog niet zo was. Het enige wat er qua features wel toe deed, waren de prestaties van die features.
De enige feature die ooit echt invloed heeft gehad op het wel of niet verkopen van een product was DirectX. Het gebrek aan ondersteuning daarvan door 3DFX is grotendeels hun ondergang geweest. Zelfs unified shaders waren niet de reden dat G80 zo hard ging. Het ding was gewoon bloedsnel, klaar. Of dat nu dankzij of ondanks die unified shaders was maakte geen hond iets uit.
Alternate heeft er nu eentje van Gigabyte op voorraad, voor minder dan € 900:Paprika schreef op woensdag 19 september 2018 @ 21:04:
[...]
Belachelijke prijs gezien de FE modellen...
https://www.alternate.nl/html/product/1477036
Nog steeds prijzig, maar wel beter dan die Asus van € 949.
Ooit gehoord van cetris paribus?madmaxnl schreef op vrijdag 21 september 2018 @ 08:51:
[...]
Natuurlijk kan de prijs wel dalen zonder marge te verliezen.
X kost 100 euro en wordt verkocht voor 200 euro.
Y kost 50 euro en wordt verkocht voor 151 euro.
Y en X zijn qua wat ze bieden verder gelijk aan elkaar. Alleen kostprijs en verkoopprijs verschillen.
Ik ben nu wel erg benieuwd naar jouw definitie van marge.
Zit hetgeen ik post je nu zo dwars dat je moet grijpen naar stijlfouten om je punt te maken?Dan waren ze waarschijnlijk allang gestopt. Enfin, volgens jou verkopen ze waarschijnlijk al sinds 2006 videokaarten zonder winst.
Met de huidige prijzen draaien ze waarschijnlijk wel winst. Kijk anders even naar de MSRP. Dan kan ik dat "zonder winst" verkopen niet rijmen met de te korten en de ook daardoor gestegen prijzen. Ook als ik daar de gestegen geheugenprijzen bij in acht neem.
De cijfers van Ati in de eerste jaren staan netjes in de jaarverslagen. Zo werd er in 2006 een operationeel verlies van 33 miljoen geleden op een omzet van 273 miljoen. In 2007 was het 100 verlies op 903 omzet. Pas in 2008 werd voor het eerst 'winst' gemaakt; 12 miljoen op 1165 omzet. De winst staat tussen haakjes omdat er van operationele winst nog een berg kosten af gaan voor je op netto winst komt.
Dit was ook meteen de reden dat er destijds meer dan een miljard is afgeschreven, de winst cijfers die Ati haalde kreeg AMD niet voor elkaar
In 2009 werd dit 50 miljoen op 1206 omzet. Tot zo ver de cijfers die gewoon online te vinden zijn, kijk naar de form-10K. Hierna is AMD de cijfers gaan verbloemen. De console deal werd erbij geplakt, toen die weg ging zijn computing & graphics samen gevoegd in de financiële verslaggeving. Ook nadat RTG in de praktijk zelfstandiger werd bleeft AMD de cijfers samen rapporteren.In the fourth quarter of 2007, pursuant to its accounting policy, the Company performed an annual impairment test of goodwill. As a result of this analysis, the Company concluded that the carrying amounts of goodwill included in its Graphics and former Consumer Electronics segments exceeded their implied fair values and recorded an impairment charge of approximately $1.26 billion, of which $913 million is included in the caption “Impairment of goodwill and acquired intangible assets” and $346 million is included in the caption “Income (loss) from discontinued operations, net of tax” in its 2007 consolidated statement of operations. The impairment charge was determined by comparing the carrying value of goodwill assigned to the Company’s reporting units within these segments as of October 1, 2007, with the implied fair value of the goodwill. The Company considered both the income and market approaches in determining the implied fair value of the goodwill. While market valuation data for comparable companies was gathered and analyzed, the Company concluded that there was not sufficient comparability between the peer groups and the specific reporting units to allow for the derivation of reliable indications of value using a market approach and, therefore, the Company ultimately employed the income approach which requires estimates of future operating results and cash flows of each of the reporting units discounted using estimated discount rates ranging from 13 percent to 15 percent. The estimates of future operating results and cash flows were principally derived from an updated long-term financial forecast, which was developed as part of the Company’s strategic planning cycle conducted annually during the latter part of the third quarter of 2007. The decline in the implied fair value of the goodwill and resulting impairment charge was primarily driven by the updated long-term financial forecasts, which showed lower estimated near-term and longer-term profitability compared to estimates developed at the time of the completion of the ATI acquisition
Dat AMD ook nu weer geen wins top Radeon maakt is gezien de historie niet zo gek. Het verklaart bovendien waarom Nvidia van <1 miljard naar 3 miljard omzet per kwartaal is gegroeid terwijl AMD, na correctie van Zen, nog altijd dezelfde omzet draait als voor de (mining/economie) boom. Dat past ook bij het verplichte karakter waarbij dit soort producten worden besteld, zeker voor AMD. Laten we eerlijk zijn, als Polaris/Vega 10% winst zou hebben gedraaid dan zou dat een record voor AMD zijn en dan hadden ze, net als Nvidia, het volume minstens met 300% laten stijgen.
Punt van dit alles was dat juist AMD geen ruimte heeft om te bewegen en Nvidia eigenlijk alle kanten op kan. Dat zie je nu ook weer aan de hogere prijzen. Ze kunnen het maken. Verlagen is ook ruimte zat voor. Zodra het nodig is zal dit ook ongetwijfeld gebeuren. De vraag is alleen, wanneer is het nodig...
[ Voor 6% gewijzigd door sdk1985 op 21-09-2018 14:07 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Deel twee van het uit elkaar halen van de FE kaart. Nu met heatguns en nog meer schroeven.
Echt WTF Nvidia. Dit ding is echt onnodig complex gemaakt met veel te veel schroeven en kleine dingetjes.
En een ASUS met minder schroeven. Wanproduct zeg.
Echt WTF Nvidia. Dit ding is echt onnodig complex gemaakt met veel te veel schroeven en kleine dingetjes.
En een ASUS met minder schroeven. Wanproduct zeg.
[ Voor 20% gewijzigd door DaniëlWW2 op 21-09-2018 15:09 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als die FE nou gewoon geen LEDs had gekregen dan zou er zoveel meer heatsink oppervlakte zijn geweest. Screw everyone with a window and RGB...DaniëlWW2 schreef op vrijdag 21 september 2018 @ 15:03:
Deel twee van het uit elkaar halen van de FE kaart. Nu met heatguns en nog meer schroeven.![]()
[YouTube: RTX FE Cooler Tear-Down & Secrets of NVIDIA's Apple-Like Design]
Echt WTF Nvidia. Dit ding is echt onnodig complex gemaakt met veel te veel schroeven en kleine dingetjes.
En een ASUS met minder schroeven. Wanproduct zeg.![]()
![]()
[YouTube: ASUS RTX 2080 Ti ROG Strix Tear-Down & Custom PCB]
Welke is het wanproduct in jouw zin overigens?
Paprika schreef op vrijdag 21 september 2018 @ 15:30:
[...]
Als die FE nou gewoon geen LEDs had gekregen dan zou er zoveel meer heatsink oppervlakte zijn geweest. Screw everyone with a window and RGB...
Die met weinig schroeven, duh.Welke is het wanproduct in jouw zin overigens?![]()
Hoe kan het nou een goed product zijn als je niet tientallen schroeven nodig hebt om het in elkaar te zetten. En dat voor een videokaart die €1200+ kost.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Moet je ook wel even bij vermelden dat 2006 slechts 1 kwartaal omhelst (vandaar de lage omzet). En je neemt alleen de graphics cijfers, terwijl AMD met de overname van ATI nog meer overnam. Consumer electronics hoorden toen ook nog echt onder het kopje ATI (jawel mensen, ATI zat toentertijd in je TVsdk1985 schreef op vrijdag 21 september 2018 @ 13:58:
De cijfers van Ati in de eerste jaren staan netjes in de jaarverslagen. Zo werd er in 2006 een operationeel verlies van 33 miljoen geleden op een omzet van 273 miljoen. In 2007 was het 100 verlies op 903 omzet. Pas in 2008 werd voor het eerst 'winst' gemaakt; 12 miljoen op 1165 omzet. De winst staat tussen haakjes omdat er van operationele winst nog een berg kosten af gaan voor je op netto winst komt.
Om het even in perspectief te zetten voor de rest hier (denk dat wij als enige 2 regelmatig naar de cijfertjes kijken
Je kunt dat niet nu al roepen dat RT minder effect heeft dan AA/AF wat al sinds het jaar 2000 functioneel toepasbaar is. Bij demo's van AA riep iedereen destijds ook dat het imposant was, maar het erg veel recources koste van de GPU. AA was toen vaak niet fatsoenlijk te gebruiken zonder 50 tot 60% van je frames te verliezen. Zie oude benchmark resultaten:Sp3ci3s8472 schreef op vrijdag 21 september 2018 @ 13:22:
[...]
Daar ben ik het absoluut niet met je eens.
[Afbeelding]
Je vergeet dat in de tijd dat AA populair werd we allemaal nog op lage resoluties zaten te werken van 800x600-1280x1024. Op die resolutie is AA veel beter zichtbaar dan op de huidige schermen met een hogere DPI.
Tiled Resources (megatextures) zul je visueel misschien niet snel zien. Tot je gaat zien dat er veel minder herhaling in textures zitten.
In de tijd dat AA en AF uitkwamen heeft het volgens mij veel meer impact gehad dan RT nu heeft.
Unreal Tournament 2003 - dm-antalus @ 1280x1024 (NO AA)
ATI Radeon 9700 Pro - 107,9
Unreal Tournament 2003 w/ AA & Aniso - dm-antalus @ 1280x1024
ATI Radeon 9700 Pro 44,2
Van prima speelbaar naar ondermaats..... lijkt toch wel op de situatie nu met RT vindt je niet?
Toch zijn zaken als AA al jaren mainstream ook al was het bij release nog wishful thinking. Tegenwoordig is de prestatie impact van AA veel lager door evolutie. Daar was wel een revolutie voor nodig.
Met die instelling zouden we nog steeds op DX8 of minder gamen.Een heleboel effecten waarvoor Nvidia RT nu gebruikt zijn behoorlijk goed te faken, het kost misschien wat meer werk voor de developer maar het kan wel. Dingen zoals soft shadows, reflecties, en global illumation zijn prima te faken dat zat al in de eerste Crysis.
Juist AA en AF zijn niet te faken.
Volgens mij lag de implementatie van crysis 2 niet aan nvidia. Los van dat komt dat spel maart 2011. Dat is 7,5 jaar geleden! Je kunt deze joker niet oneindig blijven trekkenHet stuk over tesselation, de hardware was er al 10 jaar voordat het populair werd pas toen Nvidia er beter in was dan AMD gingen ze het marketen; met de meest foute implementaties (Crysis 2).
Perspectief zat er al bij. Ik heb van 2006 tot aan 2010 de verslagen zitten downloaden en daar de cijfers van in mijn post gezet... Dat AMD een miljard afschreef omdat de winst en omzet van de Ati tak tegen viel is niet iets waar we over hoeven te discussiëren, dat staat letterlijk als reden genoemd in mijn quote, welke in het officiële SEC form10k staat. Helaas voor AMD is er geen jaar geweest dat ze succesvol met Radeon waren op financieel gebied.Werelds schreef op vrijdag 21 september 2018 @ 15:40:
[...]
Moet je ook wel even bij vermelden dat 2006 slechts 1 kwartaal omhelst (vandaar de lage omzet). En je neemt alleen de graphics cijfers, terwijl AMD met de overname van ATI nog meer overnam. Consumer electronics hoorden toen ook nog echt onder het kopje ATI (jawel mensen, ATI zat toentertijd in je TV) en een deel van embedded (chipsets, ook al was ATI daar al bijna volledig uit gestapt). Voor 2007 geldt hetzelfde.
Om het even in perspectief te zetten voor de rest hier (denk dat wij als enige 2 regelmatig naar de cijfertjes kijken): In 2006 draaide ATI (dus echt ATI, niet AMD) gewoon nog ongeveer dezelfde omzet als Nvidia qua GPU's. ATI had toen +- 2,4 miljard omzet (FY'16 voor hen eindigde 31 augustus), Nvidia 3 miljard. Echter haalde Nvidia ook 660 miljoen puur uit hun MCP (nForce) tak en nog eens ergens tussen de 100 en 200 miljoen uit SLI licenties. ATI maakte toen al amper chipsets meer. Pure GPU omzet zal voor de twee min of meer gelijk geweest zijn, alsmede hun marges. Zullen we helaas nooit 100% zeker kunnen berekenen omdat ATI nooit aparte segmenten rapporteerde (hoefde niet onder de Canadese wet
)
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dat is natuurlijk wel met AA en AF, destijds koste AF behoorlijk wat performance, hetzelfde voor AA natuurlijk. Als je ziet dat de 9700Pro makkelijk 2x MSAA kon zonder dat je veel performance verloor (van 140fps naar 120fps).sjekneck schreef op vrijdag 21 september 2018 @ 15:42:
[...]
Je kunt dat niet nu al roepen dat RT minder effect heeft dan AA/AF wat al sinds het jaar 2000 functioneel toepasbaar is. Bij demo's van AA riep iedereen destijds ook dat het imposant was, maar het erg veel recources koste van de GPU. AA was toen vaak niet fatsoenlijk te gebruiken zonder 50 tot 60% van je frames te verliezen. Zie oude benchmark resultaten:
Unreal Tournament 2003 - dm-antalus @ 1280x1024 (NO AA)
ATI Radeon 9700 Pro - 107,9
Unreal Tournament 2003 w/ AA & Aniso - dm-antalus @ 1280x1024
ATI Radeon 9700 Pro 44,2
Van prima speelbaar naar ondermaats..... lijkt toch wel op de situatie nu met RT vindt je niet?![]()
Toch zijn zaken als AA al jaren mainstream ook al was het bij release nog wishful thinking. Tegenwoordig is de prestatie impact van AA veel lager door evolutie. Daar was wel een revolutie voor nodig.
[...]
Met die instelling zouden we nog steeds op DX8 of minder gamen.
[...]
AF is tegenwoordig het haast gratis.
Ik zeg niet dat RT bij voorbaat slecht is, het is alleen nog te vroeg en met zijn huidige implementatie vind ik het nog weinig toevoegen. Als je van makkelijker 4k naar 35-60fps op 1080p gaat dan is dat verschil een stuk groter dan maar 60% performance verlies met AA en AF op dezelfde resolutie op een 9700Pro.
Touché, ik mag hem nog 2.5 jaar gebruikenVolgens mij lag de implementatie van crysis 2 niet aan nvidia. Los van dat komt dat spel maart 2011. Dat is 7,5 jaar geleden! Je kunt deze joker niet oneindig blijven trekken
Hoewel enorm overdreven is het gebruik van tesselation in UniEngine Heaven wel de juiste manier. Het schakelt perfect met de LOD.
AA ook ivm toen. Dat probeer ik je juist duidelijk te maken in de vergelijking.Sp3ci3s8472 schreef op vrijdag 21 september 2018 @ 16:28:
[...]
Dat is natuurlijk wel met AA en AF, destijds koste AF behoorlijk wat performance, hetzelfde voor AA natuurlijk. Als je ziet dat de 9700Pro makkelijk 2x MSAA kon zonder dat je veel performance verloor (van 140fps naar 120fps).
AF is tegenwoordig het haast gratis.
Tegenwoordig is het standaard stuff en is AA veel beter geworden in kwaliteit, dat is juist mijn hele punt over RT en dat ik het voorbarig vind om het nu al af te schrijven. Als de markt en developers enthousiast zijn over deze ontwikkeling, dan trek ik de potentie niet in twijfel. Vind je het te gek/duur, laat hem dan lekker liggen of wacht je op een beter kaart van AMD.
Jij vindt het te vroeg, maar weet buiten wat tech demo's nog eigenlijk niks net als de rest. Je bent voorbarig en trekt obv speculatie al harde conclusies. Vond je dat ook van HBM toen het aangekondigd was? Dat was immers ook een kostenpost, extra ruimte op de chip, extra interposer en een downgrade op de hoeveelheid geheugen op het product zelf. Dreef allemaal de prijs op die door de koper opgehoest moest worden voor wat bandbreedte...[...]
Ik zeg niet dat RT bij voorbaat slecht is, het is alleen nog te vroeg en met zijn huidige implementatie vind ik het nog weinig toevoegen. Als je van makkelijker 4k naar 35-60fps op 1080p gaat dan is dat verschil een stuk groter dan maar 60% performance verlies met AA en AF op dezelfde resolutie op een 9700Pro.
Je moet ergens beginnen. Vrijwel geen enkele vernieuwing is top notch vanaf dag 1. Progressie kost prestatie, zeker bij dit soort eyecandy. Nvidia verraste iedereen door te innoveren en nu zeuren we over de innovatie die ze brengen. Het is ook nooit goed
Maar uiteindelijk is het allemaal nvidia's schuld toch[...]
Touché, ik mag hem nog 2.5 jaar gebruiken. Er zijn andere voorbeelden waar tesselation weinig toevoegde (zoals AVP 2010) dus wat mij betreft onder een slechte implementatie mag vallen.
Hoewel enorm overdreven is het gebruik van tesselation in UniEngine Heaven wel de juiste manier. Het schakelt perfect met de LOD.
Verwijderd
Dan verschillen we van mening wat betreft opvatting van beeldkwaliteit, ligt ook puur aan de game of het goed naar voren komt, enfin in mijn verleden vond ik de impact niet zo groot.Werelds schreef op vrijdag 21 september 2018 @ 13:44:
[...]
Oeioeioei. AA en AF minder impact op beeldkwaliteit toen dan RT nu? AF was juist een hele grote sprong omdat textures nu ineens ook scherp waren buiten die 3 meter voor je. AA spreekt voor zich, lijkt me.
Dus jij vind dat hairworks en verwanten nooit marketing heeft gehad? Bijzonder..En vooral als ik kijk naar wat Metro met RT doet, kan ik niet zeggen dat het zo idioot veel beter uit ziet. Reflecties in BF V zijn leuk maar om nu te stellen dat dat veel meer impact heeft dan AF 15+ jaar geleden? Nee, sorry. In beide gevallen ga je van blurry mess naar (relatief) scherp beeld. En dat was toen ook echt wel een dingetje.
[...]
Nvidia gebruikt tessellation in verschillende delen van hun SDK's, maar nooit is tessellation er door hen uitgepikt om te promoten. Zelfs weinig games hebben er echt op gehamerd, hoewel heel veel games het weldegelijk gebruiken.
Ik heb dan ook nergens geclaimd dat de gehele renderpipeline op de schop is te gaan dus leg aub die woorden niet in mijn mond, tevens heb ik ook nooit gezegd dat dit nooit eerder is gebeurd. Alleen dat het niet vaak gebeurd.[...]
Je bedoelt zoiets als de revolutie die we met DX9 of unified shaders hadden?
En nee, het is geen revolutie. Een deel van de render pipeline wordt gewijzigd. Niet alles kán via RT, omdat de hardware het nog niet trekt. Met DX9 gingen wel veel engines volledig op de schop met écht nieuwe render pipelines; en met unified shaders al helemaal, want toen werd "deferred" ineens het sleutelwoord.
Dat is nu nog niet aan de orde. Slechts een klein deel van de pipelines krijgt nu een alternatieve implementatie; kan ook niet anders, want de markt is er nog niet klaar voor.
Dat jij de implementatie van raytracing en AI in de rendepipeline geen revolutie vind is echt merkwaardig want als je door alle marketing kijkt is dat toch wel een grote wijziging.
Tuurlijk je mag van mening verschillen maar je doet nu net alsof het maar een kleine update is.... Kan me niet voorstellen dat je dat meent.
Heb je cijfertje hiervoor? Vind het nogal een grote claim om te beweren dater bijna geen mensen zijn die een upgrade doen omdat ze meer feature willen en verbetering in beeldkwaliteit....[...]
Die zijn er ook nauwelijks. Heb jij iemand een 7970 zien kopen omdat die Partially Resident Textures, beter bekend als Tiled Resources, had? Of een 5870/480 voor tessellation? Of een 9700 omdat die in theorie HDR lighting kon doen? We kochten die dingen omdat ze gewoon idioot snel waren. In de praktijk zag je die technieken namelijk nog niet en tegen de tijd dat ze wel gemeengoed werden, stond de volgende generatie al te trappelen met hogere kloksnelheden, kleinere chips en optimalisaties in de hardware.
Je laat ook niks zien waaraan enige logica is verbonden en maakt nogal grote aannames.Wat ik wel zie is grapjurken die beweren dat ze bijvoorbeeld een Titan X(p) voor "pro doeleinden" kopen, ook al hebben die GPU's geen reet meer dan de rest van de GeForce lijn behalve geheugen. Geen FP64 performance, geen massaal aantal display outputs, geen single-slot versies, geen ECC. Alleen wat meer geheugen. En nee, dat was niet genoeg om "HPC toepassingen te ontwikkelen" of iets in die trant, daarvoor heb je meer nodig. Voor een PoC heb je geen Titan nodig.
[...]
Ik geef het op, want je wilt het niet inzien.
Lees mijn quote nog eens rustig door waar ik zeg dat marketing cruciaal is voor Nvidia om RT aan de man te krijgen, iets wat jij niet wil zien maar waar je zelf wel de argumenten voor aan levert.Over 12 maanden heeft 99% van de gamers nog steeds geen toegang tot DXR of RT. Deze producten zorgen niet voor markt penetratie. Daar zal de 3060 (of hoe deze ook gaat heten) en AMD's tegenhanger pas voor zorgen - als dat al zo snel gebeurt.
Wat de rest van je post betreft: lees de mijne eens goed. Vroeger ging je juist niet voor een product omdat die een feature had wat de concurrent niet had. Je ging voor het product omdat je meer waar voor je geld kreeg. En dat lag nooit aan de features, dat lag aan de prestaties en de prijs. Want je wist dat de concurrent diezelfde feature binnen enkele maanden ook wel had als dat nog niet zo was. Het enige wat er qua features wel toe deed, waren de prestaties van die features.
De enige feature die ooit echt invloed heeft gehad op het wel of niet verkopen van een product was DirectX. Het gebrek aan ondersteuning daarvan door 3DFX is grotendeels hun ondergang geweest. Zelfs unified shaders waren niet de reden dat G80 zo hard ging. Het ding was gewoon bloedsnel, klaar. Of dat nu dankzij of ondanks die unified shaders was maakte geen hond iets uit.
Toen de dag actie kwam van Alternate waar bij je de gigabyte GTX 1080 ti kaart kon kopen voor 650 euro, zat ik erg te twijfelen om toe te happen, besloot het niet te doen en gewoon te wachten op de benchmarks van 19/20 september.
Zeer mooie resultaten, alleen ik had wel wat meer performance verwacht bij de RTX 2080.
Maar wauw, wat een mooie kaart die RTX 2080 Ti , alleen de prijs is echt veel te hoog, ik denk dat als de prijs rond de 1000 euro zat dat het dan een no-brainer deal is.
Toch gebeten , zojuist een RTX 2080 ti ge-pre-ordered na de benchmarks weer onder de loep genomen, nu kan ik eindelijk de witcher 3 spelen op hoge frames op mijn 3440x1440 110 hz schermpje
Ben ook zeer benieuwd naar hoe de kaart presteert in VR.
Hopelijk is de prijs-kwaliteit verhouding van de volgende generatie kaarten beter dan van deze generatie
Zeer mooie resultaten, alleen ik had wel wat meer performance verwacht bij de RTX 2080.
Maar wauw, wat een mooie kaart die RTX 2080 Ti , alleen de prijs is echt veel te hoog, ik denk dat als de prijs rond de 1000 euro zat dat het dan een no-brainer deal is.
Toch gebeten , zojuist een RTX 2080 ti ge-pre-ordered na de benchmarks weer onder de loep genomen, nu kan ik eindelijk de witcher 3 spelen op hoge frames op mijn 3440x1440 110 hz schermpje
Ben ook zeer benieuwd naar hoe de kaart presteert in VR.
Hopelijk is de prijs-kwaliteit verhouding van de volgende generatie kaarten beter dan van deze generatie
Dolby Atmos 7.0.4 | Amd 57003DX - 3200 mhz DDR4 | LG CX 55
Ik denk dat we deze discussie pas echt kunnen voeren als we benchmarks met RT zien. Bij AA en AF kon je verschillende gradaties kiezen. Bij RT weten we dat nog niet echt. Stel dat je alleen reflecties kan aanzetten en dan om de 5 frames bijvoorbeeld dan zou het best mogelijk zijn dat het goed bruikbaar is op 4k.sjekneck schreef op vrijdag 21 september 2018 @ 17:24:
[...]
AA ook ivm toen. Dat probeer ik je juist duidelijk te maken in de vergelijking.
Tegenwoordig is het standaard stuff en is AA veel beter geworden in kwaliteit, dat is juist mijn hele punt over RT en dat ik het voorbarig vind om het nu al af te schrijven. Als de markt en developers enthousiast zijn over deze ontwikkeling, dan trek ik de potentie niet in twijfel. Vind je het te gek/duur, laat hem dan lekker liggen of wacht je op een beter kaart van AMD.
Heb je die granuliteit niet dan is het al een stuk minder aantrekkelijk.
HBM heeft er voor gezorgd dat AMD met Fury een kaart had die een stuk minder stroomgebruik had. Helaas heeft het naast de bandbreedte weinig extra voordelen gebracht voor ons.Jij vindt het te vroeg, maar weet buiten wat tech demo's nog eigenlijk niks net als de rest. Je bent voorbarig en trekt obv speculatie al harde conclusies. Vond je dat ook van HBM toen het aangekondigd was? Dat was immers ook een kostenpost, extra ruimte op de chip, extra interposer en een downgrade op de hoeveelheid geheugen op het product zelf. Dreef allemaal de prijs op die door de koper opgehoest moest worden voor wat bandbreedte...
Je moet ergens beginnen. Vrijwel geen enkele vernieuwing is top notch vanaf dag 1. Progressie kost prestatie, zeker bij dit soort eyecandy. Nvidia verraste iedereen door te innoveren en nu zeuren we over de innovatie die ze brengen. Het is ook nooit goed
Maar dit is totaal iets anders in mijn ogen dan een stuk software (met hardware erbij).
Alleen als ik het constructief kan onderbouwenMaar uiteindelijk is het allemaal nvidia's schuld toch
[ Voor 0% gewijzigd door Sp3ci3s8472 op 21-09-2018 20:45 . Reden: quote fout ]
[...]Sp3ci3s8472 schreef op vrijdag 21 september 2018 @ 19:21:
[...]
Ik denk dat we deze discussie pas echt kunnen voeren als we benchmarks met RT zien. Bij AA en AF kon je verschillende gradaties kiezen. Bij RT weten we dat nog niet echt. Stel dat je alleen reflecties kan aanzetten en dan om de 5 frames bijvoorbeeld dan zou het best mogelijk zijn dat het goed bruikbaar is op 4k.
Heb je die granuliteit niet dan is het al een stuk minder aantrekkelijk.
[...]
HBM heeft er voor gezorgd dat AMD met Fury een kaart had die een stuk minder stroomgebruik had. Helaas heeft het naast de bandbreedte weinig extra voordelen gebracht voor ons.
Maar dit is totaal iets anders in mijn ogen dan een stuk software (met hardware erbij).
~~~
Alleen als ik het constructief kan onderbouwen
[/quote]
Die benhmarks met RT zal nog lang duren voordat die komen toch? Of kunnen we die over 2 weken ofzo verwachten? Geen idee welk spel?
Verwijderd
Voor AA had je geen wezenlijk nieuwe architectuur nodig (tweaks maar niet fundamenteel anders) waarbij ongeveer 1/4de deel van de GPU wordt benut voor iets wat nog niet praktisch bruikbaar is. Ja, ooit moet ermee worden gestart maar het had ook rustig 1 of 2 generaties later gemogen zo gauw 60 FPS haalbaar is op de *80 Ti kaart. Gamers klagen momenteel over de lage performance-winst t.o.v. de prijsstijging in vergelijking met Pascal en Maxwell maar dat is natuurlijk niet zo gek aangezien de GPU's erg groot zijn en een kwart van de GPU wordt gebruikt voor raytracing en een kwart voor betere (goede grafische kwaliteit met een lage performance dankzij deep learning) anti-aliasing (DLSS) bij een vooralsnog klein aantal spellen.sjekneck schreef op vrijdag 21 september 2018 @ 15:42:
Toch zijn zaken als AA al jaren mainstream ook al was het bij release nog wishful thinking. Tegenwoordig is de prestatie impact van AA veel lager door evolutie. Daar was wel een revolutie voor nodig.
Ik ben bepaald geen fan van Nvidia maar in ieder geval misbruiken ze hun monopolie (hoogste segment van de grafische kaarten) lang niet zo erg als dat Hynix, Samsung en Micron hun oligopolie misbruiken.
[ Voor 8% gewijzigd door Verwijderd op 22-09-2018 14:10 ]
EVGA Announces Launch of Its Precision X1 Software for NVIDIA RTX 20-Series
EVGA today announced availability of their X1 Precision software suite for NVIDIA's RTX 20-series graphics cards. The Precision X1 software features a brand new layout, completely new codebase, new features and more, with EVGA saying it's faster, easier to user, and overall better than ever.The Precision X12 includes a built-in overclock scanner, which automatically discovers your graphics' card hidden overclocking potential algorithmically. It also features an adjustable frequency curve, multi-GPU fan curve controls, and RGB LED control. And interestingly, in its press-release, EVGA themselves said that GTX support was coming soon - whether this refers to still-to-be-launched 20-series graphics cards, or just expanded support for pre-Turing graphics cards, is unclear.
https://www.techpowerup.c...-for-nvidia-rtx-20-series
https://www.3dmark.com/fs/16430104
NVLINK RTX2080
YouTube: NVLink RTX 2080 Ti Benchmark: x16/x16 vs. x8 & GTX 1080 Ti SLI
2080Ti NVLINK en PCI-E scaling
[ Voor 10% gewijzigd door Paprika op 22-09-2018 17:41 ]
Ik begin me af te vragen waar Nvidia mee bezig is met de FE kaarten en prijzen. De AIB kaarten die goedkoper zouden zijn dan FE, tja die zijn er niet. Vervolgens lijkt er zelfs op dat Nvidia bezig is met segregatie van de productlijnen. AIB's mogen volgens Techpowerup alleen speciale chips overclocken vanuit de fabriek en mogen de rest niet aanraken net zoals met de GTX1070Ti.
https://www.techpowerup.c...en-on-the-cheaper-variant
Binning is op zich niks mis mee, maar Nvidia lijkt alleen maar gebinde chips voor hun FE te gebruiken. Nu begint het erop te lijken dat Nvidia echt met hun "partners" aan het concurreren is, en ze ook nog eens benadeeld met oneerlijke concurrentie. FE kaarten hebben namelijk wel hogere boostclocks.
https://www.techpowerup.c...en-on-the-cheaper-variant
Binning is op zich niks mis mee, maar Nvidia lijkt alleen maar gebinde chips voor hun FE te gebruiken. Nu begint het erop te lijken dat Nvidia echt met hun "partners" aan het concurreren is, en ze ook nog eens benadeeld met oneerlijke concurrentie. FE kaarten hebben namelijk wel hogere boostclocks.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Lekker bizar systeem waar ze dat mee getest hebben.... 1x 16GB + 3x 8GB 2166Mhz geheugen met een I7-8700 die 2666Mhz ondersteunt...
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
De betere AIB kaarten ontvangen in ieder geval ook binned chips als je de resultaten hier bekijkt:DaniëlWW2 schreef op zaterdag 22 september 2018 @ 17:52:
Ik begin me af te vragen waar Nvidia mee bezig is met de FE kaarten en prijzen. De AIB kaarten die goedkoper zouden zijn dan FE, tja die zijn er niet. Vervolgens lijkt er zelfs op dat Nvidia bezig is met segregatie van de productlijnen. AIB's mogen volgens Techpowerup alleen speciale chips overclocken vanuit de fabriek en mogen de rest niet aanraken net zoals met de GTX1070Ti.
https://www.techpowerup.c...en-on-the-cheaper-variant
Binning is op zich niks mis mee, maar Nvidia lijkt alleen maar gebinde chips voor hun FE te gebruiken. Nu begint het erop te lijken dat Nvidia echt met hun "partners" aan het concurreren is, en ze ook nog eens benadeeld met oneerlijke concurrentie. FE kaarten hebben namelijk wel hogere boostclocks.
https://www.techpowerup.c..._Founders_Edition/36.html
Ja, maar daar zullen de AIB's extra voor moeten betalen. Dat is mijn punt juist. Je kan nu een "goedkope" RTX kopen, een FE met een gebinde chip of een duurder AIB model. Zo zit Nvidia te concurreren met hun eigen "partners".Paprika schreef op zaterdag 22 september 2018 @ 18:23:
[...]
De betere AIB kaarten ontvangen in ieder geval ook binned chips als je de resultaten hier bekijkt:
https://www.techpowerup.c..._Founders_Edition/36.html
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het idee is toch dat FE 100 dollar duurder is dan een non FE. En de reden is dat FE iets sneller moet zijn. Snap op zich de logica wel. Maar het hele idee van factory overclocken. Ligt daar echt iemand wakker van? Deze kaarten worden volgens mij nauwelijks overgeklokt. Misschien door een hele kleine percentage van de gebruikers.
< dit stukje webruimte is te huur >
Toch denk ik dat ik dit liever heb dan het scenario wat je bij de 8800GT zag. De slechtere koelers hadden vaak door geluk 'n betere chip. Wel moest je dan die belachelijk slechte koeler op 80-100% draaien en was je gehoor na 'n jaar gamen slechter dan de longen van een gepensioneerde mijnwerkerDaniëlWW2 schreef op zaterdag 22 september 2018 @ 18:26:
[...]
Ja, maar daar zullen de AIB's extra voor moeten betalen. Dat is mijn punt juist. Je kan nu een "goedkope" RTX kopen, een FE met een gebinde chip of een duurder AIB model. Zo zit Nvidia te concurreren met hun eigen "partners".
Misschien ben ik gewoon zeurderig maar voor minstens €850 mag je verwachten dat elke kaart gewoon stil is en relatief koel onder full load.Paprika schreef op zaterdag 22 september 2018 @ 18:28:
[...]
Toch denk ik dat ik dit liever heb dan het scenario wat je bij de 8800GT zag. De slechtere koelers hadden vaak door geluk 'n betere chip. Wel moest je dan die belachelijk slechte koeler op 80-100% draaien en was je gehoor na 'n jaar gamen slechter dan de longen van een gepensioneerde mijnwerker
Maar ik wijs nog steeds op wat anders. Ik zie Nvidia systematisch de duimschroeven aandraaien omtrent hun "partners" en tegelijkertijd steeds meer van die partners hun marges ontnemen met directe concurrentie. Of het nu FE is, GPP of nu FE met betere chips en goochelen met de MRSP's. Ik zie Nvidia steeds meer trekjes van een monopolist ontwikkelen die hun marktpositie, omzet en winstmarges ten koste van alles wil verdedigen. De AIB's zijn daarin een middel om onder druk te zetten zodat ze de Nvidia lijn blijven volgen. Met GPP hebben we ook al gezien dat Nvidia bereid is om AIB's te betalen voor exclusiviteit. Ook zijn allang de geruchten opgedoken dat de AIB's de restinventaris van Pascal moesten afnemen omdat ze anders geen Turing allocatie zouden krijgen voor de launch. Dat is gewoon zorgwekkend want we zien de gigantische inflatie in prijzen nu al gebeuren omdat AMD afwezig is. Het gaat op deze manier alleen maar erger worden.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Zo is het imo wel goed. Heb nl. een window en vind dat leuk maar hoef niet al die leds!
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
nVidia doet gewoon wat ze altijd doen. Alles en iedereen uitknijpen en onder druk zetten zolang ze het idee hebben dat ze ermee weg kunnen komen.DaniëlWW2 schreef op zaterdag 22 september 2018 @ 17:52:
Ik begin me af te vragen waar Nvidia mee bezig is met de FE kaarten en prijzen. De AIB kaarten die goedkoper zouden zijn dan FE, tja die zijn er niet. Vervolgens lijkt er zelfs op dat Nvidia bezig is met segregatie van de productlijnen. AIB's mogen volgens Techpowerup alleen speciale chips overclocken vanuit de fabriek en mogen de rest niet aanraken net zoals met de GTX1070Ti.
https://www.techpowerup.c...en-on-the-cheaper-variant
Binning is op zich niks mis mee, maar Nvidia lijkt alleen maar gebinde chips voor hun FE te gebruiken. Nu begint het erop te lijken dat Nvidia echt met hun "partners" aan het concurreren is, en ze ook nog eens benadeeld met oneerlijke concurrentie. FE kaarten hebben namelijk wel hogere boostclocks.
Denk dat de AIB's heeeeeeeeeeeel graag AMD terug zien komen
Succesvol zaken doen kan ook vanuit de gedachte ik gun jou wat en jij gunt mij wat. Dat is nu eenmaal niet het nvidia model.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Geen idee of er al meerdere zijn gepost maar dit is de eerste die ik kan vinden met een nvlink test
YouTube: NVLink RTX 2080 Ti Benchmark: x16/x16 vs. x8 & GTX 1080 Ti SLI
YouTube: NVLink RTX 2080 Ti Benchmark: x16/x16 vs. x8 & GTX 1080 Ti SLI
Precies 10 posts boven je ja, diezelfde.1Kb schreef op zaterdag 22 september 2018 @ 20:13:
Geen idee of er al meerdere zijn gepost maar dit is de eerste die ik kan vinden met een nvlink test
YouTube: NVLink RTX 2080 Ti Benchmark: x16/x16 vs. x8 & GTX 1080 Ti SLI
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Ze komen er toch ook gewoon mee weg...Help!!!! schreef op zaterdag 22 september 2018 @ 19:41:
[...]
nVidia doet gewoon wat ze altijd doen. Alles en iedereen uitknijpen en onder druk zetten zolang ze het idee hebben dat ze ermee weg kunnen komen.
Dat ligt eraan. Bij NVIDIA kaarten zie je snel mensen meer geld uitgeven en je ziet ook de AIBs met grotere marges hierop in spelen. 300 euro boven de MSRP gaan zitten kun je bij AMD wel vergetenHelp!!!! schreef op zaterdag 22 september 2018 @ 19:41:
[...]
Denk dat de AIB's heeeeeeeeeeeel graag AMD terug zien komen
Als je ziet waar 't ze financieel heeft gebracht zouden meer bedrijven dat moeten overwegen...Help!!!! schreef op zaterdag 22 september 2018 @ 19:41:
[...]
Succesvol zaken doen kan ook vanuit de gedachte ik gun jou wat en jij gunt mij wat. Dat is nu eenmaal niet het nvidia model.
Zodat je zoveel badwill kweekt dat zodra het een keertje tegenzit een van je grootste re-sellers publiekelijk gaat adviseren om naar de concurrent te stappen? *kuch*HPE vs Intel*kuch*Paprika schreef op zaterdag 22 september 2018 @ 20:29:
Als je ziet waar 't ze financieel heeft gebracht zouden meer bedrijven dat moeten overwegen...
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Dat weet ik dus niet zo zeker. Nvidia is bezig om zichzelf te positioneren als de enige optie. PC gaming groeit en mensen kopen nu al bijna dwangmatig GeForce, vaak omdat het alternatief weinig bekend is of zichzelf in de voet schiet. Vaak moet je mensen bewust gaan overtuigen dat het AMD alternatief beter is, en dat lukt ook niet altijd. In het bijzonder is de RX570 vs. de GTX1060 3GB, of helemaal de GTX1050Ti daar een pijnlijk voorbeeld van.Help!!!! schreef op zaterdag 22 september 2018 @ 19:41:
[...]
nVidia doet gewoon wat ze altijd doen. Alles en iedereen uitknijpen en onder druk zetten zolang ze het idee hebben dat ze ermee weg kunnen komen.
Denk dat de AIB's heeeeeeeeeeeel graag AMD terug zien komen![]()
Succesvol zaken doen kan ook vanuit de gedachte ik gun jou wat en jij gunt mij wat. Dat is nu eenmaal niet het nvidia model.
GeForce verkoopt gewoon en die AIB's met krappe marges moeten hun inventaris verkopen en hun productiecapaciteit draaiende houden omdat ze anders ook verlies maken. Dat geeft Nvidia twee drukmiddelen op de AIB's. Nvidia kan gewoon dreigen met minder allocatie van chips en dan ben je als AIB klaar. Verder kan Nvidia andere AIB's bevoordelen met reclame en als je dan blijft zitten met inventaris dan ben je ook klaar. Laten die twee nu precies samen zijn gekomen bij GPP.
Dat marktaandeel nu 36% om 63% om is mede dankzij de miners is gunstig, maar Nvidia heeft nog steeds veel meer mindshare. Nu willen ze deze omzetten in een vendorlock bestaande uit G-sync, GameWorks, GeForce Experience en RTX. Bereiken ze dat doel, dan hebben de AIB's een probleem want ze zijn dan overgeleverd aan de grillen van Nvidia. Ze kunnen zich er ook niet tegen verzetten omdat de concurrentie nu al zwak is, en met een vendorlock alleen maar zwakker zal worden. Verzet betekent geen allocatie meer en failliet. Genoeg die het stokje willen overnemen.
Een exclusieve partner die nu de concurrent gaat verkopen zal er gewoon uitgeschopt worden. Dat weten we van XFX. Wat gebeurd er dan als Nvidia zo dominant is in de industrie dat je zonder GeForce kaart gewoon bepaalde zaken in games helemaal niet kan draaien? Moet er niet aan denken zeg, maar dat lijkt het doel.
Verder zitten marges zitten nu eenmaal bij de dure chips, en daar is het al jaren drama bij AMD. Deze generatie kan je ook wel afschrijven denk ik. In 2020 gaat er misschien wat gebeuren. Slaat AMD dan haar slag en zijn ze beter, dan zullen een aantal Nvidia AIB's op termijn omvallen omdat de markt zich dan weer meer richting 50/50 zal ontwikkelen. GeForce is nu een cashcow geworden en om dat te behouden zullen de prijzen permanent hoger moeten blijven. Over een paar jaar heb je waarschijnlijk geen xx50 of xx50Ti meer omdat die markt niet meer bestaat, opgeslokt door de APU. Dan moet Nvidia een vendor lock hebben zodat je minstens €300 neerlegt voor een xx60 waarop je dan "serieus" kan gamen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En toch staat Intel er ook beter voor dan de meeste bedrijven...zion schreef op zaterdag 22 september 2018 @ 20:42:
[...]
Zodat je zoveel badwill kweekt dat zodra het een keertje tegenzit een van je grootste re-sellers publiekelijk gaat adviseren om naar de concurrent te stappen? *kuch*HPE vs Intel*kuch*
Ik denk dat 2020 idd wel een belangrijk jaar gaat worden, maar of dat voor Nvidia ook een geweldig jaar gaat worden is nog maar de vraag.DaniëlWW2 schreef op zaterdag 22 september 2018 @ 20:50:
Over een paar jaar heb je waarschijnlijk geen xx50 of xx50Ti meer omdat die markt niet meer bestaat, opgeslokt door de APU. Dan moet Nvidia een vendor lock hebben zodat je minstens €300 neerlegt voor een xx60 waarop je dan "serieus" kan gamen.
AMD komt (eindelijk) met een nieuwe chip die niet meer gebasseerd is op GCN, die zomaar eindelijk wel weer eens competetief kan zijn, maar ook Intel komt (naar verluidt) dan met hun dGPU op de markt, waardoor Nvidia opeens een concurrent krijgt met net zulke diepe zakken als zijzelf, en ik denk niet dat Nvidia Intel zo makkelijk onder de tafel veegt.
En dan zou er zomaar een 33/33/33 markt kunnen ontstaan, waardoor Nvidia dus mogelijkerwijs opeens even ruim de helft van hun omzet ziet verdwijnen (vanaf hun huidige 73% marketshare).
Eventueel kan het zelfs nog erger, als Intel dan dezelfde strategie gaat hanteren als Nvidia in het verleden, en "kortingen" of "voorrang" gaat geven op Intel *only* Inside, want zij kunnen wel Moederborden/chipsets, CPU's & GPU's leveren, Nvidia niet. AMD kan dat ook, maar Nvidia niet. (En ik kan me goed voorstellen dat AMD dat zodra ze dat zouden kunnen maar wat graag zouden willen doen na alle sh*t die Nvidia ze door de jaren heen geflikt heeft).
[ Voor 17% gewijzigd door zion op 22-09-2018 21:38 ]
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Nog eentje, YouTube: RTX 2080Ti SLI - These results are INSANE1Kb schreef op zaterdag 22 september 2018 @ 20:33:
[...]
Hehe, ok. Ik had ze eerder nog niet gezien anders had ik het niet nog een keer gepost
Je mist nu denk ik een stukje van de puzzel.zion schreef op zaterdag 22 september 2018 @ 21:15:
[...]
Ik denk dat 2020 idd wel een belangrijk jaar gaat worden, maar of dat voor Nvidia ook een geweldig jaar gaat worden is nog maar de vraag.
AMD komt (eindelijk) met een nieuwe chip die niet meer gebasseerd is op GCN, die zomaar eindelijk wel weer eens competetief kan zijn, maar ook Intel komt (naar verluidt) dan met hun dGPU op de markt, waardoor Nvidia opeens een concurrent krijgt met net zulke diepe zakken als zijzelf, en ik denk niet dat Nvidia Intel zo makkelijk onder de tafel veegt.
En dan zou er zomaar een 33/33/33 markt kunnen ontstaan, waardoor Nvidia dus mogelijkerwijs opeens even ruim de helft van hun omzet ziet verdwijnen (vanaf hun huidige 73% marketshare).
Ten eerste is de OEM markt voor geïntegreerde chips veel groter dan de discrete markt. Daar liggen de verhoudingen al heel anders.
| Intel | Nvidia | AMD | |
| Totaal | 68,2 | 17% | 14,7% |
| Discreet desktop | 0% | 63,9% | 36,1% |
https://www.3dcenter.org/...e-im-zweiten-quartal-2018
Het enorme verschil in discrete videokaarten kan nooit het geringe verschil in totaal marktaandeel verklaren. Ergo, OEM is veel, veel groter in marktaandeel en volume dan discreet. Nvidia staat op het punt om vrijwel alle OEM te gaan verliezen in de komende jaren. Het is een kwestie van tijd voordat zowel Intel als AMD met interposers komen met een CPU+GPU+VRAM. Dit verkopen ze als bundel aan een OEM voor een lagere prijs dan de losse CPU en de GPU van Nvidia. Dat is einde OEM verkopen voor Nvidia. Nvidia zal simpelweg niet kunnen concurreren met dergelijke producten. AMD en Intel zorgen er wel voor dat de CPU's zonder de interposer met GPU en VRAM te duur zijn voor de OEM om te overwegen.
AMD heeft hier nog een grote voorsprong omdat AMD ervaring heeft met interposers, drivers en performance GPU's. Intel zit alleen niet stil. Intel heeft Koduri te laat aangenomen om een architectuur te ontwerpen voor 2020. Wat Koduri wel kan is het overzien van de ontwikkeling van driversstacks terwijl er ook word gewerkt aan betere GPU architecturen. Iets dat hij uitstekend heeft overzien bij AMD in de periode 2013-2017. Intel heeft nu ook al grotere IGP's aangekondigd, en zal alleen maar blijven inzetten op de haar marktaandeel bij de OEM's te vergroten wat ten koste zal gaan van Nvidia gezien de afwezigheid van losse laptop Radeon's. Intel heeft alleen enorme problemen met productiecapaciteit waardoor AMD haar opening heeft om de OEM markt opnieuw te betreden met goede producten. Kopen de OEM's eenmaal AMD producten, dan gaat AMD interposers aanbieden die CPU+GPU+VRAM hebben. Intel zal op grote schaal volgen zodra hun GPU product competitief genoeg is. Tot die tijd kunnen ze GPU's kopen van AMD. Zie Kabylake-G.
Van Intel verwacht ik namelijk eerst een GPGPU gericht op deep learning. In 2020 verwacht ik eigenlijk geen competitief product voor gamers. Dat kan de jaren erna volgen onder leiderschap van Koduri.
Nvidia zal de komende jaren gepasseerd gaan worden door AMD in totaal marktaandeel. Met een betere GPU architectuur kan AMD, Nvidia vanaf 2020 uit de laptopmarkt gaan drukken, ook de high end doormiddel van koppelverkopen. OEM zal dan verdeeld worden tussen Intel en AMD. Het enige dat Nvidia kan redden is als Intel miserabel faalt met hun eigen consumer GPU architectuur. Onwaarschijnlijk nu Koduri er zit.
Vervolgens blijft voor Nvidia de desktopmarkt over. Dat zal betekenen dat Nvidia beduidend minder chips zal verkopen omdat de mobiele GeForce chips geen aparte lijn zijn. Dat gaat Nvidia treffen in hun omzet voor GeForce en gaat enorme winst maken op een nieuwe architectuur moeilijker maken. Dit terwijl R&D alleen maar duurder zal worden, en tape-out kosten ook sterk op zullen lopen. Een 7nm tape-out zit naar verluid al op enkele honderden miljoenen dollars en met 5nm en 3nm gaat het nog veel kostbaarder worden. Dat zal Nvidia dwingen om alles onder de xx60 of misschien zelfs xx70 vaarwel te zeggen en zich puur op high end te richten. Daar hebben ze een vendor lock voor nodig omdat AMD natuurlijk zal proberen om hier ook competitief te zijn.
Dit is ook waarom Nvidia zich al jaren zo richt op deep learning. Daar zit potentieel veel meer geld dan in GeForce nu. Het is een levenslijn voor Nvidia geworden omdat de APU er al jaren aan zit te komen. Het kwam jaren niet van de grond omdat Bulldozer zo ongelofelijk slecht was, maar nu met Zen is er weinig meer dat AMD tegenhoud en dan moet Intel mee, en die willen ook mee. Het probleem daar is dat Intel zich waarschijnlijk meer zal richten op deep learning voor hun discrete GPU's dan op consumenten. Verder is AMD ook bezig om op deze markt door te dringen. Zo zal Nvidia in high-end waarschijnlijk concurrentie krijgen van AMD en op termijn mogelijk Intel, en in HPC van zowel AMD als Intel.
[ Voor 3% gewijzigd door DaniëlWW2 op 22-09-2018 23:00 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik ga hier een beetje off-topic (geef me maar een tik op de vingers als jullie het nodig vinden heren moderators), maar naar mijn mening is het belangrijk om het belang van dingen als AF, die we tegenwoordig als basaal beschouwen, in ere te houden. Vergeet niet dat in die tijd texture kwaliteit een grote invloed had op prestaties. Tegenwoordig kost het eigenlijk alleen geheugen ruimte en bandbreedte, de invloed is verder echt verwaarloosbaar. We hadden pas net T&L in hardware en échte 3D engines waren nog nieuw. Zelfs kleurdiepte had toen nog héél veel invloed op de prestaties, dat laat ik zometeen ook nog wel even zien.Verwijderd schreef op vrijdag 21 september 2018 @ 17:40:
Dan verschillen we van mening wat betreft opvatting van beeldkwaliteit, ligt ook puur aan de game of het goed naar voren komt, enfin in mijn verleden vond ik de impact niet zo groot.
De afbeeldingen die ik hier gebruik heb ik (gelukkig!) nog kunnen vinden via de Wayback Machine (allemaal klikbaar voor grote versies). Ik wist dat Reactor Critical toen vrij diep op de IQ in ging, omdat ATI er veel aandacht aan had besteed. En nee, daar werd geen marketing aan besteed - integendeel, de meeste reviews keken überhaupt niet naar IQ, zelfs Anandtech was toen nog niet wat het later werd
Enfin, Anisotropic Filtering. Bij het weergeven van textures wordt lagere kwaliteit geladen hoe verder weg het is (mipmapping). Doe je dat niet, dan verlies je niet alleen prestaties maar krijg je ook krijg je beelden als dit:
Ziet er gewoon raar uit. Het is wel scherp, maar daar is ook alles mee gezegd.
Als je echter gaat mipmappen krijg je ook hele starre overgangen tussen verschillende niveaus, dus daar gooide men een filter overheen. Er werden sowieso al filters gebruikt, omdat textures vierkant zijn, maar ze nooit vierkant weer worden gegeven. Je zit immers in 3D perspectief, dus de "achterkant" van de texture is smaller dan de "voorkant". Daar zijn vele algoritmes voor, maar bilinear en trilinear filtering werden toen gebruikt. Het hoe en wat van die algoritmes gaat nu te ver, maar schematisch gezien zag dat er zo uit:
| Bilinear | Trilinear |
|---|---|
Merk op hoe de verschillende mipmaps in elkaar overvloeien met trilinear filtering. En wat kostte dit grapje aan FPS? Makkelijk zo'n 10%. Nvidia was hier met hun GF2 GTS iets sneller in dan ATI met hun Radeon, maar dan had je het over 1,5 FPS op 70-75 FPS.
Anisotropic gaat vervolgens nog een hele stap verder dan trilinear en behoudt op langere afstanden de scherpte van de textures beter - en gaat daarnaast aliasing tegen (één van de redenen waarom ik FXAA zo haat; AF gaat aliasing op textures al grotendeels tegen en veel mooier dan FXAA..). Het eind resultaat ziet er dan zo uit:
| Radeon Trilinear | Radeon Anisotropic | GeForce Anisotropic |
|---|---|---|
Op de vloer zie je het heel duidelijk; maar ook de muren vlakbij zien er vele malen beter uit. Kijk je verder weg dan zijn de textures op de rondingen bij de volgende gang veel scherper, op de buizen bovenin en zelfs op de muur helemaal achterin - zonder dat je de mipmap niveaus ziet. En ga je dan Radeon met GF vergelijken zie je dat ATI dat beter doet; vooral op de vloer heel duidelijk te zien. Dit zijn ook stilstaande plaatjes, in beweging is het nog veel belangrijker omdat je met AF veel minder "shimmering" hebt (flikkeren tussen mipmaps).
En wat kostte dit aan prestaties? Bij ATI leverde je nog eens zo'n 5% extra in bovenop trilinear, bij Nvidia presteerde het ongeveer gelijk aan trilinear. Die 5% maakte ATI elders echter weer goed. Zoals ik hierboven al zei, kostte kleurdiepte toen nog veel aan prestaties. Je kon altijd kiezen tussen High Colour (16-bit) en True Colour (24-bit). ATI had met Radeon volledig op dat laatste gefocust, waardoor je ineens veel minder dithering (diepte simuleren met een beperkt aantal kleuren) nodig had. Je textures kwamen er weer beter uit te zien door simpelweg op 24-bit kleuren te draaien, en dat sijpelde dan ook weer door in de AF kwaliteit. In FPS zag je dan dit soort taferelen:
| 1280x1024 | 1600x1200 |
|---|---|
![]() | ![]() |
Ten slotte nog wat meer voorbeelden van de AF kwaliteit van ATI toentertijd:
| Game | Radeon | GeForce |
|---|---|---|
| Soldier of Fortune | ||
| MDK2 |
Merk wederom op hoe Radeon het beter doet; en om een klein sprongetje jaren later te maken, let op de schuine muren in SoF. Die zien er nog steeds ruk uit, dat is waar later Angle-Independent Anisotropic Filtering voor nodig is. En daar was ATI ook veel eerder en beter mee. De Radeon had verder echter wel tal van problemen. In OpenGL kon het ding echt niet met Nvidia's speelgoed mee bijvoorbeeld (hoewel het verschil op 24-bit wel heel klein werd; Nvidia leverde in sommige games gewoon 60% in!), dus het was verre van een perfecte release.
Ik had het specifiek over tessellation. Niet over de toepassingen daarvan in bredere technieken, want HairWorks gebruikt tessellation voor slechts een deel van de magieVerwijderd schreef op vrijdag 21 september 2018 @ 17:40:
Dus jij vind dat hairworks en verwanten nooit marketing heeft gehad? Bijzonder..
Tessellation werd wel genoemd, maar het draaide niet om de tessellation (en het werd ook niet uitgelegd hoe het gebruikt werd of wat het effect was).
Dat jij de implementatie van raytracing en AI in de rendepipeline geen revolutie vind is echt merkwaardig want als je door alle marketing kijkt is dat toch wel een grote wijziging.
Tuurlijk je mag van mening verschillen maar je doet nu net alsof het maar een kleine update is.... Kan me niet voorstellen dat je dat meent.
offtopic:
*CRINGE* noem het asjeblieft geen "AI". ML en DL staan niet per definitie gelijk aan AI. AI is veel meer dan dat.
*CRINGE* noem het asjeblieft geen "AI". ML en DL staan niet per definitie gelijk aan AI. AI is veel meer dan dat.
Nee, ik vind het geen klein dingetje. Het is zeker iets groots. Maar de revolutie komt pas over een jaar of twee. De manier waarop het nu toegepast kan worden staat op hetzelfde niveau als tessellation in 2009-2010. Er zijn stukjes die je nu anders/beter kunt doen, maar het blijft ook bij stukjes. Vergeet niet dat Nvidia's eerste haar demo's al uit 2010 stammen. Dat werd echter pas tegen 2012 ofzo een beetje toegepast. Waarom? Omdat de GPU's het toen beter konden behapstukken...en er genoeg DX11 GPU's waren verkocht
De hardware kan nog niet genoeg met DXR om een revolutie te ontketenen. DICE heeft moeten kiezen wat ze er precies mee gingen doen en dan nog moesten ze dingen aanpassen om de prestaties goed te houden. En doordat men slechts beperkt gebruik kan maken van al dit moois, krijg je ook artifacts. Dat zijn geen bugs, dat zijn gewoon beperkingen.
Waar zou ik die vandaan moeten halen?Heb je cijfertje hiervoor? Vind het nogal een grote claim om te beweren dater bijna geen mensen zijn die een upgrade doen omdat ze meer feature willen en verbetering in beeldkwaliteit....
Kijk gewoon eens rond op de verschillende forums. Ga terug naar 2012, 2009-2010 of nog verder. Het aantal mensen dat je tegen komt die praten over het kopen van een GPU omdat die beter beeld produceert door een nieuwe feature is nihil. Dat zullen er nu wel meer zijn door de marketing, maar meer dan 1% wordt het niet door die prijs. Om maar een favoriet van het forum hier te nemen, kijk eens in Steam's survey. Titans vind je er niet in terug, de 980 Ti en 1080 Ti zijn samen goed voor zo'n 2,2%. Dat ligt niet aan de prestaties, dat ligt aan hoe duur die krengen zijn. En dan verwacht jij dat een stel GPU's die nóg duurder zijn ineens als warme broodjes over de toonbank gaan?
En ik hoef mezelf ook maar als voorbeeld te nemen. Waar ik early adopter was van een Voodoo en sindsdien duizenden Euro's uit heb gegeven aan high-end GPU's (inclusief nu een 1080 Ti), is een 2080 gewoon onzinnig. Ik zou betalen voor grotendeels gelijke prestaties; of mindere prestaties met fancy reflecties in BF V die ik toch niet opmerk in het heetst van de strijd. En een 2080 Ti, die meer dan het dubbele kost van wat mijn huidige kaart nieuw kostte (wat ik er echt niet meer voor terug krijg) zou me 35% meer geven...of minder, met RT.
Dat is gewoon het probleem door deze dingen nu uit te brengen: ze zijn een factor 3 te duur voor de mainstream gamer (de 2080 dan; de Ti is een factor 6 te duur
Welke argumenten lever ik daar voor aan? Je hebt mijn punt over hoe dit altijd gegaan is volledig gemist. Geen van de technieken die we nu als normaal beschouwen is mainstream geworden door marketing.Lees mijn quote nog eens rustig door waar ik zeg dat marketing cruciaal is voor Nvidia om RT aan de man te krijgen, iets wat jij niet wil zien maar waar je zelf wel de argumenten voor aan levert.
https://github.com/Unity-...abf5a644771b00bb660b85d89
, Unity, DXR etc
https://www.cryengine.com/news/cryengine-55-major-release#
, CryEngine raytraced shadows support etc
https://www.cryengine.com/news/cryengine-55-major-release#
[ Voor 35% gewijzigd door Paprika op 23-09-2018 15:53 ]
Verwijderd
HairWorks utilizes two types of tessellation to help create smooth strands that provide good coverage on the character.Werelds schreef op zondag 23 september 2018 @ 14:43:
[...]
Ik had het specifiek over tessellation. Niet over de toepassingen daarvan in bredere technieken, want HairWorks gebruikt tessellation voor slechts een deel van de magie
The first type of tesselation adds vertices in-between the control points on each strand, making the stands more smooth. This helps with style attributes, such as clumping and waviness. The number of additional points is determined by the Spline Multiplier attribute on an asset. A value of 1 uses the same CVs as on the authored guide curves. A value of 4 multiplies the original set of CVs by 4 and spaces them evenly, resulting in smoother, more stylistically flexible strands. Essentially, this is used as strand smoothing to keep from having faceted, unlifelike strands.
Dat dus. het is nogal een zwaar deel van hairworks, zonder tesselation ziet het er waarschijnlijk uit als een physX ketting van stokje
Ik gebruik gewoon de verwoording van Nvidia zelf over het RTX platform.[...]
offtopic:
*CRINGE* noem het asjeblieft geen "AI". ML en DL staan niet per definitie gelijk aan AI. AI is veel meer dan dat.
Tja, jij noemt het pas een revolutie wanneer bijna iedereen het heeft en ik noem het een revolutie wanneerNee, ik vind het geen klein dingetje. Het is zeker iets groots. Maar de revolutie komt pas over een jaar of twee. De manier waarop het nu toegepast kan worden staat op hetzelfde niveau als tessellation in 2009-2010. Er zijn stukjes die je nu anders/beter kunt doen, maar het blijft ook bij stukjes. Vergeet niet dat Nvidia's eerste haar demo's al uit 2010 stammen. Dat werd echter pas tegen 2012 ofzo een beetje toegepast. Waarom? Omdat de GPU's het toen beter konden behapstukken...en er genoeg DX11 GPU's waren verkocht
De hardware kan nog niet genoeg met DXR om een revolutie te ontketenen. DICE heeft moeten kiezen wat ze er precies mee gingen doen en dan nog moesten ze dingen aanpassen om de prestaties goed te houden. En doordat men slechts beperkt gebruik kan maken van al dit moois, krijg je ook artifacts. Dat zijn geen bugs, dat zijn gewoon beperkingen.
het gewoon beschikbaar is. Will je accuraat zijn dan is het gewoon nog te vroeg om te zeggen. slaat Real time raytracing de komende jaren aan dan zullen ze gewoon deze serie kaarten als het begin van de revolutie te boeken staan.
precies.. in ieder geval niet uit je grote duim[...]
Waar zou ik die vandaan moeten halen?
Het is grappig hoe je mijn eerste argument totaal verbasterd hebt en dat nu probeert eigen te maken.Kijk gewoon eens rond op de verschillende forums. Ga terug naar 2012, 2009-2010 of nog verder. Het aantal mensen dat je tegen komt die praten over het kopen van een GPU omdat die beter beeld produceert door een nieuwe feature is nihil. Dat zullen er nu wel meer zijn door de marketing, maar meer dan 1% wordt het niet door die prijs. Om maar een favoriet van het forum hier te nemen, kijk eens in Steam's survey. Titans vind je er niet in terug, de 980 Ti en 1080 Ti zijn samen goed voor zo'n 2,2%. Dat ligt niet aan de prestaties, dat ligt aan hoe duur die krengen zijn. En dan verwacht jij dat een stel GPU's die nóg duurder zijn ineens als warme broodjes over de toonbank gaan?
En ik hoef mezelf ook maar als voorbeeld te nemen. Waar ik early adopter was van een Voodoo en sindsdien duizenden Euro's uit heb gegeven aan high-end GPU's (inclusief nu een 1080 Ti), is een 2080 gewoon onzinnig. Ik zou betalen voor grotendeels gelijke prestaties; of mindere prestaties met fancy reflecties in BF V die ik toch niet opmerk in het heetst van de strijd. En een 2080 Ti, die meer dan het dubbele kost van wat mijn huidige kaart nieuw kostte (wat ik er echt niet meer voor terug krijg) zou me 35% meer geven...of minder, met RT.
Dat is gewoon het probleem door deze dingen nu uit te brengen: ze zijn een factor 3 te duur voor de mainstream gamer (de 2080 dan; de Ti is een factor 6 te duur). Voor de meeste enthousiasten zoals ikzelf is de sprong te klein om van hun huidige high-end kaart te maken, slechts een heel klein deel zal dat doen. Dan rest nog die kleine groep die op een 980 Ti zit, samen met de nog veel kleinere groep die Titans koopt. Dat is waar deze dingen aan verkocht gaan worden.
[...]
Welke argumenten lever ik daar voor aan? Je hebt mijn punt over hoe dit altijd gegaan is volledig gemist. Geen van de technieken die we nu als normaal beschouwen is mainstream geworden door marketing.
Ik stelde dat Marketing cruciaal is voor nvidia om RTX van de grond te krijgen waarop jij met een heel verhaal komt over hoe vroeger nieuwe technieken marketingloos ter wereld kwamen en dat RTX nu niet zal slagen omdat het te duur is...
dan is het toch een logische conclusie dat Nvidia het puur van de marketing moet hebben om RTX nu aan de man te brengen ?
Tevens ben ik het nogsteeds niet eens eens dat nieuwe technieken vroeger zonder marketing aan de man kwamen en dat gamers niet kijken naar grafische pracht en alleen maar FPS....
Je post zelf immer Afbeeldingen van artikelen die de verbeterde grafische beeld vergelijkt met hoe dit zonder deze techniek eruit ziet. Ik kan mij ook nog goed herinneren dat reviews vroeger vaker afbeeldingen bevatten over verschil in beeldkwaliteit van ATI vergeleken met Nvidia. Dit staaft dus niet met je bewering dat het maar een heel select groepje mensen is dat hier oog voor heeft.
En hoe anders ga je technieken aanprijzen die zwaarder zijn om te draaien maar er wel mooier uit zien zonder eerste je potentiale klanten te overtuigen dat het er beter uitziet door middel van promo materiaal ?
Vroeger werkte het wellicht anders en Nvidia of ATI minder direct hun marketing wat betreft beeld verbeteringen op de klant richtte maar als het niet van Nvidia of ATI zelf kwam dan kwam het wel van de developers van games die deze features in hun game verwerkten, vanuit de developers is er zeker een "race" geweest om realistische graphics op het beeld te toveren. Wilde je dat je game er ook zo uit zag dan moest je wel de nieuwste kaart kopen om op max settings te draaien en jij gaat mij niet wijsmaken dat gamers daar niet geïnteresseerd in waren/zijn.
Dus of het nu marketing direct vanuit nvidia/ATI was of van game developers die de pracht en praal van hun games demonsteerden alle 2 is het in mijn ogen "marketing" Als de drijfveer echt alleen maar prestaties is dan zaten we nu nog Wolfenstein 3D graphics te spelen op 5000 FPS....
[ Voor 9% gewijzigd door Verwijderd op 23-09-2018 16:49 ]
Zeker niet, maar voordat tessellation toegepast wordt zit er al een hele hoop logica om überhaupt zo ver te komen. En wat jij daar quote komt uit de technische documentatie, niet uit de marketing.Verwijderd schreef op zondag 23 september 2018 @ 16:30:
Dat dus. het is nogal een zwaar deel van hairworks, zonder tesselation zag het er niet uit waarschijnlijk.
Wat gewoon afgrijselijk is. Wij Tweakers horen daar doorheen te kunnen prikkenIk gebruik gewoon de verwoording van Nvidia zelf over het RTX platform
Dat is dan al lang geweest joh. Raytracing is al jaren praktisch beschikbaar en het idee is al tientallen jaren oud. Shrek ooit gezien? Allemaal raytracing hoor. En al vóór RTX kon dat ook met meer dan 1 FPS.Tja, jij noemt het pas een revolutie wanneer bijna iedereen het heeft en ik noem het een revolutie wanneer het gewoon beschikbaar is.
Ik ga hier nu expres heel kort door de bocht aan mijn kant, maar dat doe jij even goed
Nogmaals, geen berg aan marketing brengt dit aan de "gewone" man met dit soort prijzen.Het is grappig hoe je mijn eerste argument totaal verbasterd hebt en dat nu probeert eigen te maken.
Ik stelde dat Marketing cruciaal is voor nvidia om RTX van de grond te krijgen waarop jij met een heel verhaal komt over hoe vroeger nieuwe technieken marketingloos ter wereld kwamen en dat RTX nu niet zal slagen omdat het te duur is...
dan is het toch een logische conclusie dat Nvidia het puur van de marketing moet hebben om RTX nu aan de man te brengen ?
Zoek mij eens wat marketing op voor AF. Of MSAA.Je post zelf immer Afbeeldingen van artikelen die de verbeterde grafische beeld vergelijkt met hoe dit zonder deze techniek eruit ziet. Ik kan mij ook nog goed herinneren dat reviews vroeger vaker afbeeldingen bevatten over verschil in beeldkwaliteit van ATI vergeleken met Nvidia. Dit staaft dus niet met je bewering dat het maar een heel select groepje mensen is dat hier oog voor heeft.
Reviews zijn geen marketing. Het feit dat RC dat toentertijd deed was, zoals ik al zei, uitzonderlijk. Pas 3-4 jaar later begonnen meer reviewers dat te doen omdat er toen prestatie verschillen zichtbaar waren geworden tussen ATI en Nvidia die door specifieke "optimalisaties" zichtbaar werden. Dat was uit interesse van die reviewers en de enthousiastelingen zoals jij en ik. Je beseft hopelijk echter dat wij slechts een fractie van de markt zijn?
De markt waar de 750 Ti, 950/960, 1050/1060 aan verkocht werd/wordt is het grote publiek - de 970 is waarschijnlijk de duurste kaart die zo goed verkocht werd sinds de 8800. Daar zit het volume (IGP's even niet meerekenend). En die markt gaat niet eens beginnen aan een 2070, laat staan een 2080 of zelfs een 2080 Ti. Dus die marketing gaat nu niets uit halen. En als ze over een jaar, twee jaar eenmaal zo ver zijn dat ze het in de volume producten laten door komen is al die hype en al die marketing alweer voorbij. Wil je dat ik mijn AF voorbeelden als "marketing" voor IQ beschouw? Best, want dat staaft alleen maar mijn bewering. AF bestond toen namelijk al -inclusief hardware ondersteuning- enkele jaren. Het was echter pas met de GF2 en Radeon dat het te behapstukken viel qua performance, dus toen werd het pas interessant.
Verwijderd
Ik doel dan ook op de hybride rendemethode en selectief raytracing toe te passen in real time op speelbare framerates natuurlijk weet ik dat raytracing niet nieuws is maar daar gaat de discussie ook niet over.Werelds schreef op zondag 23 september 2018 @ 17:13:
[...]
Z
Dat is dan al lang geweest joh. Raytracing is al jaren praktisch beschikbaar en het idee is al tientallen jaren oud. Shrek ooit gezien? Allemaal raytracing hoor. En al vóór RTX kon dat ook met meer dan 1 FPS.
Ik ga hier nu expres heel kort door de bocht aan mijn kant, maar dat doe jij even goed
En hoe anders ga je technieken aanprijzen die zwaarder zijn om te draaien maar er wel mooier uit zien zonder eerste je potentiale klanten te overtuigen dat het er beter uitziet door middel van promo materiaal ?[...]
Nogmaals, geen berg aan marketing brengt dit aan de "gewone" man met dit soort prijzen.
[...]
Zoek mij eens wat marketing op voor AF. Of MSAA.
Reviews zijn geen marketing. Het feit dat RC dat toentertijd deed was, zoals ik al zei, uitzonderlijk. Pas 3-4 jaar later begonnen meer reviewers dat te doen omdat er toen prestatie verschillen zichtbaar waren geworden tussen ATI en Nvidia die door specifieke "optimalisaties" zichtbaar werden. Dat was uit interesse van die reviewers en de enthousiastelingen zoals jij en ik. Je beseft hopelijk echter dat wij slechts een fractie van de markt zijn?
De markt waar de 750 Ti, 950/960, 1050/1060 aan verkocht werd/wordt is het grote publiek - de 970 is waarschijnlijk de duurste kaart die zo goed verkocht werd sinds de 8800. Daar zit het volume (IGP's even niet meerekenend). En die markt gaat niet eens beginnen aan een 2070, laat staan een 2080 of zelfs een 2080 Ti. Dus die marketing gaat nu niets uit halen. En als ze over een jaar, twee jaar eenmaal zo ver zijn dat ze het in de volume producten laten door komen is al die hype en al die marketing alweer voorbij. Wil je dat ik mijn AF voorbeelden als "marketing" voor IQ beschouw? Best, want dat staaft alleen maar mijn bewering. AF bestond toen namelijk al -inclusief hardware ondersteuning- enkele jaren. Het was echter pas met de GF2 en Radeon dat het te behapstukken viel qua performance, dus toen werd het pas interessant.
Dus of het nu marketing direct vanuit nvidia/ATI was of van game developers die de pracht en praal van hun games demonsteerden alle 2 is het in mijn ogen "marketing" Als de drijfveer echt alleen maar prestaties is dan zaten we nu nog Wolfenstein 3D graphics te spelen op 5000 FPS....
Het is ook zeer irrtant dat je steeds maar weer AF oprakelt alsof elke nieuwe techniek hetzelfde traject heeft doorlopen als AF implementie. Je hebt gelijk dat AF zeker al eerder ontwikkelt was voordat het mainstream gebruikt werd maar we hadden het(althans ik ) niet specifiek over AF maar over vooruitgang in features en technieken in zijn algemeen.
Ik blijf er bij dat marketing een belangrijke rol speelt in de adoptie van nieuwe technieken die beeldkwaliteit verbeteren.
[ Voor 19% gewijzigd door Verwijderd op 23-09-2018 17:33 ]
Ik denk dat we wel kunnen zeggen dat 2070/2080(Ti) zeker niet mainstream zijn en met de hogere prijzen ook niet gaan worden. Massa adoptie van RTX kan dus heel lang gaan duren en daarom lijkt het mij dat het (kan) floppen. Volgens Steam Survey staan de 1080 en 1080Ti respectievelijk op een 8e en 10e plek met iets meer dan 4% market share samen. De 1050(Ti) en 1060 hebben een veel grotere marketshare, maar als het dus zo is dat dit 'gewone' GTX kaarten blijven dan zie ik raytracing nog lang in de marge opereren.
Verwijderd
massa adoptie zal denk ik ook pas gebeuren wanneer het een weg naar de consoles vindLord_Dain schreef op zondag 23 september 2018 @ 19:07:
Ik denk dat we wel kunnen zeggen dat 2070/2080(Ti) zeker niet mainstream zijn en met de hogere prijzen ook niet gaan worden. Massa adoptie van RTX kan dus heel lang gaan duren en daarom lijkt het mij dat het (kan) floppen. Volgens Steam Survey staan de 1080 en 1080Ti respectievelijk op een 8e en 10e plek met iets meer dan 4% market share samen. De 1050(Ti) en 1060 hebben een veel grotere marketshare, maar als het dus zo is dat dit 'gewone' GTX kaarten blijven dan zie ik raytracing nog lang in de marge opereren.
Hoezo continue die "RTX gaat floppen" mentaliteit? Wat men dan eigenlijk stelt is dat DXR gaat falen...
Verder blijft de support vanuit software (game engines (Unreal Engine, Unity, Frostbite) en software suites (Adobe, Autodesk etc)) nog altijd hoger dan ik had verwacht.
Verder blijft de support vanuit software (game engines (Unreal Engine, Unity, Frostbite) en software suites (Adobe, Autodesk etc)) nog altijd hoger dan ik had verwacht.
Dus tot AMD een implementatie heeft om het te versnellen, althans beter dan Vega nu kan.Verwijderd schreef op zondag 23 september 2018 @ 19:13:
[...]
massa adoptie zal denk ik ook pas gebeuren wanneer het een weg naar de consoles vind
RT (DXR) hoeft niet te floppen als RTX flopt, dat zit gewoon in de DX specificatie van MS. Als er een snellere en betere implementatie komt dan zal dat vanzelf loslopen.Paprika schreef op zondag 23 september 2018 @ 19:34:
Hoezo continue die "RTX gaat floppen" mentaliteit? Wat men dan eigenlijk stelt is dat DXR gaat falen...
Verder blijft de support vanuit software (game engines (Unreal Engine, Unity, Frostbite) en software suites (Adobe, Autodesk etc)) nog altijd hoger dan ik had verwacht.
Wat zou de "betere" implementatie moeten zijn dan? Voor bijna alle standaarden geldt dat AMD en NVIDIA een eigen implementatie en/of hardware oplossing bieden. Het succes van RTX als zijnde raytracing is zeer afhankelijk van het succes van DXR. Door de zeer beperkte desktop discrete gpu marketshare van AMD zou je kunnen stellen dat de adoptie van DXR ook sterk afhankelijk is van RTX...Sp3ci3s8472 schreef op zondag 23 september 2018 @ 19:36:
[...]
Dus tot AMD een implementatie heeft om het te versnellen, althans beter dan Vega nu kan.
[...]
RT (DXR) hoeft niet te floppen als RTX flopt, dat zit gewoon in de DX specificatie van MS. Als er een snellere en betere implementatie komt dan zal dat vanzelf loslopen.
Met beter bedoel ik volwassener en sneller, dus over 2 generaties. Grote kans dat het dus ook niet in de volgende generatie consoles komt maar die daarna.Paprika schreef op zondag 23 september 2018 @ 20:12:
[...]
Wat zou de "betere" implementatie moeten zijn dan? Voor bijna alle standaarden geldt dat AMD en NVIDIA een eigen implementatie en/of hardware oplossing bieden. Het succes van RTX als zijnde raytracing is zeer afhankelijk van het succes van DXR. Door de zeer beperkte desktop discrete gpu marketshare van AMD zou je kunnen stellen dat de adoptie van DXR ook sterk afhankelijk is van RTX...
2 generaties is wel lang. Even voor 't idee, de eerste iPhone is jonger dan de PlayStation 3. De Playstation 3 is zo oud als een 8800GTX. De Playstation 2 dan zitten we in 't GeForce 2 tijdperk met 8-32MB geheugenSp3ci3s8472 schreef op zondag 23 september 2018 @ 20:19:
[...]
Met beter bedoel ik volwassener en sneller, dus over 2 generaties. Grote kans dat het dus ook niet in de volgende generatie consoles komt maar die daarna.
[ Voor 5% gewijzigd door Paprika op 23-09-2018 21:20 ]
Maar het is wel realistisch om te denken dat realtime ray tracing ondersteuning niet in de volgende generatie consoles zal zitten. Al helemaal onwaarschijnlijk is RTX voor de volgende consoles. De volgende generatie consoles hebben waarschijnlijk CPU en GPU van AMD. Er is geen ander bedrijf dat een x86 CPU en een fatsoenlijke GPU kan leveren en AMD neemt dit soort semi custom contracten maar wat graag aan. Zeker voor de PS5 lijkt het al redelijk vast te liggen. Veel geruchten over Zen + Navi voor de PS5.Paprika schreef op zondag 23 september 2018 @ 21:19:
[...]
2 generaties is wel lang. Even voor 't idee, de eerste iPhone is jonger dan de PlayStation 3. De Playstation 3 is zo oud als een 8800GTX. De Playstation 2 dan zitten we in 't GeForce 2 tijdperk met 8-32MB geheugen.
Vervolgens is ray tracing ondersteuning voor de Turing generatie een niche van een niche. De mainstream xx60 ondersteunt het waarschijnlijk helemaal niet. De RTX2070 zal het matig ondersteunen en die zal al duur zijn. De RTX2080 en Ti zijn extreem duur en alleen de Ti lijkt enige basale ray tracing te kunnen doen op een resolutie waar de kaart ronduit zinloos is om aan te schaffen. Dan heb je de techniek, maar je gaat er gewoon geen gebruik van maken. Hooguit koop je eens een game die RTX ray tracing ondersteunt en zet je het eens aan om te kijken. Dan zie je dat de framerate is ingestort en zet je het weer uit.
Nee, de generatie na Turing gaat het misschien wat worden. Dat alleen als Nvidia die generatie wel een grote stap zet in zowel traditionele als ray tracing prestaties. Een incrementeel stapje zoals nu gaat niets uithalen.
[ Voor 7% gewijzigd door DaniëlWW2 op 23-09-2018 21:44 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Uiteraard, maar mensen hechten veel te veel waarde aan de console industrie. Zo goed als alle moderne technieken worden nog altijd als eerste op de PC uitgebracht. Sterker nog, er zijn veel AAA titels die nog altijd pc-only zijn.
Unified Shaders was toch echt eerst op consoles hoor.Paprika schreef op zondag 23 september 2018 @ 21:46:
Uiteraard, maar mensen hechten veel te veel waarde aan de console industrie. Zo goed als alle moderne technieken worden nog altijd als eerste op de PC uitgebracht. Sterker nog, er zijn veel AAA titels die nog altijd pc-only zijn.
Natuurlijk kijken te veel mensen naar de consoles. Ze hebben echt niet alle schuld als het om stagnatie gaat. Sommige videogames zijn gewoon luie ports en moet je negeren, maar andere games zijn juist PC first en dan geport naar consoles.
Consoles zijn denk ik helemaal niet relevant in de discussie. Ze krijgen geen RTX ondersteuning, dus klaar. Vervolgens blijft over dat RTX ondersteuning deze generatie uiterst beperkt zal zijn. Heb je nu een Pascal, Polaris of Vega dan is er eigenlijk geen reden om naar Turing over te stappen anders dan wat nieuws willen hebben. Prijs/kwaliteit veranderd niet ten opzichte van Pascal/Vega-Polaris en ik heb al eerder betoogd dat Nvidia ook voor de mainstream geen grote prestatiesprong kan zetten ten opzichte van de GTX1060 omdat ze de RTX2070 dan gaan kannibaliseren.
Vervolgens heeft Nvidia gegokt op AMD die niks kan positioneren tegenover de RTX kaarten. Blijkt dat de verkeerde gok te zijn geweest, dan heeft AMD alle vrijheid om flink marktaandeel te pakken door ver onder de prijzen van Nvidia te gaan zitten met kleinere chips. Dan blijft er weinig over van RTX hardware publiekelijk maken. Het zal nu al gaan om een paar procent van alle gamers, en het grootste deel zal van de RTX2070 moeten komen. Laat die chip nu potentieel bereikbaar zijn voor Vega om te matchen in traditionele shader en rasterization. Volgt jaar komt Navi potentieel ook als bedreiging.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik ben wel benieuwd wat AMD dan zou hebben bedacht, gezien NVIDIA nog altijd de designs van de Pascal kaarten heeft klaarliggen. Tot 7nm verwacht ik niet dat ze zich enig zorg hoeven te maken. De GTX1080 is nog altijd maar een 314nm2 chipje. Vega is 486mm2 en Polaris is 232mm2. Polaris naar Pascal is een toename van 35%.DaniëlWW2 schreef op zondag 23 september 2018 @ 22:05:
[...]
Vervolgens heeft Nvidia gegokt op AMD die niks kan positioneren tegenover de RTX kaarten. Blijkt dat de verkeerde gok te zijn geweest, dan heeft AMD alle vrijheid om flink marktaandeel te pakken door ver onder de prijzen van Nvidia te gaan zitten met kleinere chips.
Ik pak even een recente TPU review voor de cijfers.

RX580 44%, GTX1080 73%. 44 * 1.35 = nog geen 60%. Dat is nog altijd een aardig gat. Relatief gezien zou (bij een 1:1 scaling diesize/performance toename) Polaris 66% groter zou moeten zijn om Pascal te evenaren (385mm2).
Wat dat voor resultaten zou geven op 't gebied van performance/watt laten we maar even achterwegen...

Pssst:
Ik heb zojuist geleerd dat de GTX2080 zeer efficient is.
[ Voor 17% gewijzigd door Paprika op 23-09-2018 23:00 ]
Ik heb het helemaal niet over de RTX2080, dat is waarschijnlijk een verloren zaak, maar de RTX2070.Paprika schreef op zondag 23 september 2018 @ 22:47:
[...]
Ik ben wel benieuwd wat AMD dan zou hebben bedacht, gezien NVIDIA nog altijd de designs van de Pascal kaarten heeft klaarliggen. Tot 7nm verwacht ik niet dat ze zich enig zorg hoeven te maken. De GTX1080 is nog altijd maar een 314nm2 chipje. Vega is 486mm2 en Polaris is 232mm2. Polaris naar Pascal is een toename van 35%.
Dat is een chip met 78% van de traditionele shaders en rasterization van de RTX2080. Uitgaande van lineaire schaling zit die al dichtbij een GP104 of Vega 10. Vega 10 benchmarks zijn dan ook nog eens misleidend omdat vrijwel iedereen een Vega makkelijk efficiënter en sneller kan maken met undervolting. Als ze bij de RTG stoppen met hun 1200mv waanzin en de chips op 1000mv binnen, dan krijg je veel zuinigere en snellere producten.
Nvidia kan GP104 om deze reden niet rebranden als GTX2060. Ze kannibaliseren de RTX2070 helemaal weg omdat die chips kleiner en goedkoper zullen zijn om te maken, te koelen en ze zullen nauwelijks langzamer zijn. Vervolgens kan een Navi met vergelijkbare of iets betere prestaties dan RX Vega, de RTX2070 ook helemaal kanaliseren. Navi is waarschijnlijk een mainstream chip vergelijkbaar met wat AMD deed met Fiji en Polaris. Kleiner productieproces, GDDR i.p.v HBM en in het algemeen een veel goedkoper product dat vergelijkbaar presteert als de high-end van het jaar ervoor.
Het is niet onredelijk om te vermoeden dat Navi in de buurt van Vega zal presteren. Is Navi dan te krijgen voor mainstream prijzen, dan is de RTX2070 weg, en de xx60 heeft dan ook grote problemen. TU-106 is ook nog steeds 445mm2, te groot om er een €300 chip van te maken. AMD zal dit echt wel beseffen er alles op inzetten om Nvidia in die positie te manoeuvreren en zo marktaandeel te pakken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Om te beginnen wil ik even zeggen dat ik het niet volledig met je oneens ben, maar dat de schade volgens mij wel meevalt. NVIDIA heeft bewust een kaart (RTX2080) uitgebracht waarvoor er praktisch gezien directe concurrentie is van de goedkopere GTX2080Ti. Ik zie 't zo gebeuren dat ze een 8800GT-achtige kaart zouden uitbrengen die praktisch gezien hun hele line-up te niet doet, als dat is wat nodig is om over de hele markt te winnen.DaniëlWW2 schreef op zondag 23 september 2018 @ 23:11:
[...]
Ik heb het helemaal niet over de RTX2080, dat is waarschijnlijk een verloren zaak, maar de RTX2070.![]()
Dat is een chip met 78% van de traditionele shaders en rasterization van de RTX2080. Uitgaande van lineaire schaling zit die al dichtbij een GP104 of Vega 10. Vega 10 benchmarks zijn dan ook nog eens misleidend omdat vrijwel iedereen een Vega makkelijk efficiënter en sneller kan maken met undervolting. Als ze bij de RTG stoppen met hun 1200mv waanzin en de chips op 1000mv binnen, dan krijg je veel zuinigere en snellere producten.
Nvidia kan GP104 om deze reden niet rebranden als GTX2060. Ze kannibaliseren de RTX2070 helemaal weg omdat die chips kleiner en goedkoper zullen zijn om te maken, te koelen en ze zullen nauwelijks langzamer zijn.
Rather than actually create a midrange part based on G80, NVIDIA opted to tweak the core, shrink to a 65nm process, integrate the display engine, and come out with hardware that performed somewhere between the high end 8800 GTS and GTX (G92). While this, in itself, isn't remarkable, the fact that NVIDIA is pricing this card between $200 and $250 is. Essentially, we've been given a revised high end part at midrange prices. The resulting card, the 8800 GT, essentially cannibalizes a large chunk of NVIDIA's own DX10 class hardware lineup. Needless to say, it also further puts AMD's 2900 XT to shame.
[ Voor 19% gewijzigd door Paprika op 23-09-2018 23:21 ]
Is niet moeilijk als de helft van de transistors er alleen maar op zitten als heatspreader.Paprika schreef op zondag 23 september 2018 @ 22:47:
[...]
Pssst:
Ik heb zojuist geleerd dat de GTX2080 zeer efficient is.
How do you save a random generator ?
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.

