Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Tja, die gasten kunnen ook alleen maar speculeren met de geringe informatie die ze ontvangen. Een beetje zoals Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56" al zei, maar ook AdoredTV weet echt niet alle details waarom Nvidia nu bij Samsung zit.Sissors schreef op woensdag 16 september 2020 @ 16:09:
[...]
Maar het laat al wel zien dat de voorspellingen van AdoredTV en MLID onzin gaan zijn.
En dan toch zo'n video durven maken...
Ik heb bij sommigen toch wel de vraag of het 'ontvangen' is en niet heel veel praten over een leak van een Twitteraar die wel echte informatie heeft. Meestal is het wel heel toevallig in tijdslijnen allemaal. Volgende GPU reeks ga ik het echt bijhouden.XWB schreef op woensdag 16 september 2020 @ 16:23:
[...]
Tja, die gasten kunnen ook alleen maar speculeren met de geringe informatie die ze ontvangen.
Welke voorspellingen bedoel je dan precies? Voorlopig heb ik nog niet veel gezien dat ingaat tegen de analyse van beide kanalen. Ook zij hebben voorspeld dat de FE versies van de RTX 3080 en 3090 prima zullen koelen en relatief stil zullen blijven. De conclusie in de Tweakers -recensie luidt nu ook al dat de AIB partnermodellen het nog wel eens moeilijk kunnen gaan krijgen om dat niveau te gaan halen:Sissors schreef op woensdag 16 september 2020 @ 16:09:
[...]
Eens, dat is een bakbeest, en die gaat gewoon echt goed het doen is mijn verwachting. En deze is dus echt niet slecht, vooral niet voor een FE koeler. Maar het laat al wel zien dat de voorspellingen van AdoredTV en MLID onzin gaan zijn.
Nvidia slaat natuurlijk al flink op de trom over zijn nieuwe koelconcept voor de Founders Edition, maar reken maar dat ook andere fabrikanten alles uit de kast moeten trekken om hun nieuwe kaarten goed te koelen.
[..]
De verscheidene Nvidia-partners zullen ongetwijfeld modellen kunnen bouwen die onder belasting nog stiller zijn, maar of ze dat ook voor een soortgelijke prijs kunnen doen… Wij vragen het ons af. Nvidia verkoopt de Founders Edition echter alleen via zijn eigen website en van de vorige generatie weten we dat voorraad daar absoluut geen gegeven is. In hoeverre fabrikanten van custom-RTX 3080's zich zorgen moeten gaan maken, valt dus te bezien.
Klopt, morgen weten we het zeker, dus nog even afwachtenchoogen schreef op woensdag 16 september 2020 @ 16:33:
[...]
Welke voorspellingen bedoel je dan precies? Voorlopig heb ik nog niet veel gezien dat ingaat tegen de analyse van beide kanalen. Ook zij hebben voorspeld dat de FE versies van de RTX 3080 en 3090 prima zullen koelen en relatief stil zullen blijven. De conclusie in de Tweakers -recensie luidt nu ook al dat de AIB partnermodellen het nog wel eens moeilijk kunnen gaan krijgen om dat niveau te gaan halen:
Nvidia slaat natuurlijk al flink op de trom over zijn nieuwe koelconcept voor de Founders Edition, maar reken maar dat ook andere fabrikanten alles uit de kast moeten trekken om hun nieuwe kaarten goed te koelen.
[..]
De verscheidene Nvidia-partners zullen ongetwijfeld modellen kunnen bouwen die onder belasting nog stiller zijn, maar of ze dat ook voor een soortgelijke prijs kunnen doen… Wij vragen het ons af. Nvidia verkoopt de Founders Edition echter alleen via zijn eigen website en van de vorige generatie weten we dat voorraad daar absoluut geen gegeven is. In hoeverre fabrikanten van custom-RTX 3080's zich zorgen moeten gaan maken, valt dus te bezien.
Nogal dramatische timings, zeker gezien het hardstikke simpel is om 3600 c15 of iets dergelijks te draaien op Ryzen (of Intel).computerjunky schreef op woensdag 16 september 2020 @ 15:59:
[...]
Dat gekozen geheugen.... Dat is gewoon een true latency van 10. Ze hadden net zo goed 3000 cl16 kunnen pakken.
Geef dan ook goede voorbeelden en timestamps. Tenminste van MLID, want volgens mij is het meeste wat hij heeft geleaked gewoon waar en geeft hij aan bij dingen die hij niet zeker weet dat het speculaas is (ik zag al weer pepernoten in de winkel).XWB schreef op woensdag 16 september 2020 @ 16:23:
[...]
Tja, die gasten kunnen ook alleen maar speculeren met de geringe informatie die ze ontvangen. Een beetje zoals Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56" al zei, maar ook AdoredTV weet echt niet alle details waarom Nvidia nu bij Samsung zit.
En dan toch zo'n video durven maken...
Wat betreft de benchmarks en de uiteindelijke performance.
Ik ben niet super onder de indruk van de totale prestaties het valt in lijn met mijn verwachtingen (en dan voornamelijk tegenover de RTX 2080 Ti), ik had op iets hoger gerekend zeker na de de marketing van Digital Foundry. Wat wel erg goed is is de prijs/performance en de FE koeler!
Een deel van de prijs/performance is voornamelijk goed omdat Turing gewoon een hele slechter prijs/performance had.
Ja, Ik weet niet of dit pure onwetendheid is of dat ze voor save gegaan zijn omdat 1 van de 2 test systemen niet stabiel was met fatsoenlijke timings. Maar echt serieus kan ik de resultaten niet meer nemen met die timings. Er is gewoon beter geheugen te koop voor veel minder geld.Sp3ci3s8472 schreef op woensdag 16 september 2020 @ 16:52:
[...]
Nogal dramatische timings, zeker gezien het hardstikke simpel is om 3600 c15 of iets dergelijks te draaien op Ryzen (of Intel).
Ik ben er inmiddels uit over MILD. Ik had een tijdlang mijn twijfels, toen sloeg ik om, maar ik ben bang dat mijn eerste ingeving correct was. Ik heb geleerd van het 5GHz Zen 2 debacle en ik geloof niet zo snel meer iets. Mijn scepsis was er dan ook zeker en die lijkt gevalideerd te zijn.Paprika schreef op woensdag 16 september 2020 @ 16:24:
[...]
Ik heb bij sommigen toch wel de vraag of het 'ontvangen' is en niet heel veel praten over een leak van een Twitteraar die wel echte informatie heeft. Meestal is het wel heel toevallig in tijdslijnen allemaal. Volgende GPU reeks ga ik het echt bijhouden.
Even voor the record:
DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"Ik vind het alleen wel opvallend dat het GDDR6X zou zijn. Ik volg dit hieronder losjes en met enige scepsis de afgelopen maanden. Ergens koester ik namelijk een zekere mate van wantrouwen, het gevoel dat er iets niet klopt wat ik maar niet kan afschudden, maar ik begin te vermoeden dat het echt wel eens kan kloppen.
DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"Ondertussen zijn mijn twijfels hierover grotendeels aan het verdwijnen. Ik denk dat zijn de bronnen goed zijn en het beeld is niet erg prettig.
Voor die tweede zijn claims 1 en 4 zijn bevestigd, 2 en 3 zijn vrijwel zeker, 5 klopt niet maar die reken ik niet erg zwaar en 6 gaat waarschijnlijk kloppen qua shaders, in ieder geval voor 4K. RT is complete onzin want die claims waren 300 a 400%, right...
En dat is het probleem. De meeste van deze claims kon je elders vinden, de kabel kon je aardig gokken maar het klopt ook niet. De RT dook voor zover ik weet nergens op. Daar ging het dus helemaal mis. Het is niet eens in de buurt. Nu sluit ik niet uit dat hij wat onafhankelijke bronnen had, maar ik vermoed wel dat het tenminste gedeeltelijk opgeklopt was met sensatie voor clicks. Dat of hij had echt goede bronnen en heeft de analyses volledig verknalt.
Maar Ampere dan waar ik begin met RT. Alleen Quake II RTX en Minecraft RTX laten echt serieuze RT verbeteringen zien. Dat is alleen omdat die games nauwelijks tot geen shaders gebruiken. Ik wist een paar dagen geleden dat dit eraan zat te komen toen duidelijk werd dat er geen extra cache in de SM zit voor meer RT. Als ik het afzet met andere RTX games, dan lijkt Ampere een gigantische SM cache bottleneck te hebben waardoor de hardware simpelweg niet al die verschillende functies kan doen. Het is een beetje shaders, beetje compute en een beetje RT en die drie vechten om de cache. Daarnaast heb je de context switching problematiek.
Deze is van de GTX1660, maar het gaat om het beeld. Uiteindelijk lijkt Ampere ondanks de 2x FP32 ALU's niet in staat te zijn om die theoretische 100 instructies, veel sneller uit te voeren dan Turing in de meeste games. Daarom kijk je naar 20 a 25% als je de RTX2080Ti vergelijkt met de RTX3080 met beiden 68SM's.

Ik moet eerlijk toegeven dat ik oprecht bang was dat de RTX3080 niet eens 20% sneller zou zijn dan de RTX2080Ti. Als ik de reviews zo zie, dan is het iets van 21% in 1440p en 25% in 4K. Ik wist eigenlijk al vrij zeker dat het geen 30% zou zijn vanwege een vraag die Tweakers had gesteld aan Nvidia rond een persmoment. Dat artikel stond een paar dagen geleden bovenaan de hoofdpagina. Ze hadden namelijk gevraagd hoeveel die extra FP32 ALU's zouden opleveren, Nvidia zei ruim 30%. Ik heb de gebruikelijke "afronding naar boven" marge genomen en dat blijkt te kloppen. Het is alleen wel heel erg karig voor 144GB/s extra en een verdubbeling van FP32 capable ALU's. Oh en ongeveer 45W extra voor weinig extra effectieve clock speed over de RTX2080Ti.
Ik begrijp de prijs nu ook helemaal. Over de RTX2080 is dit natuurlijk een goede stap voorwaarde, maar over de RTX2080Ti dus niet. Hybrid RT schaling lijkt ondanks claims, nauwelijks tot niet beter dan Turing te zijn en dat is wel echt een constatering die ik ook pijnlijk vind. Het ontgaat mensen soms, maar ik maak in mijn hoofd een bewust onderscheid tussen de technische staf aan de ene kant en het leiderschap aan de andere kant. Ik heb er nooit een geheim van gemaakt dat ik geen fan ben van Nvidia hun zakelijke praktijken, maar die ingenieurs, die zijn gewoon goed. Ditmaal kan ik de gedachte niet onttrekken dat het wel heel erg karig is wat ze hebben gepresteerd. Ik hou ook rekening met de cyclus van circa vier jaar voor GPU ontwikkeling. Ampere is ontwikkeld met de gigantische omzet en winstmarge verhogingen en het sterk oplopende R&D budget van Nvidia sinds Pascal. Het resultaat is niet erg indrukwekkend.
Natuurlijk komt de RTX3090 er nog overheen, maar die is minder dan 20% groter met 82SM's i.p.v. 68SM's. De $1499 is alleen compleet buiten proporties voor de prestatiewinst. Het gaat misschien 20% zijn, maar het kan ook iets minder zijn. Reken voorlopig op RTX2080Ti +40%. Op papier een mooie stap, totdat je de prijs ziet.
Onder de streep is de RTX3080 voor de msrp best een aardig product, tenminste als je het beschouwd vergeleken met het miserabele Turing, maar de leverbaarheid lijkt een serieuze vraag te zijn. Ook blijven die geruchten van een 20GB versie bestaan en sluit ik een RTX3080Ti zeker niet uit. Het is alleen wel 320W en ik plaats vraagtekens bij de "instapmodellen" in hun capaciteit om die hitte af te voeren zonder een goede poging om een Radeon Blower na te bootsen in geluidsproductie. Als dat je opties zijn, tja dan is de effectieve prijs eerder $799. Zou me ook niks verbazen omdat het voor Turing eigenlijk ook zo was dat de meeste goedkope modellen simpelweg niet interessant waren, ook voor de minder veeleisende consument. Er zat heel wat matig tot slecht tussen en Turing was dan heel wat efficiënter.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De 2080 was ~2% sneller dan de 1080Ti in het begin.DaniëlWW2 schreef op woensdag 16 september 2020 @ 19:37:
[...]
Ik moet eerlijk toegeven dat ik oprecht bang was dat de RTX3080 niet eens 20% sneller zou zijn dan de RTX2080Ti.
Lijkt me een verbetering nu voor de 3080 t.o.v. de 2080Ti, aangezien 20%+ ?
Is this a bad thing?
Het valt gewoon op dat iedere release de leakers die accuraat zijn vooral stilletjes zeer beperkt leaken zonder media aandacht. Het is ook niet heel gek. Waarom zou je riskeren iets te lekken aan een persoon die geld gaat verdienen met jouw informatie (YouTube), terwijl je 't risico loopt dat de data onverwacht naar jou te herleiden blijkt en dan zit je nog in de shit ook.
Dat is weer een andere manier om ernaar te kijken. Toch lekt er verrassend veel, zeker over Ampere. AMD was eigenlijk ook hartstikke lek als het om Zen 2 ging. Maar het is altijd een risico als je iets lekt dat opgezet is als een valstrik. Het is ook waarom ik denk dat we zo weinig horen over RDNA2 en het vaak tegenstrijdig lijkt.Paprika schreef op woensdag 16 september 2020 @ 19:48:
@DaniëlWW2
Het valt gewoon op dat iedere release de leakers die accuraat zijn vooral stilletjes zeer beperkt leaken zonder media aandacht. Het is ook niet heel gek. Waarom zou je riskeren iets te lekken aan een persoon die geld gaat verdienen met jouw informatie (YouTube), terwijl je 't risico loopt dat de data onverwacht naar jou te herleiden blijkt en dan zit je nog in de shit ook.
Het monetariseren door derden, tja daar zou ik ook niet happig op zijn als ik mijn baan zou riskeren nee. Het sluit alleen niet of of er bronnen waren die correct waren. Dat laat ik in het midden. Ik moet alleen wel constateren dat het enige onderscheidende punt van MILD over veel anderen, totale onzin is gebleken. Dat is mijn punt.
Het verschil is dat Turing op shadergebied echt iets aanpakte. Pascal is dezelfde architectuur als Maxwell, alleen meer ALU's en veel hogere clock speeds. Maxwell en Pascal hadden alleen last van games zoals BF5 waar tussen de floating point instructies ook veel integer instructies zaten.SideShow schreef op woensdag 16 september 2020 @ 19:42:
[...]
De 2080 was ~2% sneller dan de 1080Ti in het begin.
Lijkt me een verbetering nu voor de 3080 t.o.v. de 2080Ti, aangezien 20%+ ?
Is this a bad thing?
Turing vulde dit aan met een dedicated INT32 ALU's die een forse bottleneck weghaalde. Daarom was Turing opeens zoveel sneller in games zoals Battlefield 5. Turing was vanaf dag een ook beduidend sneller op een per SM basis dan Pascal. Zie RTX2080 en GTX1080Ti. De RTX2080 heeft 2944 FP32 ALU's, de GTX1080Ti 3584. Toch was de RTX2080 in de meeste games, al iets sneller.
Ampere lijkt twee hardware bottlenecks te hebben die juist naar voren komen in gemengde berekeningen, juist dus de videogames. Ampere zal heel wat sneller zijn in professionele taken waar je een type instructie uitvoert, dus floating point of integer of RT. Games gaan alleen juist steeds meer de kant van gemengde type instructies op. Ik verwacht wel dat Nvidia nog wat zal kunnen winnen met drivers of games die iets beter gebruik maken van Ampere, maar niet veel.
@Werelds Whitepaper.
NVIDIA AMPERE GA102 GPU ARCHITECTURE (PDF)https://t.co/IV5799i7Ib
— Andreas Schilling 🇺🇦 🇮🇱 (@aschilling) 16 september 2020
[ Voor 6% gewijzigd door DaniëlWW2 op 16-09-2020 20:10 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Yep, staat niet veel in wat we niet al wisten of uitgevogeld hadden
Ik zit ook net even te kijken. Tot dusver ook nog niks gezien dat niet allang gelekt of gereconstrueerd is nee. Deze verklaring is wel nieuw en Nvidia maakt het hier wel erg mooi.Werelds schreef op woensdag 16 september 2020 @ 22:56:
[...]
Yep, staat niet veel in wat we niet al wisten of uitgevogeld hadden
[ Voor 3% gewijzigd door DaniëlWW2 op 16-09-2020 23:30 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://www.techpowerup.c...-founders-edition/37.html
Hier had Computerbase een leuke vergelijking bij als je zowel de 3080 als de 2080 Ti op 270 watt draait: de prestatiewinst voor die 50 watt extra is gemiddeld 4%, met een maximum van 7% en een minimum van 1%. Zelfs in benchmarkdarling Control komt het niet boven de 6% uit (met RTX en DLSS uit -- zet je die aan dan zal het best in de buurt komen van de beloofde curve). Nvidia heeft echt vol ingezet op de laatste procentjes extra eruit persen en specifieke benches pimpen door boven de efficiëntiecurve te gaan zitten, plus een flink betere koeler om bestaande winsten te consolideren en de nieuwe niet verloren te laten gaan.DaniëlWW2 schreef op woensdag 16 september 2020 @ 19:37:
Oh en ongeveer 45W extra voor weinig extra effectieve clock speed over de RTX2080Ti.
Al met al een knappe prestatie dat ze er een mooi eindresultaat van weten te maken dat goed te verkopen is, maar puur op techniek inderdaad best teleurstellend.
[ Voor 13% gewijzigd door MneoreJ op 17-09-2020 10:24 ]
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
DaniëlWW2 schreef op woensdag 16 september 2020 @ 23:04:
[...]
Ik zit ook net even te kijken. Tot dusver ook nog niks gezien dat niet allang gelekt of gereconstrueerd is nee. Deze verklaring is wel nieuw en Nvidia maakt het hier wel erg mooi.![]()
[Afbeelding]
:strip_exif()/f/image/wwTXxrxjDaCDYHBc7MPunK5a.jpg?f=fotoalbum_large)
Deze is toch hetzelfde?
:fill(white):gifsicle():strip_exif()/f/image/aRCObvKzHeLdnJfbgS57Yafg.gif?f=user_large)
Core overclockingThe maximum stable GPU overclock was 1855 MHz Boost, which increases average GPU clock from 1931 MHz to 1947 MHz (1% overclock).
Ruim 21GHz. Nu maar zien of meerdere consumenten dit ook gaan halen.With manual overclocking, maximum overclock of our sample is 1320 MHz on the memory (11% overclock), which is pretty impressive for a brand-new memory technology—I'm sure it won't be long before we see 20 Gbps or 21 Gbps GDDR6X officially.
Dit is Nvidia's whitepaper. Het is een technisch document en zeker niet bedoeld voor algemene consumptie of marketing.mitsumark schreef op donderdag 17 september 2020 @ 00:50:
"Results based on Control," lees je vrij makkelijk overheen, maar voor die specifieke benchmark is er weinig aan gelogen.
https://www.techpowerup.c...-founders-edition/37.html
Ze komen hier alleen aanzetten met een vergelijking waarin ze het verbruik van een RTX3080 van 320W naar ongeveer 130W verlagen en dan claimen dat die net zo snel is als de RTX2080. Nogal wiedes aangezien de RTX3080 40% extra SM's heeft en clock speeds nooit zo goed schalen. Dat is gewoon misleidend en ik vind het ergens heel erg tekenend dat Nvidia dit doet.
Ik vind het eigenlijk vooral de prijs die het product hier maakt. Ten opzichte van Turing is dit natuurlijk een forse verbetering. Nu was de RTX2080 misschien wel de meest miserabele optie in een hele generatie (beide kampen) van teleurstellingen, maar toch. Technisch is het alleen zwak. Met die test zie je wel dat Samsung 8N, Nvidia hun custom proces, zeer slechte schaling lijkt te hebben. Een paar procent voor 50W is veel te veel. Het doet me heel erg aan Vega op Samsung 14nm LPP denken. Dat was ook een chip die op zich veel hoger wou clocken, maar het ging alleen met een bezopen verbruik. Je kon Vega's ook zo bizar undervolten en alsnog nauwelijks iets verliezen of de videokaart zelfs iets hoger te laten clocken. Ik zou niet verbaast zijn als je nog veel lager kan gaan met een RTX3080 zonder veel te verliezen.MneoreJ schreef op donderdag 17 september 2020 @ 06:25:
[...]
Hier had Computerbase een leuke vergelijking bij als je zowel de 3080 als de 2080 Ti op 270 watt draait: de prestatiewinst voor die 50 watt extra is gemiddeld 4%, met een maximum van 7% en een minimum van 1%. Zelfs in benchmarkdarling Control komt het niet boven de 6% uit (met RTX en DLSS uit -- zet je die aan dan zal het best in de buurt komen van de beloofde curve). Nvidia heeft echt vol ingezet op de laatste procentjes extra eruit persen en specifieke benches pimpen door boven de efficientiëcurve te gaan zitten, plus een flink betere koeler om bestaande winsten te consolideren en de nieuwe niet verloren te laten gaan.
Al met al een knappe prestatie dat ze er een mooi eindresultaat van weten te maken dat goed te verkopen is, maar puur op techniek inderdaad best teleurstellend.
Als er iets was dat ze echt hadden moeten verbeteren voor Ampere, dan was het de RT veel meer gelijktrekken met shaders. De afgelopen weken heb ik vaak het commentaar gezien dat Turing "RTX Beta" was en het nu zou komen. Dat hebben ze nagelaten want het is niet veel beter in hybrid shaders+RT. Dat kon ook niet omdat Nvidia heeft nagelaten om de cache binnen de SM te vergroten, maar wel meer te vragen van die cache onder gaming workloads. Dan krijg je dit. Je lijkt nog steeds te kijken naar ongeveer een halvering van framerates als je RT aanzet. Ik vermoed dat DLSS hier effectief functioneert als een ontlasting van de SM cache, maar dat is ook niet zaligmakend. De tijd dat games met RT alleen RTX waren en Nvidia er dan DLSS bij kon doen, tja die loopt tegen haar einde met de XSX en PS5 in aantocht. RTX is niet langer meer de enige serieuze mogelijkheid. RTX zal veel meer de Nvidia implementatie van DXR zijn, zoals RTX ook altijd bedoeld is. DLSS erbij zal er zeker niet altijd inzitten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
(MLiD alert
Vergeet niet dat dit een sample van 1 is. Als zij net golden solicon hebben die veel minder vcore nodig heeft voor de top prestaties betekend dit dat ze makkelijk kunnen undervolten waar een ander met slechte silicon misschien 10 watt naar beneden kan en al prestatie verlies heeft.MneoreJ schreef op donderdag 17 september 2020 @ 06:25:
[...]
Hier had Computerbase een leuke vergelijking bij als je zowel de 3080 als de 2080 Ti op 270 watt draait: de prestatiewinst voor die 50 watt extra is gemiddeld 4%, met een maximum van 7% en een minimum van 1%. Zelfs in benchmarkdarling Control komt het niet boven de 6% uit (met RTX en DLSS uit -- zet je die aan dan zal het best in de buurt komen van de beloofde curve). Nvidia heeft echt vol ingezet op de laatste procentjes extra eruit persen en specifieke benches pimpen door boven de efficiëntiecurve te gaan zitten, plus een flink betere koeler om bestaande winsten te consolideren en de nieuwe niet verloren te laten gaan.
Al met al een knappe prestatie dat ze er een mooi eindresultaat van weten te maken dat goed te verkopen is, maar puur op techniek inderdaad best teleurstellend.
Undervolten is een gok niet iedere kaart zal hetzelfde kunnen. Ik had ook al een undervolt naar 250 watt ergens gezien voor minimaal verlies. Het is een kwestie van geluk.
Het punt was dan ook niet of je "geluk" kunt hebben als individuele eigenaar maar dat dit aantoont dat Nvidia's proces nog genoeg ruimte heeft voor verbetering, omdat er zoveel extra watt toegepast wordt voor een relatief kleine winst. Ik wens de toekomstige eigenaars van de 3080 verder veel plezier met hun kleinood, ik zal er niet een van zijn -- ik heb meer interesse voor hoe de prijzen en prestaties eruit gaat zien in de lagere segmenten. Ik zit dan ook meer te wachten op de refresh van deze generatie; die zou wel eens een stuk interessanter kunnen worden dan het brute geweld dat hier wordt toegepast. (En natuurlijk waar AMD mee komt, maar dat is een ander topic.)computerjunky schreef op donderdag 17 september 2020 @ 11:27:
Vergeet niet dat dit een sample van 1 is. Als zij net golden solicon hebben die veel minder vcore nodig heeft voor de top prestaties betekend dit dat ze makkelijk kunnen undervolten waar een ander met slechte silicon misschien 10 watt naar beneden kan en al prestatie verlies heeft.
Undervolten is een gok niet iedere kaart zal hetzelfde kunnen. Ik had ook al een undervolt naar 250 watt ergens gezien voor minimaal verlies. Het is een kwestie van geluk.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Je noemt niet zomaar hoeveel VRAM een kaart heeft.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Damn, zit al klaar om te bestellen en nu breng je me toch weer aan het twijfelen.RobinNL schreef op donderdag 17 september 2020 @ 11:58:
Nvidia hint nu ook dat er een 3080 komt met meer VRAM: https://videocardz.com/ne...rtx-3080-with-20gb-memory
Je noemt niet zomaar hoeveel VRAM een kaart heeft.
:strip_exif()/f/image/jUZjS48ZqEuQHKuwAvSZWEnT.png?f=user_large)
een 4080 met 16GB. Door 'under delivery' in het heden garanderen ze inkomsten voor de toekomst.
Het ligt er maar net aan of je de kaart nu echt nodig hebt, of nog even kan wachten. Ik zit zelf bij de tweede groep, ook vanwege Zen 3 die pas over een tijdje komt.killerbee1958 schreef op donderdag 17 september 2020 @ 12:07:
[...]
Damn, zit al klaar om te bestellen en nu breng je me toch weer aan het twijfelen.
AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
Als je kaarten van 700 euro koopt, update je toch sowieso elke 2 - 3 jaar?Saturnus schreef op donderdag 17 september 2020 @ 12:11:
Maar dan de crux...over 1-2 jaar als de consoles 16GB (geoptimaliseerd) als standaard hebben gepusht zit je met een onderpresterende kaart en ga je updaten naar...
Cijfers daarvan ben ik niet bekend mee, zou wel interessant zijn.Olaf van der Spek schreef op donderdag 17 september 2020 @ 12:16:
[...]
Als je kaarten van 700 euro koopt, update je toch sowieso elke 2 - 3 jaar?
Je gaat voorbij aan het feit dat deze 3000 serie een nieuwe manier heeft van geheugen bandbreedte compressie en het feit dat het geheugen wat spellen vragen , niet gelijk staat aan wat ze daadwerkelijk nodig hebben. 10 GB lijkt mij vooralsnog meer dan voldoende.Saturnus schreef op donderdag 17 september 2020 @ 12:11:
Wat er voor mij weer uitspringt op een nieuw niveau is de geweldige tactiek van nVidia. Een kaart met te weinig geheugen uitbrengen, (half jaar terug scoorde ik een 2017 RX580 met 8GB voor 100 euro, hoe kan een 700 euro kaart maar 2GB meer hebben...), mensen kopen hem want 'veel beter en goedkoper,' de 'price-performance kaart'. Maar dan de crux...over 1-2 jaar als de consoles 16GB (geoptimaliseerd) als standaard hebben gepusht zit je met een onderpresterende kaart en ga je updaten naar...
[Afbeelding]
een 4080 met 16GB. Door 'under delivery' in het heden garanderen ze inkomsten voor de toekomst.Ik heb wat shares gekocht.
Verwijderd
Het is geen tactiek maar een moetje doordat de 16Gb GDDR6X chips pas begin 2021 in massaproductie gaan volgens Micron.Saturnus schreef op donderdag 17 september 2020 @ 12:11:
Wat er voor mij weer uitspringt op een nieuw niveau is de geweldige tactiek van nVidia.
Als ze er 10GB op kunnen zetten zou je zeggen dat 20 ook nu al kan toch?Verwijderd schreef op donderdag 17 september 2020 @ 12:24:
[...]
Het is geen tactiek maar een moetje doordat de 16Gb GDDR6X chips pas begin 2021 in massaproductie gaan volgens Micron.
Verwijderd
Alleen 8Gb GDDR6X chips zijn beschikbaar, vandaar dat nVidia bij de RTX 3090 voor de zeer dure optie met geheugen aan beide kanten van het PCB is gegaan. 10GB is daarom op dit moment de max voor een RTX 3080, 20GB is pas een optie als de 16Gb chips in massaproductie gaan.flessuh schreef op donderdag 17 september 2020 @ 12:25:
[...]
Als ze er 10GB op kunnen zetten zou je zeggen dat 20 ook nu al kan toch?
Memory size is nooit de bottleneck geweest bij videokaarten. En RAM in consoles is shared memory tussen CPU en GPU o.a. De GPU zal nooit de volle 16GB benutten. En daarnaast heeft de 3080 met GDDR6X enorm veel bandbreedte bijna het dubbele wat een PS5 bijvoorbeeld aanbied(720GB/s vs 448GB/s). Ik snap je punt dus niet waarom je vindt dat het flauw is dat er niet meer memory is? Het is gewoonweg niet nodig. Anders hadden ze wel gewacht op de 16GB chips, maar lijkt mij eerder dat dat een 3080Ti gaat worden volgend jaar met meer cores etc. zit een enorm prijs gat tussen 715-1500 euro om op te vullen door hun.Saturnus schreef op donderdag 17 september 2020 @ 12:11:
Wat er voor mij weer uitspringt op een nieuw niveau is de geweldige tactiek van nVidia. Een kaart met te weinig geheugen uitbrengen, (half jaar terug scoorde ik een 2017 RX580 met 8GB voor 100 euro, hoe kan een 700 euro kaart maar 2GB meer hebben...), mensen kopen hem want 'veel beter en goedkoper,' de 'price-performance kaart'. Maar dan de crux...over 1-2 jaar als de consoles 16GB (geoptimaliseerd) als standaard hebben gepusht zit je met een onderpresterende kaart en ga je updaten naar...
[Afbeelding]
een 4080 met 16GB. Door 'under delivery' in het heden garanderen ze inkomsten voor de toekomst.Ik heb wat shares gekocht.
[ Voor 7% gewijzigd door Phntm op 17-09-2020 14:02 ]
Het kiezen voor GDDR6X is een tactiek op zich. Leuk vanuit een technolgiestandpunt, maar niet noodzakelijk vanuit een gebruikerperspectief om een high-end kaart met zo'n mogelijke compromis de markt op te sturen. https://itigic.com/gddr6x...raphics-memory-comparison Leuk voor die BFGPU3090.Verwijderd schreef op donderdag 17 september 2020 @ 12:24:
[...]
Het is geen tactiek maar een moetje doordat de 16Gb GDDR6X chips pas begin 2021 in massaproductie gaan volgens Micron.
Ik kan er weinig over vinden. 20-40% ruimtebesparing wordt er geroepen op Tweaktown.Visgek82 schreef op donderdag 17 september 2020 @ 12:22:
[...]
Je gaat voorbij aan het feit dat deze 3000 serie een nieuwe manier heeft van geheugen bandbreedte compressie en het feit dat het geheugen wat spellen vragen , niet gelijk staat aan wat ze daadwerkelijk nodig hebben. 10 GB lijkt mij vooralsnog meer dan voldoende.
Nou kan ik mij niet herinneren dat er berichten waren van een Turing die de helft meer data kan stoppen in hetzelfde aantal GB geheugen vergeleken met een Pascal. Dus wat die 20-40% echt betekent...Turing architecture brings new lossless compression techniques. NVIDIA claims that their further improvements to ‘state of the art’ Pascal algorithms have provided (in NVIDIA’s own words) ‘50% increase in effective bandwidth on Turing compared to Pascal’.
Anders had Nvidia hier dat argument van memory compression kunnen maken toch? Dat zou perfecte marketing zijn, zeggen dat je een 12-16GB equivalent kaart hebt.Nvidia says it’s using 10GB, as most games don’t need the additional memory right now, and the company had to get the right balance of extra memory and the pricing of the RTX 3080. It does leave the door very open for Nvidia to introduce an RTX 3080 Ti in the future with additional memory, particularly as the RTX 3090 will ship with 24GB of memory.
Anders hadden ze wel gewacht? Juist niet, cashen is de tactiek. En door de 20GB variant later, maar voor de 4000-serie uit te brengen gaat iedereen automatisch denken dat de 10GB variant een soort mid-high end kaart is in de serie en je dus niet mag verwachten dat die 3 jaren mee gaat. 'Dan had je maar die met 20GB moeten kopen', wat per definitie waar gaat zijn als dat gebeurt.Phntm schreef op donderdag 17 september 2020 @ 14:00:
[...]
Memory size is nooit de bottleneck geweest bij videokaarten. En RAM in consoles is shared memory tussen CPU en GPU o.a. De GPU zal nooit de volle 16GB benutten. En daarnaast heeft de 3080 met GDDR6X enorm veel bandbreedte bijna het dubbele wat een PS5 bijvoorbeeld aanbied(720GB/s vs 448GB/s). Ik snap je punt dus niet waarom je vindt dat het flauw is dat er niet meer memory is? Het is gewoonweg niet nodig. Anders hadden ze wel gewacht op de 16GB chips, maar lijkt mij eerder dat dat een 3080Ti gaat worden volgend jaar met meer cores etc. zit een enorm prijs gat tussen 715-1500 euro om op te vullen door hun.
Console moest ik ook even aan denken na het posten. Maar die gaan wel boven de 10GB dedicated uitkomen en flink geoptimaliseerd zijn vergeleken met de pc.
Je punt van snelheid lijkt behoorlijk valide, zo diep ben ik niet bekend met de techniek.
https://www.resetera.com/...hy-10gb-is-enough.280976/ gaat daar in mee en heeft ook nog wat andere argumenten,
https://www.neogaf.com/th...l.1565723/#post-260113501 heeft tegenargumenten. En samen met https://www.resetera.com/...0976/page-6#post-44477735 komt dat het dichtste in de buurt bij wat ik hier van denk namelijk dat die 10GB niet overtuigend is. Het is té op de rand...expres.
Daarom houd ik het op tactisch uitmelken, shareholdertactiek. Maar aangezien ik nu shareholder ben vind ik het misschien niet meer zo flauw.
Ik draai al wat langer mee al het gaat om pc's, maar heb zelden meegemaakt dat een high end kaart echt memory starved is geweest binnen de levensduur van een serie. Vroeger had je vaak videokaarten met meer en minder geheugen van dezelfde orde, de keren dat meer geheugen echt verschil maakte met dezelfde GPU op de kaart was zeldzaam. Meer geheugen gaf eerder een negatief resultaat met gemiddeld iets lagere fps vanwege resources besteed aan communicatie met.
Alsof je per gisteren zonder minimaal 16 tot 20GB nu gelijk in de problemen komt het komende jaar
Het is 9 van de 10 keer veel eerder de GPU zelf die tekort schiet, dan het geheugen op de kaart wat niet toereikend is. Enige echte sprong waarbij duidelijk is geworden dat 4GB echt weinig is geworden is het opkomen van 4K en vergelijkbare resoluties op Ultra wide. Op dit moment zie je in de benchmarks ook geen resultaten wat wijst dat 10GB niet afdoende is voor de 3080, zelfs op die 4K.
Ik mag aannemen dat Nvidia beter weet dan wij allemaal bij elkaar wat er nodig gaat zijn voor de nabije toekomst en dat ze daar enigszins rekening mee houden met het opstellen van specs. Geheugen plaatsen wat niet tot zijn recht komt werkt nadelig in kosten productie en verkoop.
Meer is nice to have, maar ik zie liever een 3080 voor 699 met 10 GB, dan een standaard 20GB ontwerp voor 799 met nog meer verbruik. Dat is namelijk de consequentie bij hogere capaciteit.
Ik zie geen argumenten hier. Ik zie enkel dat jij vindt dat het gedaan is om de 4xxx series nog beter te laten lijken? Dat zal best,en dat is erg realistisch, want dat gaat met allerlei soorten apparaten/objecten zo. Zij het een nieuwe hoeveelheid cores, of meer camera lenzen. We kunnen zo oneindig doorgaan. Er is niks mis met 10GB wanneer de bandbreedte en snelheid zo belachelijk hoog liggen (Op dit moment, over een halfjaar is alles weer anders). Memory is nooit een bottleneck of beperke factor geweest, het is eerder de performance van de core(s). Anders had (met jouw logica toegepast) AMD met 5700XT de 2080(S) wel gesloopt, maar verder dan de 2070S kwamen ze niet, terwijl deze wel die vergelijkbare hoeveel memory had. Het probleem lag gewoon aan de architectuur en de core performance die gewoon niet kan tippen aan de TU104.
Als jouw argument alleen geld is... ja, dat zal best? Voor niks schijnt de zon. Zoals ik al zei, er zit een gigantisch gat tussen 715 en 1500 euro en dat moeten ze goed gaan invullen. Dat is heel veel ruimte voor iets als een 3080 Ti met niet 10, maar 16GB GDDR6X RAM. Of een 3080 Super voor 100 euro meer met ook 10GB GDDR6X Dit doet ze al jaren, het enige wat je aanhaalt is dat er een patroon zit. Dat is geen tactiek per se, maar gewoon een patroon. Als ze meer geld wilden verdienen, dan gingen ze ook vrolijk verder met HBM2, dat is lekker duur.
XWB schreef op donderdag 17 september 2020 @ 15:05:
MSI heeft weer een stille koeler opgeleverd
[Afbeelding]
MSI GeForce RTX 3080 Gaming X Trio Review
:fill(white):strip_exif()/f/image/fcOD0iAfRt6XjR4kQ3NCyPp2.png?f=user_large)
Die geeft een leuke overview. Bij de Asus moet je gewoon de stille bios gebruiken als je iets om geluid geeft, een minieme fractie lagere clockspeeds, maar alsnog gewoon goed vergelijkbaar maar FE, en dan is hij ook significant stiller dan de FE. De enige vraag gaat zijn hoe duur deze kaarten in de praktijk gaan zijn de komende weken.
De TUF was nu te pre-orderen voor morgen bij Paradigit voor 719 (niet-OC).Sissors schreef op donderdag 17 september 2020 @ 15:17:
[...]
[Afbeelding]
Die geeft een leuke overview. Bij de Asus moet je gewoon de stille bios gebruiken als je iets om geluid geeft, een minieme fractie lagere clockspeeds, maar alsnog gewoon goed vergelijkbaar maar FE, en dan is hij ook significant stiller dan de FE. De enige vraag gaat zijn hoe duur deze kaarten in de praktijk gaan zijn de komende weken.
Benieuwd of TPU nog een Strix exemplaar gaat ontvangen.Sissors schreef op donderdag 17 september 2020 @ 15:17:
[...]
[Afbeelding]
Die geeft een leuke overview. Bij de Asus moet je gewoon de stille bios gebruiken als je iets om geluid geeft, een minieme fractie lagere clockspeeds, maar alsnog gewoon goed vergelijkbaar maar FE, en dan is hij ook significant stiller dan de FE. De enige vraag gaat zijn hoe duur deze kaarten in de praktijk gaan zijn de komende weken.
Zeker wel. ASUS stuurt zelfs hun meest luxe Matrix exemplaren naar TPU als een van de weinige reviewers van die zeer limited serie.XWB schreef op donderdag 17 september 2020 @ 15:19:
[...]
Benieuwd of TPU nog een Strix exemplaar gaat ontvangen.
De TUF met Quiet Bios lijkt tot nu toe de winnaar. Zeer stil, dezelfde performance klasse en niet eens duur. Voor 730 in de Pricewatch.Sissors schreef op donderdag 17 september 2020 @ 15:17:
[...]
[Afbeelding]
Die geeft een leuke overview. Bij de Asus moet je gewoon de stille bios gebruiken als je iets om geluid geeft, een minieme fractie lagere clockspeeds, maar alsnog gewoon goed vergelijkbaar maar FE, en dan is hij ook significant stiller dan de FE. De enige vraag gaat zijn hoe duur deze kaarten in de praktijk gaan zijn de komende weken.
Benieuwd wat ze dan nog kunnen verbeteren met de Strix versie.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Zie dat hij ook bij Alternate te krijgen is voor €729, als jullie de site niet kapot hadden gemaakt door hem te F5'enPaprika schreef op donderdag 17 september 2020 @ 15:18:
[...]
De TUF was nu te pre-orderen voor morgen bij Paradigit voor 719 (niet-OC).
Kunnen we dan nu officieel de theorieën van MLID over AIBs waar alleen de duurste modellen kunnen opboxen tegen de FE editie naar de prullenbak verwijzen?
(Oh nee, dat kan niet, want zijn huidige theorie is dat ze nu nog wel voor de normale prijs zijn, maar in oktober zouden ze €50 duurder gaan worden...)
The ASUS GeForce RTX 3080 TUF Gaming is not the flagship—the ROG STRIX will be released soon. On the other hand this means that the TUF Gaming is more affordable—just $730 for the OC version, and $700 for the non-OC version, which is identical with the OC otherwise.Sissors schreef op donderdag 17 september 2020 @ 15:23:
[...]
Zie dat hij ook bij Alternate te krijgen is voor €729, als jullie de site niet kapot hadden gemaakt door hem te F5'en.
Kunnen we dan nu officieel de theorieën van MLID over AIBs waar alleen de duurste modellen kunnen opboxen tegen de FE editie naar de prullenbak verwijzen?
(Oh nee, dat kan niet, want zijn huidige theorie is dat ze nu nog wel voor de normale prijs zijn, maar in oktober zouden ze €50 duurder gaan worden...)
Eigenlijk zijn beide dus te duur nu. Je zou maar 850 euro hebben betaald voor die TUF OC nu.
Waar haal je deze vandaan,Paprika schreef op donderdag 17 september 2020 @ 15:16:
[Afbeelding]
Het maakt echt niet uit wat je koopt. Blijft dus gewoon sillicon lottery en de koeler is het belangrijkste voor de boost frequency.
https://www.techpowerup.comthomassie12 schreef op donderdag 17 september 2020 @ 15:27:
[...]
Waar haal je deze vandaan,wil ook wel even kijken!
Even een aftermarket review aanklikken.
Tja, de chip is natuurlijk hetzelfde, maar juist de koeler maakt het verschil. Al is temperatuur ook verwaarloosbaar, of die chip nou 70 of 78 graden wordt, beide is ruim binnen specs. Doe mij dan maar de stilste koeler.thomassie12 schreef op donderdag 17 september 2020 @ 15:27:
[...]
Waar haal je deze vandaan,wil ook wel even kijken!
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Ja, de AiB koelers doen het gewoon prima.Sissors schreef op donderdag 17 september 2020 @ 15:23:
[...]
Kunnen we dan nu officieel de theorieën van MLID over AIBs waar alleen de duurste modellen kunnen opboxen tegen de FE editie naar de prullenbak verwijzen?
Alweer een indianenverhaal ontkracht
Niet op voorraad.
Ja maar die arme jongen doet zo zijn best om clicks te genereren en ons te voorzien van de waarheid met al zijn "reliable sources that I can't disclose ".XWB schreef op donderdag 17 september 2020 @ 15:33:
[...]
Ja, de AiB koelers doen het gewoon prima.
Alweer een indianenverhaal ontkracht
Kaart zelf komt de 24e? pas, dus reviews ook later geloof ikedward2 schreef op donderdag 17 september 2020 @ 15:38:
Wanneer en hoe laat gaan de 3090 reviews eigenlijk los?
De releasedate was me bekend, maar het zou fijn zijn ook hier vooraf de reviews te lezen, maar kan niks vindenflessuh schreef op donderdag 17 september 2020 @ 15:41:
[...]
Kaart zelf komt de 24e? pas, dus reviews ook later geloof ik
Niet op voorraad.
https://www.guru3d.com/ar...ing_x_trio_review,31.html
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Asus TUF is net wat beterhully schreef op donderdag 17 september 2020 @ 15:47:
heb de msi gaming x bemachtigd, heb ik de goede te pakken
https://www.guru3d.com/ar...ing_x_trio_review,31.html
In quite mode net zo stil als MSI maar wel stukje koeler (5 graden)
https://www.techpowerup.c...080-tuf-gaming-oc/31.html
Om daar even op terug te komen, de wereldwijde verkoop van de Founders Edition blijkt een fiasco te zijnDaniëlWW2 schreef op donderdag 10 september 2020 @ 15:07:
Iets met Nvidia begrijpt marketing dus wel.
Dus daar staat FE voor.. Fiasco EditionXWB schreef op donderdag 17 september 2020 @ 16:28:
[...]
Om daar even op terug te komen, de wereldwijde verkoop van de Founders Edition blijkt een fiasco te zijn
Wat heeft de Quiet Bios nog als invloed op prestaties (als die er al is)?GG85 schreef op donderdag 17 september 2020 @ 16:26:
[...]
Asus TUF is net wat beter.
In quite mode net zo stil als MSI maar wel stukje koeler (5 graden)
https://www.techpowerup.c...080-tuf-gaming-oc/31.html
Scheelt dat 1FPS ofzo of gelijk 10?
Dat zat er ook aan te komen. Die kaarten kosten gewoon meer dan $150 en dat is gewoon te veel. Zeker nu blijkt dat MSRP modellen wel goed kunnen zijn zoals die ASUS TUF.XWB schreef op donderdag 17 september 2020 @ 16:28:
[...]
Om daar even op terug te komen, de wereldwijde verkoop van de Founders Edition blijkt een fiasco te zijn
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar de launch van vandaag was al lang gepland dus die FE kaarten moeten geproduceerd zijn en ergens in een container liggen.DaniëlWW2 schreef op donderdag 17 september 2020 @ 16:34:
[...]
Dat zat er ook aan te komen. Die kaarten kosten gewoon meer dan $150 en dat is gewoon te veel. Zeker nu blijkt dat MSRP modellen wel goed kunnen zijn zoals die ASUS TUF.
Mwoh, de totale voorraad zou ook best in een schoenendoos kunnen passen, en die doos is nu leeg omdat alles naar de reviewers gegaan is.XWB schreef op donderdag 17 september 2020 @ 16:36:
Maar de launch van vandaag was al lang gepland dus die FE kaarten moeten geproduceerd zijn en ergens in een container liggen.
Het is echt niet dat NV twintig scheepsladingen van die kaarten heeft liggen maar op het moment van de grootste belangstelling ervoor "kiest" om ze niet aan te bieden.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
En straks krijg je eerst de scalpers die direct ingekocht hebben via distributie kanalen.
Nee hoor wacht wel op zen 3 en dan gaan we eens een knappe pc in elkaar zetten
Ik citeer mezelf nog maar eens, want je praat nu letterlijk de youtubers na.DaniëlWW2 schreef op donderdag 17 september 2020 @ 16:34:
[...]
Dat zat er ook aan te komen. Die kaarten kosten gewoon meer dan $150 en dat is gewoon te veel. Zeker nu blijkt dat MSRP modellen wel goed kunnen zijn zoals die ASUS TUF.
Kortom het zou mijn inziens echt een rare move om tijd en moeite en geld in een ontwerp te steken en deze bewust niet te produceren zoals je nu oppert. Waarom zouden ze dat doen als de AIB dus ook prima een eigen design kunnen maken en koelen. Een dergelijke actie zou alleen maar geld kosten en negatieve feedback geven om enkel als review editie te bouwen.In grote lijnen zal het in lijnen wel tegen de waarheid aan zitten. Ik vind dat sommige tubers wel heel hard de suggestie aan het doordrukken zijn dat
1. de koeler 150 kost om te maken. Ik vind dat persoonlijk erg hoog ingeschat op een productielijn van koelers.
2. Ze nu allemaal de suggestie wekken dat de FE versie heel beperkt leverbaar gaat zijn. Ik zie niet in waarom dat zou zijn of dat Nvidia dat zouden willen. Zelfs met hogere kosten voor de koeler, snijd Nvidia de AIB, distributeur en de shop weg door ze zelf te leveren. Dit zijn allemaal stations die ook een deel van de winst willen hebben. Dit is allemaal foetsie bij FE versie en marge die ze zelf kunnen houden. Ik vermoed wel dat ze niet all out zullen gaan op deze versie om de partners niet helemaal gek te maken. Maar uiteindelijk zal deze net als turing gewoon te krijgen zijn voor de mensen die hem echt willen. Als de eerste wave kopers die gaan "hoggen" hebben komt dat echt wel goed. Kortom ik vind het een nogal ondoordachte uitspraak dat de FE versie enkel voor de reviewers gaat zijn zoals ze claimen.
Alleen voor de Founders Edition dan, want de videokaarten met custom koeling waren wel op voorraad.TRAXION schreef op donderdag 17 september 2020 @ 16:51:
Zoals ik al eerder gezegd had in dit topic "paperlaunch"
Inmiddels is alles uitverkocht.
Verwijderd
De enige andere mogelijk die ze hebben is een grotere geheugenbus, dus i.p.v. 384 bit een 512 bit geheugenbus met GDDR6 of door gebruik te maken van HBM geheugen. Alle andere opties geven te weinig geheugenbandbreedte. Schijnbaar was dit de beste optie, anders hadden ze hier niet voor gekozen.Saturnus schreef op donderdag 17 september 2020 @ 14:57:
[...]
Het kiezen voor GDDR6X is een tactiek op zich. Leuk vanuit een technolgiestandpunt, maar niet noodzakelijk vanuit een gebruikerperspectief om een high-end kaart met zo'n mogelijke compromis de markt op te sturen.
512 bit geheugenbus, maakt met RTX 3080 PCB groter en meer complex. Ook zorgt het waarschijnlijk voor een hoger verbruik. HBM geheugen zal het geheel waarschijnlijk duurder maken. Dat lijken mij de meest logische redenen voor nVidia. Naast misschien ook een volgende generatie. Nu heb je daarvoor ook een GDDR6X, mocht GDDR7 dan nog niet beschikbaar zijn.
Dat wordt bepaald geen succes, want die zal met zijn 256 bit geheugenbus een flink te kort hebben aan geheugenbandbreedte.Phntm schreef op donderdag 17 september 2020 @ 15:14:
[...]
Dat is heel veel ruimte voor iets als een 3080 Ti met niet 10, maar 16GB GDDR6X RAM.
[ Voor 14% gewijzigd door Verwijderd op 17-09-2020 16:58 ]
Volgens Techpowerup doet ie het zeker wel aardig;Joosie200 schreef op donderdag 17 september 2020 @ 16:57:
Wat is nu over het algemeen de beste AIB kaart? In het levertijden en prijzentopic gaat menigeen voor MSI trio X. Zelf heb ik een Zotac trinity in de bestelling. Een fabrikant die mij minder wat zegt dan Asus, MSI, Gigabyte. Enig idee of Zotac nog een beetje goed meekomt qua AIB?
https://www.techpowerup.c...-rtx-3080-trinity/31.html
EDIT: Hoewel als ik verder kijk dan alleen temp/noise z'n clockspeeds wel wat lager zijn dan de 3080 FE...
[ Voor 9% gewijzigd door Razortek op 17-09-2020 17:10 ]
Asus TUF is net wat beter. Net zo stil en 5 graden koeler in Silent mode:Joosie200 schreef op donderdag 17 september 2020 @ 16:57:
Wat is nu over het algemeen de beste AIB kaart? In het levertijden en prijzentopic gaat menigeen voor MSI trio X. Zelf heb ik een Zotac trinity in de bestelling. Een fabrikant die mij minder wat zegt dan Asus, MSI, Gigabyte. Enig idee of Zotac nog een beetje goed meekomt qua AIB?
https://www.techpowerup.c...080-tuf-gaming-oc/31.html
De zeer magere 2xxx reeks en nu eindelijk wel wat. Iedereen wil die kaart plus dat er gewoon weinig kaarten zijn en Nederland een klein landje is.RTX-3080 Statement.
Laatste update: Donderdag 17-9 '20
Bedankt voor je aandacht
We zijn vanaf 15:00 overstelpt door orders en vragen over de nieuwe Nvidia RTX-3080 videokaarten. Onze website kon het enorme aantal bezoekers die gelijktijdig aan het zoeken waren niet langer verwerken, onze excuses hiervoor, desondanks zijn er toch ongeveer 800 klanten in geslaagd tussen 15:00 en 15:30 een RTX-3080 videokaart te bestellen. Een gedeelte hiervan kunnen wij uitleveren maar lang niet allemaal. Nvidia heeft aangegeven dat het niet waarschijnlijk is dat alle bestellingen binnen enkele maanden worden uitgeleverd.
Ik wil toch zo'n RTX-3080
Als je een RTX-3080 of later een RTX-3090 of RTX-3070 kaart wil hebben dan doe je er verstandig aan je bestelling gewoon te laten staan bij Megekko. Besluit je te annuleren en later toch weer te bestellen dan sluit je achteraan in de rij.
Hoe word ik op de hoogte gehouden?
Regelmatig ga je een mailtje ontvangen met daarop de verwachte levertijd, deze kan zowel naar voren als naar achteren verschuiven.
Adri Broos,
Directeur Megekko BV
Ik praat geen YTers na. Ik volg wat een zeer gerespecteerde reviewer maanden geleden al melden. Iemand waarvan bekend is dat die over zeer goede bronnen beschikt. Igor was meteen ook een van de eerste, zo niet de eerste die het over 320W en GDDR6X had.sjekneck schreef op donderdag 17 september 2020 @ 16:51:
[...]
Ik citeer mezelf nog maar eens, want je praat nu letterlijk de youtubers na.
[...]
Kortom het zou mijn inziens echt een rare move om tijd en moeite en geld in een ontwerp te steken en deze bewust niet te produceren zoals je nu oppert. Waarom zouden ze dat doen als de AIB dus ook prima een eigen design kunnen maken en koelen. Een dergelijke actie zou alleen maar geld kosten en negatieve feedback geven om enkel als review editie te bouwen.
https://www.igorslab.de/e...-the-search-for-the-leak/
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Mja, ik lees berichten over slechte binning. Tuf van Asus scoort dan weer beter wat net als MSI Ventus de instap variant is. Maar het overclockpotentieel is bij geen enkele kaart je van het zo te lezen. Ik ga alleen geen €50 meer betalen voor een trio X, vind €730 al een behoorlijke slok voor gpu alleen. Maar dan kan 4k60fps wel gerealiseerd worden.Razortek schreef op donderdag 17 september 2020 @ 17:09:
[...]
Volgens Techpowerup doet ie het zeker wel aardig;
https://www.techpowerup.c...-rtx-3080-trinity/31.html
EDIT: Hoewel als ik verder kijk dan alleen temp/noise z'n clockspeeds wel wat lager zijn dan de 3080 FE...
O_oEen gedeelte hiervan kunnen wij uitleveren maar lang niet allemaal. Nvidia heeft aangegeven dat het niet waarschijnlijk is dat alle bestellingen binnen enkele maanden worden uitgeleverd.
Euhm, als Nvidia nu al zegt de huidige bestellingen nog niet dit jaar geleverd kunnen worden, ja dan is het wel echt een enorme paper launch, en heeft AMD nog alle tijd. Vermoed dat mijn plan een 3070 te krijgen ook niet realistisch is dan.
Let wel dat die qoute van megekko komt en niet rechtstreeks van Nvidia. En ik heb de klantenservice/marketing van die webshop niet hoog zitten.Sissors schreef op donderdag 17 september 2020 @ 17:46:
[...]
O_o
Euhm, als Nvidia nu al zegt de huidige bestellingen nog niet dit jaar geleverd kunnen worden, ja dan is het wel echt een enorme paper launch, en heeft AMD nog alle tijd. Vermoed dat mijn plan een 3070 te krijgen ook niet realistisch is dan.
Wie goed doet, die goed ontmoet.
Dat is niet 1:1 gezien de silent mode wat meer aanpast dan alleen de RPM van de fans.GG85 schreef op donderdag 17 september 2020 @ 17:12:
[...]
Asus TUF is net wat beter. Net zo stil en 5 graden koeler in Silent mode:
https://www.techpowerup.c...080-tuf-gaming-oc/31.html
Overigens,
Nu al een Shunt Mod video van der8auer (op de TUF)!
Nu is er een 320-bit bus voor 10GB GDDR6X. 10 van de 12 mogelijke ruimtes op het pcb zijn met chips gevuld. Was 12 chips een optie om tot 12GB / 384-bit te komen? Als dat geldt, dan had ik geconcludeerd dat 12GB ver genoeg van die twijfelzone af is, zonder meer toekomstbestendig.Verwijderd schreef op donderdag 17 september 2020 @ 16:54:
[...]
De enige andere mogelijk die ze hebben is een grotere geheugenbus, dus i.p.v. 384 bit een 512 bit geheugenbus met GDDR6 of door gebruik te maken van HBM geheugen. Alle andere opties geven te weinig geheugenbandbreedte. Schijnbaar was dit de beste optie, anders hadden ze hier niet voor gekozen.
512 bit geheugenbus, maakt met RTX 3080 PCB groter en meer complex. Ook zorgt het waarschijnlijk voor een hoger verbruik. HBM geheugen zal het geheel waarschijnlijk duurder maken. Dat lijken mij de meest logische redenen voor nVidia. Naast misschien ook een volgende generatie. Nu heb je daarvoor ook een GDDR6X, mocht GDDR7 dan nog niet beschikbaar zijn.
Verwijderd
Nu hebben ze een plaats voor GPU's waarbij een stukje van de geheugencontroller stuk is, als alle GPU's een 384 bit geheugenbus gebruiken haal je een lagere yield doordat je meer moet weggooien. Maar je zei dat GDDR6X niet nodig was, GDDR6 met 384 bit geheugenbus is hoe dan ook minder bandbreedte en dus minder prestaties.Saturnus schreef op donderdag 17 september 2020 @ 18:17:
[...]
Nu is er een 320-bit bus voor 10GB GDDR6X. 10 van de 12 mogelijke ruimtes op het pcb zijn met chips gevuld. Was 12 chips een optie om tot 12GB / 384-bit te komen? Als dat geldt, dan had ik geconcludeerd dat 12GB ver genoeg van die twijfelzone af is, zonder meer toekomstbestendig.
Ah de yields, natuurlijk. Ok dan zijn er wel degelijk wat technische limieten...die Nvidia erg goed uitkomen. Overtuigd dat het ding toekomst bestendig is ben ik niet maar de keuze voor naar mijn idee relatief gezien betere prestaties in het heden dan in de toekomst accepteren de gebruikers sowieso al, en dat snap ik wel.Verwijderd schreef op donderdag 17 september 2020 @ 18:35:
[...]
Nu hebben ze een plaats voor GPU's waarbij een stukje van de geheugencontroller stuk is, als alle GPU's een 384 bit geheugenbus gebruiken haal je een lagere yield doordat je meer moet weggooien. Maar je zei dat GDDR6X niet nodig was, GDDR6 met 384 bit geheugenbus is hoe dan ook minder bandbreedte en dus minder prestaties.
Verwijderd
Komt nVidia helemaal niet goed uit. Ze hadden liever nu direct al 16Gb GDDR6X chips gehad. Had de RTX 3090 met 24GB flink goedkoper en simpeler gemaakt en ook sneller. Je kan immers toe met de helft van het aantal geheugenchips. Dus heb je een lager verbruik en meer power budget beschikbaar voor de GPU.Saturnus schreef op donderdag 17 september 2020 @ 18:56:
[...]
Ah de yields, natuurlijk. Ok dan zijn er wel degelijk wat technische limieten...die Nvidia erg goed uitkomen.
Had het specifiek over de 3080. Misschien gaat die opmerking ook op voor die kaart...zouden ze dan slechts 5 chips geplaatst hebben is de vraag. Maar nu hebben ze toch een mooie reden om nog meer geld te kloppen met zuinigere en snellere kaarten?Verwijderd schreef op donderdag 17 september 2020 @ 19:09:
[...]
Komt nVidia helemaal niet goed uit. Ze hadden liever nu direct al 16Gb GDDR6X chips gehad. Had de RTX 3090 met 24GB flink goedkoper en simpeler gemaakt en ook sneller. Je kan immers toe met de helft van het aantal geheugenchips. Dus heb je een lager verbruik en meer power budget beschikbaar voor de GPU.
Verwijderd
Op zich is dat niet echt een vraag, want dat is geen optie. Daarmee zou je namelijk de geheugenbus halveren.Saturnus schreef op donderdag 17 september 2020 @ 19:25:
[...]
Had het specifiek over de 3080. Misschien gaat die opmerking ook op voor die kaart...zouden ze dan slechts 5 chips geplaatst hebben is de vraag.
Die optie is er ook gewoon op het moment dat 16Gb chips wel vanaf het begin leverbaar zou zijn.Maar nu hebben ze toch een mooie reden om nog meer geld te kloppen met zuinigere en snellere kaarten?
With the emergence of low level graphics APIs such as DirectX 12 and Vulkan, game developers are able to implement SLI support natively within the game itself instead of relying upon a SLI driver profile. The expertise of the game developer within their own code allows them to achieve the best possible performance from multiple GPUs. As a result, NVIDIA will no longer be adding new SLI driver profiles on RTX 20 Series and earlier GPUs starting on January 1st, 2021. Instead, we will focus efforts on supporting developers to implement SLI natively inside the games. We believe this will provide the best performance for SLI users.
Existing SLI driver profiles will continue to be tested and maintained for SLI-ready RTX 20 Series and earlier GPUs.
For GeForce RTX 3090 and future SLI-capable GPUs, SLI will only be supported when implemented natively within the game.
What DirectX 12 games support SLI natively within the game?
DirectX 12 titles include Shadow of the Tomb Raider, Civilization VI, Sniper Elite 4, Gears of War 4, Ashes of the Singularity: Escalation, Strange Brigade, Rise of the Tomb Raider, Zombie Army 4: Dead War, Hitman, Deus Ex: Mankind Divided, Battlefield 1, and Halo Wars 2.
What Vulkan games support SLI natively within the game?
Vulkan titles include Red Dead Redemption 2, Quake 2 RTX, Ashes of the Singularity: Escalation, Strange Brigade, and Zombie Army 4: Dead War
How about creative and other non-gaming applications — will those still support multiple GPUs?
Yes, many creative and other non-gaming applications support multi-GPU performance scaling without the use of SLI driver profiles. These apps will continue to work across all currently supported GPUs as it does today.
https://videocardz.com/pr...-native-game-integrations
Volgensmij staan mensen rijen dik om eventueel desnoods een arm of een been in te leveren om maar een kaart te kunnen krijgen. Echt bizar. Een videokaart. LOL
Anyway, grote clusterfuck dit. Maar was wel te verwachten en zie het inderdaad gebeuren dat de kaarten de komende maanden vrijwel niet te leveren zijn en de shops er rustig een paar 100 bovenop leggen.
Had zelf meetings die ik niet kon verplaatsen en een onwillige pc dus voor mij was het sowieso kansloos om een serieuze poging te wagen.
Heb me altijd al geërgerd aan paperlaunches maar al hadden ze er 10 miljoen klaarliggen dan waren ze volgensmij nog verkocht.
Iedereen die de slachting van 17.9.2020 heeft overleefd en een kaart gescout heeft, enjoy en niet teveel onze ogen uitsteken svp
[ Voor 7% gewijzigd door Help!!!! op 17-09-2020 20:58 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik ben een appeltaart gaan bakken. Ging er toch nog geen kopen maar zat wel ieder nieuwtje te lezen. Soms ben ik te tech hongerig dus ene zen worden en taart bakken was een slim plan. Heb ik zometeen nog wat bij de koffie ook. En morgen als ik wakker wordHelp!!!! schreef op donderdag 17 september 2020 @ 20:34:
Heb in mijn lange, lange computer historie denk ik nog nooit zo'n gestoorde overhypte launch meegemaakt. Check die hoeveelheid posts en views (~158k in twee weken !!! Dit nieuwstopic loopt 5.5jr en heeft 403k views.) in het levertijden topic![]()
![]()
Volgensmij staan mensen rijen dik om eventueel desnoods een arm of een been in te leveren om maar een kaart te kunnen krijgen. Echt bizar. Een videokaart. LOL
Anyway, grote clusterfuck dit. Maar was wel te verwachten en zie het inderdaad gebeuren dat de kaarten de komende maanden vrijwel niet te leveren zijn en de shops er rustig een paar 100 bovenop leggen.
Had zelf meetings die ik niet kon verplaatsen en een onwillige pc dus voor mij was het sowieso kansloos om een serieuze poging te wagen.![]()
Heb me altijd al geërgerd aan paperlaunches maar al hadden ze er 10 miljoen klaarliggen dan waren ze volgensmij nog verkocht.![]()
Iedereen die de slachting van 17.9.2020 heeft overleefd en een kaart gescout heeft, enjoy en niet teveel onze ogen uitsteken svp
Toch wel apart aangezien ze echt hun best doen om sli de nek om te draaien. Of krijgen we eindelijk sli zonder bridgePaprika schreef op donderdag 17 september 2020 @ 19:59:
NVIDIA SLI Support Transitioning to Native Game Integrations
With the emergence of low level graphics APIs such as DirectX 12 and Vulkan, game developers are able to implement SLI support natively within the game itself instead of relying upon a SLI driver profile. The expertise of the game developer within their own code allows them to achieve the best possible performance from multiple GPUs. As a result, NVIDIA will no longer be adding new SLI driver profiles on RTX 20 Series and earlier GPUs starting on January 1st, 2021. Instead, we will focus efforts on supporting developers to implement SLI natively inside the games. We believe this will provide the best performance for SLI users.
Existing SLI driver profiles will continue to be tested and maintained for SLI-ready RTX 20 Series and earlier GPUs.
For GeForce RTX 3090 and future SLI-capable GPUs, SLI will only be supported when implemented natively within the game.
What DirectX 12 games support SLI natively within the game?
DirectX 12 titles include Shadow of the Tomb Raider, Civilization VI, Sniper Elite 4, Gears of War 4, Ashes of the Singularity: Escalation, Strange Brigade, Rise of the Tomb Raider, Zombie Army 4: Dead War, Hitman, Deus Ex: Mankind Divided, Battlefield 1, and Halo Wars 2.
What Vulkan games support SLI natively within the game?
Vulkan titles include Red Dead Redemption 2, Quake 2 RTX, Ashes of the Singularity: Escalation, Strange Brigade, and Zombie Army 4: Dead War
How about creative and other non-gaming applications — will those still support multiple GPUs?
Yes, many creative and other non-gaming applications support multi-GPU performance scaling without the use of SLI driver profiles. These apps will continue to work across all currently supported GPUs as it does today.
https://videocardz.com/pr...-native-game-integrations
[ Voor 43% gewijzigd door computerjunky op 17-09-2020 21:10 ]
Dat zijn gewoon testpunten voor in productie en de pcb designer heeft (al dan niet perongeluk) de labels op het silkscreen laten staan.Paprika schreef op donderdag 17 september 2020 @ 18:17:
[Afbeelding]
ASUS heeft van de TUF nog best een serieuze PCB gemaakt voor OCers. Zie al die voltage meetpunten.
Geen speciale OC feature hoor
Mwah, vind hem toch gevalletje 'net niet'. Hij praat was quasi interresant en meet wat randoms met een multimeterDaniëlWW2 schreef op donderdag 17 september 2020 @ 20:54:
En de onnodig overdreven en belachelijk gedetailleerde break down mag ook niet ontbreken.
[YouTube: Tear-Down: NVIDIA RTX 3080 Founders Edition Disassembly - A Lot Fewer Screws]
Jammer dat er maar heel weinig Youtube kanalen zijn die echt inhoudelijk verstand van zaken hebben
Er is werkelijk nieman online die meer feitelijke weetjes brengt dan gamers nexus... maar als jij het beter kan en weet...GG85 schreef op donderdag 17 september 2020 @ 21:10:
[...]
Mwah, vind hem toch gevalletje 'net niet'. Hij praat was quasi interresant en meet wat randoms met een multimetermaar het is een heel hoog gehalte "van horen zeggen" en "klok horen luiden maar de klepel?"
Jammer dat er maar heel weinig Youtube kanalen zijn die echt inhoudelijk verstand van zaken hebben
Verwijderd
Dit is geen SLI, ze noemen het alleen SLI. Het is SLI zonder SLI. Net zoals we nu G-sync hebben zonder G-sync. Marketing noemen we dat.computerjunky schreef op donderdag 17 september 2020 @ 21:06:
Toch wel apart aangezien ze echt hun best doen om sli de nek om te draaien. Of krijgen we eindelijk sli zonder bridge
[ Voor 9% gewijzigd door Verwijderd op 17-09-2020 22:29 ]
CUDA cores 5888/8704 = 67%
Vermogen 220/320= 67%
Bandbreedte 512/760 = 67%
Als je dan vervolgens die 67% toepast op de resultaten bij techpowerup dan krijg je zo iets:
:fill(white):strip_exif()/f/image/TbzaUm1EDwFPZTXDSEd7KTJP.png?f=user_large)
Als ik dan dat plaatje bekijk dan zou ik daar tov mijn huidige 2070 voor 519 euro een winst van 33% zien. Geef ik 719 euro uit dan wordt dat een winst van 100%. Dan wordt die 3080 ineens een stuk zinniger
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Waarom gelijk zo fel?computerjunky schreef op donderdag 17 september 2020 @ 21:13:
[...]
Er is werkelijk nieman online die meer feitelijke weetjes brengt dan gamers nexus... maar als jij het beter kan en weet...
GamerNexus gaat dieper op zaken in dan de meeste anderen (hoewel, Igor's Lab verder gaat)maar als je dagelijks in de materie zit voor werk (ok, ik ontwerp geen videokaarten voor nVidia maar wel automotive electronica waar FPGA's/SoC's in zitten met high speed memory interfaces en voedingen met meerdere power stages etc dus ik ben bekend met de materie) en dan valt gewoon op dat ie heel leergierig is, super enthousiast maar gewoon een aantal dingen mist omdat hij er nooit zelf echt mee gewerkt heeft en veel basis/achtergrond mist. Nu is dat ook helemaal prima en logisch en voor 95% van zijn doelgroep meer dan voldoende maar ik heb gewoon best vaak dat ik denk "hmmkay".
Niet dat hij dingen mis heeft maar vaak wel net de klemtoom verkeerd legt of een 'feitje' noem wat heel interressant overkomt maar op zichtzelf als losstaand feit ook niet meer dan dat is.
Maar bijvoorbeeld een TechpowerUp doet hetzelfde. Ik wordt altijd blij van hun reviews en goede foto's maar hun 'Circuit Board Analysis' wat ze elke keer doen slaat werkelijk nergens op.
Ze maken een foto van de componenten, Googlen de parts en aan de hand van pagina 1 van de datasheet en door inductors te tellen doen ze dan uitspraken over het aantal power stages en het feit dat fabrikant A parts van MPS gebruikt en fabrikant B van OnSemi.
Dat klinkt heel interresant maar voor 95% van de doelgroep zegt het (begrijpelijk als het je werk niet is) helemaal niks en voor de mensen die wel meer ervan weten zijn het losstaande feitjes en kan je er alsng niets mee.
Het zou toegevoegde waarde hebben als ze uitspraken konden doen over waarom de ene oplossing beter zou zijn dan de andere maar daarvoor moet je echt een aantal niveaus dieper en die kennis hebben ze niet in huis (en daar is ook geen vraag naar).
[ Voor 3% gewijzigd door GG85 op 17-09-2020 23:11 ]
Maar 1 generatie verder en dan "dezelfde tier" pakken loont volgens mij nooit.
De 3080 is ook wel 'n uitzondering door de gebruikte chip. Normaal is de 3070 het geknepen broertje.sdk1985 schreef op donderdag 17 september 2020 @ 23:05:
Ik ben niet bij met lezen van dit topic dus wie weet heeft iemand dit al gedaan maar ik keek net even naar de stats van de 3080 vs de 3070:
CUDA cores 5888/8704 = 67%
Vermogen 220/320= 67%
Bandbreedte 512/760 = 67%
Als je dan vervolgens die 67% toepast op de resultaten bij techpowerup dan krijg je zo iets:
[Afbeelding]
Als ik dan dat plaatje bekijk dan zou ik daar tov mijn huidige 2070 voor 519 euro een winst van 33% zien. Geef ik 719 euro uit dan wordt dat een winst van 100%. Dan wordt die 3080 ineens een stuk zinniger.
Nou ja ik ben door omstandigheden van een 1070 naar een 2070 geupgrade (wat ik normaal niet zou doen) en daar had ik in de toenmalige f1 game volgens TPU 109 ipv 76 fps = + 43%. Speelde toen ook veel Siege, daar was de toename op 1440p 55%. Gemiddeld kwam het neer op +33%. Als de 3070 een vergelijkbare performance winst gaat brengen dan zou dit de 3070 een alles behalve bijzondere upgrade maken. De 'greatest general leap in decades' blijft dan blijkbaar voorbehouden aan de 3080. Maar goed er zijn nog geen echte reviews..mitsumark schreef op donderdag 17 september 2020 @ 23:17:
@sdk1985 volgens mij hadden we al ergens geconcludeerd dat de 3070 ongeveer 25% langzamer zou zijn, rond 2080ti niveau.
Maar 1 generatie verder en dan "dezelfde tier" pakken loont volgens mij nooit.
Laat ik het zo zeggen. Ik kom op 3440x1440 net wat tekort in een aantal games (90% resolution scaling in the division2). Dus als ik inderdaad voor 519 euro boven de performance van een 2080Ti zou gaan zitten (aldus de presentatie), dan is dat een acceptabele upgrade. Maar dat lijkt op basis van wat ik nu heb gezien veel te optimistisch. Ondertussen geeft een 3080 wel aantoonbaar dubbele frame rates. Ga ik toch weer een gpu van 700 euro zitten goedpraten
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
De 3080ti zal wel een beest worden.Paprika schreef op donderdag 17 september 2020 @ 23:19:
[...]
De 3080 is ook wel 'n uitzondering door de gebruikte chip. Normaal is de 3070 het geknepen broertje.
Kan toch bijna niet anders als je naar de prijsverschillen kijkt? Daar past precies een 3080ti van 1199 tussen.
Wie goed doet, die goed ontmoet.
Wat is is het punt van een een 3090 als er een 3080Ti uit gaat komen?AtlAntA schreef op vrijdag 18 september 2020 @ 07:28:
[...]
De 3080ti zal wel een beest worden.
Kan toch bijna niet anders als je naar de prijsverschillen kijkt? Daar past precies een 3080ti van 1199 tussen.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
De 3090 is nog sneller. Period. De snelste kaart die er is en mensen met een zak geld willen de snelste.XanderDrake schreef op vrijdag 18 september 2020 @ 08:54:
[...]
Wat is is het punt van een een 3090 als er een 3080Ti uit gaat komen?
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.

/f/image/zMyNrlsTqP7HlAOrqA1TCTQB.png?f=fotoalbum_large)
/f/image/ek2p46ymBjtN3N4O5LLHblMv.png?f=fotoalbum_large)
/f/image/UdSoXGHWSGPKIhFv8xSxLsny.png?f=fotoalbum_large)