• AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 10:22
XanderDrake schreef op vrijdag 18 september 2020 @ 08:54:
[...]

Wat is is het punt van een een 3090 als er een 3080Ti uit gaat komen?
Diezelfde discussie was er ook tijdens pascal toen de Titanp uitkwam en daarna de 1080ti.Zou je nu de 3090 de Titan gaan noemen dan lijkt het allemaal wel erg veel op elkaar. Nvidia zelf noemde de 3090 ook al een titan class kaart. Ik denk misschien 5% minder cuda cores en 20GB geheugen oid. Misschien dat de rumored 3080 met 20GB geheugen wel de 3080ti wordt. AFAIK zijn daar op het geheugen na nog geen andere specs van bekend/gelekt.

Wie goed doet, die goed ontmoet.


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:44
Leuk filmpje van Jim over de Cuda core evolutie van Fermi t/m Ampere

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
knip

[ Voor 118% gewijzigd door Intergalactic op 18-09-2020 11:57 ]


  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
knip

[ Voor 98% gewijzigd door Intergalactic op 18-09-2020 11:57 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
sdk1985 schreef op donderdag 17 september 2020 @ 23:05:
Ik ben niet bij met lezen van dit topic dus wie weet heeft iemand dit al gedaan maar ik keek net even naar de stats van de 3080 vs de 3070:
CUDA cores 5888/8704 = 67%
Vermogen 220/320= 67%
Bandbreedte 512/760 = 67%

Als je dan vervolgens die 67% toepast op de resultaten bij techpowerup dan krijg je zo iets:
[Afbeelding]

Als ik dan dat plaatje bekijk dan zou ik daar tov mijn huidige 2070 voor 519 euro een winst van 33% zien. Geef ik 719 euro uit dan wordt dat een winst van 100%. Dan wordt die 3080 ineens een stuk zinniger :X .
Helaas kun je niet zo rekenen. Sowieso is de 3070 GA104 in plaats van GA102, dus sommige verhoudingen zullen anders liggen. Belangrijker is echter dat het niet om 8704 en 5888 CUDA cores gaat. Het gaat om respectievelijk 4352 en 2944 FP32 ALU's, met daarnaast nog een extra 4352 en 2944 FP32/INT32 ALU's die deels aangesproken kunnen worden. In de praktijk komt het er op neer dat je pakweg 20-40% van de tijd extra FP32 rekenkracht hebt, afhankelijk van de game. Als je naar TPU's samenvatting kijkt zie je dat het over de gehele linie zo'n 23% schaalt voor de 3080.

Voor de 3080 moet je de 2080 Ti als basis nemen (zelfde aantal SM's, dus zelfde aantal pure FP32 ALU's) en daar 20% tot 40% bij tellen om zo grofweg te schatten tussen welke range een game uit komt. In het geval van F1 neem je dus 182 FPS; een 3080 komt dan uit tussen 218,4 en 255 FPS. De 240,1 in de praktijk betekent dat F1 bovengemiddeld schaalt met pakweg 32%.

Voor de 3070 moeten we de 2080 als basis nemen (zelfde reden als hierboven). Als we die verhoudingen toepassen op de 3070 krijgen we dit: 146,2 * 1,32 = 192,98 FPS, laten we het 193 noemen. Dat is 80% van de 3080, niet 67%. Zelfs op 20% "timeshare" van de hybrid ALU's kom je al op 175 FPS uit, wat 73% is.

Dit is er van uit gaande dat de verhouding tussen pure en hybrid ALU's in GA104 hetzelfde is, wat op basis van de vrijgegeven specs wel haast zo móet zijn. Ik zie niet in hoe ze anders tot exact dezelfde verhoudingen komen :p

Nu kan het bovenstaande alsnog anders uitpakken als F1's INT32 werk dusdanig omvangrijk is dat de hybrid ALU's nauwelijks aan FP32 toekomen. Dan zou je wel op die 67% (of zelfs minder!) van jou uit komen, maar ik geloof niet dat dat het geval is. Het spel schaalt bovengemiddeld, wat juist betekent dat het INT32 werk relatief beperkt is.


TL;DR: ik vermoed dat de 3070 het beter gaat doen dan Nvidia's cijfers doen vermoeden :p

Edit: bovenstaande kan natuurlijk ook met TFLOPS, maar dat wordt nog lastiger omdat je iets met de kloksnelheid zult moeten doen. De effectieve kloksnelheid ligt iets lager, omdat de context switches denk ik een extra cycle kosten.

Edit #2: bovenstaande kan uiteraard meteen het raam uit zodra er RT of Tensor cores aangesproken worden.

[ Voor 5% gewijzigd door Werelds op 18-09-2020 11:58 ]


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Super of ti komen er ook aan.

3070 16gb en 3080 20gb incoming

https://videocardz.com/ne...70-16gb-and-rtx-3080-20gb

Durf te wedden wanneer Navi komt, deze kaarten komen. Lijkt mij een zeer slecht idee om nu dus een 3000 serie te kopen.

[ Voor 55% gewijzigd door Ferio op 18-09-2020 11:56 ]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:44
Ferio schreef op vrijdag 18 september 2020 @ 11:49:
Super of ti komen er ook aan. Lijkt me het beste om lekker te wachten. Prijzen zullen nog zakken vermoed ik zo.

3070 16gb en 3080 20gb incoming

https://videocardz.com/ne...70-16gb-and-rtx-3080-20gb
Met die beredenering blijf je wachten en koop je nooit wat :P
Als het product je aanstaat (prijs, prestatie etc) en je kunt deze krijgen, zou ik het gewoon doen.
Wachten op AMD kan ik nog inkomen, maar als je dan verwacht 3080 + 20% voor 20% minder geld, dan kan ik je vast verklappen dat dit zeer onwaarschijnlijk gaat zijn.

Ik ben ook naar een 3700x gegaan wetende dat er binnen een half jaar Zen3 zou komen. Gaat die sneller zijn? Vast en zeker, maar de initiële prijs van die opvolger is ook hoger bij release en ik heb de 3700x wel voor een leuke prijs kunnen kopen.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
Wat is hier raar aan? We weten al maanden dat er 16Gb (2GB) chips gaan uitkomen in 2021 en dat Nvidia daar iets mee zal gaan doen, in 2021.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
sjekneck schreef op vrijdag 18 september 2020 @ 11:58:
[...]

Met die beredenering blijf je wachten en koop je nooit wat :P
Als het product je aanstaat (prijs, prestatie etc) en je kunt deze krijgen, zou ik het gewoon doen.
Wachten op AMD kan ik nog inkomen, maar als je dan verwacht 3080 + 20% voor 20% minder geld, dan kan ik je vast verklappen dat dit zeer onwaarschijnlijk gaat zijn.

Ik ben ook naar een 3700x gegaan wetende dat er binnen een half jaar Zen3 zou komen. Gaat die sneller zijn? Vast en zeker, maar de initiële prijs van die opvolger is ook hoger bij release en ik heb de 3700x wel voor een leuke prijs kunnen kopen.
Ze komen wanneer Navi op de markt komt, en prijzen zullen wat zakken net zoals met super. 20gb denk ik iets duurder dan 3080 10gb en 3080 10gb weer iets goedkoper.

Beetje hype creëren met goedkopere kaarten voor amd release. Met zen moet je natuurlijk langer wachten. Ik heb daarom ook 3700x al gekocht

[ Voor 3% gewijzigd door Ferio op 18-09-2020 12:10 ]


  • gunghir
  • Registratie: April 2018
  • Laatst online: 20-07-2024
Paprika schreef op vrijdag 18 september 2020 @ 12:03:
[...]

Wat is hier raar aan? We weten al maanden dat er 16Gb (2GB) chips gaan uitkomen in 2021 en dat Nvidia daar iets mee zal gaan doen, in 2021.
Yes maar een 20 3080 staat wel scherp tegen de 24 3090 dus ben beniewd :?

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
gunghir schreef op vrijdag 18 september 2020 @ 12:05:
[...]

Yes maar een 20 3080 staat wel scherp tegen de 24 3090 dus ben beniewd :?
Zo ie zo beter om altijd te wachten op concurrentie release. Ik koop pas een nieuwe begin 2021 wanneer alles beter te verkrijgen is en prijzen stabiel zijn. Mijn 2070s kan nog wel even vooruit.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
gunghir schreef op vrijdag 18 september 2020 @ 12:05:
[...]

Yes maar een 20 3080 staat wel scherp tegen de 24 3090 dus ben beniewd :?
Geheugen is niet het enige dat de prestaties van een videokaart beinvloed, verre van zelfs. De 10GB en 20GB versies zullen voor 1440p identiek presteren, net zoals de 512MB en 1GB 4870s hetzelfde waren voor mensen met een 'normale' resolutie.

Afbeeldingslocatie: https://images.anandtech.com/reviews/video/ati/1gb4870/grid.jpg

2560x1600 is het 4K van nu.

Daarnaast gaan die 2GB geheugenchips meer kosten dan de 1GB variant, dus een 20GB versie zal wel 899 worden of iets in die richting (reken dus 1000+ effectief).

[ Voor 14% gewijzigd door Paprika op 18-09-2020 12:18 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ferio schreef op vrijdag 18 september 2020 @ 11:49:
Super of ti komen er ook aan.

3070 16gb en 3080 20gb incoming

https://videocardz.com/ne...70-16gb-and-rtx-3080-20gb

Durf te wedden wanneer Navi komt, deze kaarten komen. Lijkt mij een zeer slecht idee om nu dus een 3000 serie te kopen.
Die varianten met meer geheugen zullen ook duurder zijn. Dus afhankelijk van je portemonnee kan dus huidige 3000 serie dus prima zijn :)

March of the Eagles


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Paprika schreef op vrijdag 18 september 2020 @ 12:17:
[...]

Geheugen is niet het enige dat de prestaties van een videokaart beinvloed, verre van zelfs. De 10GB en 20GB versies zullen voor 1440p identiek presteren, net zoals de 512MB en 1GB 4870s hetzelfde waren voor mensen met een 'normale' resolutie.

[Afbeelding]

2560x1600 is het 4K van nu.

Daarnaast gaan die 2GB geheugenchips meer kosten dan de 1GB variant, dus een 20GB versie zal wel 899 worden of iets in die richting (reken dus 1000+ effectief).
Klopt, denk dat we zo een prijs actie zien als met super. Het is aan amd hoe hun kaarten presteren en de prijs. Nvidia zal handelen adv dit.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw OMFG:

HWI: Dreigend PSU-tekort! Nvidia's RTX 3000-kaarten mogelijk extra oorzaak hogere prijzen

Haha, wat een launch. 8)7 :D

[ Voor 34% gewijzigd door Help!!!! op 18-09-2020 12:25 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • TRAXION
  • Registratie: Februari 2002
  • Laatst online: 24-01 02:31
Omfg het moet toch niet gekker worden, ik heb al 10 jaar voedingen die zonder problemen een 3090 kunnen voeden, ik heb toch het idee dat heel veel 3080 kopers gehypte apple gebruikers zijn.

Straks zien we hier op het forum allerhande topic over problemen en vragen over 3080 kaarten van een nieuwe generatie.

Pc gaming is opeens weer booming!?
Pascal was de mining craze, turing faalde en ampera is revival of the gaming decade door corona 2020 *O*

Een hele generatie nieuwe nubs die we kunnen afslachten op de virtuele slagvelden oOo

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Supply chain issues can take months to resolve, and we may not be in the worst of the power supply shortage yet.

Nou, komt dat even goed uit! Want voorlopig zijn er toch geen RTX 3080s of 3090s te verwachten of te bekennen... ;)

Verwijderd

Wat een bullshit artikel....

Het is al maanden zo en begon met Chinees nieuwjaar gevolgd door Corona.

[ Voor 8% gewijzigd door Verwijderd op 18-09-2020 13:28 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Realiteit is dat veel 'sukkels' gewoon een 750 watt kopen omdat nvidia het zegt. Ik heb gister meerdere malen moeten uitleggen dat hun 650 watt prima is en toch werd er een nieuwe voeding gekocht omdat nvidia het op de site zet...
Sommige mensen willen niet geholpen worden...

Ook mijn advies voor op kast gebaseerde airflow word gewoon genegeerd dus dat word nog leuk... al gevallen gezien die gegarandeerd problemen gaan opleveren.

[ Voor 44% gewijzigd door computerjunky op 18-09-2020 12:55 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
computerjunky schreef op vrijdag 18 september 2020 @ 12:53:
Realiteit is dat veel 'sukkels' gewoon een 750 watt kopen omdat nvidia het zegt. Ik heb gister meerdere malen moeten uitleggen dat hun 650 watt prima is en toch werd er een nieuwe voeding gekocht omdat nvidia het op de site zet...
Sommige mensen willen niet geholpen worden...
Soms moet je ook wel. Ik had hier een RM850i, RM850x en een SF600 liggen. De SF600 heeft maar 2 PCI-E aansluitingen en de videokaart heeft er 3 nodig. Gezien ik wel in een SFX setting zal blijven had ik dus een SF750 nodig :p.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
sjekneck schreef op vrijdag 18 september 2020 @ 11:58:
[...]

Met die beredenering blijf je wachten en koop je nooit wat :P
Als het product je aanstaat (prijs, prestatie etc) en je kunt deze krijgen, zou ik het gewoon doen.
Wachten op AMD kan ik nog inkomen, maar als je dan verwacht 3080 + 20% voor 20% minder geld, dan kan ik je vast verklappen dat dit zeer onwaarschijnlijk gaat zijn.

Ik ben ook naar een 3700x gegaan wetende dat er binnen een half jaar Zen3 zou komen. Gaat die sneller zijn? Vast en zeker, maar de initiële prijs van die opvolger is ook hoger bij release en ik heb de 3700x wel voor een leuke prijs kunnen kopen.
Je kan er nu een proberen te kopen maar of je hem binnen 2 maanden binnen hebt is een tweede. Dus je wordt geforceerd te wachten (of je wil extra bijlappen om hem op een andere manier te krijgen).

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Sp3ci3s8472 schreef op vrijdag 18 september 2020 @ 13:09:
[...]


Je kan er nu een proberen te kopen maar of je hem binnen 2 maanden binnen hebt is een tweede.
Ampwhere?

Verwijderd

Paprika schreef op vrijdag 18 september 2020 @ 12:55:
[...]

Soms moet je ook wel. Ik had hier een RM850i, RM850x en een SF600 liggen. De SF600 heeft maar 2 PCI-E aansluitingen en de videokaart heeft er 3 nodig. Gezien ik wel in een SFX setting zal blijven had ik dus een SF750 nodig :p.
Je had ook één van de kabels an de andere twee voedingen kunnen pakken. Deze drie voedingen gebruiken allemaal dezelfde pinout voor de modulaire kabels.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
Verwijderd schreef op vrijdag 18 september 2020 @ 13:27:
[...]

Je had ook één van de kabels an de andere twee voedingen kunnen pakken. Deze drie voedingen gebruiken allemaal dezelfde pinout voor de modulaire kabels.
Ik zou dus ook de kabels van de RM850i kunnen gebruiken? Die zijn wel beter lijkt me (ripple?).

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Volgende is wel interessant:


Analyse van 8k van de RTX 3080 door nkliksphilip. Bij sommige spellen zelfs met DLSS niet speelbaar terwijl het wel lekker loopt op 4k. Het is dus of drivers of te weinig videogeheugen voor 8k.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:41
Werelds schreef op vrijdag 18 september 2020 @ 11:47:
[...]

Helaas kun je niet zo rekenen. Sowieso is de 3070 GA104 in plaats van GA102, dus sommige verhoudingen zullen anders liggen. Belangrijker is echter dat het niet om 8704 en 5888 CUDA cores gaat. Het gaat om respectievelijk 4352 en 2944 FP32 ALU's, met daarnaast nog een extra 4352 en 2944 FP32/INT32 ALU's die deels aangesproken kunnen worden. In de praktijk komt het er op neer dat je pakweg 20-40% van de tijd extra FP32 rekenkracht hebt, afhankelijk van de game. Als je naar TPU's samenvatting kijkt zie je dat het over de gehele linie zo'n 23% schaalt voor de 3080.
Valide punt perfecte scaling is er niet en je begint niet op 0 dus 67% minder theoretische rekenkracht hoeft niet 67% van de fps te betekenen, dat is een oversimplificatie.

Alleen het eerste deel van je uitleg volg ik helaas niet. Als ik die basis die je net schets overneem dan is dat 2944/4352 en dan kom je ook weer op 67%. Kijken we dan naar het fp32/int verhaal dan is dat volgens de cijfers die je net deelt 2944/4352 en dat is ook weer 67%. Bij dezelfde workload (=bij dezelfde game). Samengevat heb je dan 67% minder basis kracht en 67% minder 'boost' kracht. Ik zie daar geen nuance uit onstaan omdat de verhoudingen gelijk blijven.

Verder slim om het comperatief te doen tussen architecturen dat is wellicht een nauwkeuriger uitgangspunt om een voorspelling op te doen. Dan zou je wel boven de 2080 ti uitkomen en dat is een prettigere voorspelling O-) .

Overigens wellicht geinig om te vermelden dat F1 2020 de enige game is die ik heb die daadwerkelijk DLSS ondersteund. Zonder DLSS haal ik op 3440x1440 88 FPS en met DLSS 113 en dan ziet het er nog beter uit ook! Als alle games DLSS gaan implementeren zit ik nog wel even goed met mijn RTX 2070.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Verwijderd

Paprika schreef op vrijdag 18 september 2020 @ 13:54:
[...]

Ik zou dus ook de kabels van de RM850i kunnen gebruiken? Die zijn wel beter lijkt me (ripple?).
Beter in reviews, in de praktijk is het alleen onhandig. Grote condensators in de kabels zouden nog wel een nuttige functie hebben. Die zouden de transient spikes kunnen opvangen. Maar met jouw voeding zit je niet ruim, dus de rest mag niet te veel verbruiken

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13:12
Sp3ci3s8472 schreef op vrijdag 18 september 2020 @ 14:05:
Volgende is wel interessant:
[YouTube: Geforce 3080 VS 8K Gaming]

Analyse van 8k van de RTX 3080 door nkliksphilip. Bij sommige spellen zelfs met DLSS niet speelbaar terwijl het wel lekker loopt op 4k. Het is dus of drivers of te weinig videogeheugen voor 8k.
je gaat van 8 Mpix in 4K naar 33 Mpix in 8K dus een factor 4.. Je mag blij zijn als 80 fps in 4K terugvalt naar 20 fps in 8K

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
winwiz schreef op vrijdag 18 september 2020 @ 15:08:
[...]


je gaat van 8 Mpix in 4K naar 33 Mpix in 8K dus een factor 4.. Je mag blij zijn als 80 fps in 4K terugvalt naar 20 fps in 8K
Klopt, maar zelfs met 4k DLSS naar 8k gaat het soms niet goed terwijl 4k standaard wel goed loopt. Als je de video bekijkt zie je dat er op sommige punten gewoon te weinig video geheugen is, mocht dat niet de limititatie zijn dan had het waarschijnlijk beter gelopen (nog steeds onspeelbaar maar toch).

Heb je de video wel bekeken?

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
sdk1985 schreef op vrijdag 18 september 2020 @ 14:20:
[...]

Valide punt perfecte scaling is er niet en je begint niet op 0 dus 67% minder theoretische rekenkracht hoeft niet 67% van de fps te betekenen, dat is een oversimplificatie.

Alleen het eerste deel van je uitleg volg ik helaas niet. Als ik die basis die je net schets overneem dan is dat 2944/4352 en dan kom je ook weer op 67%. Kijken we dan naar het fp32/int verhaal dan is dat volgens de cijfers die je net deelt 2944/4352 en dat is ook weer 67%. Bij dezelfde workload (=bij dezelfde game). Samengevat heb je dan 67% minder basis kracht en 67% minder 'boost' kracht. Ik zie daar geen nuance uit onstaan omdat de verhoudingen gelijk blijven.
De verhoudingen liggen dan wel gelijk, de absolute cijfers echter niet :)

Je moet het zo zien: GA104 en GA102 zijn feitelijk gewoon respectievelijk TU104 en TU102. Zelfde aantal SM's, zelfde aantal FP32 ALU's per SM en de aansturing verschilt niet veel. We weten echter ook dat de x02 chips relatief minder goed schalen, doordat meer van de GPU gemiddeld stil ligt. Dus hoewel we het over 4352/2944 = 1,48 keer het aantal ALU's hebben, komt dat er bij lange na niet uit.

Boven op die cijfers krijg je dan 30% van de tijd het dubbele aantal shaders. Dat is echter slechts een deel van de tijd en ook die extra shaders schalen net zo slecht mee. Dus hoewel je wel op 67% van het aantal ALU's zit, heb je ook te maken met een exponentieel slechtere schaling. Het versterkt elkaar; of in het geval van GA104 vermindert het het gebrek aan ALU's. De grotere GA102 schaalt al niet goed met z'n basis 4352, als je dan ook nog eens slechts (gemiddeld!) 30% van de tijd het dubbele aan ALU's er bij krijgt, die ook weer niet lekker mee schalen, wordt het een zooitje. Voor GA104 kun je met pakweg ~900-1000 extra ALU's rekenen, voor GA102 is dat aantal slechts ~1300-1400. In absolute cijfers is dat niet gigantisch en het is ook bij lange na niet het effectieve resultaat door de slechte schaling :p


Dit is ook waarom je mij meestal over de chips ziet praten en niet over de kaarten. Een 2080 (of 2080 Super) is niet te vergelijken met een 3080. Het is voor ons gunstig dat ze weer een grote chip als xx80 hebben genomen, maar het is wel verwarrend als je niet bij houdt welke chips het zijn. Helemaal nu met Ampère die zo inconsistent presteert.
Verder slim om het comperatief te doen tussen architecturen dat is wellicht een nauwkeuriger uitgangspunt om een voorspelling op te doen. Dan zou je wel boven de 2080 ti uitkomen en dat is een prettigere voorspelling O-) .
Ik blijf bij wat ik eerder zei: ik denk dat de 3070 verrassend goed uit de bus gaat komen. Qua absolute prestaties, maar vooral ook qua efficiëntie.

Verwijderd

Werelds schreef op vrijdag 18 september 2020 @ 15:33:
[...]

Ik blijf bij wat ik eerder zei: ik denk dat de 3070 verrassend goed uit de bus gaat komen. Qua absolute prestaties, maar vooral ook qua efficiëntie.
Hopelijk ook qua beschikbaarheid...

  • TRAXION
  • Registratie: Februari 2002
  • Laatst online: 24-01 02:31
Paprika schreef op vrijdag 18 september 2020 @ 13:54:
[...]

Ik zou dus ook de kabels van de RM850i kunnen gebruiken? Die zijn wel beter lijkt me (ripple?).
Sf600 trekt het makkelijk gewoon een kabel pakken met aan het uiteinde een splitter en een directe

"splitter als in de vorm van 2 pcie connectors aan 1 kabel" al zie ik deze niet meer als optie voor de huidige voedingen?

Mijn vorige hx750 met blauwe kabels had wel 2x pcie power per kabel dus 4 in totaal over 2 kabels.

Die condensator gaat naar mijn idee weinig toevoegen aan ripple op de kaart zelf zit een veelvoud aan condensatoren om ripple op te vangen.

3x direct lijkt me lastig op de sf600 omdat je waarschijnlijk ook nog cpu power hebt lopen richting je moederbord.

Verwijderd

Sp3ci3s8472 schreef op vrijdag 18 september 2020 @ 15:17:
[...]


Klopt, maar zelfs met 4k DLSS naar 8k gaat het soms niet goed terwijl 4k standaard wel goed loopt. Als je de video bekijkt zie je dat er op sommige punten gewoon te weinig video geheugen is, mocht dat niet de limititatie zijn dan had het waarschijnlijk beter gelopen (nog steeds onspeelbaar maar toch).

Heb je de video wel bekeken?
Zijn er al mensen met een 8K scherm dan? Onbetaalbaar en tegen die tijd dat het enigszins betaalbaar is kopen die mensen wel een 5080 TI.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Verwijderd schreef op vrijdag 18 september 2020 @ 18:39:
[...]


Zijn er al mensen met een 8K scherm dan? Onbetaalbaar en tegen die tijd dat het enigszins betaalbaar is kopen die mensen wel een 5080 TI.
Als we Nvidia moeten geloven dan is 8k een ding (tenminste op de 3090), als ze hier niet over waren begonnen had ik er ook niks over gezegd ;).

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Sp3ci3s8472 schreef op vrijdag 18 september 2020 @ 18:45:
[...]


Als we Nvidia moeten geloven dan is 8k een ding (tenminste op de 3090), als ze hier niet over waren begonnen had ik er ook niks over gezegd ;).
[YouTube: Gamers React to 8K Ray Tracing | GeForce RTX 3090 [Presented in 8K]]
Deep pockets... Zie over 5 jaar wel

[ Voor 5% gewijzigd door Ferio op 18-09-2020 18:49 ]


Verwijderd

Sp3ci3s8472 schreef op vrijdag 18 september 2020 @ 18:45:
[...]


Als we Nvidia moeten geloven dan is 8k een ding (tenminste op de 3090), als ze hier niet over waren begonnen had ik er ook niks over gezegd ;).
[YouTube: Gamers React to 8K Ray Tracing | GeForce RTX 3090 [Presented in 8K]]
Yep, hoop blah blah blah :) Maar zal wat je al eerder aangaf beter lopen vanwege meer memory.
10GB is wat mager voor een 3080, ongetwijfeld komt er nog een met 20GB, kopen alle 3080 eigenaren die weer = good for business >:)

[ Voor 11% gewijzigd door Verwijderd op 18-09-2020 18:49 ]


  • Simbob
  • Registratie: December 2009
  • Niet online

  • gunghir
  • Registratie: April 2018
  • Laatst online: 20-07-2024


ziet er echt heel degelijk uit zeg ZOTAC

  • Henkus
  • Registratie: November 2001
  • Laatst online: 31-01 17:20
Komt hier als het goed is dinsdag binnen :9~

Jaren geleden een Corsair 1200i voeding gekocht, dus daar zal het niet aan liggen.

[ Voor 12% gewijzigd door Henkus op 18-09-2020 19:32 ]

Mijn rig : https://gathering.tweakers.net/forum/list_messages/1864567


  • gunghir
  • Registratie: April 2018
  • Laatst online: 20-07-2024
Henkus schreef op vrijdag 18 september 2020 @ 19:31:
[...]


Komt hier als het goed is dinsdag binnen :9~

Jaren geleden een Corsair 1200i voeding gekocht, dus daar zal het niet aan liggen.
Ja hier komt ie ook dinsdag binnen echt gaaf kan niet wachten!

  • Evernote
  • Registratie: Januari 2012
  • Laatst online: 18:33
De kans dat we dinsdag een Zotac gaan zien van Amazon is erg klein.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:54
NVIDIA GeForce RTX 3090 3DMark Time Spy scores leaked

'NVIDIA GeForce RTX 3090 is ~19% faster than RTX 3080'

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Henkus
  • Registratie: November 2001
  • Laatst online: 31-01 17:20
Evernote schreef op vrijdag 18 september 2020 @ 19:44:
De kans dat we dinsdag een Zotac gaan zien van Amazon is erg klein.
Ik ben er ook nog wel een beetje sceptisch over
Toch loopt het balkje langzaam verder richting "verzonden" :)

Mijn rig : https://gathering.tweakers.net/forum/list_messages/1864567


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
19% meer prestaties voor 100% hogere kosten....

Maar ''HeT iS EeN 8k GaMiNg KaArT'' zei Nvidia. :+

  • killerbee1958
  • Registratie: Januari 2004
  • Laatst online: 03-02 20:20
Enchantress schreef op vrijdag 18 september 2020 @ 22:38:
[...]


19% meer prestaties voor 100% hogere kosten....

Maar ''HeT iS EeN 8k GaMiNg KaArT'' zei Nvidia. :+
Nou veel plezier voor iedereen die er een wel aanschaffen maar hier is voor mij de prijs/prestatie dus echt verkeerd van.

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 21:42

Jumpiefox

Hoi ?

Enchantress schreef op vrijdag 18 september 2020 @ 22:38:
[...]


19% meer prestaties voor 100% hogere kosten....

Maar ''HeT iS EeN 8k GaMiNg KaArT'' zei Nvidia. :+
hoe 20% meer performance(waarschijnlijk minder in games?) het opeens een 8k gaming kaart maakt mag joost weten..of eigenlijk wel logisch volgens de Nvidia shady praktijken :+
Ze bedoelen gewoon Upscaled 4K met een buttload DLSS en de shitton aan geheugen dat dat ding heeft. Hopa 8k ;p

[ Voor 3% gewijzigd door Jumpiefox op 18-09-2020 23:05 ]

The first casualty in war is always the truth...


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Jumpiefox schreef op vrijdag 18 september 2020 @ 23:04:
[...]

hoe 20% meer performance(waarschijnlijk minder in games?) het opeens een 8k gaming kaart maakt mag joost weten..of eigenlijk wel logisch volgens de Nvidia shady praktijken :+
Ze bedoelen gewoon Upscaled 4K met een buttload DLSS en de shitton aan geheugen dat dat ding heeft. Hopa 8k ;p
Leuke marketing van Nvidia inderdaad (helaas trappen er veel mensen in) maar een 4K scherm blijft een 4K scherm, dat wordt niet plots een 8K scherm.

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
hoop dat 10 gb genoeg zal zijn voor mijn 3440x1440p. of 20bgb nodig voor ultra settings?

  • TRAXION
  • Registratie: Februari 2002
  • Laatst online: 24-01 02:31
Enchantress schreef op vrijdag 18 september 2020 @ 22:38:
[...]


19% meer prestaties voor 100% hogere kosten....

Maar ''HeT iS EeN 8k GaMiNg KaArT'' zei Nvidia. :+
Wacht maar totdat game engines geoptimaliseerd worden voor deze architectuur dan kan de winst weleens flink gaan oplopen door effectiever de cores aan te spreken waardoor je straks effectief 10k cores tot de beschikking hebt met een veel bredere geheugen bus 4k gaat deze kaart gewoon kont schoppen.

Dit geld overigens voor alle Ampere kaarten filmpje wat hier ergens stond over de evolutie kwa cores geeft daar een mooi beeld over.

Gok dat met nieuwe engines en optimalisaties de verschillen tussen turing en ampera weleens richting de 60% kunnen gaan....

  • ion
  • Registratie: Augustus 2011
  • Niet online

ion

hully schreef op vrijdag 18 september 2020 @ 23:47:
hoop dat 10 gb genoeg zal zijn voor mijn 3440x1440p. of 20bgb nodig voor ultra settings?
Je hebt zelfs genoeg aan 8GB.

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
aha thx,

waar komt die hype voor meer geheugen vandaan dan?

  • Theebag
  • Registratie: November 2002
  • Laatst online: 19:15
hully schreef op zaterdag 19 september 2020 @ 07:21:
aha thx,

waar komt die hype voor meer geheugen vandaan dan?
Iets met bepaalde settings draaien voor 4k benchmarks zodat het totale geheugen gebruik onder de 10GB blijft. Dus dan zou je nu al geen maximum settings kunnen gebruiken met een 3080 10GB.

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 10:22
hully schreef op vrijdag 18 september 2020 @ 23:47:
hoop dat 10 gb genoeg zal zijn voor mijn 3440x1440p. of 20bgb nodig voor ultra settings?
Ik heb een 1080ti met 11GB en heb op die resolutie altijd genoeg geheugen. Er zijn wel games die alles claimen (allocated) maar het daadwerkelijke gebruik is nooit zo hoog denk ik. Dit is helaas AFAIK nogal moeilijk te meten bij games die wel alles claimen.

Ik moet wel zeggen dat er wel een beetje een trend is van meer geheugen reserveren maar omdat het daadwerkelijk gebruik best moeilijk te achterhalen is weet ik dus niet of games dit ook echt nodig hebben.

Dat gezegd hebbende zal ik geen 3080 10GB halen puur omdat het cijfertje lager is dan mijn 1080ti. 8)7
Ik weet dat dat onzin is natuurlijk omdat de 3080 sneller geheugen heeft en RTXio ook invloed zal hebben op het geheugen gebruik. Maar toch.. ;)

Wie goed doet, die goed ontmoet.


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Hier nog meer benchmarks voor de 3090.
https://videocardz.com/ne...-rtx-3090-benchmarks-leak

Naar mijn idee is de 3090 nu al een flop, hij is maar ietsjes sneller dan de 3080 voor 100% meer kosten en met een toch wel gigantisch hoog stroom verbruik.

Vraag mij steeds meer af waarom Nvidia deze kaarten zo erg hoog pusht.....daardoor ben ik meer benieuwd naar RDNA2 gezien Nvidia veel meer weet dan ons over die kaarten.

Interessante tijden voor hardware land.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Enchantress schreef op zaterdag 19 september 2020 @ 09:57:
Hier nog meer benchmarks voor de 3090.
https://videocardz.com/ne...-rtx-3090-benchmarks-leak

Naar mijn idee is de 3090 nu al een flop, hij is maar ietsjes sneller dan de 3080 voor 100% meer kosten en met een toch wel gigantisch hoog stroom verbruik.

Vraag mij steeds meer af waarom Nvidia deze kaarten zo erg hoog pusht.....daardoor ben ik meer benieuwd naar RDNA2 gezien Nvidia veel meer weet dan ons over die kaarten.

Interessante tijden voor hardware land.
Twee keer zoveel VRAM. Dat plus mensen die het duurste willen hebben is simpelweg zijn use case. Was al lang duidelijk dat op ruwe compute power hij zijn geld niet waard is tov de 3080.

  • RedHeroDude
  • Registratie: Juni 2015
  • Laatst online: 02-11-2025
Theebag schreef op zaterdag 19 september 2020 @ 08:37:
[...]


Iets met bepaalde settings draaien voor 4k benchmarks zodat het totale geheugen gebruik onder de 10GB blijft. Dus dan zou je nu al geen maximum settings kunnen gebruiken met een 3080 10GB.
Volgens Gamers Nexus is het waarschijnlijk niet een probleem. Veel games liegen over het daadwerkelijke aantal VRAM dat ze gebruiken, dus als een game 13 of 14 GB zegt in te nemen... dan is dat waarschijnlijk gewoon niet zo. Maar goed, ik vind het wel vreemd dat de benchmarks voor juist die games er nog niet zijn met de max settings. Zoals Resident Evil 3 die wel 16+ GB aan VRAM meent te gebruiken.

Verwijderd

RedHeroDude schreef op zaterdag 19 september 2020 @ 10:40:
[...]


Volgens Gamers Nexus is het waarschijnlijk niet een probleem. Veel games liegen over het daadwerkelijke aantal VRAM dat ze gebruiken, dus als een game 13 of 14 GB zegt in te nemen... dan is dat waarschijnlijk gewoon niet zo. Maar goed, ik vind het wel vreemd dat de benchmarks voor juist die games er nog niet zijn met de max settings. Zoals Resident Evil 3 die wel 16+ GB aan VRAM meent te gebruiken.
Het is niet liegen, het is nuttig gebruik maken van beschikbaar geheugen. Het is juist zonde om geheugen dat beschikbaar is niet te gebruiken.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Verwijderd schreef op zaterdag 19 september 2020 @ 12:28:
[...]

Het is niet liegen, het is nuttig gebruik maken van beschikbaar geheugen. Het is juist zonde om geheugen dat beschikbaar is niet te gebruiken.
Volgens mij is het geen van beide. Hij zegt duidelijk dat het allocated (toegewezen) is. Dat wil niet zeggen dat het in gebruik is.
Het is dus gereserveerd en beschikbaar voor gebruik maar dat betekend niet dat de game het in wat voor een map of deel van de game echt nodig heeft.
Hetzelfde gebeurd eigenlijk met iedere versie van ram zo gebruikt mijn windows 10 net na opstarten 2.4GB maar als ik er een cache clear overheen gooi nog maar 580MB de rest is dus allemaal allocated maar niet echt in gebruik anders zou immers de hele pc op zijn gat gaan en alles eerst weer ingeladen moeten worden.

Of toewijzen slecht of goed is is vrij lastig te stellen bij een gpu.

Maar wat games dus echt gebruiken weten we simpelweg niet en de ram verbruik data in bijvoorbeeld rivatuner is dus ook vrijwel nutteloze data.

[ Voor 10% gewijzigd door computerjunky op 19-09-2020 12:53 ]


  • Stuns
  • Registratie: September 2018
  • Laatst online: 30-11-2020
Vond deze benchmarks van een RTX 3090 toen ik mijn eigen setup had getest. Iemand uit Italie en een iemand uit Tsjechië had hem gedraaid waarvan de laatste lijkt dat hij de resultaten alweer verwijderd heeft.

Afbeeldingslocatie: https://tweakers.net/i/biCQpUb-hYBIiKzuSJpG6Gb18U0=/800x/filters:strip_exif()/f/image/Phhkpur5p5HwsAS5Ij6aFMpZ.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/uU0l33mqfsgMBbZWevsF3Rx2VaQ=/800x/filters:strip_exif()/f/image/uyiT6Ntj9h58RmTKcBO36Gus.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/LQ2JPqaUQsXjHfakptgjXxHxmpM=/800x/filters:strip_exif()/f/image/FrXRWt3OAlbLsouMO02sR2ph.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/cK5ja1FtnbDFiPpSWHuU1UBNm5o=/800x/filters:strip_exif()/f/image/h5OckrVLjsojMVWtVc6RHCcd.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/Z6RUp0-eoC-GWd1pTt4mBKTTgbg=/800x/filters:strip_exif()/f/image/D5kR10y2HxHZxWDskdsAo5Hq.png?f=fotoalbum_large

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Afbeeldingslocatie: https://tweakers.net/i/kHdsxvLelmm7NkpWu-PdJ77JfE4=/800x/filters:strip_icc():strip_exif()/f/image/uzjsTYeU5K57f0t7pCgX3gdb.jpg?f=fotoalbum_large

Gaming benchmarks van de 3090....

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:54
Voor gemiddeld 7-8% meer performance betaal je dus het dubbele. Ik ben benieuwd of de kaart goed verkocht gaat worden... De 2080Ti werd volgens mij nog wel goed verkocht.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
Zoals verwacht is de 3090 een slechte keuze voor gamers. Maarja +20% cuda cores, dus had al max +15% in games verwacht. Totaal niet de prijs waard, als je als gamer meer vram wilt wacht dan op de 20GB 3080 of 16GB 3070ti.

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Santee schreef op zaterdag 19 september 2020 @ 17:35:
[...]

Zoals verwacht is de 3090 een slechte keuze voor gamers. Maarja +20% cuda cores, dus had al max +15% in games verwacht. Totaal niet de prijs waard, als je als gamer meer vram wilt wacht dan op de 20GB 3080 of 16GB 3070ti.
Een gaming kaart wat een slechte keuze is voor gamers..... Nvidia marketing heeft niet zijn best gedaan.

Een eventuele 3080 20GB zal ook niet veel beter gaan presteren dan de normale 3080.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 22:52
Het is wel de "beste" "gaming" kaart die je (bijna) kunt kopen...

  • digifun
  • Registratie: Mei 2000
  • Niet online

digifun

 

De 3090is ook meer een kaart voor renderen , kijk maar eens op het youtubekanaal van Nvidia.

u can fool all people some time and fool some people alltime


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
Enchantress schreef op zaterdag 19 september 2020 @ 17:43:
[...]

Een gaming kaart wat een slechte keuze is voor gamers..... Nvidia marketing heeft niet zijn best gedaan.

Een eventuele 3080 20GB zal ook niet veel beter gaan presteren dan de normale 3080.
Jup de 3090 is een titan alleen met een veel te hoge tdp waardoor het geen titan meer is. Alleen mensen die echt die 24GB vram nodig hebben zou ik een 3090 adviseren. Gamers met een 3090 zijn een dief van hun eigen portomonee en moeten niet boos worden als er een 20GB 3080 voor $899 komt over 5mnd.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Je moet de RTX3090 eigenlijk ook niet kopen. Vast sneller dan de RTX3080, maar zelfs Nvidia maakte er een punt van het ding niet echt te marketen als een gaming kaart. De meerprijs is totaal onevenredig an de prestaties en dat was meteen duidelijk.

Veel belangrijker is dat de RTX3090 waarschijnlijk over een paar maanden EOL zal gaan. De kaart gebruikt een onhandige 24GB VRAM setup met GDDR6X chips aan beide kanten van het PCB. Dat moet omdat 16Gb chips nog niet beschikbaar zijn. Als die er volgend jaar eenmaal zijn, dan kan je wachten op een Titan Ampere met 24GB aan VRAM, zonder die setup. Die zou ook wel eens de volle 84SM GA102 kunnen hebben i.p.v. 82SM's van de RTX3090. Ook kan je dan wachten op een RTX3080 20GB die totaal niet gelekt is door Gigabyte. De echte prijs is alleen de RTX3080Ti die waarschijnlijk redelijk vergelijkbaar zal presteren als de RTX3090, maar goedkoper zal zijn. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

De 3090 komt op 4K niet volledig tot z'n recht (CPU-limited) afhankelijk van de gameengine en -settings. Ik durf te wedden dat die op 5K evt. met reshade wel klem tegen die theoretische +20% aankomt en zelfs erover zodra de 10 gb 3080 out of V-ram raakt. (Niet dat het dan opeens een aantrekkelijke kaart wordt btw.)

Ik denk wel dat hij het goed gaat doen in Skyrim SE @5K+ NAT enb met 8k Septentrional Landscapes SE bv.

Niet op voorraad.


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:12
edward2 schreef op zaterdag 19 september 2020 @ 18:58:
Ik durf te wedden dat die op 5K evt. met reshade wel klem tegen die theoretische +20% aankomt
Dunno, hij mag maar 10% meer stroom trekken dan de 3080 en het hogere aantal memorychips zal ook nog wat extra verbruik geven.

Mechwarrior Online: Flapdrol


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

haarbal schreef op zaterdag 19 september 2020 @ 19:07:
[...]

Dunno, hij mag maar 10% meer stroom trekken dan de 3080 en het hogere aantal memorychips zal ook nog wat extra verbruik geven.
Dat zou wel eens een groter probleem kunnen zijn ja, maar het zou wel erg stom zijn van nV als de GPU daardoor ook nog eens wordt afgeknepen, zonder in de buurt te komen van z'n theoretische perf.

[ Voor 18% gewijzigd door edward2 op 19-09-2020 19:20 ]

Niet op voorraad.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op zaterdag 19 september 2020 @ 18:34:
Je moet de RTX3090 eigenlijk ook niet kopen. Vast sneller dan de RTX3080, maar zelfs Nvidia maakte er een punt van het ding niet echt te marketen als een gaming kaart. De meerprijs is totaal onevenredig an de prestaties en dat was meteen duidelijk.

Veel belangrijker is dat de RTX3090 waarschijnlijk over een paar maanden EOL zal gaan. De kaart gebruikt een onhandige 24GB VRAM setup met GDDR6X chips aan beide kanten van het PCB. Dat moet omdat 16Gb chips nog niet beschikbaar zijn. Als die er volgend jaar eenmaal zijn, dan kan je wachten op een Titan Ampere met 24GB aan VRAM, zonder die setup. Die zou ook wel eens de volle 84SM GA102 kunnen hebben i.p.v. 82SM's van de RTX3090. Ook kan je dan wachten op een RTX3080 20GB die totaal niet gelekt is door Gigabyte. De echte prijs is alleen de RTX3080Ti die waarschijnlijk redelijk vergelijkbaar zal presteren als de RTX3090, maar goedkoper zal zijn. ;)
Titan Ampere kan zelf 16Gb geheugenchips aan beide kanten hebben, goed voor 48GB.

March of the Eagles


Verwijderd

Iemand enig idee wanneer de Asus TUF kaarten te koop zijn bij Coolblue?

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:54
Verwijderd schreef op zondag 20 september 2020 @ 00:19:
Iemand enig idee wanneer de Asus TUF kaarten te koop zijn bij Coolblue?
Dat kan je beter hier vragen [NVIDIA GeForce RTX 30XX] Levertijden & Prijzen :) Waarschijnlijk weet niemand dit.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Bonsaiboom
  • Registratie: December 2009
  • Laatst online: 26-01 11:05
XWB schreef op zaterdag 19 september 2020 @ 21:12:
[...]


Titan Ampere kan zelf 16Gb geheugenchips aan beide kanten hebben, goed voor 48GB.
Hmm, ik ben in de markt voor een high-VRAM kaart ivm deep learning. De 3090 leek me vanuit dat oogpunt eigenlijk een redeiljk goede koop, aangezien het de goedkoopste 24GB kaart is op de markt straks. De 3080 met 20GB zou eigenlijk soort van ideaal zijn, hoewel ik denk dat die in prijs ook nog wel stevig zal zijn.

Is er al nieuws over de titan ampere? Of is wat je noemt vooral speculatie. Overigens, als die dan weer 3k kost, is het weer niet interessanter dan de 3090 :-)

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
Bonsaiboom schreef op zondag 20 september 2020 @ 10:39:
[...]


Hmm, ik ben in de markt voor een high-VRAM kaart ivm deep learning. De 3090 leek me vanuit dat oogpunt eigenlijk een redeiljk goede koop, aangezien het de goedkoopste 24GB kaart is op de markt straks. De 3080 met 20GB zou eigenlijk soort van ideaal zijn, hoewel ik denk dat die in prijs ook nog wel stevig zal zijn.

Is er al nieuws over de titan ampere? Of is wat je noemt vooral speculatie. Overigens, als die dan weer 3k kost, is het weer niet interessanter dan de 3090 :-)
Titan ampere zal op tsmc komen, als die al komt, ze brengen geen titan uit met 300w+ tbp gok ik.

  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
DaniëlWW2 schreef op zaterdag 19 september 2020 @ 18:34:
Je moet de RTX3090 eigenlijk ook niet kopen. Vast sneller dan de RTX3080, maar zelfs Nvidia maakte er een punt van het ding niet echt te marketen als een gaming kaart. De meerprijs is totaal onevenredig an de prestaties en dat was meteen duidelijk.
Ik denk dat Nvidia straks klappen krijgt en de mensen die nu de 3000 kaarten kopen gaan balen. Ik zou nu helemaal geen kaart aanschaffen.

NVIDIA profiteert nu van de fan boys.

[ Voor 4% gewijzigd door Ferio op 20-09-2020 11:28 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ferio schreef op zondag 20 september 2020 @ 11:24:
[...]


Ik denk dat Nvidia straks klappen krijgt en de mensen die nu de 3000 kaarten kopen gaan balen. Ik zou nu helemaal geen kaart aanschaffen.

NVIDIA profiteert nu van de fan boys.
Of gewoon van een prima vooruitgang in prijs/prestatie. Dit verhaal hebben we nu vier generaties gehoord. En nu als AMD met iets goeds komt, dan missen ze nog steeds iets als een DLSS, en is het ze gelukt om door de vorige generatie driver problemen als extra reden aan mensen te geven om een Nvidia kaart te kopen.

  • Vissa66
  • Registratie: Januari 2011
  • Laatst online: 03-02 22:32
Ferio schreef op zondag 20 september 2020 @ 11:24:
[...]


Ik denk dat Nvidia straks klappen krijgt en de mensen die nu de 3000 kaarten kopen gaan balen. Zou helemaal geen kaart nu gaan aanschaffen.
Dat het een slecht moment is om een kaart te kopen, als je dat echt niet nodig hebt, ben ik het mee eens. Ik verwacht ook nog vuurwerk tussen AMD en Nvidia. Het is niet voor niks dat deze generatie een grotere winst heeft, zeker kwa prijs/prestatie, als voorgaande jaren. Nvidia weet dondersgoed waar AMD mee gaat komen. Nvidia heeft dit niet uit goodwill gedaan, dat geloof ik niet.

Hoe dan ook gaan er nog vele versies van de RTX3 serie volgen, en ik vermoed al vlotter dan dat we verwachten. :) Ik heb nog geen nieuwe kaart nodig, ik wacht nog even af. :P

M3P 24'


  • Ferio
  • Registratie: Juni 2009
  • Laatst online: 22-01 19:19
Vissa66 schreef op zondag 20 september 2020 @ 11:35:
[...]


Dat het een slecht moment is om een kaart te kopen, als je dat echt niet nodig hebt, ben ik het mee eens. Ik verwacht ook nog vuurwerk tussen AMD en Nvidia. Het is niet voor niks dat deze generatie een grotere winst heeft, zeker kwa prijs/prestatie, als voorgaande jaren. Nvidia weet dondersgoed waar AMD mee gaat komen. Nvidia heeft dit niet uit goodwill gedaan, dat geloof ik niet.

Hoe dan ook gaan er nog vele versies van de RTX3 serie volgen, en ik vermoed al vlotter dan dat we verwachten. :) Ik heb nog geen nieuwe kaart nodig, ik wacht nog even af. :P
Dit idd, kaart van nu is ff snel profits pakken voordat amd komt

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ferio schreef op zondag 20 september 2020 @ 11:24:
[...]


Ik denk dat Nvidia straks klappen krijgt en de mensen die nu de 3000 kaarten kopen gaan balen. Zou helemaal geen kaart nu gaan aanschaffen.
Nvidia is dan ook zo vriendelijk om het vrijwel onmogelijk te maken om iets te kopen. ;)
Santee schreef op zondag 20 september 2020 @ 11:05:
[...]

Titan ampere zal op tsmc komen, als die al komt, ze brengen geen titan uit met 300w+ tbp gok ik.
Dat denk ik eigenlijk niet. Ten eerste omdat een Titan op GA102 gebaseerd zal zijn en er serieuze juridische bezwaren gelden om dezelfde chip te laten produceren bij twee fabrikanten. Immers baseer je die chips vanaf de grond af ontwikkeld voor de ontwerpregels van een specifieke node en dat is beschermt IP van de fabrikant. Je kan niet even wisselen naar de ander omdat het wat beter moet.

Tweede is dat het ook niet nodig is. Mensen lijken ze zich niet te beseffen dat veel van die RTX3080's echt baggerchips zijn. Belachelijk verbruik, weinig prestatiewinst. Het lekt allemaal weg. Het is goed te vergelijken met Vega 10 waar de beste chips ook niet naar de RX Vega's gingen en er echte bagger tussen zat bij de RX Vega modellen, zoals uiteraard mijn exemplaar. :z

De eerste UV resultaten laten allang zien dat je er zo 40W+ er vanaf kan halen met minimaal verlies. Dat zijn alleen review samples van FE modellen. Dit zullen de betere chips zijn aangezien Nvidia de betere chips al enkele jaren voor zichzelf houd. De gemiddelde chip, tja die kan wel eens die 320W nodig hebben om een beetje te presteren.

Over een halfjaar met beter wordende yields zal het wat makkelijker worden om afdoende hoge kwaliteit chips in meer producten te steken dan de Quadro's. Dan kan je best een 300W Titan Ampere verwachten. Dan is denk ik eerder de vraag want Navi 21 precies gaat doen. Ik zie Nvidia namelijk geen Titan lanceren als die Navi 21 niet verslaat. De RTX3090 is in dit hele verhaal echt een placeholder die totaal niet interessant is voor verreweg de meeste consumenten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Ferio schreef op zondag 20 september 2020 @ 11:24:
[...]


Ik denk dat Nvidia straks klappen krijgt en de mensen die nu de 3000 kaarten kopen gaan balen. Ik zou nu helemaal geen kaart aanschaffen.

NVIDIA profiteert nu van de fan boys.
Dat werd bij navi ook gezegd en bij ryzen en bij ryzen 2xxx en wat viel dat tegen. Over fanboy gesproken zeg. Ze moeten zich nog bewijzen en tot die tijd hebben ze niets.

En dan hebben we het nog niet eens over drivers, DLSS, RTX Voice, Nvenc , Reflex en nog meer features waar AMD nog een hoop catch up werk te doen heeft. Dus zelfs ALS AMD even snel als de 3080 zou zijn En minder zou verbruiken dan nog zijn er zat use cases waarbij nvidia de betere keuze is.

Ik zou even een stapje terug doen en het totale plaatje en de problematische launches van AMD nog even bekijken met een gezonde nuchtere blik.

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:12
DaniëlWW2 schreef op zondag 20 september 2020 @ 11:51:
Tweede is dat het ook niet nodig is. Mensen lijken ze zich niet te beseffen dat veel van die RTX3080's echt baggerchips zijn. Belachelijk verbruik, weinig prestatiewinst. Het lekt allemaal weg.
En toch heeft de 3080 een betere performance/watt dan alle andere kaarten.

Mechwarrior Online: Flapdrol


  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
haarbal schreef op zondag 20 september 2020 @ 12:29:
[...]

En toch heeft de 3080 een betere performance/watt dan alle andere kaarten.
Op 1440p en 4K :p.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
computerjunky schreef op zondag 20 september 2020 @ 12:26:
[...]


Dat werd bij navi ook gezegd en bij ryzen en bij ryzen 2xxx en wat viel dat tegen. Over fanboy gesproken zeg. Ze moeten zich nog bewijzen en tot die tijd hebben ze niets.

En dan hebben we het nog niet eens over drivers, DLSS, RTX Voice, Nvenc , Reflex en nog meer features waar AMD nog een hoop catch up werk te doen heeft. Dus zelfs ALS AMD even snel als de 3080 zou zijn EN sneller zou zijn En minder zou verbruiken dan nog zijn er zat use cases waarbij nvidia de betere keuze is.

Ik zou even een stapje terug doen en het totale plaatje en de problematische launches van AMD nog even bekijken met een gezonde nuchtere blik.
Nuchtere blik? Tenzij je een die hard gamer bent was alles vanaf Zen 1 bij AMD prima qua cpus. Je kon bij Intel echt geen 8 core krijgen zonder meer dan duizend euro te betalen voor die tijd. Ik heb behoorlijk wat tijd kunnen besparen toen ik eindelijk van mijn i5 4670k over kon op een R7 1700x (die was zelfs in nieuwere games vaak sneller), met mijn 3950x is dat alleen maar meer het geval.

De 5xxx serie van AMD is een goede stap in de juiste richting en ze zijn eindelijk weer bij qua performance/watt (wel met een betere node). Drivers hebben ze echt verpest de eerste paar maanden met de 5xxx launch terwijl die voor die tijd toch echt wel stabiel waren.
AMD heeft andere features dan Nvidia, ben het wel eens dat voor streaming Nvidia nu twee goede features heeft, de rest van streaming features lijkt AMD prima mee te kunnen.
DLSS is een ding voor sommigen, mijn mening hierover is ondertussen wel bekend dus daar ga ik niet op in ;).

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Sp3ci3s8472 schreef op zondag 20 september 2020 @ 15:12:
[...]


Nuchtere blik? Tenzij je een die hard gamer bent was alles vanaf Zen 1 bij AMD prima qua cpus. Je kon bij Intel echt geen 8 core krijgen zonder meer dan duizend euro te betalen voor die tijd. Ik heb behoorlijk wat tijd kunnen besparen toen ik eindelijk van mijn i5 4670k over kon op een R7 1700x (die was zelfs in nieuwere games vaak sneller), met mijn 3950x is dat alleen maar meer het geval.

De 5xxx serie van AMD is een goede stap in de juiste richting en ze zijn eindelijk weer bij qua performance/watt (wel met een betere node). Drivers hebben ze echt verpest de eerste paar maanden met de 5xxx launch terwijl die voor die tijd toch echt wel stabiel waren.
AMD heeft andere features dan Nvidia, ben het wel eens dat voor streaming Nvidia nu twee goede features heeft, de rest van streaming features lijkt AMD prima mee te kunnen.
DLSS is een ding voor sommigen, mijn mening hierover is ondertussen wel bekend dus daar ga ik niet op in ;).
Grappige is dat voor mij de navi drivers de grootste reden is dat ik geen navi gekocht heb en ook de reden dat ik toch even afwacht waar amd mee komt.

Als ik de afgelopen 8 jaar bekijk dan lanceert nvidia een kaart met x performance en daar moet je het mee doen. Of de drivers zijn al optimaal of ze doen gewoon de moeite niet om verder te verbeteren.
Bij amd begint het vrij waardeloos maar word het beter en beter zelfs jaren later nog.

Ik stream niet veel (alleen voor persoonlijke analyse van mijn gameplay) en dus heb ik persoonlijk niet veel aan nvenc en niemand wil mijn kop zien over de game dus ook die overlay is niet belangrijk.

Enige echt belangrijke feature van nvidia vind ik de nieuwe reflex.

Ray tracing had voor mij een belangrijk punt geweest als de fps impact niet weer 50% was.

Maar de afgelopen launches blijven toch in mijn achterhoofd en beta testen heb ik geen zin in. Het moet gewoon werken zonder gezeur!

En echt lang wil ik ook niet wachten want ik wacht al 2 jaar op iets dat serieus de moeite waard is.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
computerjunky schreef op zondag 20 september 2020 @ 16:50:
Enige echt belangrijke feature van nvidia vind ik de nieuwe reflex.
Valt nog te bezien of dat beter is dan AMD's Anti Lag. Nvidia's vorige poging was niet zo goed als AMD's oplossing ;)

Het gaat sowieso minder nuttig zijn omdat het in de game geïmplementeerd moet worden.

[ Voor 12% gewijzigd door Werelds op 20-09-2020 20:48 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Werelds schreef op zondag 20 september 2020 @ 20:48:
[...]

Valt nog te bezien of dat beter is dan AMD's Anti Lag. Nvidia's vorige poging was niet zo goed als AMD's oplossing ;)

Het gaat sowieso minder nuttig zijn omdat het in de game geïmplementeerd moet worden.
Null was idd vrij nutteloos maar battle nonsense heeft inmiddels reflex al getest en het is de beste functie voor het verlagen van input latency.

Enige nadeel is idd dat het in de game geintergreerd moet worden... De kans dat dit veel gebruikt gaat worden is dus helaas niet heel groot.
Ik denk echt dat AMD en Nvidia als ze echt zeggen om gaming te geven samen om de tafel moeten gaan zitten en dit soort quality of life functies samen moeten pushen en misschien tot een driver level functie komen die even goed werkt op iedere game voor iedere kaart.

De werking van reflex in een game is in ieder geval geweldig te noemen en er is geen reden om het niet aan te zetten. Er zitten immers geen nadelen aan voor prestaties.

Verder was AMD anti lag vs Nvidia Anti lag qua prestaties gelijk aan Nvidia vs AMD al was Nvidia standaard iets lager. Beide zijn niet erg spannend tenzij je een low end systeem heb.


YouTube: 40% Less Input Lag Without AMD Anti-Lag or NVidia Ultra-Low Latency

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
computerjunky schreef op zondag 20 september 2020 @ 21:05:
Null was idd vrij nutteloos maar battle nonsense heeft inmiddels reflex al getest en het is de beste functie voor het verlagen van input latency.
Hij heeft het nog niet met AMD vergeleken. NULL is inconsistent, er zijn games waar het om de één of andere reden niet lekker werkt. Wel werken beide enkel wanneer je GPU bound en dat is wat Reflex op zou moeten lossen.
De werking van reflex in een game is in ieder geval geweldig te noemen en er is geen reden om het niet aan te zetten. Er zitten immers geen nadelen aan voor prestaties.
En dat is te danken aan Battlenonsense. Ik zou er niet raar van op kijken als AMD volgende maand ook gewoon iets soortgelijks uit brengt. Hij is degene die de tekortkomingen van NULL/AL heeft blootgelegd en onderbouwd.


Edit: wat overigens drivers betreft, de vorige driver (452.06?) was net zo goed buggy. Multi-monitor was weer eens kapot. Deze keer kon ik niets op het tweede scherm hebben als ik een game fullscreen op de primaire monitor had. Ik zit onderhand al bijna 20 jaar op dual monitors en elk jaar zit het wel een keer mis in de driver. Ze hebben gelukkig eindelijk wel DisplayPort onder controle, het is alweer meer dan een jaar geleden dat ik m'n monitor moest re-pluggen...jinxed? :+

[ Voor 20% gewijzigd door Werelds op 20-09-2020 22:23 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Gigabyte komt met een blower koeler voor de RTX 3090:

https://www.techpowerup.c...ral-blowers-for-350w-gpus

March of the Eagles


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 10:22
Werelds schreef op zondag 20 september 2020 @ 22:14:
[...]


[...]


Edit: wat overigens drivers betreft, de vorige driver (452.06?) was net zo goed buggy. Multi-monitor was weer eens kapot. Deze keer kon ik niets op het tweede scherm hebben als ik een game fullscreen op de primaire monitor had. Ik zit onderhand al bijna 20 jaar op dual monitors en elk jaar zit het wel een keer mis in de driver. Ze hebben gelukkig eindelijk wel DisplayPort onder controle, het is alweer meer dan een jaar geleden dat ik m'n monitor moest re-pluggen...jinxed? :+
Ja verschrikkelijk ergerlijk is dat. Ik mag graag een stream kijken op mijn 2e monitor terwijl ik op mijn main monitor een game speel. Maar sinds 452.06 begint de stream verschrikkelijk te haperen zodra de game de main window wordt in windows. Ik heb echt van alles al geprobeert qua settings en dergelijke maar niks mocht baten. Alleen een DDU en een rollback naar 446.14 heeft het probleem bij mij verholpen. De drivers van Nvidia zijn imho sinds pascal alles behalve perfect.

Wie goed doet, die goed ontmoet.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
AtlAntA schreef op maandag 21 september 2020 @ 08:56:
Ja verschrikkelijk ergerlijk is dat. Ik mag graag een stream kijken op mijn 2e monitor terwijl ik op mijn main monitor een game speel. Maar sinds 452.06 begint de stream verschrikkelijk te haperen zodra de game de main window wordt in windows. Ik heb echt van alles al geprobeert qua settings en dergelijke maar niks mocht baten. Alleen een DDU en een rollback naar 446.14 heeft het probleem bij mij verholpen. De drivers van Nvidia zijn imho sinds pascal alles behalve perfect.
Dat haperen had ik vóór die driver ook, maar in mijn geval heeft dat te maken met het feit dat ik een 120 Hz en 60 Hz scherm naast elkaar draai. Ook iets waar Nvidia gewoon niet mee overweg kan. Nee, met die driver kreeg ik constant driver resets of zelfs game crashes.

De nieuwe driver nu doet het wel weer normaal.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Ben benieuwd hoe dit gaat werken. Als het goed werkt wil ik er graag ik voor de 3080. Alle warme lucht direct de kast uit heb ik nu ook en het werkt goed. Echter is mijn huidige kaart maar 145 watt...

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 11:55
Voor de eventuele supers hoeveel meer stroom zouden het dubbele geheugen in nemen?

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
Psyonara schreef op maandag 21 september 2020 @ 18:18:
Voor de eventuele supers hoeveel meer stroom zouden het dubbele geheugen in nemen?
Welk dubbele geheugen? De grote chips? Even de spec sheets van bestaand geheugen vergelijken. Lijkt mij dat 't amper wat scheelt.

[ Voor 19% gewijzigd door Paprika op 21-09-2020 18:21 ]


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 11:55
Paprika schreef op maandag 21 september 2020 @ 18:20:
[...]

Welk dubbele geheugen? De grote chips? Even de spec sheets van bestaand geheugen vergelijken. Lijkt mij dat 't amper wat scheelt.
Blijkbaar komen er een 3070 super uit met 16GB Vram en een 3080 met 20GB Vram!?
En vraag me af hoeveel meer stroom die nemen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Met dank aan dhudhu in "[NVIDIA GeForce RTX 30XX] Levertijden & Prijzen" de uitleg van nvidia:

GeForce RTX 3080 Launch: What Happened? You Asked, We Answered.

[ Voor 18% gewijzigd door Help!!!! op 21-09-2020 18:52 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Jensen’s personal email has been flooded with requests to help. He wants everyone to know he is working with the team.

Oh, dan komt het goed! 8)7

  • Paprika
  • Registratie: September 2007
  • Laatst online: 22:44
Psyonara schreef op maandag 21 september 2020 @ 18:33:
[...]


Blijkbaar komen er een 3070 super uit met 16GB Vram en een 3080 met 20GB Vram!?
En vraag me af hoeveel meer stroom die nemen.
Zoek even de spec sheet van 1 en 2GB geheugenchips op en je hebt je antwoord. Als 't bij GDDR6 niets scheelt dan zal dat voor GDDR6X ook gelden.

https://www.micron.com/-/...ote/dram/tned03_gddr6.pdf

Ik denk dat het antwoord nee is.

[ Voor 23% gewijzigd door Paprika op 21-09-2020 19:21 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
choogen schreef op maandag 21 september 2020 @ 19:02:
[...]

Jensen’s personal email has been flooded with requests to help. He wants everyone to know he is working with the team.

Oh, dan komt het goed! 8)7
Vraag me af wat Jensen hieraan kan veranderen; als ze al hun best doen om zoveel mogelijk te leveren.
Pagina: 1 ... 92 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.