• hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
die coil whine heb ik nu al enorm. overtuigd. ik ga een nw voeding kopen. thx

update: heb deze besteld bij amazon, voor 135 euro: Corsair RM850x

moet voldoende zijn voor de rtx 3080/90

nogmaal thx

[ Voor 45% gewijzigd door hully op 24-08-2020 22:25 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
https://www.nvidia.com/en...-2020-nvidia-dlss-update/

F1 2020 DLSS

[ Voor 10% gewijzigd door Paprika op 24-08-2020 23:20 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
Als ik zo die foto van @thijsco19 bekijk dan zie ik het volgende als idee achter de werking van de fan:


Afbeeldingslocatie: https://tweakers.net/i/LVklEeSRWhMU-u5jxOj4eeaAp-s=/800x/filters:strip_icc():strip_exif()/f/image/3kL3Z28UXu13aRSPkQhqT0zh.jpg?f=fotoalbum_large

Zo gek vind ik het idee dus eigenlijk nog niet nu ik de koeler zo uitgekleed heb gezien. De directe doorstroming van de airflow aan de achterkant is vrijwel gelijk aan een goede CPU cooler zonder dat deze de PCB verwarmd.

Dat lijkt mij optimaler dan de lucht tegen de PCB aan blazen. Enige nadeel is dat deze warme lucht meteen in de voorste fan gezogen word wat dan weer tegen werkt tenzij de heatpipes hun werk heel goed doen en vrijwel alle warmte naar achter afgevoerd wordt.

Al vind ik wel dat ze het zichzelf onnodig moeilijk maken. Ik had gewoon 2 fans aan 1 kant gehouden en het vrije slot boven de gpu gebruikt voor afvoer direct de kast uit. Zo kan je ook nog eventuele hotspots op de achterkant van de PCB koelen. Maarja wel saaier als dit ontwerp.

PS. sorry voor mijn zeer slechte tekenwerk maar mijn serie begint zo ;) prioriteiten.

[ Voor 15% gewijzigd door computerjunky op 24-08-2020 23:47 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Zelf denk ik nog steeds dat de plaatsing van de dubbele koeler gewoon zo is om fancy te zijn. Echter ondanks mogelijk verlies aan efficientie van de koeling hierdoor, denk ik dat het nog steeds een prima koeler kan zijn. Als eerst omdat je inderdaad een fan hebt die recht door het koelblok kan blazen, ipv op een PCB zit te blazen. Daarnaast zijn het twee 120mm fans ipv ~92mm fans die standaard in GPUs zitten. Als ze gewoon alles geschaald hebben tov een 92mm fan, dan heeft een 120mm fan een 70% groter oppervlakte.

  • haarbal
  • Registratie: Januari 2010
  • Nu online
Sissors schreef op dinsdag 25 augustus 2020 @ 07:30:
Zelf denk ik nog steeds dat de plaatsing van de dubbele koeler gewoon zo is om fancy te zijn.
Op deze manier blaast hij geen warme lucht direct richting de cpu. Voor mijn case is dit perfect.

Al zullen ze het ook niet erg vinden om interessant te doen.

Mechwarrior Online: Flapdrol


  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Als sommige modellen geheugen chips en misschien zelfs ook andere componenten aan beide kanten hebben zitten zal dat ook nog wel een factor hebben gespeeld.

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
MSI komt met 29 verschillende rtx 3000 kaarten.... inmiddels al geregistreerd

https://www.pcgamer.com/m...ia-ampere-graphics-cards/

Verwijderd

Ze hebben er 29 geregistreerd, hoeveel er komen is echter onbekend. Dat is gewoon afwachten.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
Dat ze er zoveel kunnen uitbrengen is ook niet echt onverwacht denk ik, volgens dat artikel zou dit gaan om 3090/3080 en 3070 kaarten.

Kijk je naar MSI's Turing kaarten dan hebben ze bij de 2080ti, 2080 en 2070 (De super varianten niet meegenomen) al 44 Sku's, neem je alle 2000 series kaarten van MSI zit je op 83 Sku's.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Iedere GPU heeft minstens 4 modellen en dan 2 versies (OC en niet OC), dus dan gaat het sowieso heel hard ja.

[ Voor 3% gewijzigd door Paprika op 26-08-2020 10:14 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dan zijn er de verhalen dat Nvidia misschien met nog meer chips gaat komen voor Ampere dan voor Turing. Ook is er de mogelijkheid dat ze volgend jaar een deel gaan refreshen op 7nm. Ik denk dat er weer een belachelijke hoeveelheid SKU's zullen volgen waar je voor de helft geen reviews kan vinden. Ook zal er de nodige troep tussen zitten waar niet eens geprobeerd zal worden om een fatsoenlijk product te maken. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 15:10
Videocardz meldt dat de RTX 3080 10GB VRAM krijgt en de RTX 3090 24GB VRAM.

https://videocardz.com/ne...memory-rtx-3080-gets-10gb

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
RobinNL schreef op woensdag 26 augustus 2020 @ 12:10:
Videocardz meldt dat de RTX 3080 10GB VRAM krijgt en de RTX 3090 24GB VRAM.

https://videocardz.com/ne...memory-rtx-3080-gets-10gb
wow, maar als dit waar is, dan is het bijna ondenkbaar toch dat die kaart 1399 of 1499 gaat zijn? "slechts" 100 of 200 euro duurder dan de de rtx2080ti bij introductie, terwijl dit idd meer een Titan achtige kaart is, die normaal toch boven de 2000 euro kosten bij introductie?

Verwijderd

RobinNL schreef op woensdag 26 augustus 2020 @ 12:10:
Videocardz meldt dat de RTX 3080 10GB VRAM krijgt en de RTX 3090 24GB VRAM.

https://videocardz.com/ne...memory-rtx-3080-gets-10gb
Klinkt waarschijnlijk, een cut down met tien 8Gb chips op waarschijnlijk een wat lagere frequentie, bijv. 19Gbps. Terwijl het topmodel twaalf 16Gb chips heeft voor een totaal van 24GB op 21Gbps.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Gaat die 3090 niet gewoon stiekem een dual GPU/die cq SLI oplossing worden soms?
- 24GB memory (deel het door 2 en je hebt 12GB per GPU)
- 3 slots dik + enorm pcb zijn dan opeens ook logisch. 2 grote fans, elk verantwoordelijk voor een eigen chip.
- Geen GPU + coprocessor, maar letterlijk twee GPU's op 1 bord die out of the box als één werken.
- Het hoge verbruik + nieuwe 12 pins stekker lijken dan ook verklaarbaar voor een dergelijke oplossing.
- De naam 3090 ipv 3080ti is dan opeens ook logisch gezien de xx90 meestal dual GPU was in het verleden.
- Lage kosten bij Samsung per chip zou dit aantrekkelijk kunnen maken meerdere op een kaart toe te passen.

Nvidia is al een tijdje bezig met zaken zoals nvlink en de overname van Mellanox. Zouden ze daarmee een oplossing hebben gekocht om meerdere chips te koppelen met minimale latency en enorme bandbreedte om dat mogelijk te maken soms?

[ Voor 6% gewijzigd door sjekneck op 26-08-2020 12:51 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het lijkt dus steeds duidelijk te worden dat we kijken naar een 5376 cuda core chip met een 384bit bus.
RTX3090 lijkt dus nog steeds niet de volle chip te zijn. Nee, deze heeft 128 cuda cores/2 SM's minder. De Titan zal de volle chip dan zijn, maar die zal ook nauwelijks sneller zijn. Hogere clock speeds of sneller geheugen lijkt namelijk niet tot de mogelijkheden te behoren.

Ik vind het alleen wel illustratief dat Nvidia nu lijkt te kiezen voor vrijwel de hele chip en wat steeds meer begint te lijken of een extreem hoog verbruik voor een consumenten videokaart. Het sterkt het idee bij mij dat ze daadwerkelijk iets te vrezen hebben voor Navi 21 en er alles aan doen om eerst te zijn en sneller. Anders handel je niet zo.

2944 cuda cores voor de RTX3070 vind ik ook opvallend. Dat zal niet de volle GA104 zijn, maar of dit de RTX2080Ti gaat matchen betwijfel ik ook. Ik denk dat het de RTX2080 die ook 2944 cuda cores heeft, wel zal verslaan. Ik denk dat Nvidia een RTX3080 nodig gaat hebben om de RTX2080Ti te verslaan. Dat zou wederom geen al te grote stap zijn in price/perf want xx80's houdt Nvidia altijd duur. Er lijkt ook ruimte te zijn voor een RTX3080Ti, maar die lijkt voorlopig niet te komen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Chester
  • Registratie: September 2003
  • Niet online
Ik gok dat we een 3080 en 3090 krijgen (ipv 3080 TI) om eventueel te concurreren met AMD. Stel big Navi wordt een nVidia killer, dan brengen ze gewoon een 3080 TI en 3090 TI uit. Zo niet, dan brengen ze die een jaar later wel uit, net zoals vroeger de TI versies een jaar later uit kwamen.

"The test of a work of art is, in the end, our affection for it, not our ability to explain why it is good." - Stanley Kubrick | Trakt


Verwijderd

hully schreef op woensdag 26 augustus 2020 @ 12:16:
[...]


wow, maar als dit waar is, dan is het bijna ondenkbaar toch dat die kaart 1399 of 1499 gaat zijn? "slechts" 100 of 200 euro duurder dan de de rtx2080ti bij introductie, terwijl dit idd meer een Titan achtige kaart is, die normaal toch boven de 2000 euro kosten bij introductie?
Het is nog afwachten, voor hetzelfde is de RTX 3090 2000 euro en de RTX 3080 1400 euro. Dat lijkt mij persoonlijk realistischer.
sjekneck schreef op woensdag 26 augustus 2020 @ 12:50:
Gaat die 3090 niet gewoon stiekem een dual GPU/die cq SLI oplossing worden soms?
Er is geen enkele aanwijzing voor.
- 24GB memory (deel het door 2 en je hebt 12GB per GPU)
En vier maal zes is ook 24GB, maar dat maakt vier chips ook niet logisch.
- 3 slots dik + enorm pcb zijn dan opeens ook logisch. 2 grote fans, elk verantwoordelijk voor een eigen chip.
De koeler laat duidelijk één chip zien. Zou dus nog even de plaatjes bekijken want dan zie je dat overduidelijk.
- Geen GPU + coprocessor, maar letterlijk twee GPU's op 1 bord die out of the box als één werken.
Dat kan niet.
- Het hoge verbruik + nieuwe 12 pins stekker lijken dan ook verklaarbaar voor een dergelijke oplossing.
Een grote GPU het een hoog verbruik is ook een verklaring.
- De naam 3090 ipv 3080ti is dan opeens ook logisch gezien de xx90 meestal dual GPU was in het verleden.
In het verleden hadden we sowieso hele andere namen.
- Lage kosten bij Samsung per chip zou dit aantrekkelijk kunnen maken meerdere op een kaart toe te passen.
Dat is een reden om het te doen, maar je zit met een miljoen andere reden om het niet te doen.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
Verwijderd schreef op woensdag 26 augustus 2020 @ 13:00:
[...]


Er is geen enkele aanwijzing voor.
On September 1st, we usher in a new era
Afbeeldingslocatie: https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/nvidia-geforce-ultimatecountdown/nvidia-geforce-ultimatecountdown-key-visual-850px.jpg
21 is de sleutel. maybe 2=1?
Countdown, maar dan letterlijk

Ik vind de marketing opvallend te noemen, zelfs voor nvidia begrippen.
En vier maal zes is ook 24GB, maar dat maakt vier chips ook niet logisch.
Het is maar een idee he. Meestal zijn dual gpu opstellingen niet capabel om geheugen te delen tot nu toe. Waarom in godsnaam gelijk van 11GB naar 24GB op een kaart. Dat is ruim een verdubbeling in één generatie. Geheugen is te duur om het er voor de lol op te doen. Deze kosten moet je immers ook doorberekenen aan je klanten.
De koeler laat duidelijk één chip zien. Zou dus nog even de plaatjes bekijken want dan zie je dat overduidelijk.
Maar was die koeler van de 3090, of van de 3080? ;)
Dat kan niet.
Waarom niet? :P
Een grote GPU het een hoog verbruik is ook een verklaring.
Zeker, ik zeg ook nergens dat dat niet zo is. Ik probeer alleen alle afwijkingen over een andere boeg te verklaren met een spinsel.
In het verleden hadden we sowieso hele andere namen.
Exact, maar de 9 is door Nvidia vaker al gebruikt bij dual gpu oplossingen
  • GeForce GTX 590
  • GeForce GTX 690
  • GeForce GTX 295
Nogmaals.....spinsel, geen feit dat dit bewijs is.
Dat is een reden om het te doen, maar je zit met een miljoen andere reden om het niet te doen.
Same. ik kan ook heel veel redenen om het verbruik onder de 300Watt te willen houden, maar Nvidia heeft schijnbaar opeens rede genoeg om laag verbruik uit het raam te willen gooien en naar een enorme kaart te willen gaan die niet 2, maar 3 slots gaan innemen. Dat doe je niet zomaar :P

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 15:10


En er zou vandaag nog een 'RTX 30 teaser video' komen volgens Videocardz.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Chester schreef op woensdag 26 augustus 2020 @ 13:00:
Ik gok dat we een 3080 en 3090 krijgen (ipv 3080 TI) om eventueel te concurreren met AMD. Stel big Navi wordt een nVidia killer, dan brengen ze gewoon een 3080 TI en 3090 TI uit. Zo niet, dan brengen ze die een jaar later wel uit, net zoals vroeger de TI versies een jaar later uit kwamen.
De RTX3080Ti verwacht ik wel ja na Navi 21. Maar als Navi 21 de RTX3090 weet te verslaan, dan is het klaar voor Nvidia. 2SM's extra is procentenwerk en waarschijnlijk heeft de RTX3090 al 21Gbps GDDR6X. Oh en het ding verbruikt waarschijnlijk al 350W+ dus clock speeds zit er ook niet in. :P

Bij de GTX980Ti, GTX1080Ti en RTX2080Ti hield Nvidia zich in om efficiënter te zijn. Daar lijkt hier geen sprake van te zijn en dat vind ik opvallend. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Chester
  • Registratie: September 2003
  • Niet online
Als die koeling echt zo veel beter is, wordt het toch wat interessanter om voor een reference kaart te gaan.

"The test of a work of art is, in the end, our affection for it, not our ability to explain why it is good." - Stanley Kubrick | Trakt


  • Psyonara
  • Registratie: September 2007
  • Laatst online: 18:27
Mogelijk maar is het al bekend wat de 3rd Party's gaan doen met Koeling. Kan ook allemaal Marketing zijn Iets waar Nvidia altijd al heel goed is in geweest.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia weer met een zeer gelikt filmpje hoe indrukwekkend alles is. Uiteraard vermelden ze niet dat dit waarschijnlijk nodig is om een 350W+ heethoofd te koelen. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op woensdag 26 augustus 2020 @ 16:33:
Nvidia weer met een zeer gelikt filmpje hoe indrukwekkend alles is. Uiteraard vermelden ze niet dat dit waarschijnlijk nodig is om een 350W+ heethoofd te koelen. ;)
Tss, slechts 1080p op youtube..... :+

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21


TSE (Time Spy Extreme)?

Afbeeldingslocatie: https://overclock3d.net/gfx/articles/2018/09/17155220661l.jpg

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
Zo heel spannend is die 350W toch ook weer niet, ik kan het mis hebben maar zat bijvoorbeeld AMD's Vega ook niet op 350W met meerdere Sku's, ik meen me in ieder geval te herinneren dat minimaal 1 van de gaming en 1 van de zakelijke varianten ook op 350W of hoger zat en de rest van de Vega 64 Sku's ook tegen de 300W aanschuurde.

Neemt niet weg dat het een flink verbruik is en dat het zeer goed mogelijk is dat dit ook wat zegt over wat Nvidia van Big Navi verwacht. Wat overigens mooi zou zijn als dat klopt, dan rest alleen Big Navi nog een beetje op tijd te komen en hopelijk niet weer maanden (of nog langer) later.

[ Voor 13% gewijzigd door Dennism op 26-08-2020 17:04 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Waarschijnlijk wel ja. :)
Maar circa 50% sneller in 4K dan de RTX2080Ti. Het is een merkbare stap, maar de vraag bij mij is meteen in hoeverre dat komt omdat er iets van 400GB/s aan geheugenbandbreedte erbij gaat komen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 18:11

thijsco19

KTM 990 SMT

Nu dus duidelijk in het filmpje te zien hoe de koeler gaat werken.
Dus inderdaad een push pull opstelling waarbij de achterste ventilator de lucht erdoor heen trekt en naar boven de kast in blaast.

Blijft enigszins wel een vreemde manier vanwege de warme lucht die letterlijk richting de cpu koeler word geblazen.

418O2 schreef op woensdag 26 augustus 2020 @ 17:38:
[...]

Iemand met een setup met zo'n kaart heeft als het goed is ook wel 1 of 2 exhaust fans achter of boven in de kast, dus dat wordt wel weggezogen. Nu heb je een hotzone onder de kaart. Ik vind het wel goed.

Met waterkoeling op je cpu heb je er helemaal geen last van
Zal inderdaad grotendeels worden weggezogen maar je blijft daar warme lucht naar toe blazen. Hoe dan ook zal die ruimte warmer zijn dan bij een setup waarbij dat niet gebeurd. Hoeveel dat is zal pas in de praktijk blijken.

Simpel gezegd lijkt mij dat nVidia daar wel over nagedacht en uitgetest hebben, dus verwacht wel dat het prima zal werken. Zou namelijk wel een erge faal zijn als dadelijk blijkt dat hierdoor de CPU opeens ruim 10 graden warmer word.

[ Voor 57% gewijzigd door thijsco19 op 26-08-2020 17:41 ]

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


  • 418O2
  • Registratie: November 2001
  • Laatst online: 18:26
thijsco19 schreef op woensdag 26 augustus 2020 @ 17:21:
Nu dus duidelijk in het filmpje te zien hoe de koeler gaat werken.
Dus inderdaad een push pull opstelling waarbij de achterste ventilator de lucht erdoor heen trekt en naar boven de kast in blaast.

Blijft enigszins wel een vreemde manier vanwege de warme lucht die letterlijk richting de cpu koeler word geblazen.
Iemand met een setup met zo'n kaart heeft als het goed is ook wel 1 of 2 exhaust fans achter of boven in de kast, dus dat wordt wel weggezogen. Nu heb je een hotzone onder de kaart. Ik vind het wel goed.

Met waterkoeling op je cpu heb je er helemaal geen last van

[ Voor 4% gewijzigd door 418O2 op 26-08-2020 17:38 ]


  • 418O2
  • Registratie: November 2001
  • Laatst online: 18:26
@thijsco19 die hitte moet toch langs de cpu omdat daar altijd de exhaust zit.

  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 18:11

thijsco19

KTM 990 SMT

Hm, ja dat is natuurlijk ook wel zo. De exhaust zit 9vd10 keer boven / achter de CPU. :9

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
Ik hoop echt van harte dat 3rd parties compleet schijt hebben aan die 12 pin connector en gewoon met 2x 8 over de brug komen.
Anders moet ik me eens serieus bedenken of ik nog wel Nvidia wil. Ik heb niet voor niets een kast met een groot raam en een custom thema.
Ik zit helemaal niet te wachten op een lelijke 12 pin connector die afwijkt van de rest van mijn build of om ook nog eens 50 euro aan een connector uit te moeten geven als je die al kan vinden in de juiste kleuren.


En hitte lang mijn cpu is onacceptabel ik heb gewoon een air cooler op mijn 9900k. De slots onder mijn gpu zijn grills en door 2x 200 mm fans aan de voorkant heb ik overdruk in de kast waardoor gpu warmte door deze grills naar buiten gedrukt zou worked met een gpu. die warmte komt dus nooit bij mijn cpu.
Als een gpu dat wel dou zoen is dat echt een no deal. Overigens heb ik nu gewoon een blower stijl koeler en als ik die als 3070 of wat dan ookk weer kan kopen doe ik dat meteen weer.

De warme lucht direct de kast uit en altijd verse koude lucht aanzuigen werkt perfect. Op papier stillere kaarten die vervolgens hun eigen warme lucht aanzuigen zijn ook niet stil meer.
Overigens is de vriezer in mijn game kamer helaas toch het luidste object en om 1 of andere renden staat dat kreng altijd herrie te maken. Geluid speelt niet echt een rol dus temps wel.

[ Voor 47% gewijzigd door computerjunky op 26-08-2020 17:56 ]


  • 418O2
  • Registratie: November 2001
  • Laatst online: 18:26
Wat een emotie om een stekkertje...

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
418O2 schreef op woensdag 26 augustus 2020 @ 18:05:
Wat een emotie om een stekkertje...
Dat is net als zeggen ach het is maar een roze glitter benzinedop op je nieuwe peperdure mercedes. Niets aan te doen.

10 jaar geleden hadden ze er prima mee weg gekomen aangezien iedereen een zwart me gele stekker had voor pci-e en toen waren thema's niet echt een dingetje nu wel en dus is het onacceptabel voor velen.

Ik vind het dan ook eerder een money grab idee want iemand moet dit betalen terwijl niemand er om vroeg dan dat het echt een goed doordacht idee is. En aangezien Nvidia nog nooit iets gratis gedaan heeft waar iemand anders dan Nvidia zelf baat bij heeft...

[ Voor 20% gewijzigd door computerjunky op 26-08-2020 18:19 ]


  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 02-02 09:29
computerjunky schreef op woensdag 26 augustus 2020 @ 18:16:
[...]
Dat is net als zeggen ach het is maar een roze glitter benzinedop op je nieuwe peperdure mercedes. Niets aan te doen.
Wat een vergelijking...

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
Wat is er mis met die vergelijking. Het is een klein cosmetisch dingetje maar als je een kast bouwd voor een paar ruggen met alle details perfect en er komt zoiets om de hoek zetten word je daar gewoon niet blij van.

Het is een besluit genomen buiten jou macht om die wel invloed heeft op wat jij visueel mooi vind. Of het dan om een lelijke kabel en misschien vage/lelijke kabel route gaat of om rozen benzinedop waar je niet om gevraagd heb maakt niet uit. Beide cosmetisch en beide irrelevant voor de werking.

  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 02-02 09:29
Een auto is wel iets anders dan een computer.

Ik zal het wel niet begrijpen, maar who cares hoe je computer eruit ziet hah.

[ Voor 47% gewijzigd door kwdtje op 26-08-2020 18:36 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Ik dacht dat jij zo zuinig was met het uitgeven van geld, maar je geeft dus wel extra geld uit voor bling bling (en tot aan "een paar ruggen" aan toe voor je hele pc), maar die 12 euro stroomkosten was toch wel even te veel? Ik zou toch even je eigen berichten nalezen. Een kleinere kabel is hier zeer welkom. Windowed cases zijn voor kleine kinderen, of ga je nu ook beweren dat je motorkap ook van glas (lees: plastic) is?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
Ik zie eigenlijk ook het probleem met die kabel niet echt, al had ik graag gezien dat dit eerder duidelijk zou worden zodat er ook PSU's geschikt zouden zijn op het moment voor deze aansluiting.

Maar als ik kijk naar deze stekker vind ik deze "mooier" dan een 2x of 3x 8 pin PCIE aansluiting.

  • Chester
  • Registratie: September 2003
  • Niet online
Paprika schreef op woensdag 26 augustus 2020 @ 18:36:
bla bla bla Windowed cases zijn voor kleine kinderen, bla bla bla
:')

"The test of a work of art is, in the end, our affection for it, not our ability to explain why it is good." - Stanley Kubrick | Trakt


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Dennism schreef op woensdag 26 augustus 2020 @ 17:02:
Zo heel spannend is die 350W toch ook weer niet, ik kan het mis hebben maar zat bijvoorbeeld AMD's Vega ook niet op 350W met meerdere Sku's, ik meen me in ieder geval te herinneren dat minimaal 1 van de gaming en 1 van de zakelijke varianten ook op 350W of hoger zat en de rest van de Vega 64 Sku's ook tegen de 300W aanschuurde.
Klopt en daar was terecht ook kritiek op, niet zozeer het verbruik maar het verbruik terwijl de concurrent het met veel minder doet voor dezelfde prestaties.
@Paprika Windowed cases zijn voor kleine kinderen
Niet alleen windowed cases, dat hele RGB spul ook. ;)

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
Enchantress schreef op woensdag 26 augustus 2020 @ 19:01:
[...]


Klopt en daar was terecht ook kritiek op, niet zozeer het verbruik maar het verbruik terwijl de concurrent het met veel minder doet voor dezelfde prestaties.
Daar ben ik het zeker mee eens, ik zal daar zelf ook wel wat kritische noten over geplaatst hebben ;)
En als dat hier het geval is, dat AMD met een veel efficiëntere architectuur gelijke of betere prestaties zal neerzetten in gangbare scenario's zal die kritiek ook hier zeker gaan komen.

Verwijderd

sjekneck schreef op woensdag 26 augustus 2020 @ 13:35:
[...]


Countdown, maar dan letterlijk
Tja dan kun je wel van alles bedenken. Dan kun je ook zeggen dat ze van een "90" versie van 2 naar 1 GPU gaan.
Ik vind de marketing opvallend te noemen, zelfs voor nvidia begrippen.
Ik vind vooral jouw logica nogal bijzonder. :p
Het is maar een idee he. Meestal zijn dual gpu opstellingen niet capabel om geheugen te delen tot nu toe. Waarom in godsnaam gelijk van 11GB naar 24GB op een kaart. Dat is ruim een verdubbeling in één generatie. Geheugen is te duur om het er voor de lol op te doen. Deze kosten moet je immers ook doorberekenen aan je klanten.
24GB is evenveel als de huidige RTX Titan en die kost 3000 euro. Van de RTX 3090 verwacht ik een lagere prijs.
Maar was die koeler van de 3090, of van de 3080? ;)
RTX 3090.
Waarom niet? :P
Sowieso omdat ze veel te ver uit elkaar zitten qua afstand volgens jouw beschrijving. Als je meerdere die's wil gebruiken moeten ze naast elkaar liggen. Daarnaast is er geen PCB, dus is het sowieso niet mogelijk.
Nogmaals.....spinsel, geen feit dat dit bewijs is.
Ja, maar zonder enige logica het kan simpelweg niet.
Same. ik kan ook heel veel redenen om het verbruik onder de 300Watt te willen houden, maar Nvidia heeft schijnbaar opeens rede genoeg om laag verbruik uit het raam te willen gooien en naar een enorme kaart te willen gaan die niet 2, maar 3 slots gaan innemen. Dat doe je niet zomaar :P
Kan bijvoorbeeld komen doordat het gebruikte productieproces minder is dan dat men jaren geleden had gedacht toen men begon met ontwikkelen van de GPU. Dan kun je kiezen voor een lager klokfrequentie, dan kun je het verbruik wel perfect laag houden. Maar op het moment dat je concurrent dat niet hoeft te doen en een concurrerend product heeft dan kan het zijn dat jij je product honderden euro's goedkoper moet aanbieden om concurrerend te zijn. Bij maar tienduizend videokaarten kan dat dus al miljoenen kosten. Dus dan lijkt mij de keuze van een hoge klokfrequentie en dus hoog verbruik niet zo onlogisch.

  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
Dennism schreef op woensdag 26 augustus 2020 @ 17:02:
Zo heel spannend is die 350W toch ook weer niet, ik kan het mis hebben maar zat bijvoorbeeld AMD's Vega ook niet op 350W met meerdere Sku's, ik meen me in ieder geval te herinneren dat minimaal 1 van de gaming en 1 van de zakelijke varianten ook op 350W of hoger zat en de rest van de Vega 64 Sku's ook tegen de 300W aanschuurde.
Destijds was er veel om te zeggen dat AMD zoveel stroom gebruikt. Waarom zou dat nu voor nVidia niet gezegd mogen worden?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
bluebear schreef op woensdag 26 augustus 2020 @ 22:24:
[...]


Destijds was er veel om te zeggen dat AMD zoveel stroom gebruikt. Waarom zou dat nu voor nVidia niet gezegd mogen worden?
Waar zeg ik dat dit niet mag? Ik geef alleen aan dat een mogelijke 350W niet direct uniek is voor een GPU.
Komt natuurlijk wel bij dat de Vega kaarten dat verbruik had terwijl de prestaties niet van een niveau waren die bij dat verbruik zouden moeten horen iets dat ook veel invloed gehad zal hebben. Als dat bij deze kaarten ook het geval gaat zijn dan zal ook hier, zeer terecht, daar erg kritisch naar gekeken worden.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 18:17
Zo'n Vega was in ieder geval beter dan de RX 500 serie :)
https://www.techpowerup.c...x-5600-xt-tuf-evo/29.html

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
kwdtje schreef op woensdag 26 augustus 2020 @ 18:35:
Een auto is wel iets anders dan een computer.

Ik zal het wel niet begrijpen, maar who cares hoe je computer eruit ziet hah.
Mwa ik zie mijn auto minder vaak als mijn computer. mijn auto is een simpele alto hij rijd en stopt en de rest boeit me niet. Ik snap dan ook niet dat mensen meer als 15k aan een auto uitgeven ;) iedere zijn ding.
Paprika schreef op woensdag 26 augustus 2020 @ 18:36:
Ik dacht dat jij zo zuinig was met het uitgeven van geld, maar je geeft dus wel extra geld uit voor bling bling (en tot aan "een paar ruggen" aan toe voor je hele pc), maar die 12 euro stroomkosten was toch wel even te veel? Ik zou toch even je eigen berichten nalezen. Een kleinere kabel is hier zeer welkom. Windowed cases zijn voor kleine kinderen, of ga je nu ook beweren dat je motorkap ook van glas (lees: plastic) is?
Mijn totale pc kost zo veel wel ja maar gelukkig niet in 1x betaald. Daarnaast heb ik minder problemen met directe uitgaven waar ik voor gespaard heb en ik de prijs acceptabel vind maar een schurft hekel aan verborgen kosten die veel mensen negeren. Daarnaast heeft zuinig meerdere voordelen. Je weet nooit wat de toekomst brengt en dus hou ik mijn kosten van het dagelijks leven zo laag mogelijk en dus ook stroom. die prijs gaat immers alleen maar omhoog en 12 euro hier en daar telt aardig op als ik zoals sommigen overal lax mee zou zijn.
De rest van je opmerking is te kinderachtig en ondoordacht om inhoudelijk op te reageren.

  • Simbob
  • Registratie: December 2009
  • Niet online
https://wccftech.com/msi-...-next-gen-graphics-cards/

MSI Unveils MPG GF Series Power Supplies in 850W, 750W & 650W Variants - Designed For Next-Generation NVIDIA Graphics Cards

Ik neem aan dat dit een marketing stunt is. De huidige psu's kunnen dit ook aan met een verloopje.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
Simbob schreef op donderdag 27 augustus 2020 @ 08:57:
https://wccftech.com/msi-...-next-gen-graphics-cards/

MSI Unveils MPG GF Series Power Supplies in 850W, 750W & 650W Variants - Designed For Next-Generation NVIDIA Graphics Cards

Ik neem aan dat dit een marketing stunt is. De huidige psu's kunnen dit ook aan met een verloopje.
Uiteraard is dat deels marketing, MSI levert namelijk volgens de tekst simpelweg een verloopje mee voor de nieuwe 12 pin connector.

Ik had het interessanter gevonden als deze psu's een native aansluiting zouden hebben voor de 12 pin connector.

Verwijderd

Native aansluiting zou gewoon bestaan uit een kabel die twee aansluitingen heeft in de PSU en een Micro-FIT 12 pin aan de andere zijde. Dus zoals de Seasonic kabel die enkele dagen geleden aan het ligt kwam. Die kan elke fabrikant meeleveren of (gratis) beschikbaar stellen.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 17:10
Ah, ik dacht dat die Seasonic kabel ook een verloopje was en dat in de toekomst de native implementaties gewoon aan beide kanten de 12 pin connector zou hebben

Verwijderd

Alle PSU fabrikanten hebben bijna allemaal een eigen standaard, als ze die überhaupt al hebben. Sommigen gebruiken gewoon die van de OEM, waardoor ze dus verschillende modulaire aansluitingen en kabels hebben onder de verschillende series. Enige fabrikant die van van 12 naar 12 pins Micro-FIT kan gaan is be quiet!, omdat zij al jaren 12 pins modulaire aansluitingen gebruiken. Niet dat het overigens ook maar iets uitmaakt wat voor aansluiting er aan de modulaire kant van de voeding zit. Zolang de fabrikant er zelf maar over nagedacht heeft, zodat het veilig is.

  • belblade
  • Registratie: Juli 2005
  • Laatst online: 08-10-2025

belblade

Belgian wacko

ik deed vorig jaar een upgrade en heb nu deze 550w voeding: pricewatch: Seasonic Focus Plus 550 Gold
ik heb een 3700x en nu een 1080TI en paar hard drives en wat extra fans. Ik hoop echt dat ik hiermee ga toekomen voor de beste of 1 na beste 30xx kaart want echt geen zin om voeding nu alweer te gaan upgraden... Iemand in zelfde schuitje?

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Ik denk dat je budget eerder een ding zou zijn dan je voeding, want anders zou 't vervangen van je voeding ook 't probleem niet zijn. Als je 't onder de 1000 euro wilt gaan houden dan moet dit wel kunnen.

  • belblade
  • Registratie: Juli 2005
  • Laatst online: 08-10-2025

belblade

Belgian wacko

Paprika schreef op donderdag 27 augustus 2020 @ 11:11:
Ik denk dat je budget eerder een ding zou zijn dan je voeding, want anders zou 't vervangen van je voeding ook 't probleem niet zijn. Als je 't onder de 1000 euro wilt gaan houden dan moet dit wel kunnen.
gaat me vooral over cable-(management) gedoe maar als ik hem swap voor een zelfde type modulaire voeding van seasonic zou zelfs dat nog moeten meevallen, kabels uit voeding, oude voeding eruit, 750 watt voeding erin en kabels terug aansluiten: klaar ! :+

  • SpcCwb
  • Registratie: Maart 2010
  • Laatst online: 01-02 00:11
belblade schreef op donderdag 27 augustus 2020 @ 11:06:
ik deed vorig jaar een upgrade en heb nu deze 550w voeding: pricewatch: Seasonic Focus Plus 550 Gold
ik heb een 3700x en nu een 1080TI en paar hard drives en wat extra fans. Ik hoop echt dat ik hiermee ga toekomen voor de beste of 1 na beste 30xx kaart want echt geen zin om voeding nu alweer te gaan upgraden... Iemand in zelfde schuitje?
Hier ongeveer zelfde situatie, ook 1080ti en 550 watt voeding (corsair rmx) en een intel i7 7820x (minder zuinig dan jouw AMD!). Vraag me ook af of dit voldoende is voor een RTX 3080 (3090 is overkill voor mij). Denk over te stappen op een 750 watt exemplaar.

  • Snippertje
  • Registratie: December 2004
  • Laatst online: 17:06

Snippertje

Light up your life

SpcCwb schreef op donderdag 27 augustus 2020 @ 13:28:
[...]


Hier ongeveer zelfde situatie, ook 1080ti en 550 watt voeding (corsair rmx) en een intel i7 7820x (minder zuinig dan jouw AMD!). Vraag me ook af of dit voldoende is voor een RTX 3080 (3090 is overkill voor mij). Denk over te stappen op een 750 watt exemplaar.
Haha ja hier ook. Ik wil eindelijk een keer echt high end gaan (en dus de 3090 icm 3700x) en heb nu een 520 watt voeding. Echter die is ook alweer 6 jaar oud, dus wil sowieso een nieuwe gaan kopen. Alleen wil ik eigenlijk dan wel meteen een voeding die native de aansluiting heeft. Verwacht overigens dat het allemaal nét aan zou kunnen, maar er is wel weinig ruimte over.

Ben wel erg benieuwd naar volgende week. Had zelf gerekend op zo'n 1200 euro met een uitschieter naar 1400. Mocht het meer zijn dan dat dan gaat het hem voor mij niet worden ben ik bang.

Discord kanaal: https://discord.gg/X3CqdTKd


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Een 3700X zit op <100W. Laten we nog eens ruim 50W rekenen voor moederbord, geheugen, disk, etc, en we zitten op 150W. Oftewel dan heb je nog 400W over. Nu zou ik niet helemaal op 100% het max gaan zitten zelf, dus als de 3090 straks 375W verbruikt, zou ik een zwaardere voeding erin doen. Maar als een 3080 <300W verbruikt moet dat allemaal prima lopen op een goede 550W voeding.

  • ColeJ
  • Registratie: Juni 2019
  • Laatst online: 02-02 14:02
computerjunky schreef op woensdag 26 augustus 2020 @ 18:16:
[...]


Dat is net als zeggen ach het is maar een roze glitter benzinedop op je nieuwe peperdure mercedes. Niets aan te doen.
Mijn hemel...

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Sissors schreef op donderdag 27 augustus 2020 @ 13:54:
Een 3700X zit op <100W. Laten we nog eens ruim 50W rekenen voor moederbord, geheugen, disk, etc, en we zitten op 150W. Oftewel dan heb je nog 400W over. Nu zou ik niet helemaal op 100% het max gaan zitten zelf, dus als de 3090 straks 375W verbruikt, zou ik een zwaardere voeding erin doen. Maar als een 3080 <300W verbruikt moet dat allemaal prima lopen op een goede 550W voeding.
Vandaar dat ik zei dat < 1000 euro geen probleem zou mogen zijn :p. Ik reken er voor nu even op dat een 3080 niet ook > 1000 euro gaat zijn. Overigens verwacht ik dat de GPU in de gemiddelde game minder verbruikt dan piek. Immers worden de Tensor cores niet altijd benut.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En volgens Igor gaat:
-RTX3080 en hoger, een zeer kostbaar 12 lagen PCB krijgen, ook voor AIB's. Dit vanwege GDDR6X signaal integriteit.
-FE zou 110mm ventilatoren hebben.
-ROG Stix gaat 3x 100mm ventilatoren worden en minstens 32cm lang zijn.
-De AIB's weten niet eens hoe snel de chips zijn omdat de drivers verzegeld zijn. Benchmarks leaks zouden dus zeer twijfelachtig zijn.

https://www.igorslab.de/e...pilot-production-running/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • alexbl69
  • Registratie: Maart 2001
  • Laatst online: 31-01 20:07
Eenieder met een beetje goed geïsoleerd huis heeft geen verwarming meer nodig met zo'n RTX3090 :)

If buying doesn’t mean ownership Then pirating isn’t stealing / iRacing Profiel


Verwijderd

Als je de snelste kaart wilt is het verstandig om te wachten, maar ik wilde voor Flight Simulator een 2060S kopen, dan lijkt november me toch wat lang (voor de 3060) en 50/100 euro besparing voor een 2060S vind ik dan ook niet de moeite. Zijn er nog andere redenen om te wachten? Bvb betere RT? Het is nog afwachten of dat wel in Flight Simulator komt...

Verder vermoed ik dat een DVI-aansluiting tot het verleden zal behoren? De 2070 had nog DVI-uitvoeringen, de 2070S niet meer en AMD is voor mid/high-end helemaal gestopt met DVI. Ik wil mijn DVI-only monitor niet weg doen en convertors werken niet altijd goed.

Off-topic: een Radeon zou ik nu niet kopen wegens mogelijke driverproblemen, is het mogelijk dat die problemen met een nieuwe generatie ineens achter de rug zijn?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Volgende podcast van Moores Law is Dead is erg interessant, hij heeft SemiWiki oprichter Daniel Nenni te gast. Hij beantwoord de vraag of Nvidia zowel bij TSMC als bij Samsung een chip kan laten maken. Antwoord is best interessant, het is het een of het ander omdat de teams die aan een chip werken onder NDA kunnen zitten als ze bij een bepaalde foundry iets laten maken; daardoor kan dat team voor een bepaalde tijd niks ontwikkelen bij een andere foundry.
Gedetailleerde uitleg vanaf 57 minuten:

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
Verwijderd schreef op donderdag 27 augustus 2020 @ 18:07:
Zijn er nog andere redenen om te wachten?
Ray tracing zal beter zijn maar belangrijker is denk ik de prestatie van de kaart over de tijd. toen de 2060 uit kwam was mijn 1070 even snel of sneller nu is hij in sommige games gewoon 40% trager!
Met andere woorden nieuwere modellen gaan langer mee zelfs als ze bij de release even snel zijn.

Maar voordat de goedkopere kaarten er zijn kan het nog wel even duren de beginnen denk ik met de duurste 3 de xx60 zal wel wat langer duren

Verwijderd

computerjunky schreef op donderdag 27 augustus 2020 @ 19:09:
[...]


Ray tracing zal beter zijn maar belangrijker is denk ik de prestatie van de kaart over de tijd. toen de 2060 uit kwam was mijn 1070 even snel of sneller nu is hij in sommige games gewoon 40% trager!
Met andere woorden nieuwere modellen gaan langer mee zelfs als ze bij de release even snel zijn.

Maar voordat de goedkopere kaarten er zijn kan het nog wel even duren de beginnen denk ik met de duurste 3 de xx60 zal wel wat langer duren
Bij de release was de 2060 19% sneller dan de 1070, nu loopt het inderdaad op tot 40%. Aan de toegenomen behoefte aan geheugen kan het niet liggen (GTX1070 heeft 8 GB en de 2060 slechts 6), misschien driver-optimalisaties?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
computerjunky schreef op donderdag 27 augustus 2020 @ 19:09:
[...]


Ray tracing zal beter zijn maar belangrijker is denk ik de prestatie van de kaart over de tijd. toen de 2060 uit kwam was mijn 1070 even snel of sneller nu is hij in sommige games gewoon 40% trager!
Met andere woorden nieuwere modellen gaan langer mee zelfs als ze bij de release even snel zijn.

Maar voordat de goedkopere kaarten er zijn kan het nog wel even duren de beginnen denk ik met de duurste 3 de xx60 zal wel wat langer duren
RT zal veel beter zijn waarschijnlijk, dus dat is een goede reden om te wachten als je daar wat om geeft. De huidige 2060 is nauwelijks in staat om iets fatsoenlijks met RT te doen (de hele 2xxx serie eigenlijk). Ik beschouw dat ook niet meer als een experiment. De 3xxx serie daarentegen zal waarschijnlijk een heel stuk sneller zijn daarin.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

alexbl69 schreef op donderdag 27 augustus 2020 @ 17:32:
Eenieder met een beetje goed geïsoleerd huis heeft geen verwarming meer nodig met zo'n RTX3090 :)
The more you buy, the more you save. :Y)
Verwijderd schreef op donderdag 27 augustus 2020 @ 18:07:
Als je de snelste kaart wilt is het verstandig om te wachten, maar ik wilde voor Flight Simulator een 2060S kopen, dan lijkt november me toch wat lang (voor de 3060) en 50/100 euro besparing voor een 2060S vind ik dan ook niet de moeite. Zijn er nog andere redenen om te wachten? Bvb betere RT? Het is nog afwachten of dat wel in Flight Simulator komt...

Verder vermoed ik dat een DVI-aansluiting tot het verleden zal behoren? De 2070 had nog DVI-uitvoeringen, de 2070S niet meer en AMD is voor mid/high-end helemaal gestopt met DVI. Ik wil mijn DVI-only monitor niet weg doen en convertors werken niet altijd goed.

Off-topic: een Radeon zou ik nu niet kopen wegens mogelijke driverproblemen, is het mogelijk dat die problemen met een nieuwe generatie ineens achter de rug zijn?
DVI is wel klaar ja. De RTX2060S vervanger verwacht ik eigenlijk niet voor diep in oktober als het niet november gaat worden en als er de komende tijd een serie aan videokaarten gaat zijn met driver problemen, dan is het wel Ampère want nieuw. Zo gaat het elke keer weer want de oude generaties zijn inmiddels allang volwassen en stabiel. ;)
Verwijderd schreef op donderdag 27 augustus 2020 @ 19:35:
[...]
Bij de release was de 2060 19% sneller dan de 1070, nu loopt het inderdaad op tot 40%. Aan de toegenomen behoefte aan geheugen kan het niet liggen (GTX1070 heeft 8 GB en de 2060 slechts 6), misschien driver-optimalisaties?
Het is zelden driver optimalisaties. Dit is gewoon betere hardware in Turing. Verder lijkt FS2020 behoorlijk geheugenbandbreedte intensief te zijn en dat is eerder een probleem voor RDNA dan Turing en Pascal heeft natuurlijk heel wat minder tot haar beschikking omdat dit nog GDDR5(X) was.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Omdat iedereen helemaal paniek is over de nieuwe connector hier een paar extra plaatjes :P

NVIDIA "Ampere" 12-pin Power Connector Pictured Some More

Ziet er eigenlijk wel goed uit. Lekker compact.

[ Voor 25% gewijzigd door Help!!!! op 27-08-2020 20:02 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op donderdag 27 augustus 2020 @ 18:58:
Volgende podcast van Moores Law is Dead is erg interessant, hij heeft SemiWiki oprichter Daniel Nenni te gast. Hij beantwoord de vraag of Nvidia zowel bij TSMC als bij Samsung een chip kan laten maken. Antwoord is best interessant, het is het een of het ander omdat de teams die aan een chip werken onder NDA kunnen zitten als ze bij een bepaalde foundry iets laten maken; daardoor kan dat team voor een bepaalde tijd niks ontwikkelen bij een andere foundry.
Gedetailleerde uitleg vanaf 57 minuten:
[YouTube: Nvidia GA102, Intel’s Future, Fabless AMD, TSMC | SemiWiki Founder Daniel Nenni | Broken Silicon 63]
Ik denk dat het dan ook gewoon 8mm is. Van wat ik namelijk heb begrepen bouwen ze die GPU's helemaal niet vanaf de grond af op, maar doen ze het modulair. Nvidia neemt dus het standaard SM ontwerp, zorgt ervoor dat dit compatibel is met de gekozen node, idem voor andere zaken zoals de geheugen bus die ze natuurlijk in blokken van 32 bit doen. Dat is tape in waar de architectuur vast ligt.

Vervolgens maken ze van die bouwblokken chips en die complete ontwerpen gaan naar de fabrikant. Dat is tape out en in de regel is dit al een jaar voor release. In dat laatste jaar zijn ze alleen bezig met circuit validatie en optimalisatie. Gewoon testchips maken en kijken of het ook echt werkt.

Maar als je dus al twee jaar van te voren je wafer contracten sluit en onder NDA staat dat je hetzelfde ontwerp niet ook bij de concurrent mag produceren, dan is het klaar. Het is 8nm en omdat Samsung nodes al jaren gewoon merkbaar slechter zijn dan TSMC, krijgen we waarschijnlijk heethoofden.


Ik moet ook steeds meer denken aan hoe het ging in 2016-18 met AMD. Zen 1, Polaris en Vega op Samsung 14nm Low Power Plus en dat hebben we geweten. Ongetwijfeld was het goedkoper dan TSMC en AMD had ook geen keuze anders dan GoFlo, maar wat waren die chips soms bagger zeg. Allemaal lieten ze hetzelfde patroon zien van onderpresteren qua clock speeds vergeleken met TSMC 16nm gecombineerd met een vrij angstaanjagende voltagecurve. Vega is natuurlijk het ultieme voorbeeld. Alles aan die chip leek te wijzen op ruim 1600MHz+ als ontwerpdoel, maar dat deden ze niet zonder extreem verbruik. Lekstroom was enorm en schaling verschrikkelijk. Met Vega 20 op TSMC 7nm was het opeens honderden megahertz sneller en kwam Vega veel meer tot haar recht. Het werd altijd toegeschreven aan AMD die met zinloos hoge voltages, maar daar begin ik steeds meer aan te twijfelen. Je moet op een gegeven moment ook enige prestaties neerzetten en als je node gewoon slecht is, dan zit je klem.

Ik vermoed namelijk steeds meer dat we hetzelfde gaan zien met Ampère als we met Vega zagen. Die RTX3090 lijkt echt een belachelijk heethoofd te worden, veel erger dan zelfs de RX Vega 64 LE en yields gaan een groot vraagteken worden aangezien Qualcomm dit 10nm proces ook al heeft geprobeerd en verschrikkelijke yields had. Nvidia gaat alleen voor enorme chips. Andere chips zoals de RTX3080 verwacht ik minder extreem qua clock speeds, maar dan ga je ook prestatiewinst inleveren.

Een grote clock speed verbetering over Turing lijkt er ook niet in te zitten met wat we nu weten, en laat dat nu traditioneel de grootste prestatiewinstfactor zijn, maakt niet uit of je AMD, Intel, Nvidia, Qualcomm etc bent. Het is transistoren en clock speeds en relatief weinig architectuur. Zo zou het wel eens een erg teleurstellende generatie kunnen gaan worden als ze op architectuurniveau er niet heel veel uit hebben kunnen halen op shader gebied. Ook al is de RT een aantal maal beter dan Turing was, shaders zullen nog steeds belangrijker zijn en dat blijft de komende jaren ook wel zo.

Voor 4K lijken ze in ieder geval met enorme sprongen in geheugenbandbreedte te komen en daar verwacht ik wel een merkbare stap, 1440p of helemaal 1080p is denk ik twijfelachtiger hoeveel ze daar gaan winnen. Ik verwacht eigenlijk ook dat Nvidia volgende week, alleen maar gaat marketen op 4K of zelfs nog hogere resoluties om het verschil daar te benadrukken. Natuurlijk gaat 1080p een beetje irrelevant zijn voor zoiets als een RTX3090, maar 1440p denk ik al wat minder voor de mensen die 1440p/144Hz willen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • lapino
  • Registratie: Juni 2002
  • Laatst online: 02-02 10:48
Ik heb een RTX2080 icm 9700K maar speel op 3440x1440 en dan merk ik dat die soms nog net te traag is voor 60fps op ultra in nieuwere games. Dus zeer benieuwd naar de 3080(ti). Voor wie aan lagere resoluties speelt, lijkt me een RTX2080 al meer dan voldoende, en die gaan koopjes kunnen doen.

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
lapino schreef op donderdag 27 augustus 2020 @ 20:27:
Ik heb een RTX2080 icm 9700K maar speel op 3440x1440 en dan merk ik dat die soms nog net te traag is voor 60fps op ultra in nieuwere games. Dus zeer benieuwd naar de 3080(ti). Voor wie aan lagere resoluties speelt, lijkt me een RTX2080 al meer dan voldoende, en die gaan koopjes kunnen doen.
is maar net wat je wil, ik speel 3440 x 1440 (21:9) met een i9 10900K op een 2080 ti en kan bij lange na flightsim 2020 en red dead 2 niet op high/utlra settings spelen @ 60 fps. ik wil dus eigenlijk wel over op een 3000 kaart... ik vind naast the looks, fps heel belangrijk en trek het slecht om op 30 fps te spelen.

[ Voor 6% gewijzigd door hully op 27-08-2020 20:58 ]


  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 02-02 09:29
hully schreef op donderdag 27 augustus 2020 @ 20:57:
[...]


is maar net wat je wil, ik speel 3440 x 1440 (21:9) met een i9 10900K op een 2080 ti en kan bij lange na flightsim 2020 en red dead 2 niet op high/utlra settings spelen @ 60 fps. ik wil dus eigenlijk wel over op een 3000 kaart... ik vind naast the looks, fps heel belangrijk en trek het slecht om op 30 fps te spelen.
Diegene die je quote zegt precies hetzelfde ;p

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

DaniëlWW2 schreef op donderdag 27 augustus 2020 @ 16:58:
-ROG Stix gaat 3x 100mm ventilatoren worden en minstens 32cm lang zijn.
Yikes! Ik kan maar 305mm kwijt, hoop dat er ook kleinere varianten zijn/komen...

Verwijderd

Jay-v schreef op donderdag 27 augustus 2020 @ 21:15:
[...]

Yikes! Ik kan maar 305mm kwijt, hoop dat er ook kleinere varianten zijn/komen...
Reference versie met waterkoeling, dat is flink klein, kleiner dan dat zal het niet worden. :P

Met luchtkoeling zul je toch een flinke koeler krijgen, anders ga je die warmte nooit kwijt kunnen.

[ Voor 14% gewijzigd door Verwijderd op 27-08-2020 21:28 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op donderdag 27 augustus 2020 @ 20:22:
[...]


Ik denk dat het dan ook gewoon 8mm is. Van wat ik namelijk heb begrepen bouwen ze die GPU's helemaal niet vanaf de grond af op, maar doen ze het modulair. Nvidia neemt dus het standaard SM ontwerp, zorgt ervoor dat dit compatibel is met de gekozen node, idem voor andere zaken zoals de geheugen bus die ze natuurlijk in blokken van 32 bit doen. Dat is tape in waar de architectuur vast ligt.

Vervolgens maken ze van die bouwblokken chips en die complete ontwerpen gaan naar de fabrikant. Dat is tape out en in de regel is dit al een jaar voor release. In dat laatste jaar zijn ze alleen bezig met circuit validatie en optimalisatie. Gewoon testchips maken en kijken of het ook echt werkt.
Ik neem ook aan dat alles gewoon 8nm is. Maar je zou best een team de architectuur kunnen laten maken, en dan zowel een team de bouwblokken in 8nm en 7nm laten implementeren. Immers dit is ook exact wat er is gebeurd! Voor de A100 zijn de blokken in 7nm geimplementeerd, voor de 30x0 series in 8nm. Natuurlijk zal de 30x0 wat blokken nodig hebben die de A100 niet nodig heeft.

En ja, een eerste A0 tapeout zal een jaar vantevoren plaatsvinden, maar dat is dus niet het definitieve bij een compleet nieuwe serie.

  • alexbl69
  • Registratie: Maart 2001
  • Laatst online: 31-01 20:07
hully schreef op donderdag 27 augustus 2020 @ 20:57:
[...]
is maar net wat je wil, ik speel 3440 x 1440 (21:9) met een i9 10900K op een 2080 ti en kan bij lange na flightsim 2020 en red dead 2 niet op high/utlra settings spelen @ 60 fps. ik wil dus eigenlijk wel over op een 3000 kaart... ik vind naast the looks, fps heel belangrijk en trek het slecht om op 30 fps te spelen.
Heb een 3900X met een 2080ti en vind de perfermance van FS2020 op die resolutie meer dan acceptabel. Enkel als je op lage hoogte boven echt volle steden als New York vliegt zie ik zichtbare stutters.

Vlieg nu boven stedelijk gebied in California en heb een fps van 46-47. Voor een flightsim acceptabel. Hoewel een 3900X met een 3090 wel lekker bekt trouwens :).

Maar denk niet dat hij op mijn lijstje komt. Zoals het er nu naar uitziet is de kaart iets teveel raw-power in plaats van een wat meer clever design.

If buying doesn’t mean ownership Then pirating isn’t stealing / iRacing Profiel


  • Visgek82
  • Registratie: December 2002
  • Laatst online: 02-02 10:49
Het is heel makkelijk om in fs2020 60 of meer fps te halen.

Jayztwocents heeft daar een mooi filmpje over gemaakt.

YouTube: How to get better performance in Flight Simulator 2020

[ Voor 64% gewijzigd door Visgek82 op 27-08-2020 22:52 ]


  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
Visgek82 schreef op donderdag 27 augustus 2020 @ 22:50:
Het is heel makkelijk om in fs2020 60 of meer fps te halen.

Jayztwocents heeft daar een mooi filmpje over gemaakt.

YouTube: How to get better performance in Flight Simulator 2020
aha thx!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
alexbl69 schreef op donderdag 27 augustus 2020 @ 22:35:
[...]

Heb een 3900X met een 2080ti en vind de perfermance van FS2020 op die resolutie meer dan acceptabel. Enkel als je op lage hoogte boven echt volle steden als New York vliegt zie ik zichtbare stutters.

Vlieg nu boven stedelijk gebied in California en heb een fps van 46-47. Voor een flightsim acceptabel. Hoewel een 3900X met een 3090 wel lekker bekt trouwens :).

Maar denk niet dat hij op mijn lijstje komt. Zoals het er nu naar uitziet is de kaart iets teveel raw-power in plaats van een wat meer clever design.
Ik denk dat een boel van de problemen zijn opgelost als de DX12 renderer wordt geimplementeerd. Wat nogal ironisch is is dat het een Microsoft Studio is die geen DX12 nog in zijn spel heeft 8)7. Hierdoor creeer je een onnodige CPU bottleneck.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 18:23
Visgek82 schreef op donderdag 27 augustus 2020 @ 22:50:
Het is heel makkelijk om in fs2020 60 of meer fps te halen.

Jayztwocents heeft daar een mooi filmpje over gemaakt.

YouTube: How to get better performance in Flight Simulator 2020
tja iedereen kan meer fps halen door settings te verlagen maar dat is natuurlijk een kansloos punt als je de nieuwste game with maximale graphics wil spelen.
Zo is horizon zero dawn op 1080p met een 2080TI net in staat 110 fps te leveren en RDR2 is niet anders. En dat gaat in de nabije toekomst alleen nog maar lager en lager worden met nieuwe games en de komst van consoles met eindelijk 2018 level hardware. ik zeg altijd 1080p is here to stay. 1440p en 4k blijven een gimmick of voor mensen die zo goed als geen waarde hechten aan fps.

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 02-02 10:49
computerjunky schreef op vrijdag 28 augustus 2020 @ 02:33:
[...]


tja iedereen kan meer fps halen door settings te verlagen maar dat is natuurlijk een kansloos punt als je de nieuwste game with maximale graphics wil spelen.
Zo is horizon zero dawn op 1080p met een 2080TI net in staat 110 fps te leveren en RDR2 is niet anders. En dat gaat in de nabije toekomst alleen nog maar lager en lager worden met nieuwe games en de komst van consoles met eindelijk 2018 level hardware. ik zeg altijd 1080p is here to stay. 1440p en 4k blijven een gimmick of voor mensen die zo goed als geen waarde hechten aan fps.
Nou.. wat mij vooral opvalt is dat er tegenwoordig in sommige games grafische opties zitten die de gemiddelde gamer niet eens kan zien als je het aan of uit zet, en toch bakken met fps kost. een beetje tweaken kan nooit kwaad. als je 99% hetzelfde visueel op je scherm krijgt met wat gepruts in de settings en je krijgt daar 40% meer fps door , dan ben je gek als je dat niet doet.

En trouwens, ik zou voor geen goud meer terug willen naar 1080p. 1440p is zoveel fijner.

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
Visgek82 schreef op vrijdag 28 augustus 2020 @ 06:58:
[...]


Nou.. wat mij vooral opvalt is dat er tegenwoordig in sommige games grafische opties zitten die de gemiddelde gamer niet eens kan zien als je het aan of uit zet, en toch bakken met fps kost. een beetje tweaken kan nooit kwaad. als je 99% hetzelfde visueel op je scherm krijgt met wat gepruts in de settings en je krijgt daar 40% meer fps door , dan ben je gek als je dat niet doet.

En trouwens, ik zou voor geen goud meer terug willen naar 1080p. 1440p is zoveel fijner.
eens, 1440p (en dan liefst in 3440x1440 21:9) is echt heel vet en je hoeft net niet de power voor 4k te hebben. ik vind het ideaal iig. 1080p is echt niet meer ok, ben ik ook wel voorbij.

[ Voor 3% gewijzigd door hully op 28-08-2020 07:41 ]


  • alexbl69
  • Registratie: Maart 2001
  • Laatst online: 31-01 20:07
Visgek82 schreef op vrijdag 28 augustus 2020 @ 06:58:
[...]


Nou.. wat mij vooral opvalt is dat er tegenwoordig in sommige games grafische opties zitten die de gemiddelde gamer niet eens kan zien als je het aan of uit zet, en toch bakken met fps kost. een beetje tweaken kan nooit kwaad. als je 99% hetzelfde visueel op je scherm krijgt met wat gepruts in de settings en je krijgt daar 40% meer fps door , dan ben je gek als je dat niet doet.

En trouwens, ik zou voor geen goud meer terug willen naar 1080p. 1440p is zoveel fijner.
Helemaal mee eens.

Als FS2020 was uitgekomen met het huidige full of zelfs medium als hoogste niveau was iedereen nog in katzwijm gevallen. Vooral het verschil tussen full en ultra is in de praktijk niet te zien tenzij je 2 screenshots direct vergelijkt. Pas dan zie je enkele hele kleine verschillen.

If buying doesn’t mean ownership Then pirating isn’t stealing / iRacing Profiel


Verwijderd

Visgek82 schreef op vrijdag 28 augustus 2020 @ 06:58:
[...]


Nou.. wat mij vooral opvalt is dat er tegenwoordig in sommige games grafische opties zitten die de gemiddelde gamer niet eens kan zien als je het aan of uit zet, en toch bakken met fps kost. een beetje tweaken kan nooit kwaad. als je 99% hetzelfde visueel op je scherm krijgt met wat gepruts in de settings en je krijgt daar 40% meer fps door , dan ben je gek als je dat niet doet.

En trouwens, ik zou voor geen goud meer terug willen naar 1080p. 1440p is zoveel fijner.
Inderdaad. Door in Far Cry 4 de schaduwen te verlagen had ik bijna een verdubbeling van de framerate, terwijl ik geen barst geef om realistische schaduwen. Idem voor Deus Ex Mankind Divided: Met de ingame AA en AF had ik slechts 20 fps, na lang zoeken kwam ik er achter dat ik naar 40 fps kon door de AA en AF van de driver te gebruiken. Anders had die verdubbeling in framerate me 400 euro gekost! (van GTX 970 naar RTX 2060S).

Wat ik me dan afvraag: waarom komt dit niet naar boven bij de ontwikkelaars? Voor FS2020 ook: enkele dagen na de release zie je op Youtube tweak guides die je framerate met 50% verhogen, zonder veel in te boeten aan kwaliteit. Is er niet 1 persoon bij MS/Asobo die een uurtje alle settings kan uitproberen om tot de conclusie te komen dat sommige settings een grote impact hebben op de prestaties en amper op de kwaliteit?
alexbl69 schreef op vrijdag 28 augustus 2020 @ 08:39:
[...]

Helemaal mee eens.

Als FS2020 was uitgekomen met het huidige full of zelfs medium als hoogste niveau was iedereen nog in katzwijm gevallen. Vooral het verschil tussen full en ultra is in de praktijk niet te zien tenzij je 2 screenshots direct vergelijkt. Pas dan zie je enkele hele kleine verschillen.
Vooral de 'draw distance' is verschillend, maar als je de visibility wat verlaagt (vochtige lucht) dan zie je dat toch niet :) PS: met 'full' bedoel je waarschijnlijk 'high'.

[ Voor 17% gewijzigd door Verwijderd op 28-08-2020 09:16 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Sp3ci3s8472 schreef op vrijdag 28 augustus 2020 @ 01:04:
[...]


Ik denk dat een boel van de problemen zijn opgelost als de DX12 renderer wordt geimplementeerd. Wat nogal ironisch is is dat het een Microsoft Studio is die geen DX12 nog in zijn spel heeft 8)7. Hierdoor creeer je een onnodige CPU bottleneck.
Alleen is de CPU het probleem niet. Dat kun je prima monitoren met de ingebouwde tools.

Verwijderd

Hebben hardware-sites nu al een RTX30xx om op de dag van de release (1/9) benchmarks te tonen?

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
Verwijderd schreef op vrijdag 28 augustus 2020 @ 09:13:
[...]

Wat ik me dan afvraag: waarom komt dit niet naar boven bij de ontwikkelaars? Voor FS2020 ook: enkele dagen na de release zie je op Youtube tweak guides die je framerate met 50% verhogen, zonder veel in te boeten aan kwaliteit. Is er niet 1 persoon bij MS/Asobo die een uurtje alle settings kan uitproberen om tot de conclusie te komen dat sommige settings een grote impact hebben op de prestaties en amper op de kwaliteit?
misschien om op die manier hardwaresales te boosten?

Verwijderd

hully schreef op vrijdag 28 augustus 2020 @ 09:50:
[...]


misschien om op die manier hardwaresales te boosten?
Hardware en software zijn 2 verschillende sectoren en voor een game-ontwikkelaar is het nadelig dat een game niet vlot draait op low/mid-end systemen. Als ontwikkelaar zou ik gaan voor de beste kwaliteit aan een zo goed mogelijke performance. Als ik een optie zou zien die je bijna niet kan waarnemen, maar die een grote impact heeft op de prestaties, dan zou ik die er uit slopen.

[ Voor 26% gewijzigd door Verwijderd op 28-08-2020 10:01 ]


  • Single Malt
  • Registratie: Februari 2019
  • Laatst online: 13-03-2025
Neem geruchten altijd met een korrel zout, maar de "uitgelekte info" van gisteren beloofd redelijk goede dingen! Nog 4 daagjes wachten..

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:21
Single Malt schreef op vrijdag 28 augustus 2020 @ 10:03:
Neem geruchten altijd met een korrel zout, maar de "uitgelekte info" van gisteren beloofd redelijk goede dingen! Nog 4 daagjes wachten..
Er wordt daar echt niets genoemd dat gisteren pas bekend is geworden.

  • Single Malt
  • Registratie: Februari 2019
  • Laatst online: 13-03-2025
Paprika schreef op vrijdag 28 augustus 2020 @ 10:05:
[...]

Er wordt daar echt niets genoemd dat gisteren pas bekend is geworden.
Oh excuus, bedoelde van deze week inderdaad. Artikel is van gisteren. Desalniettemin is het doel van mijn bericht nog altijd hetzelfde. De geruchten beloven veel goeds, eerst maar eens afwachten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op vrijdag 28 augustus 2020 @ 09:49:
Hebben hardware-sites nu al een RTX30xx om op de dag van de release (1/9) benchmarks te tonen?
Is 1/9 niet alleen een aankondiging :? Volgensmij komen reviews pas weer later. Datum nog onbekend.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


Verwijderd

Single Malt schreef op vrijdag 28 augustus 2020 @ 10:03:
Neem geruchten altijd met een korrel zout, maar de "uitgelekte info" van gisteren beloofd redelijk goede dingen! Nog 4 daagjes wachten..
Goede dingen, behalve de prijs (en het verbruik?). Tegenwoordig is de xx60 low-end (400 dollar). Vroeger was 400 dollar bijna high-end. Nu is high-end 3x duurder. Maar goed, ik ben waarschijnlijk niet de enige die daarover klaagt in dit topic :)

  • Single Malt
  • Registratie: Februari 2019
  • Laatst online: 13-03-2025
Verwijderd schreef op vrijdag 28 augustus 2020 @ 10:45:
[...]
Goede dingen, behalve de prijs (en het verbruik?). Tegenwoordig is de xx60 low-end (400 dollar). Vroeger was 400 dollar bijna high-end. Nu is high-end 3x duurder. Maar goed, ik ben waarschijnlijk niet de enige die daarover klaagt in dit topic :)
Nouja, relatief gezien.. mocht een 3070 daadwerkelijk gelijk staan aan een 2080ti is de prijs/performance in vergelijking met huidige kaarten niet bepaald slecht te noemen. Ook het feit dat ze niet gigantisch gestegen zijn in prijs in vergelijking met de vorige release is positief te noemen.

Ja vroeger waren high end kaarten goedkoper, maar als we eindeloos in het verleden blijven hangen is alles kut te noemen. Had was te verwachten dat de kaarten niet in prijs zouden dalen tot het vroegere niveau, dus wat dat betreft ben ik blij dat de 3090 niet vrolijk een prijskaartje van 1.750+ heeft gekregen:)

Verwijderd

Single Malt schreef op vrijdag 28 augustus 2020 @ 11:04:
[...]


Nouja, relatief gezien.. mocht een 3070 daadwerkelijk gelijk staan aan een 2080ti is de prijs/performance in vergelijking met huidige kaarten niet bepaald slecht te noemen. Ook het feit dat ze niet gigantisch gestegen zijn in prijs in vergelijking met de vorige release is positief te noemen.

Ja vroeger waren high end kaarten goedkoper, maar als we eindeloos in het verleden blijven hangen is alles kut te noemen. Had was te verwachten dat de kaarten niet in prijs zouden dalen tot het vroegere niveau, dus wat dat betreft ben ik blij dat de 3090 niet vrolijk een prijskaartje van 1.750+ heeft gekregen:)
Maar het valt wel op dat alle hardware goedkoper wordt, behalve videokaarten (vooral van nVidia).

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

Het opzich wel logisch dat ze duurder worden. GPU's worden steeds complexer, bevatten meer transistors etc., dus fabricage en en R&D stijgen iedere keer weer. Maar $1499, dat wordt hier €1500-1600. Maar eerst eens afwachten wat Big Navi doet denk ik (als het me lukt :D).

Niet op voorraad.


Verwijderd

edward2 schreef op vrijdag 28 augustus 2020 @ 11:09:
Het opzich wel logisch dat ze duurder worden. GPU's worden steeds complexer, bevatten meer transistors etc., dus fabricage en en R&D stijgen iedere keer weer. Maar $1499, dat wordt hier €1500-1600. Maar eerst eens afwachten wat Big Navi doet denk ik (als het me lukt :D).
Inderdaad, ik moet ook mijn best doen om te wachten door de release van FS2020 :) Maar CPU's worden toch ook steeds complexer? Vooral die van AMD, Intel staat wat ter plaatse te trappelen en verhoogt vooral kloksnelheden.
Pagina: 1 ... 72 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.