Verwijderd

edward2 schreef op vrijdag 28 augustus 2020 @ 11:09:
Maar $1499, dat wordt hier €1500-1600. Maar eerst eens afwachten wat Big Navi doet denk ik (als het me lukt :D).
De dollar koers is vrij gunstig op dit moment, één dollar is 0.84 euro. Daarmee komt 1499 dollar uit op net geen 1525 euro inclusief 21% btw.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Verwijderd schreef op vrijdag 28 augustus 2020 @ 11:06:
[...]
Maar het valt wel op dat alle hardware goedkoper wordt, behalve videokaarten (vooral van nVidia).
Alleen mensen die een GPU echt nodig hebben kopen er nog een, want anders zou je de iGPU wel gebruiken en daardoor is de gedachte ook veranderd van "ik wil 'n GPU voor X euro" naar ik wil een GPU die deze resolutie op deze fps kan draaien waardoor men sneller het budget iets omhoog rekt.

  • Joeridev
  • Registratie: Juli 2009
  • Laatst online: 30-01 12:45
Verwijderd schreef op donderdag 27 augustus 2020 @ 21:25:
[...]

Reference versie met waterkoeling, dat is flink klein, kleiner dan dat zal het niet worden. :P

Met luchtkoeling zul je toch een flinke koeler krijgen, anders ga je die warmte nooit kwijt kunnen.
Het valt me op dat de Founders Editions standaard een stuk kleiner zijn dan de andere versies. Waar heeft dat mee te maken?

Is het aannemelijk dat de 3080/3090 onder de 13,5 inch (342 mm) blijft? In onderstaande afbeelding is dat dus alleen mogelijk zonder front fan.

Afbeeldingslocatie: https://tweakers.net/i/VQA-kQ6CW6VjAbH7ml0dhL0XS0o=/800x/filters:strip_exif()/f/image/5oexLGFoXFU03CWDcohKaEHZ.png?f=fotoalbum_large

  • Grotbewoner
  • Registratie: Maart 2015
  • Laatst online: 19:01
Verwijderd schreef op vrijdag 28 augustus 2020 @ 11:16:
[...]

De dollar koers is vrij gunstig op dit moment, één dollar is 0.84 euro. Daarmee komt 1499 dollar uit op net geen 1525 euro inclusief 21% btw.
Wel een beetje waanzin dat we 1500 euro voor een consumentenkaart "gunstig" vinden.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Grotbewoner schreef op vrijdag 28 augustus 2020 @ 11:31:
[...]


Wel een beetje waanzin dat we 1500 euro voor een consumentenkaart "gunstig" vinden.
In die zin is de prijs in dollars ook hoog. Dat staat los van de koers. Even in een ander daglicht dan. "Vroegah" kochten mensen 3 8800GTX Ultra's van 800 euro per stuk. Vanuit dat oogpunt is 1 snelle enthousiast kaart ook maar gunstig ;).

Afbeeldingslocatie: https://images.bit-tech.net/content_images/2007/12/nvidia_3-way_sli_on_nforce_680i_preview/1.jpg

[ Voor 33% gewijzigd door Paprika op 28-08-2020 11:37 ]


Verwijderd

Joeridev schreef op vrijdag 28 augustus 2020 @ 11:29:
[...]


Het valt me op dat de Founders Editions standaard een stuk kleiner zijn dan de andere versies. Waar heeft dat mee te maken?
Uitgebreider VRM en grotere koeler, beiden kosten nu eenmaal ruimte.
Grotbewoner schreef op vrijdag 28 augustus 2020 @ 11:31:
[...]

Wel een beetje waanzin dat we 1500 euro voor een consumentenkaart "gunstig" vinden.
Dat staat er niet. Er staat dat we een gunstige dollar koers hebben. Een half jaar geleden zou 1500 dollar uitkomen op zo'n 1675 euro, dat was 150 euro meer.

Verwijderd

Paprika schreef op vrijdag 28 augustus 2020 @ 11:35:
[...]

In die zin is de prijs in dollars ook hoog. Dat staat los van de koers. Even in een ander daglicht dan. "Vroegah" kochten mensen 3 8800GTX Ultra's van 800 euro per stuk. Vanuit dat oogpunt is 1 snelle enthousiast kaart ook maar gunstig ;).

[Afbeelding]
Met 1 x 8800GTX kon je recente games op max draaien, net zoals nu met 1 x 2080Ti. Ok, de resoluties zijn verhoogd, maar 4k op max blijft moeilijk met een 2080Ti. En de 8800GTX kostte ongeveer 520 euro. Ik heb die kaart toen gekocht en speelde zonder problemen op 2560x1600. En als je nu 3 x SLI wilt heb je geen garantie op succes/winst, wel garantie op een lege bankrekening :)

[ Voor 23% gewijzigd door Verwijderd op 28-08-2020 12:07 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Verwijderd schreef op vrijdag 28 augustus 2020 @ 11:06:
[...]
Maar het valt wel op dat alle hardware goedkoper wordt, behalve videokaarten (vooral van nVidia).
Dat komt omdat mensen telkens Nvidia kopen en prijsstijgingen keer op keer maar accepteren onder een dunne laag marketing. Ondertussen lopen Nvidia's marges maar op en op. Zeker als Samsung 8nm ook zo goedkoop is omdat niemand die node wil hebben. Een segment prijsverhoging over Turing zou gewoon afzetterij zijn want het lijkt erop dat Nvidia zichzelf uit haar uitstekende relatie met TSMC heeft geduwd en nu overgeleverd is aan het inferieure maar goedkopere Samsung. We lijken naar 350W+ te kijken voor de RTX3090 en dat is een negatief voor de kaart die de prijs zou moeten verlagen. Nvidia lijkt er gewoon extra voor te gaan vragen want zeer duur PCB en koeloplossing.
edward2 schreef op vrijdag 28 augustus 2020 @ 11:09:
Het opzich wel logisch dat ze duurder worden. GPU's worden steeds complexer, bevatten meer transistors etc., dus fabricage en en R&D stijgen iedere keer weer. Maar $1499, dat wordt hier €1500-1600. Maar eerst eens afwachten wat Big Navi doet denk ik (als het me lukt :D).
R&D smeer je uit tegen volume en verkoopprijs. Nvidia heeft al sinds Maxwell veel hogere volumes en de omzet en winsten stijgen ook alleen maar. Ze compenseren R&D niet, ze proberen heel veel extra winst te maken, ten koste van de consument. In een gezonde GPU markt zou dit niet kunnen. Niet dat ik echt de illusie koester dat AMD er niet gewoon $50 a $100 eronder gaat zitten voor vergelijkbare of iets betere prestaties of iets sneller voor dezelfde prijs. Ze doen immers precies hetzelfde met Ryzen en daar is het een gigantisch succes...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Verwijderd schreef op vrijdag 28 augustus 2020 @ 11:58:
[...]
Met 1 x 8800GTX kon je recente games op max draaien.
Afbeeldingslocatie: https://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13532.png
Afbeeldingslocatie: https://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13534.png
Afbeeldingslocatie: https://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13531.png
Afbeeldingslocatie: https://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13533.png
Afbeeldingslocatie: https://images.anandtech.com/graphs/nvidia%20geforce%208800%20launch_11070691155/13538.png

Tegenwoordig klaagt men al als men niet 4K op >90 fps kan draaien, dus nee dat ben ik niet met je eens.

Verwijderd

Paprika schreef op vrijdag 28 augustus 2020 @ 12:34:
[...]

[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]
[Afbeelding]

Tegenwoordig klaagt men al als men niet 4K op >90 fps kan draaien, dus nee dat ben ik niet met je eens.
Ho maar, toen draaide 95% van de gamers HD of lager. 2560x1600 wat ik had was heel uitzonderlijk, zo'n monitor kostte toen 1500 euro! Nu zijn er meer met 4K dan toen met 1600p (4K heb je nu al voor 200 euro)

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Verwijderd schreef op vrijdag 28 augustus 2020 @ 12:39:
[...]
Ho maar, toen draaide 95% van de gamers HD of lager. 2560x1600 wat ik had was heel uitzonderlijk, zo'n monitor kostte toen 1500 euro! Nu zijn er meer met 4K dan toen met 1600p (4K heb je nu al voor 200 euro)
Het probleem is dan ook niet het draaien van 4K, maar 4K icm hoge frequenties. Tegenwoordig mikt men dus op 4K icm 90-144Hz. 30 fps op 4K accepteert niemand (misschien enkele verdwaalde console puristen) en in die zin waren mijn 4K 120Hz schermen nieuw hetzelfde als 1600p toen.

Afbeeldingslocatie: https://tpucdn.com/review/asus-radeon-rx-5700-xt-tuf-evo/images/average-fps_1920_1080.png

Als mensen 1080p 60hz zouden accepteren dan vallen de kosten reuze mee maar nee, het moet allemaal groter sneller en goedkoper.

[ Voor 27% gewijzigd door Paprika op 28-08-2020 12:51 ]


Verwijderd

Paprika schreef op vrijdag 28 augustus 2020 @ 12:41:
[...]

Het probleem is dan ook niet het draaien van 4K, maar 4K icm hoge frequenties. Tegenwoordig mikt men dus op 4K icm 90-144Hz. 30 fps op 4K accepteert niemand (misschien enkele verdwaalde console puristen) en in die zin waren mijn 4K 120Hz schermen nieuw hetzelfde als 1600p toen.
Ik heb nog steeds dezelfde monitor op 60 Hz en ben nog steeds tevreden. Voor FS2020 is dat voldoende en is zelfs 30 fps voldoende. Voor shooters heb ik ook geen last van 60 Hz (vroeger was het allemaal 60 Hz), dan is wel 50-60 fps nodig. Ik heb 1600p op 30" en op een halve meter zie ik geen pixels meer, dan heeft 4K weinig toegevoegde waarde en je moet dan 500 euro extra betalen voor een videokaart. Als je dan óók nog 144Hz wilt, dan mag je wel veel sparen. De volgende stap is dan 8K aan 240 Hz en videokaarten van 3000 euro? :)

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Ik zou niet weten wat de volgende stap zou zijn. Die 3 4K schermen mogen voorlopig wel blijven wat mij betreft. Misschien blijven ze wel totdat OLED-achtige panelen gemeengoed zijn voor de pc. Het merendeel van de games tegenwoordig zijn helemaal niet grafisch van aard (zie bv Battle Royales, remasters, Hearthstone, Autochess etc), dus in die zin is het ook maar de vraag hoe lang men nog gaat mikken op de enthousiast markt vanuit de gameindustrie. In geweldige graphics zit het geld al jaren niet meer.

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 12:30:
[...]
R&D smeer je uit tegen volume en verkoopprijs. Nvidia heeft al sinds Maxwell veel hogere volumes en de omzet en winsten stijgen ook alleen maar. Ze compenseren R&D niet, ze proberen heel veel extra winst te maken, ten koste van de consument.
Datgene wat een bedrijf doet. Winst maken. Ik snap de ophef telkens niet. Vind je het te duur, koop je het niet. Kan je het niet betalen, koop je het niet. Marktwerking heet dat.

[ Voor 16% gewijzigd door hully op 28-08-2020 13:41 ]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 12:30:
[...]
Dat komt omdat mensen telkens Nvidia kopen en prijsstijgingen keer op keer maar accepteren onder een dunne laag marketing. Ondertussen lopen Nvidia's marges maar op en op.
Dat komt naar mijn mening vooral omdat de concurrent er al jaren een bende van maakt. Nvidia is al tijden met zichzelf aan het concurreren. Je kunt post na post wel blijven afgeven/negatief blijven op Nvidia, maar in essentie veroorzaken ze slechts een deel van het probleem. De concurrent volgt Nvidia ook vrolijk met de hogere prijzen die aansluiten op die lineup. AMD heeft ook een kleinere chip met Navi1 en zijn in verhouding daarmee net zo duur, vergeet dat niet! Daarna overigens wel eens, is het de markt zelf. Die kopen het eindproduct immers tegen de prijs die Nvidia en AMD vragen.
Zeker als Samsung 8nm ook zo goedkoop is omdat niemand die node wil hebben. Een segment prijsverhoging over Turing zou gewoon afzetterij zijn want het lijkt erop dat Nvidia zichzelf uit haar uitstekende relatie met TSMC heeft geduwd en nu overgeleverd is aan het inferieure maar goedkopere Samsung. We lijken naar 350W+ te kijken voor de RTX3090 en dat is een negatief voor de kaart die de prijs zou moeten verlagen. Nvidia lijkt er gewoon extra voor te gaan vragen want zeer duur PCB en koeloplossing.
Heeft Nvidia zich uit die relatie geduwd, of weigeren ze gewoon om mee te gaan met de waarschijnlijk net zo idioot hoge kostprijs van TSMC? Gezien de stijgende prijs van chips op dit moment en bevind die Fab zich in een ongekende luxepositie, denk dat hier de grootste boosdoener zit van deze switch van Nvidia. TSMC wil waarschijnlijk niet het volume leveren tegen een gangbare prijs op 7nm die Nvidia acceptabel acht. Dit moet haast wel, want anders gaat Nvidia echt niet een risico nemen door van Fab te wisselen na zoveel succesvolle jaren.

Ook hier hetzelfde probleem als het eindproduct, te duur. Als er genoeg klanten zijn van TSMC die dat wel betalen, dan stijgt de prijs van productie ook vrolijk door. Laat er nou een sh*tload aan mobiele socs producenten zijn die met kleine chips aankomen voor 7nm en die hogere prijs per chip zo wel kunnen verantwoorden, Op die aantallen is het een klein beetje duurder per chip. Er is voor TSMC op dit moment zo veel meer vraag dan capaciteit, dat drijft de productieprijs enorm op.
R&D smeer je uit tegen volume en verkoopprijs. Nvidia heeft al sinds Maxwell veel hogere volumes en de omzet en winsten stijgen ook alleen maar. Ze compenseren R&D niet, ze proberen heel veel extra winst te maken, ten koste van de consument. In een gezonde GPU markt zou dit niet kunnen.
Eens. Als je geen enkele moeite hoeft te doen omdat je concurrent al tijden niet mee kan komen op cutting edge.
Niet dat ik echt de illusie koester dat AMD er niet gewoon $50 a $100 eronder gaat zitten voor vergelijkbare of iets betere prestaties of iets sneller voor dezelfde prijs. Ze doen immers precies hetzelfde met Ryzen en daar is het een gigantisch succes.
Het siert je om dat toch ook eens te beamen. Ik ga double down en weet zeker dat AMD in deze range zal gaan zitten. Als Big NAVI op 400mm2 de 3090 op 627mm2 kan bijbenen vragen ze er niet hetzelfde, maar net wat minder voor en pakken ze dezelfde marge. Beide bedrijven zijn de consument met een glimlach aan het uitwringen.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Specificaties van de RTX 3080 en RTX 3090 zijn gelekt. Blijkbaar toch 7nm?

Afbeeldingslocatie: https://i.gyazo.com/5a959dc1baa37a7cfe21627d5c1137d5.png

Bron: NVIDIA GeForce RTX 3090 and GeForce RTX 3080 specifications leaked

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

hully schreef op vrijdag 28 augustus 2020 @ 13:41:
[...]


Datgene wat een bedrijf doet. Winst maken. Ik snap de ophef telkens niet. Vind je het te duur, koop je het niet. Kan je het niet betalen, koop je het niet. Marktwerking heet dat.
Net zoals dat ik nooit zal begrijpen waarom mensen graag met elke nieuwe productlijn, meer betalen zodat een CEO een grotere bonus kan opstrijken en investeerders meer dividend uitbetaald krijgen. Marktwerking werkt twee kanten op en is geen excuus voor extra betalen voor generatie op generatie, steeds minder snelle producten. ;)
sjekneck schreef op vrijdag 28 augustus 2020 @ 13:46:
Dat komt naar mijn mening vooral omdat de concurrent er al jaren een bende van maakt. Nvidia is al tijden met zichzelf aan het concurreren. Je kunt post na post wel blijven afgeven/negatief blijven op Nvidia, maar in essentie veroorzaken ze slechts een deel van het probleem. De concurrent volgt Nvidia ook vrolijk met de hogere prijzen die aansluiten op die lineup. AMD heeft ook een kleinere chip met Navi1 en zijn in verhouding daarmee net zo duur, vergeet dat niet! Daarna overigens wel eens, is het de markt zelf. Die kopen het eindproduct immers tegen de prijs die Nvidia en AMD vragen.
Oh volgens mij heb ik me ook vaak genoeg uitgelaten over de Radeon's na de R9 290(X) tot de RX5700(XT). Ik had een RX Vega 56 omdat ik die voor MSRP kon krijgen, niet omdat het echt een goed product is. Ik heb ook nooit iemand een Vega aangeraden over een GTX1070Ti die gewoon beter was. Als je wist hoe undervolting werkt, tja dan keek je zelf wel naar een goedkopere Vega.

Verder ben ik ook echt niet onder de indruk van de RX5700XT die gedefinieerd kan worden als minder slecht dan de concurrentie. Dat heb ik volgens mij ook nooit onder stoelen of banken geschoven. :z
Heeft Nvidia zich uit die relatie geduwd, of weigeren ze gewoon om mee te gaan met de waarschijnlijk net zo idioot hoge kostprijs van TSMC? Gezien de stijgende prijs van chips op dit moment en bevind die Fab zich in een ongekende luxepositie, denk dat hier de grootste boosdoener zit van deze switch van Nvidia. TSMC wil waarschijnlijk niet het volume leveren tegen een gangbare prijs op 7nm die Nvidia acceptabel acht. Dit moet haast wel, want anders gaat Nvidia echt niet een risico nemen door van Fab te wisselen na zoveel succesvolle jaren.

Ook hier hetzelfde probleem als het eindproduct, te duur. Als er genoeg klanten zijn van TSMC die dat wel betalen, dan stijgt de prijs van productie ook vrolijk door. Laat er nou een sh*tload aan mobiele socs producenten zijn die met kleine chips aankomen voor 7nm en die hogere prijs per chip zo wel kunnen verantwoorden, Op die aantallen is het een klein beetje duurder per chip. Er is voor TSMC op dit moment zo veel meer vraag dan capaciteit, dat drijft de productieprijs enorm op.
Ik zou die podcast eens luisteren die hier gisteren werd gelinkt. TSMC heeft gewoon systematisch alle concurrentie verslagen door beter te zijn. De realiteit is dat Apple, Qualcomm, Nvidia, AMD HiSilicon etc allemaal naar TSMC gingen omdat de concurrentie simpelweg niet competitief was.

Nvidia was verreweg de eerste van dit lijstje en was circa vijftien jaar bijzonder loyaal. Het ging langzaam mis omdat Nvidia dingen deed die je helemaal niet met TSMC nodes kon doen en Nvidia gooide TSMC publiekelijk onder de bus rond 20nm waardoor Maxwell ook op 28nm moest. Daarna ging Nvidia wat chips produceren bij Samsung, het goedkope spul zoals de zeer matige GTX1050Ti, maar de toon was gezet. Voor Turing weer helemaal op TSMC en vorig jaar begon het al dat Nvidia helemaal naar Samsung zou gaan, aangekondigd door Jensen Huang zelf.

En daar beginnen de problemen. De inzet was waarschijnlijk Samsung 7nm EUV. Die node is waarschijnlijk bagger. Immers wordt er nauwelijks iets op gemaakt en dat is nu al even zo. Samsung heeft de boel nu 5nm genoemd, maar het is nog steeds 7nm en inferieur aan TSMC 7nm, laat staan 5nm.

Een tijdje na Huang zijn aankondiging, ging Nvidia opeens weer naar TSMC 7nm en nu is de verwarring compleet. Het is 7nm voor GA100, maar zelfs GA102 lijkt nu Samsung 8nm te zijn, een rebrand van 10nm waar Qualcomm zich aardig aan heeft gebrand een paar jaar geleden, want het werkte niet.

In die podcast maakt de gast duidelijk dat Nvidia ooit in de "inner circle" van TSMC zat. Dat zijn bedrijven die een diepgaande relatie aangaan met TSMC en heel veel ervaring, IP en productiekennis met elkaar delen om elkaar te versterken. Nvidia hoort er waarschijnlijk nu niet meer bij, omdat Nvidia zelf heeft gekozen om er niet meer bij te horen en TSMC te beschuldigen. Nee, AMD heeft die plek ingenomen. TSMC is ook een echte foundry. Ze hebben zoveel capaciteit, teken maar in en bij tekorten verdelen we de wafers. Als je bereid bent meer te betalen, dan krijg je iets meer.

Alle grote spelers zitten bij TSMC 7nm omdat er geen alternatief is. 7nm is dus ook vanaf het begin al schaars. Het is iets beter geworden omdat Apple naar 5nm is gegaan en HiSilicon (Huawei) door Amerikaanse sancties geen nieuwe bestellingen meer kan plaatsen. Van wat je bij elkaar kon puzzelen, heeft AMD die capaciteit gekocht en gaan ze de komende maanden de grootste 7nm klant worden.

Ondertussen hebben we de afgelopen maanden, een aantal keer gehoord dat Nvidia wenste dat TSMC haar prijzen zou gaan verlagen. TSMC lijkt daar niet op in te zijn gegaan. Immers zijn TSMC hun ordeboeken ook gewoon vol. Dus Nvidia kon naar 8nm. En daarom lijkt Ampere dus een stelletje heethoofden van chips te worden. Dat kost je extra voor de koeling, extra PCB voor zaken zoals VRM's en het gaat ook in Nvidia haar marges hakken omdat de AIB's in de regel op zeer minimale marges zitten en niet die extra klap kunnen verwerken zonder verlies te gaan maken. Een compleet onbekende is dan of er wel afdoende yield is om ook echt iets te verkopen. Dat is afwachten. Uiteindelijk betaal je per wafer en niet per functionele chip, dus dat kan een extra kostenpost worden voor Nvidia.

Dit zijn ook het soort overwegingen waarom ik vermoed dat Nvidia het nog duurder gaat maken en het dus niet acceptabel vind. Immers hebben ze dit zelf veroorzaakt. Ze hadden die relatie met TSMC en TSMC had ze gewoon wafer capaciteit verkocht, maar je zal ervoor moeten betalen aan TSMC. Elke grote speler doet het ook, maar Nvidia blijkbaar niet.
[...]

Eens. Als je geen enkele moeite hoeft te doen omdat je concurrent al tijden niet mee kan komen op cutting edge.


[...]

Het siert je om dat toch ook eens te beamen. Ik ga double down en weet zeker dat AMD in deze range zal gaan zitten. Als Big NAVI op 400mm2 de 3090 op 627mm2 kan bijbenen vragen ze er niet hetzelfde, maar net wat minder voor en pakken ze dezelfde marge. Beide bedrijven zijn de consument met een glimlach aan het uitwringen.
En dat zeg ik dus steeds en dat is mijn voorkeur voor AMD. Voor mij was de RX5700XT ook €100 te duur, maar ik besef met dat Nvidia gewoon nog €100 extra vraagt voor een iets lager prestatiesegment. Dat was de RTX2070 namelijk, langzamer en duurder. Dit heeft niks met een voorliefde voor AMD te maken die mij maar constant in de schoenen geschoven moet worden. Dit gaat om mij als consument die het zat is om elke generatie weer met een zinloze prijsverhoging opgezadeld te worden. Intel en Nvidia gaan er niks aan doen, AMD heeft al laten zien wel enige druk op de markt te willen zetten.

Met AMD heb je tenminste nog een kans op stabilisatie of een geleidelijke normalisatie. Ik verwacht de volle Navi 21 ook niet voor minder dan €1000 tenzij die zwaar tegenvalt. Het topsegment is waarschijnlijk dan ook verloren. Die prijzen stop je waarschijnlijk niet zomaar. Het €200-€500 segment waar verreweg de meeste consumenten een videokaart kopen, daar moeten wel zaken gaan gebeuren. Daar is de stagnatie immers het sterkt geweest en ga je niks verkopen als je niet met iets echt beters komt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
The data that we saw clearly mention the 7nm fabrication node. At this time we are unable to confirm if this is indeed true.

:p

Opvallend lage clocks.
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 14:35:
[...]


Net zoals dat ik nooit zal begrijpen waarom mensen graag met elke nieuwe productlijn, meer betalen zodat een CEO een grotere bonus kan opstrijken en investeerders meer dividend uitbetaald krijgen. Marktwerking werkt twee kanten op en is geen excuus voor extra betalen voor generatie op generatie, steeds minder snelle producten. ;)
Het werkt twee kanten op, maar gezien Nvidia prima resultaten weet te behalen, en investeerders hebben meer vertrouwen in Nvidia dan Intel en AMD samen gezien de marketcap, betalen zowel consumenten als bedrijven er wel voor. Dat betekent dat de ervaring die Nvidia levert aan consumenten voldoende is om dergelijke marges te draaien en dat de zakelijke klanten de GPUs kunnen inzetten voor doeleinden die voldoende opleveren om te compenseren voor de marges van Nvidia.

Ieder jaar komt er weer de discussie dat Nvidia het slecht doet en ieder jaar dat volgt blijkt maar weer dat Nvidia haar beurswaarde nog meer is gestegen. Ja, ze hebben een dipje gehad in 2018, maar ze zitten inmiddels bijna op het dubbele van het bedrag van voor(!) die dip.

Afbeeldingslocatie: https://i.imgur.com/pHkzeBe.png

[ Voor 75% gewijzigd door Paprika op 28-08-2020 14:46 ]


  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Paprika schreef op vrijdag 28 augustus 2020 @ 14:37:
[...]

The data that we saw clearly mention the 7nm fabrication node. At this time we are unable to confirm if this is indeed true.

:p

Opvallend lage clocks.
Whoops, net overheen gelezen 8)7

Maar het was toch al een beetje bekend dat Ampere niet heel hoog geklokt zou worden?

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
RobinNL schreef op vrijdag 28 augustus 2020 @ 14:41:
[...]


Whoops, net overheen gelezen 8)7

Maar het was toch al een beetje bekend dat Ampere niet heel hoog geklokt zou worden?
Opvallend lage clocks voor TMSC, dus ik blijf bij Samsung :p.

[ Voor 5% gewijzigd door Paprika op 28-08-2020 14:43 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 28 augustus 2020 @ 14:37:

Het werkt twee kanten op, maar gezien Nvidia prima resultaten weet te behalen, en investeerders hebben meer vertrouwen in Nvidia dan Intel en AMD samen gezien de marketcap, betalen zowel consumenten als bedrijven er wel voor. Dat betekent dat de ervaring die Nvidia levert aan consumenten voldoende is om dergelijke marges te draaien en dat de zakelijke klanten de GPUs kunnen inzetten voor doeleinden die voldoende opleveren om te compenseren voor de marges van Nvidia.

Ieder jaar komt er weer de discussie dat Nvidia het slecht doet en ieder jaar dat volgt blijkt maar weer dat Nvidia haar beurswaarde nog meer is gestegen. Ja, ze hebben een dipje gehad in 2018, maar ze zitten inmiddels bijna op het dubbel van het bedrag van voor(!) die dip.
Dit begrijp ik allemaal, maar het gaat volledig voorbij aan mijn punt. Waarom blijven mensen maar excuses bedenken om elke upgrade meer te betalen voor een kleinere prestatiesprong? Dat is fundamenteel tegenstrijdig aan eigenbelang. Zelfs als je het kan betalen, zou je het nog niet moeten willen. Dat is het punt.


En die clocks zijn wel heel laag voor TSMC 7nm. Het zou best 7nm kunnen zijn, Samsung 7nm. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 14:48:
[...]


Dit begrijp ik allemaal, maar het gaat volledig voorbij aan mijn punt. Waarom blijven mensen maar excuses bedenken om elke upgrade meer te betalen voor een kleinere prestatiesprong?
Persoon A koopt de GPU wel. Persoon B koopt de GPU niet, want hij/zij vindt een 4 cijferig bedrag voor een GPU te duur. Persoon C koopt de GPU niet, want de GTX/RTX XXXX is snel genoeg, maar ziet persoon A met deze GPU wel een bepaalde performance halen en koopt hem alsnog. Je forum signature/reddit tag is ook belangrijk. ;)

Je kunt het ook anders stellen: misschien hebben AMD en Nvidia wel gewoon heel lang grote potentiële marges laten slippen. Verder geldt tegenwoordig dat je niet echt een alternatief hebt. Een goedkope auto komt echt wel van A naar B en in Nederland zelfs met hetzelfde tempo. Iedere auto redt de 100 wel en bijna iedere auto gaat ook wel 150. Harder durven de meesten niet, want dan speel je met je rijbewijs, maar als je op resolutie X spel Y wilt kunnen spelen met instellingen X dan is het toch kiezen tussen betalen of pech.

Schijnbaar zijn er voldoende mensen die dit bedrag willen betalen en zolang dat het geval blijft kunnen we speculeren, maar er worden er echt flink wat verkocht schijnbaar. De RTX2080Ti was maandenlang uitverkocht en er zijn mensen die zelfs van een RTX2080Ti nog naar een RTX Titan zijn overgestapt, vaak zelfs twee stuks...

https://tweakers.net/vide...aGSrG1tTpKJZUFqcUgsUQgHwA
Aan de V&A te zien gaan er genoeg RTX3090s verschijnen op Tweakers. Geen idee of die dingen gaan verkopen, maar als mensen nu 900-1000 euro gaan betalen voor een tweedehands RTX2080Ti dan heeft zo'n videokaart 100-150 euro per jaar gekost. Ik heb wel eens slechtere aankopen gedaan.

[ Voor 23% gewijzigd door Paprika op 28-08-2020 15:01 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 28 augustus 2020 @ 14:54:
[...]

Persoon A koopt de GPU wel. Persoon B koopt de GPU niet, want hij/zij vindt een 4 cijferig bedrag voor een GPU te duur. Persoon C koopt de GPU niet, want de GTX/RTX XXXX is snel genoeg, maar ziet persoon A met deze GPU wel een bepaalde performance halen en koopt hem alsnog. Je forum signature/reddit tag is ook belangrijk. ;)

Je kunt het ook anders stellen: misschien hebben AMD en Nvidia wel gewoon heel lang grote potentiële marges laten slippen. Verder geldt tegenwoordig dat je niet echt een alternatief hebt. Een goedkope auto komt echt wel van A naar B en in Nederland zelfs met hetzelfde tempo. Iedere auto redt de 100 wel en bijna iedere auto gaat ook wel 150. Harder durven de meesten niet, want dan speel je met je rijbewijs, maar als je op resolutie X spel Y wilt kunnen spelen met instellingen X dan is het toch kiezen tussen betalen of pech.
Ik begrijp de mechanieken. Ik begrijp simpelweg niet waarom mensen zich zo makkelijk laten manoeuvreren tegen hun eigenbelang in te gaan en dat zal waarschijnlijk ook nooit gebeuren. Een autistische, cynische historicus zijn, helpt ook niet. ;)
Dat is ook mijn motivatie hiervoor, inzichtelijk proberen te maken wat een Intel/Nvidia/AMD/whatever doet en proberen mensen zover te krijgen om na te laten denken over die acties en voor zichzelf te kiezen. Het is misschien een idealistische, hopeloze strijd, maar wel iets dat moet gebeuren. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Paprika schreef op vrijdag 28 augustus 2020 @ 14:54:
[...]

Persoon A koopt de GPU wel. Persoon B koopt de GPU niet, want hij/zij vindt een 4 cijferig bedrag voor een GPU te duur. Persoon C koopt de GPU niet, want de GTX/RTX XXXX is snel genoeg, maar ziet persoon A met deze GPU wel een bepaalde performance halen en koopt hem alsnog. Je forum signature/reddit tag is ook belangrijk. ;)

Je kunt het ook anders stellen: misschien hebben AMD en Nvidia wel gewoon heel lang grote potentiële marges laten slippen. Verder geldt tegenwoordig dat je niet echt een alternatief hebt. Een goedkope auto komt echt wel van A naar B en in Nederland zelfs met hetzelfde tempo. Iedere auto redt de 100 wel en bijna iedere auto gaat ook wel 150. Harder durven de meesten niet, want dan speel je met je rijbewijs, maar als je op resolutie X spel Y wilt kunnen spelen met instellingen X dan is het toch kiezen tussen betalen of pech.

Schijnbaar zijn er voldoende mensen die dit bedrag willen betalen en zolang dat het geval blijft kunnen we speculeren, maar er worden er echt flink wat verkocht schijnbaar. De RTX2080Ti was maandenlang uitverkocht en er zijn mensen die zelfs van een RTX2080Ti nog naar een RTX Titan zijn overgestapt, vaak zelfs twee stuks...

https://tweakers.net/vide...aGSrG1tTpKJZUFqcUgsUQgHwA
Aan de V&A te zien gaan er genoeg RTX3090s verschijnen op Tweakers.
Of spelen met settings, of overklokken, of als belangrijkste: 5 jaar wachten om een game te spelen, dan koop je de game voor 5 euro en draait het vlot op een kaart van 200 euro ;) Het is dan ook voorzien van alle bugfixes en optimalisaties, idem voor de drivers. Als je tegenwoordig blij bent met 1080p kom je er ook goedkoop vanaf :)

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Verwijderd schreef op vrijdag 28 augustus 2020 @ 15:02:
[...]

Of spelen met settings, of overklokken, of als belangrijkste: 5 jaar wachten om een game te spelen, dan koop je de game voor 5 euro en draait het vlot op een kaart van 200 euro ;) Het is dan ook voorzien van alle bugfixes en optimalisaties, idem voor de drivers. Als je tegenwoordig blij bent met 1080p kom je er ook goedkoop vanaf :)
Je noemt nu alleen maar oplossingen die vallen onder het kopje 'pech'.
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 15:01:
[...]


Ik begrijp de mechanieken. Ik begrijp simpelweg niet waarom mensen zich zo makkelijk laten manoeuvreren tegen hun eigenbelang in te gaan en dat zal waarschijnlijk ook nooit gebeuren. Een autistische, cynische historicus zijn, helpt ook niet. ;)
Dat is ook mijn motivatie hiervoor, inzichtelijk proberen te maken wat een Intel/Nvidia/AMD/whatever doet en proberen mensen zover te krijgen om na te laten denken over die acties en voor zichzelf te kiezen. Het is misschien een idealistische, hopeloze strijd, maar wel iets dat moet gebeuren. :)
Even heel sneu en bot, maar de realiteit is dat er ook wel meer en meer mensen zijn die nou eenmaal niets hebben in hun leven naast gamen. Dan is meer geld uitgeven aan die ene enkele hobby zo gedaan. Zelf mag ik niet klagen over mijn salaris, maar toch vind ik het zelf wel zonde van het geld, gezien ik er toch leukere dingen van kan doen, maar als ik nog een 0 achter mijn salaris mocht bijschrijven, dan had ik gegarandeerd ook gezegd who cares. Ruim een miljoen zonder videokaart of ruim een miljoen met de duurste videokaart in bezit verdienen klinkt als een keuzeprobleem waar ik wel mee zou kunnen leven. O-)

[ Voor 52% gewijzigd door Paprika op 28-08-2020 15:08 ]


Verwijderd

RobinNL schreef op vrijdag 28 augustus 2020 @ 14:32:
Specificaties van de RTX 3080 en RTX 3090 zijn gelekt. Blijkbaar toch 7nm?

[Afbeelding]

Bron: NVIDIA GeForce RTX 3090 and GeForce RTX 3080 specifications leaked
Wel een extreem groot gat in geheugenbandbreedte tussen een de RTX 3070 en RTX 3080 en ook in vergelijking met de RTX 3090. De RTX 3070 komt net boven een RTX 2080 Super uit. Lijkt dus wel een flink verschil in prestaties te komen tussen de GA104 en GA102.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Verwijderd schreef op vrijdag 28 augustus 2020 @ 15:04:
[...]

Wel een extreem groot gat in geheugenbandbreedte tussen een de RTX 3070 en RTX 3080 en ook in vergelijking met de RTX 3090. De RTX 3070 komt net boven een RTX 2080 Super uit. Lijkt dus wel een flink verschil in prestaties te komen tussen de GA104 en GA102.
Er was ook nog een gerucht dat er een RTX 3080 met 20GB VRAM in de maak is, maar hier hoor je niks meer over.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Verwijderd

Paprika schreef op vrijdag 28 augustus 2020 @ 15:04:
[...]

Je noemt nu alleen maar oplossingen die vallen onder het kopje 'pech'.
5 jaar wachten om 80% korting te krijgen voor een (inmiddels bugvrije) game en videokaart vind ik geen pech, maar slim :) Jammer genoeg ben ik zelf ook niet zo slim :)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Verwijderd schreef op vrijdag 28 augustus 2020 @ 11:58:
En de 8800GTX kostte ongeveer 520 euro. Ik heb die kaart toen gekocht en speelde zonder problemen op 2560x1600.
Minimumprijs klopt niet, onder de €570 had je er echt geen in 2006 of begin 2007. Gemiddelde prijs wordt ook flink omlaag getrokken door absurde "minimum" prijzen waar niemand ze daadwerkelijk voor leverde. Toen had je ook al bedrijven zoals MaxICT ;)
Verwijderd schreef op vrijdag 28 augustus 2020 @ 12:39:
[...]
Ho maar, toen draaide 95% van de gamers HD of lager. 2560x1600 wat ik had was heel uitzonderlijk, zo'n monitor kostte toen 1500 euro! Nu zijn er meer met 4K dan toen met 1600p (4K heb je nu al voor 200 euro)
"HD"?

Nee, toen draaide men 1024x768 of 1280x1024. 4:3 was toen nog koning, "HD" zou 1280x720 (16:9) geweest zijn ;)

En ook nu draait 95% van de gamers op 1440p of minder. En ik durf wel te stellen dat het aandeel 1080p nog steeds heer en meester is, zou me niets verbazen als dat 85% van het geheel is :)

Tegenwoordig kijken veel gamers vooral naar "1ns responsetime, 3 GHz refresh rate at 27 inch!!!". Los van de dubieuze claims in veel van die marketing, gaat het dan alsnog vaak om een lullig TN paneel op 1080p.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Werelds schreef op vrijdag 28 augustus 2020 @ 15:08:
[...]
Tegenwoordig kijken veel gamers vooral naar "1ns responsetime, 3 GHz refresh rate at 27 inch!!!". Los van de dubieuze claims in veel van die marketing, gaat het dan alsnog vaak om een lullig TN paneel op 1080p.
Ik denk dat het aandeel van de markt dat alles koopt waar de tag 'gaming' op staat sowieso flink is gestegen. Slechte bureaustoelen, waardeloze headsets, matige toetsenborden etc verkopen allemaal met reusachtige marges, omdat het woordje gamer toch wel leidend is en zelfs als men daar nog aan voorbij kan gaan, dan is het wel dat een of andere streamer dit product gebruikt dus het moet wel goed zijn. Uiteraard zonder het besef dat desbetreffende streamers nog aardige bedragen krijgen betaald voor het gebruik van die waardeloze producten.

  • Simbob
  • Registratie: December 2009
  • Niet online
RobinNL schreef op vrijdag 28 augustus 2020 @ 15:06:
[...]


Er was ook nog een gerucht dat er een RTX 3080 met 20GB VRAM in de maak is, maar hier hoor je niks meer over.
NVIDIA GeForce RTX 3080 - GA102 For High-End Gaming

Moving on to the GeForce RTX 3080, the rumor reports that the card will be featuring the GA102-200-KD-A1 SKU. This cut down SKU will feature the same 4352 CUDA cores as the RTX 2080 Ti that will be arranged in a total of 68 SMs. The GPU will feature a maximum clock speed of 1710 MHz.

The card is reportedly going to feature up to 10 GB of memory that is also going to be GDDR6X but there are several vendors who will be offering the card with a massive 20 GB frame buffer but at higher prices. Since the memory is running at 19 Gbps across a 320-bit bus interface, we can expect a bandwidth of up to 760 GB/s.
Bron"Wccftech

  • computerjunky
  • Registratie: Maart 2004
  • Nu online
Paprika schreef op vrijdag 28 augustus 2020 @ 14:43:
[...]

Opvallend lage clocks voor TMSC, dus ik blijf bij Samsung :p.
Vergeet niet dat de 2xxx kaarten en ook mijn 1070OC in de 1700 mhz range zitten maar dat door boost 3.0 de kaarten gewoon effectief in de 1900 mhz range draaien.
Die base en turbo clocks zijn bij nvidia al sinds 2016 niets meer waard. Als er temp of power headroom is zullen ze gewoon sneller draaien zonder dat de gebruiker daar iets voor hoeft te doen.

[ Voor 26% gewijzigd door computerjunky op 28-08-2020 15:24 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
computerjunky schreef op vrijdag 28 augustus 2020 @ 15:21:
[...]


Vergeet niet dat de 2xxx kaarten en ook mijn 1070OC in de 1700 mhz range zitten maar dat door boost 3.0 de kaarten met gewoon effectief in de 1900 mhz range draaien.
Die base en turbo clocks zijn bij nvidia al sinds 2016 niets meer waard. Als er temp of power headroom is zullen ze gewoon sneller draaien zonder dat de gebruiker daar iets voor hoeft te doen.
Goed punt, als dit de specs zijn zoals ze bij gaan Nvidia verschijnen dan zijn ze zowaar hetzelfde.

[ Voor 8% gewijzigd door Paprika op 28-08-2020 15:23 ]


  • Wekko306
  • Registratie: December 2003
  • Laatst online: 15:51
RobinNL schreef op vrijdag 28 augustus 2020 @ 14:32:
Specificaties van de RTX 3080 en RTX 3090 zijn gelekt. Blijkbaar toch 7nm?

[Afbeelding]

Bron: NVIDIA GeForce RTX 3090 and GeForce RTX 3080 specifications leaked
Begin eigenlijk steeds meer mijn interesse in deze generatie wat te verliezen.
Ik heb op dit moment een Vega 64 met undervolt en zou willen upgraden naar een GPU als ik een significante performance upgrade kan krijgen (+100% op 1440p als het even kan) tegen een lager stroomverbruik zodat het systeem hopelijk flink wat minder hitte en geluid produceert.
De combinatie van beide wensen lijkt me steeds minder realistisch als ik deze leaks zo zie, maar hoop dat ik binnen enkele weken in positieve zin overdonderd word :)
Zal de eerste reviews hoe dan ook wel checken.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

WCCF en Videocardz zeggen dus beiden:

RTX3090
-5248/82SM
-384bit bus

RTX3080
-4356/68SM
-320 bit bus
-1710MHz

Videocardz is meestal betrouwbaarder. Ik denk dat het zoiets ook wel gaat zijn want het komt steeds meer voorbij en sluit aan. GPU boost zal er wel iets van 200MHz erbij clocken, maar zelfs dan nog. Die 2,1GHz max met een extreem verbruik, lijkt reëel te zijn. Dat is dus geen merkbare verbetering in clock speeds, maar wel een serieus hoger verbruik. Dat wijst denk ik heel sterk op Samsung. Als dit TSMC 7nm blijkt te zijn, dan heeft Nvidia een "oepsie" gedaan of dan verbergen ze iets heel erg bijzonders qua architectuur.


Het gat met de RTX3070 is denk ik twee dingen. Ten eerste was dit kennelijk een 2944/46SM chip en waarschijnlijk niet de volle GA104. Tweede is denk ik dat ook Nvidia een "betaalbare" lijn neer zal moeten zetten en dan voor een fors kleinere chip zal gaan. Dat was immers niet echt anders met Turing.

[ Voor 22% gewijzigd door DaniëlWW2 op 28-08-2020 15:42 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 15:33:
WCCF en Videocardz zeggen dus beiden:

RTX3090
-5248/82SM
-384bit bus

RTX3080
-4356/68SM
-320 bit bus
-1710MHz

Videocardz is meestal betrouwbaarder. Ik denk dat het zoiets ook wel gaat zijn want het komt steeds meer voorbij en sluit aan. GPU boost zal er wel iets van 200MHz erbij clocken, maar zelfs dan nog. Die 2,1GHz max met een extreem verbruik, lijkt reëel te zijn. Dat is dus geen merkbare verbetering in clock speeds, maar wel een serieus hoger verbruik. Dat wijst denk ik heel sterk op Samsung. Als dit TSMC 7nm blijkt te zijn, dan heeft Nvidia een "oepsie" gedaan of dan verbergen ze iets heel erg bijzonders qua architectuur.


Het gat met de RTX3070 is denk ik twee dingen. Ten eerste was dit kennelijk een 2944/46SM chip en waarschijnlijk niet de volle GA104. Tweede is denk ik dat ook Nvidia een "betaalbare" lijn neer zal moeten zetten en dan voor een fors kleinere chip zal gaan. Dat was immers niet echt anders met Turing.
Analoog met wat Intel nu doet? https://be.hardware.info/...niet-moet-kopen-conclusie

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Werelds schreef op vrijdag 28 augustus 2020 @ 15:08:
[...]

En ook nu draait 95% van de gamers op 1440p of minder. En ik durf wel te stellen dat het aandeel 1080p nog steeds heer en meester is, zou me niets verbazen als dat 85% van het geheel is :)
In elk geval in de Steam stats is 1080p met afstand de meest gebruikte resolutie.

Afbeeldingslocatie: https://tweakers.net/i/JyiQ6cfdzRTboK9jMJiKCCNbf-U=/800x/filters:strip_exif()/f/image/Iall0JbfMNjuVWGNlVDi3P2F.png?f=fotoalbum_large

March of the Eagles


  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 15:33:
WCCF en Videocardz zeggen dus beiden:

RTX3090
-5248/82SM
-384bit bus

RTX3080
-4356/68SM
-320 bit bus
-1710MHz

Videocardz is meestal betrouwbaarder. Ik denk dat het zoiets ook wel gaat zijn want het komt steeds meer voorbij en sluit aan. GPU boost zal er wel iets van 200MHz erbij clocken, maar zelfs dan nog. Die 2,1GHz max met een extreem verbruik, lijkt reëel te zijn. Dat is dus geen merkbare verbetering in clock speeds, maar wel een serieus hoger verbruik. Dat wijst denk ik heel sterk op Samsung. Als dit TSMC 7nm blijkt te zijn, dan heeft Nvidia een "oepsie" gedaan of dan verbergen ze iets heel erg bijzonders qua architectuur.


Het gat met de RTX3070 is denk ik twee dingen. Ten eerste was dit kennelijk een 2944/46SM chip en waarschijnlijk niet de volle GA104. Tweede is denk ik dat ook Nvidia een "betaalbare" lijn neer zal moeten zetten en dan voor een fors kleinere chip zal gaan. Dat was immers niet echt anders met Turing.
Uberhaupt zijn clockspeed verbeteringen echt veel minder dan wat TSMC elke generatie weer beweerd. Soms zijn er generaties die ineens wel weer echt sneller zijn (vaak met meer lekstroom), maar de verhalen van TSMC hoeveel sneller ze zijn zou ik maar met een korreltje zout nemen. Tot een ~28nm schaalde het allemaal lekker, sindsdien is het een stuk minder geworden.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 02-02 09:01
DaniëlWW2 schreef op vrijdag 28 augustus 2020 @ 14:35:
Oh volgens mij heb ik me ook vaak genoeg uitgelaten over de Radeon's ....
Maar end of the day verdedig je die producten wel tegenover Nvidia. Zo kritisch ben je dan niet naar Radeon.
Nvidia's relatie met TSMC...
Never change a winning team is de uitspraak. Nvidia is idd al heel lang klant bij hen, maar toch lijkt er nu een breuk te zijn. Dit zal echt niet alleen de koppigheid van Nvidia zijn. Nogmaals de stap/risico's naar een andere foundry zijn te groot om zomaar te maken. Nvidia is afhankelijk met het produceren van hun designs en kan niet even een all in gamble te maken zoals deze voor de lol. Of Samsung heeft giga kortingen + garanties gegeven, of er is iets gaande tussen Nvidia en TSMC waardoor er een breuk is gekomen. Ik denk persoonlijk dat het een combinatie is van beide. Immers waar 2 vechten hebben 2 schuld.
En dat zeg ik dus steeds en dat is mijn voorkeur voor AMD. Voor mij was de RX5700XT ook €100 te duur, maar ik besef met dat Nvidia gewoon nog €100 extra vraagt voor een iets lager prestatiesegment. Dat was de RTX2070 namelijk, langzamer en duurder. Dit heeft niks met een voorliefde voor AMD te maken die mij maar constant in de schoenen geschoven moet worden. Dit gaat om mij als consument die het zat is om elke generatie weer met een zinloze prijsverhoging opgezadeld te worden. Intel en Nvidia gaan er niks aan doen, AMD heeft al laten zien wel enige druk op de markt te willen zetten.
Als je aangeeft dat Nvidia duurder is voor een iets lager prestatiesegment, dan gaat je vergelijking gelijk al stuk. Je vergelijkt nu een 2070 (non super) van bijna een jaar ouder met (of je het nou nuttig vindt of niet) meer features als ondergeschikt, neemt niet de pricecut mee die ze gedaan hebben en laat de betere 2070super (die nu op die prijs zit) buiten beschouwing die ook nog eens tegelijk uitkwam met de 5700 serie.

Sorry, maar je voorliefde schrijft zichzelf met deze uitspraak.
Met AMD heb je tenminste nog een kans op stabilisatie of een geleidelijke normalisatie. Ik verwacht de volle Navi 21 ook niet voor minder dan €1000 tenzij die zwaar tegenvalt. Het topsegment is waarschijnlijk dan ook verloren. Die prijzen stop je waarschijnlijk niet zomaar. Het €200-€500 segment waar verreweg de meeste consumenten een videokaart kopen, daar moeten wel zaken gaan gebeuren. Daar is de stagnatie immers het sterkt geweest en ga je niks verkopen als je niet met iets echt beters komt.
Vervang 'AMD' met 'concurrentie' in je eerste zin, dan klopt het.

AMD heeft een underdog positie, die heeft het al sinds ze zelfstandig producten uitbrengen. Als ze het marktaandeel van Intel/Nvidia zouden hebben dan blijft er niks meer overeind van die normalisatie/goodwill. Dat is al gebleken toen ze op CPU/GPU gebied in de buurt kwamen van niveau van de concurrenten. Dat is nou eenmaal hoe het spel werkt. Als je geld kan verdienen, dan doet een bedrijf dat. Dus ook AMD.

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Als de geruchten van Videocardz kloppen dan wordt dit waarschijnlijk geen interessante generatie voor mij. Als ik e.e.a. extrapoleer vanuit de Videocardz tabel dan komt er in het hogere middensegment waarschijnlijk een RTX 3060 kaart uit met maximaal slechts 8GB aan VRAM (maar wel met sneller geheugen dan van Pascal en Turing), een busbreedte van 192 bit (en een TDP van 180-200W). Komend van een GTX1070Ti met 8GB VRAM en een 256 bit busbreedte lijkt de prestatiewinst mij persoonlijk dan te laag gaan worden om weer een uitgave van circa $400 te rechtvaardigen, hoewel ik wel op 4K wil gamen. Prijs, kaartlengte en TDP tellen voor mij zelfs nog zwaarder mee dan de performance-winst op 4K.

Hopelijk komt AMD nog met iets beters op de proppen in het hogere middensegment. En anders misschien maar wachten op de Refresh (7nm+ ?) versie van Ampere die Nvidia over een jaar wel opnieuw onder het "Super" etiket zal uitbrengen...

[ Voor 11% gewijzigd door choogen op 30-08-2020 12:57 ]


  • Simbob
  • Registratie: December 2009
  • Niet online
Is een B450 moederbord voldoende voor een 3000 serie of zal ik een B550 moederbord moeten kopen?
Modbreak:Jouw aankoopoverwegingen zijn niet nieuwswaardig voor in een nieuwsdiscussietopic. Hou het on-topic en kijkin Componenten Aankoopadvies voor vragen als dit.

[ Voor 47% gewijzigd door dion_b op 30-08-2020 10:02 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

nvidia probeert overal het onderste uit de kan te halen en dan nog net wat meer. Adhv wat ik lees zijn ze vrijwel nergens erg geliefd. Denk dat ze gewoon een koekje van eigen deeg hebben gekregen bij TSMC.

Want waarom zou TSMC haar wafers cheap moeten verkopen terwijl nvidia haar chips ook voor de hoofdprijs wegdoet :?

Tegelijkertijd vind ik het wel logisch dat ze ook bij Samsung aan de gang gaan, zeker als hun proces in eerste instantie voldoende op orde lijkt te zullen zijn. Het is gewoon best risicovol om maar één supplier te hebben. Kijk maar naar Intel.

Het enige wat ons misschien wat helpt is meer concurrentie dus vanuit dat oogpunt vind ik het wel prima aangezien AMD nu meer (7nm) wafers heeft en haar relatie met TSMC waarschijnlijk verbeterd. Hoe sterker AMD hoe meer kans op interessante GPU's voor ons.

Aan de andere kant baal ik ervan dat de Ampere kaarten waarschijnlijk niet alleen duur zullen zijn maar vooral ook erg veel verbruiken en heet worden.

Als ik zie hoeveel warmte een 1080Ti er al uitgooid bij 250W dan wil ik niet weten wat een 320/350W kaart doet... :X

ps: Als big navi een beetje in de buurt van de 3080 zit met veel minder hitte/verbruik hebben ze, los van featureset, wel een winnaar denk ik.

[ Voor 13% gewijzigd door Help!!!! op 28-08-2020 19:01 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


Verwijderd

Simbob schreef op vrijdag 28 augustus 2020 @ 18:13:
Is een B450 moederbord voldoende voor een 3000 serie of zal ik een B550 moederbord moeten kopen?
Voor een 2080Ti is er zelfs bijna geen verschil tussen pcie2 en pcie3, laat staan pcie4: https://www.pugetsystems....Render-and-Redshift-1259/

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
De eerste RTX 3090 van ZOTAC is mogelijk gelekt.

Afbeeldingslocatie: https://i.imgur.com/O4vMLMC.jpg
The Trinity RTX 3090 is a triple-fan and triple-slot design, easily extending to a length reaching 30cm (not measured, just a speculation). It features a new RGB shroud accompanied by a LED illuminated backplate. The card features new NVLink fingers and dual 8-pin power connectors.

The photos of the AMP and Twin Edge designs have not yet been leaked, but it confirms that the manufacturer will indeed launch three GeForce RTX 30 SKUs.
Bron: https://videocardz.com/ne...rtx-3090-trinity-pictured

ZOTAC RTX 3080

[ Voor 6% gewijzigd door RobinNL op 28-08-2020 20:12 ]

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op vrijdag 28 augustus 2020 @ 18:55:
ps: Als big navi een beetje in de buurt van de 3080 zit met veel minder hitte/verbruik hebben ze, los van featureset, wel een winnaar denk ik.
Tja we willen allemaal 3080 performance voor 3060 power en een 3050 prijs. Tegelijk als je ziet dat een 5700XT rond de 200W zit, dan moet je wel echt enorme sprongen in architectuur efficientie verwachten met RDNA2.

  • Simbob
  • Registratie: December 2009
  • Niet online
Krijgt de 3080 ook een dual 8 pin? Ben alvast witte kabels aan het zoeken voor de nieuwe build.

Edit: spuit 11
The GeForce RTX 3090 features triple 8-pin connectors while the RTX 3080 makes use of two 8-pin connectors.

[ Voor 43% gewijzigd door Simbob op 28-08-2020 21:22 ]


  • computerjunky
  • Registratie: Maart 2004
  • Nu online
Help!!!! schreef op vrijdag 28 augustus 2020 @ 18:55:

Als ik zie hoeveel warmte een 1080Ti er al uitgooid bij 250W dan wil ik niet weten wat een 320/350W kaart doet... :X
Ik heb een 1070 en dat ding verwarmd in de winter mijn hele computer kamer. Er komt gewoon hete lucht uit aan de achterkant en dat ding gebruikt bij max load maar 145 watt.
Ik heb me altijd verbaasd hoe veel warmte een gpu met eenzelfde power draw creëert. Mijn 9900k met oc gooit er in de verste verte niet zoveel warmte uit.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

RobinNL schreef op vrijdag 28 augustus 2020 @ 20:00:
De eerste RTX 3090 van ZOTAC is mogelijk gelekt.

[Afbeelding]


[...]


Bron: https://videocardz.com/ne...rtx-3090-trinity-pictured

ZOTAC RTX 3080
[Twitter]
DRIE 8 pins dus :o

https://www.techpowerup.c...gn-graphics-card-rendered


Afbeeldingslocatie: https://tweakers.net/i/89yZTa6L17ovgj63-gNl9Y_fcTA=/800x/filters:strip_icc():strip_exif()/f/image/1KURRptWseVBIlWvaOOlMct0.jpg?f=fotoalbum_large
Sissors schreef op vrijdag 28 augustus 2020 @ 20:53:
[...]

Tja we willen allemaal 3080 performance voor 3060 power en een 3050 prijs. Tegelijk als je ziet dat een 5700XT rond de 200W zit, dan moet je wel echt enorme sprongen in architectuur efficientie verwachten met RDNA2.
Het is AMD zelf die vrij hoge verwachtingen schept. Dus wie weet wat big navi met 250W kan doen.

Afbeeldingslocatie: https://tweakers.net/i/m2ZgzqN5NE-ygnOPLcP6KRTpPw0=/800x/filters:strip_icc():strip_exif()/f/image/3yPRqz9sj9G9Uh0qzbPuSR9n.jpg?f=fotoalbum_large

[ Voor 71% gewijzigd door Help!!!! op 28-08-2020 21:48 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
computerjunky schreef op vrijdag 28 augustus 2020 @ 21:23:
[...]


Ik heb een 1070 en dat ding verwarmd in de winter mijn hele computer kamer. Er komt gewoon hete lucht uit aan de achterkant en dat ding gebruikt bij max load maar 145 watt.
Ik heb me altijd verbaasd hoe veel warmte een gpu met eenzelfde power draw creëert. Mijn 9900k met oc gooit er in de verste verte niet zoveel warmte uit.
En toch maken ze allebei precies evenveel warmte :P .
Voor de 3090 ja. Niet een totale verrassing, met een typical power draw van een 350W zit je al op max redelijk met twee 8 pins connectoren, en bij een high-end custom variant gooien ze power limit normaal nog wel wat omhoog.

[ Voor 34% gewijzigd door Sissors op 28-08-2020 21:41 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Sissors schreef op vrijdag 28 augustus 2020 @ 20:53:
[...]

Tja we willen allemaal 3080 performance voor 3060 power en een 3050 prijs. Tegelijk als je ziet dat een 5700XT rond de 200W zit, dan moet je wel echt enorme sprongen in architectuur efficientie verwachten met RDNA2.
Hangt er gewoon van af hoeveel AMD het pushed. De 5700 (non XT) is gelijk aan NV qua efficientie. Als NV op Samsung zit dan zullen ze waarschijnlijk redelijk gelijk zijn qua efficentie; zit NV ook op TSMC dan zullen ze waarschijnlijk net wat efficienter zijn.
Ik blijf in de herhaling vallen.... als je kijkt naar de nieuwe XBox dan is het prima om een hele zuinige kaart te maken met RDNA2.
Zelf hoop ik op 3080 performance rond de 280-300 Watt.

https://www.techpowerup.c...-5700-xt-strix-oc/28.html
Afbeeldingslocatie: https://tpucdn.com/review/asus-radeon-rx-5700-xt-strix-oc/images/performance-per-watt_1920-1080.png

Verwijderd

Sp3ci3s8472 schreef op vrijdag 28 augustus 2020 @ 21:49:
[...]

Zelf hoop ik op 3080 performance rond de 280-300 Watt.
En wat is RTX 3080 prestaties? :P

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Verwijderd schreef op vrijdag 28 augustus 2020 @ 21:52:
[...]

En wat is RTX 3080 prestaties? :P
Voor mij is dat 20-35% meer dan de 2080Ti. Het is dus nog even afwachten of dat er komt :+.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Je kunt natuurlijk estimated guess doen obv prestatiewinsten uit het verleden.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
@Sp3ci3s8472, behalve dan dat de 5700 al op 7nm zit, wat dus ook niet echt een vergelijking is in het voordeel van AMD. Sterker nog, dat nekt de 5700 die het slechter doet dan een RTX2080. Laat staan hoe slecht de 5700XT wel niet is wat betreft P/W.

Afbeeldingslocatie: https://fuse.wikichip.org/wp-content/uploads/2017/12/iedm-2017-gf-7nm-power-vs-frequency-2f6t.png

[ Voor 6% gewijzigd door Paprika op 28-08-2020 22:15 ]


  • mitsumark
  • Registratie: Juni 2009
  • Nu online
Sp3ci3s8472 schreef op vrijdag 28 augustus 2020 @ 21:55:
[...]

Voor mij is dat 20-35% meer dan de 2080Ti. Het is dus nog even afwachten of dat er komt :+.
Lijkt me heel erg stug, misschien 10-15%.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Paprika schreef op vrijdag 28 augustus 2020 @ 22:12:
@Sp3ci3s8472, behalve dan dat de 5700 al op 7nm zit, wat dus ook niet echt een vergelijking is in het voordeel van AMD. Sterker nog, dat nekt de 5700 die het slechter doet dan een RTX2080. Laat staan hoe slecht de 5700XT wel niet is wat betreft P/W.

[Afbeelding]
Slechter is wel een groot woord voor 2%. Dat weet ik, ik gaf in een vorige post ook aan dat er nog wel een node verschil is. Daarom hangt het er vanaf wat Nvidia doet, als ze Samsung hebben dan valt het waarschijnlijk slechter uit voor Nvidia, met TSMC zal Nvidia een stukje zuiniger zijn.
Daarnaast geef ik ook steeds aan dat AMD die kaarten niet zover moet pushen, ik kan zonder veel moeite een OC halen op mijn 5700 XT met een undervolt er nog bij. Nvidia lijkt dat veel beter te doen met hun kaarten die zitten meestal meer in de sweetspot van de powercurve.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Sp3ci3s8472 schreef op vrijdag 28 augustus 2020 @ 22:25:
[...]


Daarom hangt het er vanaf wat Nvidia doet, als ze Samsung hebben dan valt het waarschijnlijk slechter uit voor Nvidia, met TSMC zal Nvidia een stukje zuiniger zijn.
Maar hoezo zal Nvidia opeens slechtere p/w moeten hebben dan AMD terwijl Nvidia een kleinere node zal hebben dan de vorige keer en AMD alweer voor de derde keer een GPU gaat uitbrengen op 7nm.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Paprika schreef op vrijdag 28 augustus 2020 @ 22:28:
[...]

Maar hoezo zal Nvidia opeens slechtere p/w moeten hebben dan AMD terwijl Nvidia een kleinere node zal hebben dan de vorige keer en AMD alweer voor de derde keer een GPU gaat uitbrengen op 7nm.
Dit zijn geruchten; omdat Samsung 8nm gebruikt wordt wat niet zo efficient lijkt te zijn als ze hadden gehoopt waardoor ze in tegenstelling tot normaal de kaarten meer moeten pushen om de beoogde snelheden te halen waardoor ze misschien dit keer wel meer gebruiken.
Daarnaast omdat de nieuwe XBox een SOC heeft die ergens tussen de 2080 Super - 2080Ti zit qua gpu performance (ook al kan je niet een 1 op 1 vergelijking doen met flops) met een 8c/16t Zen 2 CPU en maar 180Watt gebruikt gecombineerd. Dat geeft volgens mij een goede indicatie wat er mogelijk is met RDNA2 zolang AMD maar niet gigantisch buiten de sweet spot gaat zitten met de power curve.

Ik denk persoonlijk dat dit de eerste keer in jaren is dat AMD weer competitief gaat zijn ondanks dat Nvidia hoogstwaarschijnlijk de performance kroon neemt.

Voor een derde keer iets uitbrengen op een node kan voordelen geven omdat ze het process een stuk beter kennen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Paprika schreef op vrijdag 28 augustus 2020 @ 22:12:
@Sp3ci3s8472, behalve dan dat de 5700 al op 7nm zit, wat dus ook niet echt een vergelijking is in het voordeel van AMD. Sterker nog, dat nekt de 5700 die het slechter doet dan een RTX2080. Laat staan hoe slecht de 5700XT wel niet is wat betreft P/W.

[Afbeelding]
Dit is echter slechts de helft van het verhaal. Nvidia zit op 12FFN (wat in principe gewoon 16nm is; er is geen 14nm). Dat lekt volgens TSMC minder en is minstens 15% sneller op hetzelfde stroomverbruik (of verbruikt 35% minder bij dezelfde prestaties) dan het oorspronkelijke 16FF. De "N" staat overigens voor Nvidia en houdt in dat de dichtheid op 16FF niveau zit en niet op 12FF niveau ;)

AMD zit "slechts" op 7FF, wat 35% sneller zou zijn (of 65% zuiniger)... dan 16FF; ze zitten dus dichter bij elkaar dan de naamgeving doet vermoeden. Er zit natuurlijk wel een voordeel in voor AMD, maar ik geloof niet dat dat zo groot is als je denkt van. Het verschil tussen 12FF(N) en 7FF is ongeveer even groot als dat tussen 16FF en 12FF. Tussen Pascal en Turing zit er eigenlijk geen verschil qua efficiëntie dus als 7FF even "goed" uit pakt...

Let wel, dit is wat TSMC claimt, wat voor ons natuurlijk moeilijk controleren is. En wellicht is 12FFN minder zuinig dan het "gewone" 12FF. Maar wereldschokkend is het niet op papier.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

Inmiddels draait de productie van de 3090's op volle kracht:
Afbeeldingslocatie: https://tweakers.net/i/NL8AEj4qy5Evd-GuIJYyx4jsDCs=/full-fit-in/4000x4000/filters:no_upscale():fill(white):gifsicle():strip_exif()/f/image/xMx74mN6qPY7W8GotqK2eUWl.gif?f=user_large

Niet op voorraad.


  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 14:46

Racing_Reporter

Contentmaker

choogen schreef op vrijdag 28 augustus 2020 @ 17:06:
Als de geruchten van Videocardz kloppen dan wordt dit waarschijnlijk geen interessante generatie voor mij. Als ik e.e.a. extrapoleer vanuit de Videocardz tabel dan komt er in het hogere middensegment waarschijnlijk een RTX 3060 kaart uit met slechts 8 GB aan VRAM (maar wel met sneller geheugen dan van Pascal en Turing) en een TDP van 180-200W. Komend van een GTX1070Ti lijkt de prestatiewinst mij persoonlijk dan te laag gaan worden om een uitgave van circa $400 te rechtvaardigen.

Hopelijk komt AMD nog met iets beters op de proppen in het hogere middensegment. En anders misschien maar wachten op de Refresh (7nm+ ?) versie van Ampere die Nvidia over een jaar wel opnieuw onder het "Super" etiket zal uitbrengen...
Ook ik zit al te kijken. De stap van 2080 naar 3070 om maar eens wat te noemen, die zou al Ti-prestaties leveren voor 600 dollar. Nu krijg ik met een beetje geluk nog 500 voor deze versie (Zotac), maar ik zit echt te dubben of ik hem nu moet droppen en dan kijken wat er beschikbaar is.. Kleine kans lijkt me, aangezien voorraden traditiegetrouw beperkt zullen zijn rond de launch, zeker in Nederland?

Als je dit leest, heb je teveel tijd.


  • Korkss
  • Registratie: November 2016
  • Laatst online: 10:48
Wordt het dan nu tijd in mn maatje (1080ti) weg te doen en er een 3090 in te gooien?? Of komt er nog een 3090ti? ;-)

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Interessante cijfers over het marktaandeel van nVidia en AMD (geen flauw idee hoe betrouwbaar deze cijfers zijn):
NVIDIA Gains 80% Discrete GPU Market Share in Q2 2020, AMD Falls Down To 20%

Coming to the discrete graphics numbers, the overall AIB market increased by 6.55% from the previous quarter. NVIDIA gained some huge market share, climbing back to 80% versus 75% in the previous quarter. AMD didn't fare as well in the discrete graphics segment as its share fell to 20%. AMD's discrete GPU market share was 29% during Q2 2019 which means that AMD has lost 9% of its graphics foothold since last year.

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2020/08/NVIDIA-AMD-GPU-Market-Share_Q2-2020_2.png
https://wccftech.com/nvid...us-amd-radeon-in-q2-2020/


Opvallend dat AMD in een jaar tijd 9% marketshare verliest aan nVidia, ondanks de introductie van de RX videokaarten.


Over de komende Ampere generatie, ik denk persoonlijk dat we de volgende performance kunnen verwachten:

RTX 3070
5%-10% trager dan een RTX 2080ti, maar dus wel ongeveer op dat performance niveau

RTX 3080
20% sneller dan een RTX 2080ti

RTX 3090:
40% - 50% sneller dan een RTX 2080ti.
Met mogelijk uitschieters naar een nog groter verschil, in situaties waarbij het geheugen/de memory bandwidth een bottleneck vormen.

Big Navi verwacht ik op hetzelfde performance niveau als een RTX 3080, maar dan iets goedkoper.
Niet veel goedkoper, want ik denk dat AMD vrolijk mee gaat doen met de hogere prijzen. :O

Waar ik zelf eigenlijk meer benieuwd naar ben is de Raytracing performance van de nieuwe kaarten.
Als ik het me goed herinner zijn er geruchten geweest dat daarin echt grote stappen gezet gaan worden door nVidia.

Ik hoop dat heel die techniek wat bruikbaarder wordt qua performance en dat daardoor ook developers er meer mee gaan doen, want vind het toch wel een van de interessantste ontwikkeling op het gebied van 3D graphics van de afgelopen paar jaar.

Van AMD verwacht ik de komende generatie nog niet heel veel mbt raytracing. Het is immers hun eerste generatie videokaarten die er iets mee gaat doen. Ook de dingen die ik tot nu toe van de PS5 en nieuwe xbox heb gezien lijken daar op te wijzen. Maar wie weet, misschien tovert AMD wel iets moois uit hun hoge hoed :)

  • Simbob
  • Registratie: December 2009
  • Niet online
En de volgende; Gainward.

https://videocardz.com/ne...ix-leaked-specs-confirmed

Zelf wil ik alleen een witte RTX 3080.
Zotac had een mooie in hun lijn, alleen geen 3000 serie tot nu toe.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
@Simbob Met name de laatste foto. Maar 7nm is nu eigenlijk wel bevestigd lijkt me (als je Gainward mag geloven).

Afbeeldingslocatie: https://pbs.twimg.com/media/Egkr_gyWAAAyQ3X?format=jpg&name=small

[ Voor 25% gewijzigd door RobinNL op 29-08-2020 11:25 ]

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Simbob schreef op zaterdag 29 augustus 2020 @ 10:52:
En de volgende; Gainward.

https://videocardz.com/ne...ix-leaked-specs-confirmed

Zelf wil ik alleen een witte RTX 3080.
Zotac had een mooie in hun lijn, alleen geen 3000 serie tot nu toe.
Volgens die Gainward specs is het 7nm voor 3090 en 3080.......

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • thijsco19
  • Registratie: Mei 2011
  • Laatst online: 18:11

thijsco19

KTM 990 SMT

Simbob schreef op zaterdag 29 augustus 2020 @ 10:52:
En de volgende; Gainward.

https://videocardz.com/ne...ix-leaked-specs-confirmed

Zelf wil ik alleen een witte RTX 3080.
Zotac had een mooie in hun lijn, alleen geen 3000 serie tot nu toe.
Ze volgend het voorbeeld van nVidia hier wel. Het pcb is korter dan de koeler en de back plate heeft ventilatie gaten zodat de achterste ventilator er doorheen kan blazen.
Help!!!! schreef op zaterdag 29 augustus 2020 @ 11:24:
[...]

Volgens die Gainward specs is het 7nm voor 3090 en 3080.......
Is dus al de 2e keer dat er 7nm word gezegd.. Zou het dan toch?

The only thing you need; a jar of "Elbow Grease" (TM) ! Apply it liberally and it will make any job a breeze.


  • Grotbewoner
  • Registratie: Maart 2015
  • Laatst online: 19:01
Gaan jullie een maand wachten met kopen om te zien wat AMD te bieden heeft of gewoon meteen 1500 euro op tafel smijten?

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 19:07
Grotbewoner schreef op zaterdag 29 augustus 2020 @ 11:31:
Gaan jullie een maand wachten met kopen om te zien wat AMD te bieden heeft of gewoon meteen 1500 euro op tafel smijten?
Bij mij kriebelt het al een lange tijd, maar aangezien ik de afgelopen tijd al heb gewacht ga ik eerst op AMD wachten, om te kijken wat zij te bieden hebben. Daarnaast wacht ik eigenlijk ook op Zen 3 voor m'n build.

Ik vind het belangrijkste om game benchmarks te zien van beide videokaarten.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Yonix
  • Registratie: April 2004
  • Laatst online: 02-02 21:02
Grotbewoner schreef op zaterdag 29 augustus 2020 @ 11:31:
Gaan jullie een maand wachten met kopen om te zien wat AMD te bieden heeft of gewoon meteen 1500 euro op tafel smijten?
Ik ga meteen voor de RTX 3090. 8) Mijn RTX 2080 Ti staat al te koop.

Ik ben sowieso 'Team Green', maar heb in het verleden ook AMD-kaarten gehad. Echter, dat was keer-op-keer een teleurstelling en ik lees op internet dat het (de performance, user experience) nog steeds sterk wisselend is bij AMD (Catalyst / Adrenalin, anyone?).

  • Flying
  • Registratie: September 2003
  • Laatst online: 18:16
Yonix schreef op zaterdag 29 augustus 2020 @ 11:37:
Ik ben sowieso 'Team Green', maar heb in het verleden ook AMD-kaarten gehad. Echter, dat was keer-op-keer een teleurstelling en ik lees op internet dat het (de performance, user experience) nog steeds sterk wisselend is bij AMD (Catalyst / Adrenalin, anyone?).
Er wordt veel gepraat over de prijs van nVidia en het samenhangende "iedereen wacht op AMD, maar koopt dan toch nVidia", maar op vlak software treed ik je zeker bij. Van alle kaarten die ik heb gehad (o.a. AMD 4850x2; 6950; 970;1070;2070S en nog een hoop oudere nVidia kaarten) is het telkens de nVidia kaart waarbij de drivers gewoon doen wat ze moeten doen en bij AMD altijd gezeik. Ergens is er de zin om toch AMD te kopen, maar dat kan de teleurstelling groter maken.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Yonix schreef op zaterdag 29 augustus 2020 @ 11:37:
[...]


Ik ga meteen voor de RTX 3090. 8) Mijn RTX 2080 Ti staat al te koop.

Ik ben sowieso 'Team Green', maar heb in het verleden ook AMD-kaarten gehad. Echter, dat was keer-op-keer een teleurstelling en ik lees op internet dat het (de performance, user experience) nog steeds sterk wisselend is bij AMD (Catalyst / Adrenalin, anyone?).
Nvidia heeft gelukkig een fantastisch control panel inderdaad... :+

Dit is overigens wel bewijslast dat ze in 't basisonderwijs te veel betalen :p

[ Voor 8% gewijzigd door Paprika op 29-08-2020 11:49 ]


Verwijderd

Mijn laatste Radeon was een 9800 Pro, dat was het moment dat nVidia zijn stofzuiger FX-reeks uitbracht. Daarna had ik wel een GTX8800 en sindsdien altijd bij nVidia gebleven. De RX5700(XT) heeft nu een betere prijs/prestatie verhouding, maar ik vertrouw de drivers niet.

  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 02-02 09:29
Yonix schreef op zaterdag 29 augustus 2020 @ 11:37:
[...]


Ik ga meteen voor de RTX 3090. 8) Mijn RTX 2080 Ti staat al te koop.

Ik ben sowieso 'Team Green', maar heb in het verleden ook AMD-kaarten gehad. Echter, dat was keer-op-keer een teleurstelling en ik lees op internet dat het (de performance, user experience) nog steeds sterk wisselend is bij AMD (Catalyst / Adrenalin, anyone?).
Hoeveel denk je te krijgen voor die 2080ti? Ik ben benieuwd wat de prijzen gaan worden volgende week, gaat ook zeker heel veel invloed hebben op de tweedehands markt. Als de 3070 op 2080ti performance zit met betere RTX en voor een beduidend lagere prijs. Als... ;-)

  • Grotbewoner
  • Registratie: Maart 2015
  • Laatst online: 19:01
Yonix schreef op zaterdag 29 augustus 2020 @ 11:37:
[...]


Ik ga meteen voor de RTX 3090. 8) Mijn RTX 2080 Ti staat al te koop.

Ik ben sowieso 'Team Green', maar heb in het verleden ook AMD-kaarten gehad. Echter, dat was keer-op-keer een teleurstelling en ik lees op internet dat het (de performance, user experience) nog steeds sterk wisselend is bij AMD (Catalyst / Adrenalin, anyone?).
Denk je niet dat de prijs gedrukt wordt door een maandje wachten op de AMD release? En de 3090 is duurder dan een auto.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Grotbewoner schreef op zaterdag 29 augustus 2020 @ 12:12:
[...]


Denk je niet dat de prijs gedrukt wordt door een maandje wachten op de AMD release? En de 3090 is duurder dan een auto.
Zal de prijs kunnen dalen? Ja. Kan een 3090 duurder zijn dan een auto? Ja. Kun je een auto rijden waar je 1000 3090s voor kunt halen? Ja.
kwdtje schreef op zaterdag 29 augustus 2020 @ 12:11:
[...]


Hoeveel denk je te krijgen voor die 2080ti?
*SNIP*
Modbreak:Eigen V&A links horen niet in een nieuwsdiscussietopic

[ Voor 46% gewijzigd door dion_b op 30-08-2020 10:01 ]


  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 02-02 09:29
Had hem gevonden idd, zijn er echt mensen die er nu nog zoveel geld voor neer leggen was meer de insteek van mijn vraag ;-)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 28 augustus 2020 @ 23:29:
[...]

Dit is echter slechts de helft van het verhaal. Nvidia zit op 12FFN (wat in principe gewoon 16nm is; er is geen 14nm). Dat lekt volgens TSMC minder en is minstens 15% sneller op hetzelfde stroomverbruik (of verbruikt 35% minder bij dezelfde prestaties) dan het oorspronkelijke 16FF. De "N" staat overigens voor Nvidia en houdt in dat de dichtheid op 16FF niveau zit en niet op 12FF niveau ;)

AMD zit "slechts" op 7FF, wat 35% sneller zou zijn (of 65% zuiniger)... dan 16FF; ze zitten dus dichter bij elkaar dan de naamgeving doet vermoeden. Er zit natuurlijk wel een voordeel in voor AMD, maar ik geloof niet dat dat zo groot is als je denkt van. Het verschil tussen 12FF(N) en 7FF is ongeveer even groot als dat tussen 16FF en 12FF. Tussen Pascal en Turing zit er eigenlijk geen verschil qua efficiëntie dus als 7FF even "goed" uit pakt...

Let wel, dit is wat TSMC claimt, wat voor ons natuurlijk moeilijk controleren is. En wellicht is 12FFN minder zuinig dan het "gewone" 12FF. Maar wereldschokkend is het niet op papier.
Ik denk dat er nog wel meer aan te stippen is.
12FFN is uiteindelijk een speciale high performance versie van 16FF. Het is een zeer volwassen proces wat zich vertaald in die theoretische extra snelheid. Het is ook de tweede generatie die Nvidia maakt op een verbeterd 16FF proces waar ze waarschijnlijk extra efficiëntie in konden vinden. Het probleem is dat we werkelijk geen flauw idee hebben waar die maximale efficiëntie of snelheidswinsten op gebaseerd zijn. Ook vertalen ze helemaal niet een op een naar de chips. Immers zijn Turing en Pascal niet dezelfde architectuur.

7FF is dan weer de eerste 7nm node. Zoals gebruikelijk ontworpen voor Apple als launch customer en daarna beschikbaar voor andere klanten. Die zijn gericht op low power SoC's wat in de regel processen zijn met hogere dichtheid wat minder efficiënt is voor hoog vermogen en clock speeds. Je gaat daar waarschijnlijk te maken krijgen met extra lekstroom waardoor je vermogen niet efficiënt meer omgezet word in hogere clock speeds. Dat zie je met de RX5700XT gebeuren. De laatste 100MHz a 200MHz kosten al snel 30W+.

Inmiddels is er alleen ook een high power node bij TSMC, N7P. GA100 gebruikt die vrijwel zeker, Navi 2x vermoed ik ook en mocht GA102 toch TSMC 7nm zijn, dan is het denk ik deze node en niet 7FF+ (EUV). Het belangrijkste is dat TSMC 50mv minder claimt voor een gegeven clock speed. Verder is de de curve minder scherp.
Afbeeldingslocatie: https://en.wikichip.org/w/images/a/a7/vlsi-2019-n7p-2nd-gen-perf.png


Wederom, theoretisch is niet maximaal. Architectuur gaat denk ik een relatief grote rol spelen deze generatie, voor beide kampen. Nvidia moet iets met RT doen en heeft een chipformaat probleem. TU102 was immers enorm en of het nu Samsung 8nm, Samsung 7nm of TSMC 7nm is. Met DUV heb je op een gegeven moment te veel stappen om een chip economische te produceren. De geruchten zijn dat GA102 rond de 630mm2 zou zitten, kleiner dus dan TU102. Is het Samsung EUV dan heb je minder problemen met masks, maar EUV is wel relatief langzaam. Meest problematische is misschien dat die node niet bewezen is als daadwerkelijk functioneel.

Maar het begint wel een raadsel te worden wat GA102 nu werkelijk is. Het zou natuurlijk ook echt 7nm kunnen zijn, maar dat zegt nog steeds niks over Samsung vs. TSMC. Ik vind 350W+ alleen wel heel erg veel voor wat een 5.248/82SM chip lijkt te zijn voor TSMC met niet eens 1700MHz boostclock. Zelfs als er waarschijnlijk nog effectief 200MHz erbij komt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Grotbewoner schreef op zaterdag 29 augustus 2020 @ 11:31:
Gaan jullie een maand wachten met kopen om te zien wat AMD te bieden heeft of gewoon meteen 1500 euro op tafel smijten?
Sowieso; volgens die Moore's Law dude zal Ampère pas in oktober verkrijgbaar zijn.

March of the Eagles


  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
XWB schreef op zaterdag 29 augustus 2020 @ 12:43:
[...]


Sowieso; volgens die Moore's Law dude zal Ampère pas in oktober verkrijgbaar zijn.
denk t niet, zal 9 sept of 17 sept zijn

btw
https://videocardz.com/ne...ix-leaked-specs-confirmed

https://videocardz.com/ne...rtx-3090-trinity-pictured

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Werelds schreef op vrijdag 28 augustus 2020 @ 23:29:
[...]

Dit is echter slechts de helft van het verhaal. Nvidia zit op 12FFN (wat in principe gewoon 16nm is; er is geen 14nm). Dat lekt volgens TSMC minder en is minstens 15% sneller op hetzelfde stroomverbruik (of verbruikt 35% minder bij dezelfde prestaties) dan het oorspronkelijke 16FF. De "N" staat overigens voor Nvidia en houdt in dat de dichtheid op 16FF niveau zit en niet op 12FF niveau ;)

AMD zit "slechts" op 7FF, wat 35% sneller zou zijn (of 65% zuiniger)... dan 16FF; ze zitten dus dichter bij elkaar dan de naamgeving doet vermoeden. Er zit natuurlijk wel een voordeel in voor AMD, maar ik geloof niet dat dat zo groot is als je denkt van. Het verschil tussen 12FF(N) en 7FF is ongeveer even groot als dat tussen 16FF en 12FF. Tussen Pascal en Turing zit er eigenlijk geen verschil qua efficiëntie dus als 7FF even "goed" uit pakt...

Let wel, dit is wat TSMC claimt, wat voor ons natuurlijk moeilijk controleren is. En wellicht is 12FFN minder zuinig dan het "gewone" 12FF. Maar wereldschokkend is het niet op papier.
Ik neem aan dat het verschil tussen TSMC 7nm en Samsung 8nm dan bijna verwaarloosbaar is.

March of the Eagles


  • computerjunky
  • Registratie: Maart 2004
  • Nu online
kwdtje schreef op zaterdag 29 augustus 2020 @ 12:11:
[...]


Hoeveel denk je te krijgen voor die 2080ti? Ik ben benieuwd wat de prijzen gaan worden volgende week, gaat ook zeker heel veel invloed hebben op de tweedehands markt. Als de 3070 op 2080ti performance zit met betere RTX en voor een beduidend lagere prijs. Als... ;-)
De prijs van een oude kaart hangt natuurlijk volledig af van de prestaties van de nieuwe en de ray trtace prestaties van de nieuwe. Als de ray trace prestaties 2x zo goed is dan is de ray trace functie van de 2xxx meteen geen verkoop punt meer en maakt dat ze toch wel significant minder waard.
Zelfs als ze 2080TI even snel zou zijn als een 3080 maar met bijvoorbeeld 50% minder ray trace prestaties dan zou ik bij een 800 euro kostende 3080 misschien 550 euro voor een 2dehands 2080TI uitgeven ondanks dat die sneller is dan een 3070 voor 550/600.
Oudere kaarten gaan slecht met de tijd mee. Mijn 1070 was bij de release van de 2060 even snel maar is nu in games tot wel 40% trager. er word gewoon niet meer voor geoptimaliseerd als er een nieuwe serie is en dat maakt het voor mij fors minder waard.

Maar als ik een 2080TI met nog wat maandjes garantie op de kop kan tikken voor rond de 500 moet ik daar toch serieus over na gaan denken.


Ach ja vooralsnog is het allemaal niets dan speculaties. Er is niets zeker tot het in de winkel ligt.

[ Voor 8% gewijzigd door computerjunky op 29-08-2020 14:09 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
computerjunky schreef op zaterdag 29 augustus 2020 @ 14:05:
[...]
Mijn 1070 was bij de release van de 2060 even snel maar is nu in games tot wel 40% trager.
Januari 2019
Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-2060-founders-edition/images/relative-performance_2560-1440.png

Augustus 2020
Afbeeldingslocatie: https://tpucdn.com/review/asus-radeon-rx-5600-xt-tuf-evo/images/relative-performance_2560-1440.png

Bij release was een RTX 2060 17.65% sneller en nu 21%. Zoveel scheelt het nou ook weer niet. De RTX 2060 loopt wat uit in DX12, maar dat is ook niet gek, want daar was Pascal gewoon niet zo sterk in. Er zijn nu gewoon wat meer DX12 games dan in het verleden.

Afbeeldingslocatie: https://preview.redd.it/jzsbhpjj5xj51.png?width=960&crop=smart&auto=webp&s=5bfeb96b00781206f5111c4310985d84068353ce

[ Voor 7% gewijzigd door Paprika op 29-08-2020 14:20 ]


  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
computerjunky schreef op zaterdag 29 augustus 2020 @ 14:05:
[...]


Maar als ik een 2080TI met nog wat maandjes garantie op de kop kan tikken voor rond de 500 moet ik daar toch serieus over na gaan denken.
forget it

  • computerjunky
  • Registratie: Maart 2004
  • Nu online
Paprika schreef op zaterdag 29 augustus 2020 @ 14:12:
[...]

Januari 2019
[Afbeelding]

Augustus 2020
[Afbeelding]

Bij release was een RTX 2060 17.65% sneller en nu 21%. Zoveel scheelt het nou ook weer niet. De RTX 2060 loopt wat uit in DX12, maar dat is ook niet gek, want daar was Pascal gewoon niet zo sterk in. Er zijn nu gewoon wat meer DX12 games dan in het verleden.

[Afbeelding]
Dat zijn gemiddelden over veel games en dus ook oude games waar het probleem niet speelt. Niet worst case (tot 40%).

Daarnaast is dat 1440p en dat is wat mij betreft geen relevante resolutie. 1080p is nog altijd de norm zeker met deze gpu want die haalt 60 fps 1080p al niet eens meer in nieuwe games.

Het is wat mij betreft gewoon een risico om oudere kaarten te kopen als er wat nieuws om de hoek is of al beschikbaar is. De prijs moet dus wel heel aantrekkelijk zijn om het te overwegen.
Ik hou er geen rekening mee, Ik koop toch al bijna niets 2dehands (fool me once...) maar ik geef alleen aan wanneer het product interressant zal zijn. voor meer kan je gewoon beter een nieuwere kaart kopen zelfs als hij iets trager is. Garantie+ betere toekomst prestaties is mij dat wel waard.
Al zou ik maar wat graag een kaartje hebben en eindelijk over stappen naar 1440p.
Puur omdat ik nog op 24 inch 1080p zit en ik graag een groter scherm wil en dus ook een hogere resolutie wil.
Want 1080p boven de 24 inch is gewoon onacceptabel wat mij betreft.
Met 1440p kan ik dus overstappen naar 32 inch met dezelfde dot-pitch.

[ Voor 22% gewijzigd door computerjunky op 29-08-2020 14:34 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

computerjunky schreef op zaterdag 29 augustus 2020 @ 14:05:
[...]


De prijs van een oude kaart hangt natuurlijk volledig af van de prestaties van de nieuwe en de ray trtace prestaties van de nieuwe. Als de ray trace prestaties 2x zo goed is dan is de ray trace functie van de 2xxx meteen geen verkoop punt meer en maakt dat ze toch wel significant minder waard.
Zelfs als ze 2080TI even snel zou zijn als een 3080 maar met bijvoorbeeld 50% minder ray trace prestaties dan zou ik bij een 800 euro kostende 3080 misschien 550 euro voor een 2dehands 2080TI uitgeven ondanks dat die sneller is dan een 3070 voor 550/600.
Oudere kaarten gaan slecht met de tijd mee. Mijn 1070 was bij de release van de 2060 even snel maar is nu in games tot wel 40% trager. er word gewoon niet meer voor geoptimaliseerd als er een nieuwe serie is en dat maakt het voor mij fors minder waard.

Maar als ik een 2080TI met nog wat maandjes garantie op de kop kan tikken voor rond de 500 moet ik daar toch serieus over na gaan denken.


Ach ja vooralsnog is het allemaal niets dan speculaties. Er is niets zeker tot het in de winkel ligt.
Het zou mij verbazen als RT de komende twee jaar al een echt grote rol gaat spelen in games, laat staan dat een 3080/3090 ampere kaart (ondanks ongetwijfeld sterk verbeterde RT prestaties) daar echt veel voor gebruikt gaat worden.

Als je zo'n kaart hebt, heb je denk ik ook al snel een 1440p (widescreen). Als je dan de keus moet maken tussen RT aan en flinke framedrop of gewoon geen RT en prima frames dan weet ik wel waar ik in veel games voor zal kiezen.

Ik verwacht dat RT de komende jaren vooral marketing blijft en veel kostbare silicon opvreet :'( .

Of in het kort: traditionele rendering blijft King en RT vooral nice to have. :)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op zaterdag 29 augustus 2020 @ 14:12:
[...]

Januari 2019
[Afbeelding]

Augustus 2020
[Afbeelding]

Bij release was een RTX 2060 17.65% sneller en nu 21%. Zoveel scheelt het nou ook weer niet. De RTX 2060 loopt wat uit in DX12, maar dat is ook niet gek, want daar was Pascal gewoon niet zo sterk in. Er zijn nu gewoon wat meer DX12 games dan in het verleden.

[Afbeelding]
Wat is de samenhang van laatste plaatje met de rest :? :)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Help!!!! schreef op zaterdag 29 augustus 2020 @ 14:53:
[...]

Wat is de samenhang van laatste plaatje met de rest :? :)
Niets, maar afmetingen zijn altijd welkom lijkt mij.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op zaterdag 29 augustus 2020 @ 14:53:
[...]

Niets, maar afmetingen zijn altijd welkom lijkt mij.
Zeker, zonder tekst leek het voor mij net alsof je te snel op 'verstuur' gedrukt had. :P

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op zaterdag 29 augustus 2020 @ 13:18:
[...]


Ik neem aan dat het verschil tussen TSMC 7nm en Samsung 8nm dan bijna verwaarloosbaar is.
Qua dichtheid zit het op elkaar, maar zeer waarschijnlijk niet qua voltagecurve of efficiëntie. Daar zou TSMC heel wat beter zijn.
Paprika schreef op zaterdag 29 augustus 2020 @ 14:12:
Bij release was een RTX 2060 17.65% sneller en nu 21%. Zoveel scheelt het nou ook weer niet. De RTX 2060 loopt wat uit in DX12, maar dat is ook niet gek, want daar was Pascal gewoon niet zo sterk in. Er zijn nu gewoon wat meer DX12 games dan in het verleden.
Ik denk eigenlijk dat het vrij weinig met DX12 of Vulkan te maken heeft en alles met Turing haar INT cores. Pascal was immers ronduit zwak in compute en dat was waarschijnlijk ook waarom GCN beduidend beter was in games zoals Battlefield 5 en dat voordeel meteen weg was met Turing.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XWB schreef op zaterdag 29 augustus 2020 @ 13:18:
[...]


Ik neem aan dat het verschil tussen TSMC 7nm en Samsung 8nm dan bijna verwaarloosbaar is.
Volgens mij was Samsung 8nm niet meer dan een verbeterde Samsung 10nm. Dus er zit wel degelijk een verschil.
Bron:
https://fuse.wikichip.org...nm-8lpp-a-10nm-extension/

[ Voor 13% gewijzigd door Sp3ci3s8472 op 29-08-2020 15:56 . Reden: bron ]


  • Yonix
  • Registratie: April 2004
  • Laatst online: 02-02 21:02
Zo, mijn RTX 2080 Ti is verkocht (€ 825). My body is ready! Laat die RTX 3090 maar komen. (y) 8)

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Yonix schreef op zaterdag 29 augustus 2020 @ 19:33:
Zo, mijn RTX 2080 Ti is verkocht (€ 825). My body is ready! Laat die RTX 3090 maar komen. (y) 8)
Hier ook. RTX 2080Ti verkocht aan mijn buurman voor 950 euro. RTX 3090 moet maar snel komen.
Wil het liefst van Asus of MSI.

-- My Gaming Rig Power -- -- <SG> Diabolic --


  • Dennism
  • Registratie: September 1999
  • Laatst online: 18:54
Ik blijf het verrassend vinden dat mensen nog zoveel betalen voor een 2080ti terwijl er mogelijk voor een stuk minder binnenkort gelijkwaardige prestaties gekocht kunnen worden.

Ben trouwens wel benieuwd wanneer er normale beschikbaarheid gaat zijn, ik acht de kans nog best aanwezig dat dit nog even duurt.

[ Voor 29% gewijzigd door Dennism op 29-08-2020 23:41 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
Haha, je zou je buurman maar aan moeten kunnen kijken wetende dat je hem zo hard hebt afgezet :+.

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 02-02 10:49
Wauw. hebben jullie er ook bij verteld dat ze over 4 weken voor 600 euro evenveel performance gaan krijgen?

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Visgek82 schreef op zaterdag 29 augustus 2020 @ 19:44:
Wauw. hebben jullie er ook bij verteld dat ze over 4 weken voor 600 euro evenveel performance gaan krijgen?
De buurman had er nu 1 nodig en wilde al heel lang dezelfde videokaart hebben die ik had.
Ik had hem voor 1350 euro toen gekocht. Ach, handje contantje en hij is blij en ik nog meer :+

-- My Gaming Rig Power -- -- <SG> Diabolic --


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Visgek82 schreef op zaterdag 29 augustus 2020 @ 19:44:
Wauw. hebben jullie er ook bij verteld dat ze over 4 weken voor 600 euro evenveel performance gaan krijgen?
Wat een illusie om te denken dat je straks een RTX 3080 voor 600 euro kan kopen :+

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Visgek82 schreef op zaterdag 29 augustus 2020 @ 19:44:
Wauw. hebben jullie er ook bij verteld dat ze over 4 weken voor 600 euro evenveel performance gaan krijgen?
Dat denk ik niet helemaal. Ik moet namelijk nog maar zien of de RTX3070 in de buurt van de RTX2080Ti gaat komen. De RTX3080 gaat waarschijnlijk wel iets sneller zijn. Als die rond de €800 gaat komen, tja dan zal een tweedehands RTX2080Ti wel naar de €600 moeten. Ga je dus niet evenveel prestaties krijgen, maar gewoon een RTX2080Ti. ;)
Dennism schreef op zaterdag 29 augustus 2020 @ 19:43:
Ik het verrassen vinden dat mensen nog zoveel betalen voor een 2080ti terwijl er mogelijk voor een stuk minder binnenkort gelijkwaardige prestaties gekocht kunnen worden.

Ben trouwens wel benieuwd wanneer er normale beschikbaarheid gaat zijn, ik acht de kans nog best aanwezig dat dit nog even duurt.
Nvidia gaat een onthulling houden. Reken maar op heel wat marketing, misleidende verbeteringsgrafieken waar ik vermoed dat Nvidia heel veel 4K zal laten zien omdat met zulke verbeteringen in geheugenbandbreedte, daar de grootste winst zal zitten. Dan volgt er nog wat "the more you buy, the more you save" of "just buy it", we krijgen de veel te hoge prijzen en er opent een pre order. Kijken of ik dinsdag de bingokaart vol krijg. :z

[ Voor 42% gewijzigd door DaniëlWW2 op 29-08-2020 20:42 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:52
DaniëlWW2 schreef op zaterdag 29 augustus 2020 @ 20:39:
Reken maar op heel wat marketing, misleidende verbeteringsgrafieken
Klinkt als standaard marketing voor deze industrie.
DaniëlWW2 schreef op zaterdag 29 augustus 2020 @ 20:39:
waar ik vermoed dat Nvidia heel veel 4K zal laten zien
Hopelijk wel. Waar zou je anders zo'n kaart voor kopen, zeker gezien zelfs de nieuwe consoles regelmatig 4K zullen ondersteunen.
Pagina: 1 ... 73 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.