• computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Paprika schreef op zondag 13 september 2020 @ 10:50:
Overclocking NVIDIA GeForce RTX 3080 memory to 20 Gbps is easy

https://videocardz.com/ne...memory-to-20-gbps-is-easy

Staan verder nog wat benchmarks bij die alleen maar wijzen op een heel hoog verbruik en dus slechtere p/w dan Turing. ;) Door een kleine memory overclock blijft de total board power gelijk, maar de GPU zelf verbruikt minder dus hij loopt continue tegen de power limit van 320W aan te duwen.

[Afbeelding]

Ik ben benieuwd of er een nieuwe NVFlash gaat volgen die aan te passen is zodat cross-flashes weer gaan werken, want veel mensen zullen wel gewoon een power limit van 600W willen.
Hmm benieuwd wat er gebeurd als je de power limiet naar 109% gooit. Lijkt me dat het ergens niet lekker is als je constant op zoek ben naar meer power omdat je tegen de limiet aan loopt. Misschien dat een hogere power limiet beter 1% lows geeft of iets dergelijks.

  • SpX
  • Registratie: Februari 2006
  • Laatst online: 31-12-2025

SpX

Paprika schreef op zondag 13 september 2020 @ 10:50:
Overclocking NVIDIA GeForce RTX 3080 memory to 20 Gbps is easy

https://videocardz.com/ne...memory-to-20-gbps-is-easy

Staan verder nog wat benchmarks bij die alleen maar wijzen op een heel hoog verbruik en dus slechtere p/w dan Turing. ;) Door een kleine memory overclock blijft de total board power gelijk, maar de GPU zelf verbruikt minder dus hij loopt continue tegen de power limit van 320W aan te duwen.

[Afbeelding]

Ik ben benieuwd of er een nieuwe NVFlash gaat volgen die aan te passen is zodat cross-flashes weer gaan werken, want veel mensen zullen wel gewoon een power limit van 600W willen.
Ik verwacht dat Ampere ook een vast maximum voltage gaat hebben. Voor turing is dit 1.093 volt voor 99% van de 2080ti kaarten. Het verhogen van de power limit heeft uit ervaring weinig impact.

Lagere temperaturen zullen wederom de meeste impact hebben op een hoge stabiele core boost clock.

Mijn verwachting is dat de FE deze keer de beste kaart gaat zijn: een hoge power limit én een goede koeler

  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
SpX schreef op zondag 13 september 2020 @ 11:30:
[...]

Mijn verwachting is dat de FE deze keer de beste kaart gaat zijn: een hoge power limit én een goede koeler
De 3090 lijkt zo op de eerste data een stuk beter te koelen dan de 3080, ondanks het hogere TDP. Verder verwacht ik fors hogere power limits bij enkele AIB opties. Het interessante aan power limits is dat mensen straks weer volledig in percentages gaan rekenen, waardoor een kaart met zeg een standaard limiet van 350W en de optie deze met 15% te verhogen naar 400W als "minder" wordt gezien dan een andere kaart die standaard een limiet heeft van 320W met een maximale verhoging van 20%. Hiermee zit je effectief op 384W, maar 15% < 20% 8)7. Helaas weten maar weinig mensen hoe het allemaal echt werkt en de rest roept maar gewoon iets en dat laatste betreft dus de meerderheid.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Paprika schreef op zondag 13 september 2020 @ 11:50:
[...]

De 3090 lijkt zo op de eerste data een stuk beter te koelen dan de 3080, ondanks het hogere TDP. Verder verwacht ik fors hogere power limits bij enkele AIB opties. Het interessante aan power limits is dat mensen straks weer volledig in percentages gaan rekenen, waardoor een kaart met zeg een standaard limiet van 350W en de optie deze met 15% te verhogen naar 400W als "minder" wordt gezien dan een andere kaart die standaard een limiet heeft van 320W met een maximale verhoging van 20%. Hiermee zit je effectief op 384W, maar 15% < 20% 8)7. Helaas weten maar weinig mensen hoe het allemaal echt werkt en de rest roept maar gewoon iets en dat laatste betreft dus de meerderheid.
Prestatie per watt is toch wel belangrijk want dat speelt uiteindelijk gewoon mee in de totaal prijs van de kaart.

Ik zit net toevallig even de GA-100 vs de 3080 te vergelijken op specs.

GA-100:

- 65,5 Miljard transistoren
- 826 mm²
- 400 Watt

RTX 3080

- 28 Miljard transistoren
- 628 mm²
- 320 Watt

De GA-100 heeft dus :

134% meer transistoren
31% minder ruimte
25% meer wattage

Dit geeft wel duidelijk aan hoe veel beter het tsmc procede is qua dichtheid. Ik hoop echt dat er een refresh komt van de 30xx serie op TSMC want die samsung node is echt vrij slecht als ik het zo zie.
Tenzij er technische redenen waren om het niet op TSMC 7nm te produceren zoals bijvoorbeeld een te lage frequency maar dat geloof ik niet echt.

Daarnaast heeft de GA-100 ook nog eens 50 ipv 5 mb cache en meer cache per SM. Niet direct relevant voor prestaties bij gaming maar om even aan te geven dat ook dit nog ruimte kost.
Puntje bij paaltje zou een gaming kaart op 7nm echt veel beter zijn en ook nog eens zuiniger en ook nog eens een hogere yield per waffer halen doordat chips minder groot hoeven te zijn.


Ach ja Nvidia heeft dus in ieder geval nog makkelijk ruimte om door te groeien met dit design en node shrinks uit te voeren voor nog betere prestaties. Laten we hopen dat AMD ze snel in een nieuwe super versie pushed. Al is dat wat zuur voor de mensen die gepreordered hebben maarja eigen schuld dikke bult dan maar :)

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

computerjunky schreef op zondag 13 september 2020 @ 13:25:
[...]


Prestatie per watt is toch wel belangrijk want dat speelt uiteindelijk gewoon mee in de totaal prijs van de kaart.

Ik zit net toevallig even de GA-100 vs de 3080 te vergelijken op specs.

GA-100:

- 65,5 Miljard transistoren
- 826 mm²
- 400 Watt

RTX 3080

- 28 Miljard transistoren
- 628 mm²
- 320 Watt

De GA-100 heeft dus :

134% meer transistoren
31% minder ruimte
25% meer wattage

Dit geeft wel duidelijk aan hoe veel beter het tsmc procede is qua dichtheid. Ik hoop echt dat er een refresh komt van de 30xx serie op TSMC want die samsung node is echt vrij slecht als ik het zo zie.
Tenzij er technische redenen waren om het niet op TSMC 7nm te produceren zoals bijvoorbeeld een te lage frequency maar dat geloof ik niet echt.

Daarnaast heeft de GA-100 ook nog eens 50 ipv 5 mb cache en meer cache per SM. Niet direct relevant voor prestaties bij gaming maar om even aan te geven dat ook dit nog ruimte kost.
Puntje bij paaltje zou een gaming kaart op 7nm echt veel beter zijn en ook nog eens zuiniger en ook nog eens een hogere yield per waffer halen doordat chips minder groot hoeven te zijn.


Ach ja Nvidia heeft dus in ieder geval nog makkelijk ruimte om door te groeien met dit design en node shrinks uit te voeren voor nog betere prestaties. Laten we hopen dat AMD ze snel in een nieuwe super versie pushed. Al is dat wat zuur voor de mensen die gepreordered hebben maarja eigen schuld dikke bult dan maar :)
Pls correct me if wrong, maar ben je nu niet appels met peren aan het vergelijken? Een niche product met dito prijskaart tegen een massa product afzetten kan, maar dan moet je de prijs in de vergelijking ook meenemen. En nou juist die laat je achterwege.

iR Profiel


  • Sissors
  • Registratie: Mei 2005
  • Niet online
computerjunky schreef op zondag 13 september 2020 @ 13:25:
[...]
Daarnaast heeft de GA-100 ook nog eens 50 ipv 5 mb cache en meer cache per SM. Niet direct relevant voor prestaties bij gaming maar om even aan te geven dat ook dit nog ruimte kost.
Puntje bij paaltje zou een gaming kaart op 7nm echt veel beter zijn en ook nog eens zuiniger en ook nog eens een hogere yield per waffer halen doordat chips minder groot hoeven te zijn.
En waarschijnlijk een significant duurdere chip oplevert omdat Samsung simpelweg goedkoper is. Net als dat zelfs als je een Nvidia kaart wil kopen het goed is dat er concurrentie is vanuit AMD, is het ook goed dat iemand TSMC laat zien dat ze niet de enige zijn die chips kunnen produceren.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
onsgeluk schreef op zondag 13 september 2020 @ 13:33:
[...]

Pls correct me if wrong, maar ben je nu niet appels met peren aan het vergelijken? Een niche product met dito prijskaart tegen een massa product afzetten kan, maar dan moet je de prijs in de vergelijking ook meenemen. En nou juist die laat je achterwege.
Ja de producten vershillen maar een groot deel van de producten hebben hetzelfde design. Het aantal transistoren en de mm2 hebben dus wel degelijk een waarde.
Er zit wel verschil in want zo heeft de GA-100 geen RT cores maar wel weet meer SFU's maar zelf alle verschillen bij elkaar verklaren in de verste verte geen 134% in transistor density.
In de basis gebruiken ze een zelfde SM model met iets andere verhoudingen.
Dus nee je kan het niet 1 op 1 vergelijken maar de verschillen zijn dermate groot dat je toch wel vast kan stellen dat er behoorlijk wat te winnen is met een TSMC node.
Sissors schreef op zondag 13 september 2020 @ 13:35:
[...]

En waarschijnlijk een significant duurdere chip oplevert omdat Samsung simpelweg goedkoper is. Net als dat zelfs als je een Nvidia kaart wil kopen het goed is dat er concurrentie is vanuit AMD, is het ook goed dat iemand TSMC laat zien dat ze niet de enige zijn die chips kunnen produceren.
Ja samsung zal goedkoper zijn maar meer beter yields per waffer en meer chips per wafer is ook best wat waard.
Daarnaast kan je een zuinigere chip verder pushen vanuit de fabriek en daardoor een nog kleinere chip maken met dezelfde power draw en prestaties en dus nog meer uit je investering in een beter procede halen.
En ja concurrentie voor TSMC zou goed zijn. Maar samsung is gewoon een slechter product. En TSMC verkoopt nog steeds al zijn capaciteit manden vooruit dus het zal ze werkelijk een worst wezen wie het gebruikt. als er een gat zou zijn zou intel daar bijvoorbeeld ook wel mee vandoor willen gaan. We kunnen dus alleen maar hopen dat de geld injectie ze beter maakt maar samsung heeft geld zat dus daar geloof ik niet in.
Misschien dat ze wat informatie uit de samenwerking met Nvidia halen maar daar houd het dan ook wel op.

[ Voor 12% gewijzigd door computerjunky op 13-09-2020 13:44 ]


  • lapino
  • Registratie: Juni 2002
  • Laatst online: 02-02 10:48
Dit telt helaas niet als nieuws. :p

[ Voor 69% gewijzigd door Blaat op 13-09-2020 17:42 ]


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Nog een vraag: Werkt een kaart met 3x8pin als ik enkel 2x8 pin aansluit? Voor het geval dat.

Met 1440p 60hz vraag ik waarschijnlijk geen 375W, dus dan heb ik nog een dag om eventueel een sleeved 8 pin kabel te kopen.

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Nop, je moet ze allemaal aansluiten.

En de vraag is of het echt zinvol is een OC'd kaart te kopen met hoger power limit als je voeding dat niet aan kan.

  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Sissors schreef op zondag 13 september 2020 @ 19:24:
Nop, je moet ze allemaal aansluiten.

En de vraag is of het echt zinvol is een OC'd kaart te kopen met hoger power limit als je voeding dat niet aan kan.
Mijn voeding kan het wel aan. Maar als bijvoorbeeld de MSI 3080 Gaming X Trio lekker stil is, en mooie RGB heeft, dan neem ik 'm, ongeacht het aantal aansluitingen.

Ik hou puur een slag om de arm als de best presterende kaart (in termen van temperatuur en db) toevallig 3x8pin heeft.

[ Voor 12% gewijzigd door Sander64 op 13-09-2020 19:34 ]

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • lapino
  • Registratie: Juni 2002
  • Laatst online: 02-02 10:48
Zie net dat de Asus ook 3x8 nodig heeft, en uiteraard recent sleeved cables gekocht en heb maar 2x8 liggen. pff.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-02 09:59

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Modbreak:Heren, blijf ontopic aub. Discussie en vragen mbt voedingen horen absoluut niet in een "Nieuwsdiscussie topic". Zie de grote rode topicwarning bij het quickreply vak.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Wat betreft de geheugengrootte van de 3080: In hoeverre staat de hoeveelheid geheugen in verhouding tot de snelheid van het geheugen? En waar dient het één en het andere voor?

En waarom is er gekozen voor 10GB i.p.v. 11GB van de 2080ti? (ondanks het feit dat het een ander type geheugen is).

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Sander64 schreef op zondag 13 september 2020 @ 21:45:
En waarom is er gekozen voor 10GB i.p.v. 11GB van de 2080ti? (ondanks het feit dat het een ander type geheugen is).
https://www.techpowerup.c...-to-memory-amount.170588/

De 3080 heeft een 320-bit bus en de 2080 Ti 352-bit.

320 / 32 = 10, 352 / 32 = 11.

[ Voor 3% gewijzigd door Paprika op 13-09-2020 23:12 ]


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Paprika schreef op zondag 13 september 2020 @ 23:11:
[...]

https://www.techpowerup.c...-to-memory-amount.170588/

De 3080 heeft een 320-bit bus en de 2080 Ti 352-bit.

320 / 32 = 10, 352 / 32 = 11.
Meer in de zin van: Waarom is er gekozen voor minder geheugen.

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Sander64 schreef op zondag 13 september 2020 @ 23:39:
[...]


Meer in de zin van: Waarom is er gekozen voor minder geheugen.
Omdat een grote bus en meer geheugen ook meer geld kost.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Sander64 schreef op zondag 13 september 2020 @ 23:39:
[...]


Meer in de zin van: Waarom is er gekozen voor minder geheugen.
Het is ook een lager gepositioneerde kaart, de 3080 is de opvolger van de 2080(s), de 3090 is de opvolger van de 2080ti.

  • spone
  • Registratie: Mei 2002
  • Niet online
De 3090 is de opvolger van de Titan RTX, niet van de 2080Ti.

Desktop: i5-14600K, 32GB DDR5-6000, RTX 5070 Ti; Laptop: MacBook Pro M1 Pro 14" 16/512; Server: R9-7950X, 192GB DDR5-5600


  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 01-02 20:43
spone schreef op maandag 14 september 2020 @ 00:36:
De 3090 is de opvolger van de Titan RTX, niet van de 2080Ti.
Huh dat bepaal jij niet,dat doet Nvidia wel na het zien waar AMD mee komt. :+

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
nog te twijfelen tussen een 3080 en een 3090: speel op een res van 3440 x 1440 (monitor 120hz) en cpu is i9 10900K.

als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?

[ Voor 10% gewijzigd door hully op 14-09-2020 06:51 ]


  • Ballondier
  • Registratie: April 2018
  • Laatst online: 25-01 13:35
hully schreef op maandag 14 september 2020 @ 06:50:
nog te twijfelen tussen een 3080 en een 3090: speel op een res van 3440 x 1440 (monitor 120hz) en cpu is i9 10900K.

als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?
Dat hangt van je eisen af. Als je alles op ultra wil spelen met rtx op max, dan verwacht ik dat er nog genoeg AAA games zijn waar je zelfs met een 3090 niet de hele tijd 120 fps haalt op 3440x1440.

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 07:09
hully schreef op maandag 14 september 2020 @ 06:50:
nog te twijfelen tussen een 3080 en een 3090: speel op een res van 3440 x 1440 (monitor 120hz) en cpu is i9 10900K.

als ik kijk wat er aan games uitkomt de komende jaren, dan zal een 3080 toch ruim moeten volstaan voor de komende 3 jaren en is een 3090 mss wel overkill?
Het is dacht ik goedkoper om een 3080 te kopen, en volgend maar de opvolger te kopen... Dan een 3090 nu.

En de opvolger van de 3080 zou wel eens sneller als de 3090 kunnen zijn.... En als je een jaartje langer wacht is de 5080 sowieso een stuk sneller.

Een 3090 is leuk voor AI, 3D rendering, dat soort spul. De snelheid is marginaal hoger als de 3080. De hoeveelheid RAM is vooral interessant voor grafische professionals.

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 04-02 21:20
mitsumark schreef op zondag 13 september 2020 @ 23:45:
[...]

Het is ook een lager gepositioneerde kaart, de 3080 is de opvolger van de 2080(s), de 3090 is de opvolger van de 2080ti.
Je kan er vrij zeker van zijn dat er nog een 3080ti komt gezien het gat van $800 tussen de kaarten =)

  • hully
  • Registratie: Maart 2004
  • Laatst online: 20-01 23:00
Waah schreef op maandag 14 september 2020 @ 07:39:
[...]

Het is dacht ik goedkoper om een 3080 te kopen, en volgend maar de opvolger te kopen... Dan een 3090 nu.

En de opvolger van de 3080 zou wel eens sneller als de 3090 kunnen zijn.... En als je een jaartje langer wacht is de 5080 sowieso een stuk sneller.

Een 3090 is leuk voor AI, 3D rendering, dat soort spul. De snelheid is marginaal hoger als de 3080. De hoeveelheid RAM is vooral interessant voor grafische professionals.
ah thx, 3080 it will be.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 04-02 19:54
Naast de nieuwe videokaarten is er ook nog ander nieuws: nieuws: Nvidia bereikt akkoord over overname Arm voor 40 miljard dollar

Hoe groot is de kans dat deze deal doorgaat?

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Waah schreef op maandag 14 september 2020 @ 07:39:
[...]

Het is dacht ik goedkoper om een 3080 te kopen, en volgend maar de opvolger te kopen... Dan een 3090 nu.

En de opvolger van de 3080 zou wel eens sneller als de 3090 kunnen zijn.... En als je een jaartje langer wacht is de 5080 sowieso een stuk sneller.

Een 3090 is leuk voor AI, 3D rendering, dat soort spul. De snelheid is marginaal hoger als de 3080. De hoeveelheid RAM is vooral interessant voor grafische professionals.
Wat denk je van de 7080 en de 8080 in 2025 Die zijn nog veel sneller. Ik zou wachten ;)

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Sissors
  • Registratie: Mei 2005
  • Niet online
RobinNL schreef op maandag 14 september 2020 @ 09:36:
Naast de nieuwe videokaarten is er ook nog ander nieuws: nieuws: Nvidia bereikt akkoord over overname Arm voor 40 miljard dollar

Hoe groot is de kans dat deze deal doorgaat?
Redelijk groot imo. Alleen China zou dwars kunnen liggen. Die kans is zeker geen nul, maar ik verwacht het niet. Wel zal het een langdurig proces worden met veel eisen van overheden.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sissors schreef op maandag 14 september 2020 @ 09:47:
Wel zal het een langdurig proces worden met veel eisen van overheden.
Laten we het hopen. Ik zei het gisteren al op de FP, maar dit kan echt rampzalig uitpakken. Uitgerekend Nvidia (en Intel, AMD, Apple, Qualcomm, Samsung) zou ARM van z'n leven niet mogen kopen. ARM is té belangrijk voor de wereld. Je moet moeite doen om een smartphone of tablet te vinden die níet op ARM draait. En Apple gaat nu al hun producten op ARM laten draaien. Dat laatste zou overigens wel een interessante soap kunnen worden als het wél door gaat, gezien de moeizame relatie tussen Apple en Nvidia.

Zelfs Intel zou ik meer vertrouwen met ARM. Van alle genoemde bedrijven zijn het Apple en Nvidia die ik het gevaarlijkst acht. De bedrijfsvoering van beide lijkt heel erg op elkaar: koop dingen op, haal ze vrijwel volledig van de markt af in hun bestaande vorm en gebruik ze vervolgens enkel in propriëtaire producten of draai ze volledig de nek om. Geen van beide zijn goed in leuk met anderen spelen.

De belangrijkste voorwaarde moet zijn dat alle bestaande en toekomstige ARM producten beschikbaar moeten blijven, zijn en worden zoals ze dat nu ook zijn, waarbij Nvidia zichzelf geen voordeel mag geven.

  • Skybullet
  • Registratie: April 2008
  • Laatst online: 01:43
Werelds schreef op maandag 14 september 2020 @ 09:57:

De belangrijkste voorwaarde moet zijn dat alle bestaande en toekomstige ARM producten beschikbaar moeten blijven, zijn en worden zoals ze dat nu ook zijn, waarbij Nvidia zichzelf geen voordeel mag geven.
Waarom zou Nvidia ooit daar in mee gaan ? Dit geloof je zelf niet toch :+ , welk voordeel zouden ze dan nog halen uit de overname? Dit is nou eenmaal de wereld zoals het werkt, je koopt een bedrijf op, je behoudt alles wat voor jouw onderneming voordelig is en dumpt de rest. En dat is trouwens Nvidia hun goed recht om te doen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Dat dus.
Ik ben alleen bang dat het wel door zal gaan en het is niet goed voor iedereen die in het ARM platform zit. Weinig bedrijven in Silicon Valley die potentieel slechter kunnen zijn. Eigenlijk alleen Apple zou erger kunnen zijn. Komt nog eens bij dat Nvidia behoorlijk moeizame relaties heeft met zo ongeveer elke grote speler in de industrie, maar met Apple is het helemaal erg. Dat is helemaal misgegaan met "bump gate" en sindsdien moet Apple geen Nvidia producten meer.

Ik zie Apple dit eigenlijk al aanvechten, maar of ze succesvol gaan zijn is een tweede. Voor Apple zou dit ook wel eens de spreekwoordelijke druppel kunnen zijn. Jim Keller is op de markt en hem uitnodigen om een RISC-V architectuur te ontwikkelen voor Apple is een reële mogelijkheid. Ik zie meer bedrijven die stap gaan overwegen als het alternatief is om met Nvidia te werken. Zelfs als er een periode wordt afgesproken waarin Nvidia niks mag doen met ARM licenties onthouden of zaken voor zichzelf houden, dan nog zie ik aardig wat bezorgdheid en wantrouwen ontstaan bij bedrijven zoals Qualcomm of de ARM SoC tak van Samsung die juist met AMD in zee is gegaan voor de GPU kant. Nvidia zal het leuk vinden dat Samsung samenwerkt met AMD voor RDNA GPU's. Dat zal dus al een zorg zijn of Nvidia op termijn niet hun eigen grafische IP gaat pushen en verplicht stellen.

Intel zal dit zien als een aanval op hun Xeon's. Intel is ook al jaren bezig om Nvidia zoveel mogelijk erbuiten te houden en dat gaat ook hard tegen hard. Rechtszaken over PCI-E verbindingen zijn allang gevoerd. AMD zal ook niet te staan springen als Nvidia opeens CPU+GPU servers kan doen.

Alles bij elkaar, pak je popcorn erbij want dit kunnen wel eens rechtszaken gaan worden. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Waah
  • Registratie: Maart 2009
  • Laatst online: 07:09
winwiz schreef op maandag 14 september 2020 @ 09:37:
[...]


Wat denk je van de 7080 en de 8080 in 2025 Die zijn nog veel sneller. Ik zou wachten ;)
Elke 2 jaar upgraden is gewoon voordeliger, en je het hardware die krachtig genoeg is en altijd de nieuwste features heeft.

Maar als jij liever 1x per 4 jaar 1500 uitgeeft, voor een jaartje of max 2 lang 10/20% meer performance... En vervolgens véél minder performance geeft als de opvolger... Be my guest!

Top end kaarten zijn enkel zinvol als je geld als water hebt.... Of als je dus, zoals gezegd, een grafische toepassing hebt die er wat mee kan.

Maar er een "grappige" dooddoener tegenaan gooien is natuurlijk lekker makkelijk scoren :Y)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Skybullet schreef op maandag 14 september 2020 @ 10:35:
Waarom zou Nvidia ooit daar in mee gaan ? Dit geloof je zelf niet toch :+ , welk voordeel zouden ze dan nog halen uit de overname? Dit is nou eenmaal de wereld zoals het werkt, je koopt een bedrijf op, je behoudt alles wat voor jouw onderneming voordelig is en dumpt de rest. En dat is trouwens Nvidia hun goed recht om te doen.
En dit is precies de gedachtegang waardoor concurrentie een stille dood sterft. Als Nvidia daar niet mee akkoord wil gaan, doen ze dat toch lekker niet? Dit is een overname die voor belachelijk weinig geld belachelijk veel macht geeft. Voor 40 miljard krijgt Nvidia ineens alle macht over een bedrijf dat pakweg 2 triljoen waard is. Alleen al tussen Apple en Qualcomm hebben ze ineens meer dan 50% van de smartphone markt bij de ballen. Gooi HiSilicon erbij en je zit tegen de 75% aan.

Nvidia is dan wel een kleine speler in deze markt, dat is echter niet wat ze wíllen zijn. Het doel van Tegra was Qualcomm van de troon te stoten en dat is ze niet gelukt (deels door prestaties, deels door hun vraagprijzen). Dit geeft ze nu de macht om Qualcomm helemaal kapot te maken als niemand daar een stokje voor steekt.

Er wordt vervolgens op veel plekken gescandeerd dat "men" (Apple, Qualcomm) dan maar lekker op alternatieven over moet gaan. Dat is een bijzonder domme opmerking, want deze licenties hebben ook betrekking op producten die al op de markt zitten of ontwikkeld worden. "Even" overstappen op bijvoorbeeld RISC-V gaat niet, dat heeft enkele jaren nodig.

Als laatste, nee, dat is níet hun goed recht. Dat is waar het mededingingsrecht (antitrust) om draait. Niemand hier zou het een goed idee vinden als ARM ineens op de één of andere manier de controle kreeg over MIPS of RISC-V. Of Apple over Nvidia. Zou je het nog steeds een goed idee vinden als Apple besloot Nvidia op te kopen met de gedachte Nvidia's technologie exclusief in Apple producten te gebruiken? Dat zou zelfs minder effect hebben dan deze overname, want het zou enkel PC gamers treffen; er zou dan geen concurrentie meer zijn en bestaande gebruikers zouden de lul zijn, maar dat is in verhouding een peuleschil.

  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Waah schreef op maandag 14 september 2020 @ 11:07:
[...]

Elke 2 jaar upgraden is gewoon voordeliger, en je het hardware die krachtig genoeg is en altijd de nieuwste features heeft.

Maar als jij liever 1x per 4 jaar 1500 uitgeeft, voor een jaartje of max 2 lang 10/20% meer performance... En vervolgens véél minder performance geeft als de opvolger... Be my guest!

Top end kaarten zijn enkel zinvol als je geld als water hebt.... Of als je dus, zoals gezegd, een grafische toepassing hebt die er wat mee kan.

Maar er een "grappige" dooddoener tegenaan gooien is natuurlijk lekker makkelijk scoren :Y)
Wees niet bang, ik koop eens in de 2 a 3 jaar een nieuwe GPU, het ligt aan het verschil met de vorige generatie. Refreshes ben ik sowieso niet in geinterreseerd. Kortom minimaal 40% winst en anders blijf ik hangen. En 100% meer betalen om 20% meer snelheid is sowieso al gekkenwerk in mijn ogen.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 14 september 2020 @ 11:10:
Er wordt vervolgens op veel plekken gescandeerd dat "men" (Apple, Qualcomm) dan maar lekker op alternatieven over moet gaan. Dat is een bijzonder domme opmerking, want deze licenties hebben ook betrekking op producten die al op de markt zitten of ontwikkeld worden. "Even" overstappen op bijvoorbeeld RISC-V gaat niet, dat heeft enkele jaren nodig.
Dat zeg ik ook niet. Ik zeg dat zeker Apple het zal overwegen. De geruchten gaan al een tijdje en zeker een bedrijf zoals Apple zal allang hun analyses hebben gemaakt. Apple is met hun gesloten ecosysteem ook de enige die potentieel kan overwegen om zo naar RISC-V te gaan. Het zal ze wat kosten om zelf RISC-V chips te gaan maken en hun ecosysteem voor te bereiden op de overstap. Het kost tijd, ze zullen het niet leuk vinden nu ze net naar ARM begonnen over te stappen, maar Apple laat zich niet overleveren aan een ambitieuze speler, zeker niet aan Nvidia.

Nvidia zal deze overname ook juridisch hebben getoetst voordat ze met de deal kwamen aanzetten. Ik heb zelf helaas ook weinig vertrouwen in moderne antitrust autoriteiten omdat ze wel vaker zaken hebben laten lopen waar je vraagtekens bij kan plaatsen. Ook verschilt het per regio. In China was het al een politiek proces, maar nu zeker gezien de Amerikanen die achter de CCP aangaan. Dat gaat niet meer stoppen, ook niet onder Biden. Daar zal de inzet zijn dat HiSilicon nog toegang houdt tot ARM. Als dat door sancties niet kan, tja dan zie ik de CCP de deal misschien proberen te blokkeren op politieke gronden. Dat is denk ik de beste hoop. De VS zie ik het niet blokkeren omdat een Amerikaans bedrijf haar invloed vergroot. De VS is te veel een quasi democratische oligarchie gestoeld op het Nederlands model van de Republiek om echt verwacht te worden te handelen buiten selectief belang. Ik laat me graag verassen, maar ik denk het niet.

De Britten gaan een realiteitscheck krijgen wat er gebeurd als je uit een van de grote blokken stapt en er alleen voor staat, zonder "empire". Die gaan serieuze politieke druk ervaren als de Amerikanen en de CCP wel akkoord gaan als die laatste twee krijgen wat ze eruit willen hebben. Dan de vaak politiek aangestelde technocraten in de EU die ik denk ik het lastigst vind om in te schatten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Skybullet
  • Registratie: April 2008
  • Laatst online: 01:43
Werelds schreef op maandag 14 september 2020 @ 11:10:

Als laatste, nee, dat is níet hun goed recht..
Leuk verhaal maar als alle mededingingsautoriteiten van de betreffende landen met deze deal instemmen is het dus wel hun goed recht.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Was ook niet op jou gericht ;)

Meer op reacties die ik op de FP en elders zie.
Skybullet schreef op maandag 14 september 2020 @ 11:43:
Leuk verhaal maar als alle mededingingsautoriteiten van de betreffende landen met deze deal instemmen is het dus wel hun goed recht.
En dat was mijn punt dus: die zouden hier van z'n leven niet mee akkoord moeten gaan, tenzij er heel strikte voorwaarden aan verbonden zijn. Jij denkt dat Nvidia daar nooit mee akkoord zou gaan, ik denk dat het zelfs dan nog steeds interessant voor Nvidia is.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Toch verwacht ik dat de mededingingsautoriteiten deze deal gaan goedkeuren.

De voorwaarden die erbij komen zullen vast niet voor onbepaalde tijd gelden...

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 14 september 2020 @ 11:46:
[...]

Was ook niet op jou gericht ;)

Meer op reacties die ik op de FP en elders zie.
Dat ging dan even over me heen. :)

Ik heb trouwens ook nog een leuke voor jou. GA102 en lager hebben nog steeds 48kb+16kb shader memory per SM, maar wel 2x FP32 en Nvidia haar betere RT claims.


Ik denk dat ik net genoeg begrijp om te snappen dat dit twijfelachtig is. Zo lijkt Ampere steeds meer op een professioneel gerichte GPU die heel goed specifieke zaken kan berekenen, maar niet zo goed is in FP32+INT32+RT onder gaming workloads.





Ergens vind ik het jammer dat we tot woensdag moeten wachten. Ik ben namelijk steeds benieuwder wat Ampere nu werkelijk kan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Verwijderd

Ik twijfel nog tussen de 3070 en 3080. Op zich wel 'slim' van nVidia dat ze eerst de duurste uitbrengen en een volle maand later de goedkopere. Voor 1440p gaming zal een 3070 wel even volstaan denk ik. Mijn GTX970 heb ik 6 jaar gebruikt, als ik met de 3070 vijf jaar kan doen en met een 3080 zeven jaar, dan komt het financieel wel op hetzelfde neer (100 euro per jaar :) ) Maar dat maakt de keuze nog niet gemakkelijker.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Verwijderd schreef op maandag 14 september 2020 @ 12:50:
Ik twijfel nog tussen de 3070 en 3080. Op zich wel 'slim' van nVidia dat ze eerst de duurste uitbrengen en een volle maand later de goedkopere. Voor 1440p gaming zal een 3070 wel even volstaan denk ik.
Dat hangt van je persoonlijke eisen af. Voor 1440p 60hz gaming zal de RTX 3070 wellicht ruim voldoende zijn, maar voor 1440p 144 Hz misschien toch niet toereikend genoeg.

March of the Eagles


Verwijderd

XWB schreef op maandag 14 september 2020 @ 12:53:
[...]


Dat hangt van je persoonlijke eisen af. Voor 1440p 60hz gaming zal de RTX 3070 wellicht ruim voldoende zijn, maar voor 1440p 144 Hz misschien toch niet toereikend genoeg.
Het is voor 75 Hz en voorlopig vooral Flight Simulator, die heeft niet zo'n hoge frame/refreshrate nodig, maar ik speel het wel graag met zo hoog mogelijke settings. Tot voor kort speelde ik ook FPS games op 60 Hz, nu dus op 75 Hz. Ik heb wel nog twijfels bij de hoeveelheid geheugen: FS2020 gebruikt nu al bijna 8GB, maar dat is momenteel wel een uitzondering en met DLSS games zal de noodzaak waarschijnlijk verminderen.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Verwijderd schreef op maandag 14 september 2020 @ 13:06:
[...]
Het is voor 75 Hz en voorlopig vooral Flight Simulator, die heeft niet zo'n hoge frame/refreshrate nodig, maar ik speel het wel graag met zo hoog mogelijke settings. Tot voor kort speelde ik ook FPS games op 60 Hz, nu dus op 75 Hz. Ik heb wel nog twijfels bij de hoeveelheid geheugen: FS2020 gebruikt nu al bijna 8GB, maar dat is momenteel wel een uitzondering en met DLSS games zal de noodzaak waarschijnlijk verminderen.
De hoeveelheid VRAM die wordt gebruikt zegt vrij weinig wanneer deze niet over de limiet van de kaart schiet. Immers is het idee van geheugen dat je pre-buffered, dus bij meer beschikbaarheid ga je ook meer reserveren. Verder scheelt de 3080 wel bovengemiddeld veel t.o.v. de 3070 (meestal is dat gat kleiner), maar het is ook niet gek gezien ze nu van een andere chip gebruikmaken i.p.v. dat de 3070 een down-sized versie is.

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 09:09
Misschien wordt raytracing wel heel groot de komende jaren en is het idee van een 3080 7 jaar gebruiken minder praktisch (ten opzichte van een mindere kaart eerst upgraden). Of misschien blijft het een (te dure) gimmick dat in de meeste spellen gewoon uit kan blijven. Je kunt nu natuurlijk ook al besluiten dat je met RT sowieso niks hebt, dat maakt het makkelijker. Ik vind het iig spannend genoeg dat ik zelf niet alvast het dikste ga kopen met het idee dat ik er weer jaren tegenaan kan. (Nog afgezien van het feit dat ik sowieso ga wachten waar AMD mee komt, al was het maar om te weten hoe erg je NV nodig hebt voor dingen als RT en DLSS.)

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Verwijderd

Ik heb eens de vergelijking gemaakt voor FS2020 op 1440p Ultra, en volgens de (optimistische?) slides van nVidia is de prijs/prestatieverhouding van de 3080 beter dan van de 3070. Normaal gezien is het toch omgekeerd, dan betaal je exponentieel meer voor de snellere kaarten. De vraag is ook hoeveel het op die resolutie nog schaalt met een gemiddelde CPU zoals de Ryzen 5 3600... Ik heb de 2060S ook gemarkeerd omdat ik voor de release van de 3000 reeks van plan was om die te kopen.

Afbeeldingslocatie: https://tweakers.net/i/zOJ-0wbL6tSoAuaJtuLr2ikpylw=/800x/filters:strip_exif()/f/image/wNCtW5vvSos7XKF7xht7CRZd.png?f=fotoalbum_large

[ Voor 93% gewijzigd door Verwijderd op 14-09-2020 13:33 ]


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 09:09
@Verwijderd Bedenk daarbij wel dat de algemene consensus is dat je in FS het niet bepaald hoeft te hebben van 60+ framerates, in tegenstelling tot de meeste spellen, dus de vraag is of de extra frames de meerprijs rechtvaardigen, minder hoeveel elke frame kost. Dit geldt natuurlijk in het algemeen (van 20 naar 60 is nogal merkbaar voor iedereen; van 110 naar 150 waarschijnlijk alleen als je een e-sports FPS gamer bent), maar hier misschien in het bijzonder.

Nou zul je het wel niet alleen voor FS kopen, dus hoe het plaatje eruit gaat zien in andere spellen zal er ook nog toe doen.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Sowieso gaat een 3080 die 86 FPS nooit halen. Reken eerder 63-65.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
@DaniëlWW2 dat is wat ik eerder al zei, context switchen.

Alle units hebben hun eigen gereedschap, maar moeten vervolgens de werkbank met elkaar delen. Er kan wel veel heel snel doorgeschoven worden naar andere caches/geheugen, maar feit blijft dat er geschakeld moet worden. Het is lastig om er serieuze metaforen voor te bedenken, want de cache structuren in moderne chips zijn vrij complex. Je zit sowieso al met L0$ tot en met minimaal L2$ (vaak nog L3$), gedeeld geheugen her en der, caches die zelf al gesplit zijn (instructies en data gescheiden in L1). L1 is over het algemeen wel de belangrijkste voor performance. Je moet het zien alsof je je gereedschap en schroeven constant van werkbank naar rek naar kist (en weer terug) moet verplaatsen omdat iemand anders even de werkbank nodig heeft. En elke keer moet je de hele handel weer even ordenen voor je gaat werken :P

Zoals ik al zei, ik denk dat er nogal wat mensen op hun neus zullen kijken met de reviews. Het zal alle kanten op gaan met de cijfers. In eenzijdige workloads zal er een mooie sprong zijn, maar in mixed workloads zal het een flink stuk minder zijn. En zeker een stuk minder dan wat ik her en der zie qua hype.

Ampère lijkt vooralsnog de meest interessante architectuur sinds Maxwell te worden, maar tegelijkertijd lijken er ook een hoop onelegante dingen in te zitten. AMD's oplossing zal op sommige vlakken eleganter zijn, maar dan is het de vraag of dat in de praktijk ook lekker uit pakt.

We zullen het de komende maanden wel zien. Ik ga hoe dan ook smullen :P

Verwijderd

MneoreJ schreef op maandag 14 september 2020 @ 14:01:
@Verwijderd Bedenk daarbij wel dat de algemene consensus is dat je in FS het niet bepaald hoeft te hebben van 60+ framerates, in tegenstelling tot de meeste spellen, dus de vraag is of de extra frames de meerprijs rechtvaardigen, minder hoeveel elke frame kost. Dit geldt natuurlijk in het algemeen (van 20 naar 60 is nogal merkbaar voor iedereen; van 110 naar 150 waarschijnlijk alleen als je een e-sports FPS gamer bent), maar hier misschien in het bijzonder.

Nou zul je het wel niet alleen voor FS kopen, dus hoe het plaatje eruit gaat zien in andere spellen zal er ook nog toe doen.
Het is ook met toekomstige games in gedachten.
Paprika schreef op maandag 14 september 2020 @ 14:03:
Sowieso gaat een 3080 die 86 FPS nooit halen. Reken eerder 63-65.
Dat denk ik ook, althans voor 1440p. Op 4k + RT zou het wel eens kunnen kloppen (2x sneller dan de 2080). Maar met 65 fps zou de prijs/prestatieverhouding iets in het nadeel van de 3080 zijn, wat ook logisch is. Bij vorige generaties hadden de duurdere kaarten altijd een slechtere prijs/prestatieverhouding, geen idee waarom dat nu anders zou zijn... Maar goed, over enkele dagen weten of de 3080 echt 2x sneller is dan de 2080, ook zonder RT en in 'lagere' resoluties zoals 1440p.

[ Voor 4% gewijzigd door Verwijderd op 14-09-2020 14:25 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Paprika schreef op maandag 14 september 2020 @ 13:11:
[...]

De hoeveelheid VRAM die wordt gebruikt zegt vrij weinig wanneer deze niet over de limiet van de kaart schiet. Immers is het idee van geheugen dat je pre-buffered, dus bij meer beschikbaarheid ga je ook meer reserveren. Verder scheelt de 3080 wel bovengemiddeld veel t.o.v. de 3070 (meestal is dat gat kleiner), maar het is ook niet gek gezien ze nu van een andere chip gebruikmaken i.p.v. dat de 3070 een down-sized versie is.
Dit,
Het gaat er niet om want een tool aan geeft dat er gebruikt word maar om wat er daadwerkelijk gebruikt word.
Veel games laden gewoon veel meer in dan dat ze daadwerkelijk gebruiken. Niet alleen games trouwens windows en alle andere software doet hetzelfde.
Als ik alle ram clear dan gaat mijn clean boot windows 10 van 2.4 GB naar 580 MB. De rest is dus allemaal cached 'onzin' die windows niet nodig heeft maar reserveert voor het geval dat.
En android doet exact hetzelfde. Zo kan android draaien op 256 mb ram maar als he 8gb heb vult het gewoon 5gb op sommige toestellen.

Overigens is met de komst van DLSS op alle games (als we de geruchten mogen geloven) ram minder interessant omdat we op lagere resolutie kunnen gaan renderen.
Of die 10 of zelfs 8GB dus een probleem gaat zijn zullen we helaas pas over een aantal jaar zien wanneer de gpu toch wel aan vervanging toe is.

Ik heb echt geen idee of ik voor een 3070 of een 3080 ga. Maar kosten over 4 jaar met 1 gpu met hoog stroom verbruik of 2 gpu's met lagere stroom kosten spelen een grotere rol dan de 8 of 10 gb ram.
Met de 1 heb je veel meer bang voor the buck nu maar met de ander zit je misschien over 2 jaar beter en kan je er misschien wel 5 jaar mee doen.
De reviews gaan het bepalen. Er zijn immers wat aspecten van de 3070 specs die ik twijfelachtig vind qua prestatie claims gebaseerd op het aantal units dat er in zit ten opzichte van de 2080 TI.
Verwijderd schreef op maandag 14 september 2020 @ 13:21:
Ik heb eens de vergelijking gemaakt voor FS2020 op 1440p Ultra, en volgens de (optimistische?) slides van nVidia is de prijs/prestatieverhouding van de 3080 beter dan van de 3070. Normaal gezien is het toch omgekeerd, dan betaal je exponentieel meer voor de snellere kaarten. De vraag is ook hoeveel het op die resolutie nog schaalt met een gemiddelde CPU zoals de Ryzen 5 3600... Ik heb de 2060S ook gemarkeerd omdat ik voor de release van de 3000 reeks van plan was om die te kopen.

[Afbeelding]
Ik denk dat je die berekening over 2 dagen nog een keer moet maken met de echte data. Het valt nog te bezien of die 2x wel ergens gehaald gaat worden zonder DLSS.

[ Voor 19% gewijzigd door computerjunky op 14-09-2020 14:54 ]


Verwijderd

computerjunky schreef op maandag 14 september 2020 @ 14:35:
[...]

Ik heb echt geen idee of ik voor een 3070 of een 3080 ga.
Ook iets om rekening mee te houden: als je snel een 3080 wilt zal je op enkele dagen tijd moeten beslissen, anders zal je misschien achter het net vissen (uitverkocht). Veel hardcore gamers tellen af naar de 17e en de miners gaan er ook nog opspringen: https://be.hardware.info/...esse-in-nvidiars-rtx-3080

De 3070 zal denk ik niet zo'n stormloop kennen, de 'gemiddelde' gamer weet niet eens dat er een nieuwe generatie is, ik volgde ook geen GPU-nieuws bij de launch van de 2000-reeks (ik was ook niet toe aan een nieuwe GPU).

  • ion
  • Registratie: Augustus 2011
  • Niet online

ion

Verwijderd schreef op maandag 14 september 2020 @ 14:50:
[...]
Ook iets om rekening mee te houden: als je snel een 3080 wilt zal je op enkele dagen tijd moeten beslissen, anders zal je misschien achter het net vissen (uitverkocht). Veel hardcore gamers tellen af naar de 17e en de miners gaan er ook nog opspringen: https://be.hardware.info/...esse-in-nvidiars-rtx-3080

De 3070 zal denk ik niet zo'n stormloop kennen, de 'gemiddelde' gamer weet niet eens dat er een nieuwe generatie is, ik volgde ook geen GPU-nieuws bij de launch van de 2000-reeks (ik was ook niet toe aan een nieuwe GPU).
Dat minen was al debunked, dat verhaal klopt niet.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Het zou echt fijn zijn als dit clickbait artikel zou verdwijnen.

Die rumour is al debunked. Het plaatje met de Inno3D hardware is letterlijk het testlab van Inno3D zelf. Helaas is de clickbait titel behouden voor HW.info belangrijker dan dit feit toevoegen en de clickbait weghalen...

Afbeeldingslocatie: https://tweakers.net/camo/dc097e325704922bf627ed131d0571c65a3d99d6/?url=https%3A%2F%2Fpbs.twimg.com%2Fmedia%2FEhiRbrBXYAAG61w.png

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 14 september 2020 @ 14:17:
@DaniëlWW2 dat is wat ik eerder al zei, context switchen.

Alle units hebben hun eigen gereedschap, maar moeten vervolgens de werkbank met elkaar delen. Er kan wel veel heel snel doorgeschoven worden naar andere caches/geheugen, maar feit blijft dat er geschakeld moet worden. Het is lastig om er serieuze metaforen voor te bedenken, want de cache structuren in moderne chips zijn vrij complex. Je zit sowieso al met L0$ tot en met minimaal L2$ (vaak nog L3$), gedeeld geheugen her en der, caches die zelf al gesplit zijn (instructies en data gescheiden in L1). L1 is over het algemeen wel de belangrijkste voor performance. Je moet het zien alsof je je gereedschap en schroeven constant van werkbank naar rek naar kist (en weer terug) moet verplaatsen omdat iemand anders even de werkbank nodig heeft. En elke keer moet je de hele handel weer even ordenen voor je gaat werken :P
Ik begrijp de analogie, redelijk. :P
Het ging me vooral als het zoveelste stukje van de puzzel leggen. Nu duidelijk is dat GA102 en lager dus geen extra cache hebben in hun SM's, weet je eigenlijk al dat je constant met register conflicten gaat zitten en context switching een probleem gaat zijn.
Zoals ik al zei, ik denk dat er nogal wat mensen op hun neus zullen kijken met de reviews. Het zal alle kanten op gaan met de cijfers. In eenzijdige workloads zal er een mooie sprong zijn, maar in mixed workloads zal het een flink stuk minder zijn. En zeker een stuk minder dan wat ik her en der zie qua hype.

Ampère lijkt vooralsnog de meest interessante architectuur sinds Maxwell te worden, maar tegelijkertijd lijken er ook een hoop onelegante dingen in te zitten. AMD's oplossing zal op sommige vlakken eleganter zijn, maar dan is het de vraag of dat in de praktijk ook lekker uit pakt.

We zullen het de komende maanden wel zien. Ik ga hoe dan ook smullen :P
Dat denk ik dus ook. Ik zit eigenlijk al een beetje te wachten op het moment van de reviews. Ik vraag me af wat sommigen ervan gaan maken als de RTX3080 in de ene game nauwelijks sneller blijkt te zijn dan de RTX2080Ti en in de volgende game het opeens wel een stuk sneller is. Het is in ieder geval een mooie lakmoesproef voor de kwaliteit van veel reviewers. Ik vermoed zo dat Ryan Smith van Anandtech het de komende twee dagen heel erg druk gaat krijgen met telefoontjes en e-mails van andere reviewers die er geen ene F meer van begrijpen. :+

RDNA2, tja dat is op het moment echt een matig bij elkaar geschraapt beeld halve tegenstrijdigheden en waarschijnlijk een aardige dosis onzin. Dat is nu een kwestie van zes weken wachten en kijken waar dat schip strand. Het lijkt eleganter in elkaar te zitten dan Ampere, maar hoe snel het is blijft gewoon afwachten. Ik heb inmiddels ook wel genoeg RDNA2 zaken opgezocht. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • SpX
  • Registratie: Februari 2006
  • Laatst online: 31-12-2025

SpX


Ergens vind ik het jammer dat we tot woensdag moeten wachten. Ik ben namelijk steeds benieuwder wat Ampere nu werkelijk kan.
Ik ben ook erg benieuwd. Ik verwacht ook dat de stijgingen t.o.v. de 2080ti enorm zullen variëren per game/engine. Stel de 3080 is in sommige gevallen maar marginaal beter, dan kun je ook ervan uitgaan dat de 3070 lang niet altijd de 2080ti voorbij zal streven.

Misschien heb ik mijn 2080ti toch iets te vroeg verkocht ;)

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 04-02 16:58

MazeWing

The plot thickens...

Paprika schreef op maandag 14 september 2020 @ 14:55:
[...]

Het zou echt fijn zijn als dit clickbait artikel zou verdwijnen.

Die rumour is al debunked. Het plaatje met de Inno3D hardware is letterlijk het testlab van Inno3D zelf. Helaas is de clickbait titel behouden voor HW.info belangrijker dan dit feit toevoegen en de clickbait weghalen...

[Afbeelding]
Ik hoop dat de nieuwe 3000-kaarten zo enorm slecht zijn voor minen, dat ipv etherium erbij er gewoon etherium af gaat...

Het was absurd hoe schaars praktisch elke videokaart was en de enkele die beschikbaar was ging voor veel te hoge bedragen weg. Hopelijk gaat we dat niet nog een keer krijgen. -O-

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Ik zie online langzaam maar zeker de shine verminderen van de RTX30.
Er is al een kerel die tot 3-5% komt van een 3080 met een powermodded 2080ti (320w+).
Dit plaatje is ook grappig:
Afbeeldingslocatie: https://tweakers.net/i/RpTVFeJonGoaBou9w0m7GhIZO4s=/800x/filters:strip_icc():strip_exif()/f/image/kjGxUZ9g1hUUoMUg1lhZSWqd.jpg?f=fotoalbum_large
Daarmee geeft NVIDIA eigenlijk al aan dat de 3070 simpelweg niet in alle gevallen sneller zal zijn.

[ pctje te zien hier ] - Miauw


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Als Nv niet de deadline had aangepast, had je nu heel wat meer geweten...Nog 47.5 uur

En als de concurrent dan een uur later iets laat leaken waarbij de rode streepjes ruwweg net zo ver gaan en dan er bij zet.... "why pay that much" >:)

[ Voor 47% gewijzigd door winwiz op 14-09-2020 15:39 ]

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
[YouTube: NVIDIA Geforce RTX 3080 (Founders Edition) Thermals]

Afbeeldingslocatie: https://www.douglasbaldwin.com/EggMatrix136F-152F.jpg

Afbeeldingslocatie: https://i.ytimg.com/vi/BLdXfFsgvkE/maxresdefault.jpg



Afbeeldingslocatie: https://tweakers.net/i/MQjIX71YU0q4qSD00bL_TN24RHU=/800x/filters:strip_exif()/f/image/dpoAt8XK3KHl7xCukiV9YFvC.png?f=fotoalbum_large

[ Voor 81% gewijzigd door Paprika op 14-09-2020 15:51 ]


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

[ pctje te zien hier ] - Miauw


  • ion
  • Registratie: Augustus 2011
  • Niet online

ion

GekkeR schreef op maandag 14 september 2020 @ 15:32:
Ik zie online langzaam maar zeker de shine verminderen van de RTX30.
Er is al een kerel die tot 3-5% komt van een 3080 met een powermodded 2080ti (320w+).
Dit plaatje is ook grappig:
[Afbeelding]
Daarmee geeft NVIDIA eigenlijk al aan dat de 3070 simpelweg niet in alle gevallen sneller zal zijn.
Mij is niet duidelijk hoe hij aan die gegevens is gekomen voor trainen van NN met een ampere gpu.

  • Fusi0nking
  • Registratie: Mei 2018
  • Laatst online: 04-06-2024

  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Fusi0nking schreef op maandag 14 september 2020 @ 15:52:
[...]

Erg benieuwd hoe de cpu temps zijn. Is dat een beetje uit dit filmpje te halen en met iets te vergelijken?
Nee en het zegt ook niets zonder te weten wat de onderliggende load was. Dit zijn overigens ook niet de temperaturen van de GPU.

  • Fusi0nking
  • Registratie: Mei 2018
  • Laatst online: 04-06-2024
Paprika schreef op maandag 14 september 2020 @ 15:54:
[...]

Nee en het zegt ook niets zonder te weten wat de onderliggende load was. Dit zijn overigens ook niet de temperaturen van de GPU.
Klopt het zegt niks over de gpu aangezien het de heatsink is. Load is ook niet bekend dat had ik niet helemaal door....naja mijn vraag kan ignored worden voor nu |:(

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Hoewel je er niet feitelijk wat uit kan halen, staat hij aan en is de temp 65c.
Mijn persoonlijke verwachting voor de 3080 FE is eigenlijk dat dat op 30dBa~ is op 320W (full load dus).
Let wel dat met een 65c koelblok, de gpu temp iets van 75-80 zal zijn.
Als je de 3080 FE thermal graph erbij pakt komt ook dat overeen ongeveer.
https://cdn.mos.cms.futur...cuUxuTgQGw23F-1200-80.jpg

[ Voor 3% gewijzigd door GekkeR op 14-09-2020 16:16 ]

[ pctje te zien hier ] - Miauw


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 04-02 10:22
Paprika schreef op maandag 14 september 2020 @ 15:54:
[...]

Nee en het zegt ook niets zonder te weten wat de onderliggende load was. Dit zijn overigens ook niet de temperaturen van de GPU.
Toch lijkt het me best warm voor zo'n grote heatsink.

Wie goed doet, die goed ontmoet.


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
AtlAntA schreef op maandag 14 september 2020 @ 16:10:
[...]


Toch lijkt het me best warm voor zo'n grote heatsink.
Als hij idle staat ja. Als hij furmark draait mwoa

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
AtlAntA schreef op maandag 14 september 2020 @ 16:10:
[...]


Toch lijkt het me best warm voor zo'n grote heatsink.
320W (default) is ook veel warmte.

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10900K

YouTube: RTX 3080 ( GPU Detect Proof ) Horizon Zero Dawn Benchmark 4K | i9 10...

-- My Gaming Rig Power -- -- <SG> Diabolic --


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 04-02 10:22
70 tot 80 fps maar toch is de game 1 grote slideshow. Ik wacht nog even op de echte benchmarks.

Wie goed doet, die goed ontmoet.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anandtech editorial:

It’s Official: NVIDIA To Acquire Arm For $40 Billion

Ben er zelf niet zo happy mee. Al die papieren waarborgen zijn in de praktijk flinterdun.

Hopelijk houden de regulatory agencies e.d. dit tegen maar heb daar weinig vertrouwen in.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Ik hang het idee aan dat de 3080 binnen een uur overal uitverkocht is. Hoe dicht zit dit bij de realiteit?

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 04-02 10:22
Sander64 schreef op maandag 14 september 2020 @ 16:50:
Ik hang het idee aan dat de 3080 binnen een uur overal uitverkocht is. Hoe dicht zit dit bij de realiteit?
Ik denk dat je je vraag beter kan stellen in [Nvidia GeForce RTX 30XX] Ervaringen & Discussie

Wie goed doet, die goed ontmoet.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sander64 schreef op maandag 14 september 2020 @ 16:50:
Ik hang het idee aan dat de 3080 binnen een uur overal uitverkocht is. Hoe dicht zit dit bij de realiteit?
Dat vertellen we je donderdag om 16:00uur.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Help!!!! schreef op maandag 14 september 2020 @ 16:54:
[...]

Dat vertellen we je donderdag om 16:00uur.
Fijn. Iets om naar uit te kijken :P

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

76fps is zeker niet slecht.
Hoewel ik de settings niet ben nagelopen is een 2080ti volgens mij 50-55fps in 4K?
Laat maar komen die Cyberpunk ;)

[ pctje te zien hier ] - Miauw


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
GekkeR schreef op maandag 14 september 2020 @ 16:57:
[...]

76fps is zeker niet slecht.
Hoewel ik de settings niet ben nagelopen is een 2080ti volgens mij 50-55fps in 4K?
Laat maar komen die Cyberpunk ;)
https://share.getcloudapp.com/Kour2pnn

Iets meer dan 55 ;)

Edit: zie nu dat deze knakker de instellingen wel aan heeft gepast. Het spel schaalt bij mijn weten echter niet zo goed, dus ik weet niet hoe veel invloed dat heeft gehad. TPU heeft een 2080 Ti zelfs op 48,7 FPS staan, PCGH op 64,6. Cijfers lopen nogal uit elkaar :|

[ Voor 29% gewijzigd door Werelds op 14-09-2020 19:15 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 14 september 2020 @ 19:00:
[...]

https://share.getcloudapp.com/Kour2pnn

Iets meer dan 55 ;)

Edit: zie nu dat deze knakker de instellingen wel aan heeft gepast. Het spel schaalt bij mijn weten echter niet zo goed, dus ik weet niet hoe veel invloed dat heeft gehad. TPU heeft een 2080 Ti zelfs op 48,7 FPS staan, PCGH op 64,6. Cijfers lopen nogal uit elkaar :|
Het is dan ook een beetje een vreemde titel. Maar ik ga liever naar goede vertrouwde Australische Steve.


Die verteld ons dat Pascal niet erg happig is op deze game, Vega 10 absoluut verschrikkelijk is, Turing vrij aardig en RDNA1 eigenlijk all over the place. :P

Het is denk ik primair een geheugenbandbreedte probleem, zie Vega 10 vs. Vega 20 en RTX2080 vs. RTX2080S. Als dat eenmaal goed zit, dan wil deze game wel.


Maar die video is fake of Nvidia heeft denk ik liever niet dat je die game gaat benchmarken. :z

[ Voor 4% gewijzigd door DaniëlWW2 op 14-09-2020 20:12 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Ik vind alle data van horizon zero dawn echt compleet waardeloos en het is dan ook een benchmark die ik volkomen negeer.
Er komt zulke rare data uit die game rollen dat je er eigenlijk niets mee kan en dus geen waarde heeft als prestatie benchmark. Er worden allerlei theorieën op losgelaten betreft pci-e 4.0 enz maar als 1 game zo raar doet en geen enkele andere dan zou ik toch zeggen het licht aan de game of the gpu drivers.

Als benchmark heeft die game echt geen meerwaarde tot ze daie game gronding patchen/drivers fixen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op maandag 14 september 2020 @ 20:10:
[...]


Het is dan ook een beetje een vreemde titel. Maar ik ga liever naar goede vertrouwde Australische Steve.
[YouTube: Horizon Zero Dawn GPU Benchmark: Navi Crushes, Vega Gets Crushed]

Die verteld ons dat Pascal niet erg happig is op deze game, Vega 10 absoluut verschrikkelijk is, Turing vrij aardig en RDNA1 eigenlijk all over the place. :P

Het is denk ik primair een geheugenbandbreedte probleem, zie Vega 10 vs. Vega 20 en RTX2080 vs. RTX2080S. Als dat eenmaal goed zit, dan wil deze game wel.


Maar die video is fake of Nvidia heeft denk ik liever niet dat je die game gaat benchmarken. :z
Die video hoeft niet fake te zijn, maar Horizon Zero Dawn is een heel slechte console port met een waslijst aan issues. De ontwikkelaar heeft al beloofd om performance verbeteringen door te voeren, dus wellicht is het beter om een tiental patches af te wachten :p

March of the Eagles


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op maandag 14 september 2020 @ 20:29:
[...]


Die video hoeft niet fake te zijn, maar Horizon Zero Dawn is een heel slechte console port met een waslijst aan issues. De ontwikkelaar heeft al beloofd om performance verbeteringen door te voeren, dus wellicht is het beter om een tiental patches af te wachten :p
Dat ben ik ook van plan voordat ik deze koop. ;)
Maar dat neemt niet weg dat geheugenbandbreedte en PCI-E 4.0 op het moment wel een verschil maken. Wat heeft de RTX3080 nu? :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op maandag 14 september 2020 @ 20:34:
[...]


Dat ben ik ook van plan voordat ik deze koop. ;)
Maar dat neemt niet weg dat geheugenbandbreedte en PCI-E 4.0 op het moment wel een verschil maken. Wat heeft de RTX3080 nu? :P
IIG geen PCIe 4.0 op een Intel testsysteem :P

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Sissors schreef op maandag 14 september 2020 @ 21:59:
[...]

IIG geen PCIe 4.0 op een Intel testsysteem :P
Ik ben serieus benieuwd wat de resultaten zijn alles alles opnieuw wordt getest met Zen 3; tenminste als blijkt dat dez sneller is in games en wellicht juist met PCI-e 4.0 sneller is.

  • DeadKennedy
  • Registratie: September 2000
  • Laatst online: 07:36
Sp3ci3s8472 schreef op maandag 14 september 2020 @ 22:38:
[...]


Ik ben serieus benieuwd wat de resultaten zijn alles alles opnieuw wordt getest met Zen 3; tenminste als blijkt dat dez sneller is in games en wellicht juist met PCI-e 4.0 sneller is.
Helaas even geen bron bij de hand, maar PCIE4.0 scheelt 1-3% op de 3090 las ik.

WEBN & chill (@IBKR)


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
DeadKennedy schreef op dinsdag 15 september 2020 @ 08:35:
[...]


Helaas even geen bron bij de hand, maar PCIE4.0 scheelt 1-3% op de 3090 las ik.
Zou raar zijn het kan op de 5700xt kan het al meer schelen.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Protax
  • Registratie: Januari 2010
  • Laatst online: 01-02 14:11
Persoonlijk (voeding)advies hoort niet thuis in een nieuws topic, zie het grote rode vak onderaan.

[ Voor 88% gewijzigd door Blaat op 15-09-2020 14:20 ]


  • DeadKennedy
  • Registratie: September 2000
  • Laatst online: 07:36
winwiz schreef op dinsdag 15 september 2020 @ 09:00:
[...]


Zou raar zijn het kan op de 5700xt kan het al meer schelen.
System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases.


Van NVidia communinty manager Tim: https://www.reddit.com/r/...y_qa_submit_your/g3m3yc4/

WEBN & chill (@IBKR)


  • Leviathius
  • Registratie: Maart 2013
  • Laatst online: 23:27
Protax schreef op dinsdag 15 september 2020 @ 09:05:
Wat is jullie gevoel qua voedingen? Ik heb op dit moment een 650W voeding in mijn systeem, wil uiteraard niet iets slopen (heb de Asus in "pre" order staan).

Mijn setup:

AMD Ryzen 7 2700X
Corsair RM650x PSU / PC voeding
G.Skill DDR4 Trident-Z 2x8GB 3200MHz CL14 RGB
Gigabyte X470 Aorus Gaming 5 WIFI
NZXT H500i - Black Midi Tower Behuizing
NZXT Kraken X62 AM4
Samsung 970 EVO Plus 1TB M.2 SSD

Met daarbij mijn huidige 1080.
https://outervision.com/power-supply-calculator

Heb mijn eigen PC ingevuld met een 3080 (en 2 HHDs en 2 SSDs etc) en de site zegt 556W peak usage.

YouTube: MotorcycleGeek


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
DeadKennedy schreef op dinsdag 15 september 2020 @ 09:15:
[...]


System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases.


Van NVidia communinty manager Tim: https://www.reddit.com/r/...y_qa_submit_your/g3m3yc4/
Grappig. Dat platform is er gewoon. Don't mention AMD

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Verwijderd

DeadKennedy schreef op dinsdag 15 september 2020 @ 09:15:
[...]


System performance is impacted by many factors and the impact varies between applications. The impact is typically less than a few percent going from a x16 PCIE 4.0 to x16 PCIE 3.0. CPU selection often has a larger impact on performance.We look forward to new platforms that can fully take advantage of Gen4 capabilities for potential performance increases.


Van NVidia communinty manager Tim: https://www.reddit.com/r/...y_qa_submit_your/g3m3yc4/
Het ligt volledig aan de toepassing. Bij de ene gaat heel veel data door de PCI Express bus en is er een heel duidelijk verschil waar te nemen en bij een andere toepassing is het weinig data en is er (zo goed als) geen verschil.

Verwijderd

Leviathius schreef op dinsdag 15 september 2020 @ 09:16:
[...]


https://outervision.com/power-supply-calculator

Heb mijn eigen PC ingevuld met een 3080 (en 2 HHDs en 2 SSDs etc) en de site zegt 556W peak usage.
Geen PSU calculator gebruiken die je volledig op het verkeerde been gaat zetten. Lees gewoon de topic waarschuwing.

  • DeadKennedy
  • Registratie: September 2000
  • Laatst online: 07:36
winwiz schreef op dinsdag 15 september 2020 @ 09:17:
[...]


Grappig. Dat platform is er gewoon. Don't mention AMD
Wat ik door de regels heen denk te lezen is dat ondanks AMD PCI-E 4.0 ondersteunt, Intel toch nog sneller is (althans: meer FPS in de geteste games). Zou ook verklaren waarom ze met Intel testen. Als PCI-E 4.0 echt performance zou geven voor de 3000 series, hadden ze vast daar wel mee gebenchmarked om nóg grotere verschillen te laten zien met voorgaande generaties.

WEBN & chill (@IBKR)


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
DeadKennedy schreef op dinsdag 15 september 2020 @ 09:23:
[...]


Wat ik door de regels heen denk te lezen is dat ondanks AMD PCI-E 4.0 ondersteunt, Intel toch nog sneller is (althans: meer FPS in de geteste games). Zou ook verklaren waarom ze met Intel testen. Als PCI-E 4.0 echt performance zou geven voor de 3000 series, hadden ze vast daar wel mee gebenchmarked om nóg grotere verschillen te laten zien met voorgaande generaties.
Dat verschil is er alleen in 1080p bij hogere resoluties is er geen of nauwelijks verschil

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Pirelly
  • Registratie: Maart 2003
  • Laatst online: 19-01 12:25
DeadKennedy schreef op dinsdag 15 september 2020 @ 09:23:
[...]


Wat ik door de regels heen denk te lezen is dat ondanks AMD PCI-E 4.0 ondersteunt, Intel toch nog sneller is (althans: meer FPS in de geteste games). Zou ook verklaren waarom ze met Intel testen. Als PCI-E 4.0 echt performance zou geven voor de 3000 series, hadden ze vast daar wel mee gebenchmarked om nóg grotere verschillen te laten zien met voorgaande generaties.
Zo kun je natuurlijk niet vergelijken.
Als je gaat vergelijken, dan neem je eenzelfde amd systeem en test je de kaart op een pcie 3 slot en daarna op een pcie 4 slot. Dan pas kun je zien of het uitmaakt.
Dat Intel (soms) sneller is, komt over het algemeen doordat games beter draaien op hogere kloksnelheden en dat is waar intel iets beter in is dan amd. Zouden games beter geoptimaliseerd worden voor meerdere cores, dan zou (bij dezelfde prijs klasse) amd weer een voordeel hebben.

  • DeadKennedy
  • Registratie: September 2000
  • Laatst online: 07:36
winwiz schreef op dinsdag 15 september 2020 @ 09:25:
[...]


Dat verschil is er alleen in 1080p bij hogere resoluties is er geen of nauwelijks verschil
En dat kleine verschil zal dus groter zijn dan het verschil tussen PCI-E 3.0 en 4.0. Maargoed, we zullen het wellicht morgen allemaal in de benchmarkresultaten terugzien.
Pirelly schreef op dinsdag 15 september 2020 @ 09:27:
[...]

Zo kun je natuurlijk niet vergelijken.
Als je gaat vergelijken, dan neem je eenzelfde amd systeem en test je de kaart op een pcie 3 slot en daarna op een pcie 4 slot. Dan pas kun je zien of het uitmaakt.
Dat Intel (soms) sneller is, komt over het algemeen doordat games beter draaien op hogere kloksnelheden en dat is waar intel iets beter in us dan amd. Zouden games beter geoptimaliseerd worden voor meerdere cores, dan zou (bij dezelfde prijs klasse) amd weer een voordeel hebben.
Ja, dat begrijp ik. En daarbij zegt NVidia dus dat in die situatie er nauwelijks verschil is tussen PCI-E 3.0 en 4.0, en dat andere componenten (CPU) een veel grotere impact hebben.

[ Voor 50% gewijzigd door DeadKennedy op 15-09-2020 09:30 ]

WEBN & chill (@IBKR)


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
DeadKennedy schreef op dinsdag 15 september 2020 @ 09:28:
[...]


En dat kleine verschil zal dus groter zijn dan het verschil tussen PCI-E 3.0 en 4.0. Maargoed, we zullen het wellicht morgen allemaal in de benchmarkresultaten terugzien.
HardwareUnboxed test sowieso ook met een AMD 3950

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Verwijderd

Het is afhankelijk van als je de game instellingen. Verlaag je die zo dat de CPU de bottleneck wordt dan zie je dat de snelste Intel CPU meestal nog wel een voordeel heeft door de hogere single thread prestaties. Maar op het moment dat je de game zo instelt dat de videokaart degene is die je voor 100% belast, door de instellingen zo hoog mogelijk te zetten, valt dat voordeel weg.

  • Kimberly
  • Registratie: Juli 2002
  • Laatst online: 03-02 20:41
In hoeverre denken jullie dat een 3080 bottleneckt met een Core i5 @5ghz?

Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED


Verwijderd

Kimberly schreef op dinsdag 15 september 2020 @ 10:53:
In hoeverre denken jullie dat een 3080 bottleneckt met een Core i5 @5ghz?
Het gaat er vooral om of de CPU snel genoeg is voor de game en instellingen welke je wil draaien. Dit staat los van de videokaart.

  • SpX
  • Registratie: Februari 2006
  • Laatst online: 31-12-2025

SpX

Kimberly schreef op dinsdag 15 september 2020 @ 10:53:
In hoeverre denken jullie dat een 3080 bottleneckt met een Core i5 @5ghz?
Met een 6 core 9600K op 5ghz hoef je je geen zorgen te maken. Hij zal snel genoeg zijn om geen (CPU gerelateerde) micro stutters te hebben, ongeacht de resolutie.

Ik hoop dat er morgen genoeg reviews online verschijnen die ook frame time analyses doen met verschillende CPU's/platforms. Dat zegt zoveel meer dan de average FPS.
Pagina: 1 ... 88 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.