• Kimberly
  • Registratie: Juli 2002
  • Laatst online: 03-02 20:41
SpX schreef op dinsdag 15 september 2020 @ 11:05:
[...]


Met een 6 core 9600K op 5ghz hoef je je geen zorgen te maken. Hij zal snel genoeg zijn om geen (CPU gerelateerde) micro stutters te hebben, ongeacht de resolutie.

Ik hoop dat er morgen genoeg reviews online verschijnen die ook frame time analyses doen met verschillende CPU's/platforms. Dat zegt zoveel meer dan de average FPS.
Hij doet ook 5,3 (maar dan zit ik wel aan de max van 1.35v). Ben inderdaad benieuwd naar de reviews, verwacht ook niet dat mijn cpu een bottleneck zou zijn. Het was een jaar terug een beetje de 'mid range' cpu.

Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar begint het al met ARM. Open oproep van een van de oprichters aan Boris Johnson om de deal te blokkeren of tenminste waarborgen te eisen. Geen voorkeursbehandeling van ARM voor Nvidia en de onwenselijkheid om onder Amerikaans recht te vallen voor de internationale positie van ARM.
nieuws: Medeoprichter Arm: overname door Nvidia is funest voor bedrijfsmodel ...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:39
winwiz schreef op dinsdag 15 september 2020 @ 09:17:
[...]


Grappig. Dat platform is er gewoon. Don't mention AMD
AMD support PCIE4.0, of de huidige AMD hardware echter alles uit PCIE4.0 kan halen is natuurlijk maar de vraag. En dat is nu juist waar die Nvidia man naar uitkijkt, een platform dat PCIE4.0 ten volle kan benutten om er ook daadwerkelijk performance winsten uit te halen voor GPU's.

Tot op heden lijkt PCIE4 immers (vrijwel) alleen meerwaarde hebben voor storage en zijn de winsten bij GPU's, als ze er al zijn, zeer klein. Zo had HWU laat een review waarbij PCIE3 vs 4 getest werd met een 5700XT en daar zat amper verschil, het "beste" resultaat was een winst van +-3.5%, de meeste resultaten lieten geen verschil zien of zaken binnen de "margin of error".

De kans is er natuurlijk dat de nieuwe generatie meer gaan profiteren van PCIE4.0 maar ik zou er mijn handen nog niet voor in het vuur steken. Zeker niet nadat Nvidia getest heeft een i9 (als Ryzen met PCIE4.0 voor hun betere resultaten had gegeven hadden ze immers vast AMD gebruikt). Daarnaast geeft Nvidia zelf ook al aan dat het maximaal enkele procenten winst geeft.

Mogelijk natuurlijk dat Zen 3 daar nog verschil in kan maken en misschien meer kan profiteren van PCIE4.

[ Voor 37% gewijzigd door Dennism op 15-09-2020 11:34 ]


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Dennism schreef op dinsdag 15 september 2020 @ 11:28:
[...]


AMD support PCIE4.0, of de huidige AMD hardware echter alles uit PCIE4.0 kan halen is natuurlijk maar de vraag. En dat is nu juist waar die Nvidia man naar uitkijkt, een platform dat PCIE4.0 ten volle kan benutten om er ook daadwerkelijk performance winsten uit te halen voor GPU's.

Tot op heden lijkt PCIE4 immers (vrijwel) alleen meerwaarde hebben voor storage en zijn de winsten bij GPU's, als ze er al zijn, zeer klein. Zo had HWU laat een review waarbij PCIE3 vs 4 getest werd met een 5700XT en daar zat amper verschil, het "beste" resultaat was een winst van +-3.5%, de meeste resultaten lieten geen verschil zien of zaken binnen de "margin of error".

De kans is er natuurlijk dat de nieuwe generatie meer gaan profiteren van PCIE4.0 maar ik zou er mijn handen nog niet voor in het vuur steken. Zeker niet nadat Nvidia getest heeft een i9 (als Ryzen met PCIE4.0 voor hun betere resultaten had gegeven hadden ze immers vast AMD gebruikt). Daarnaast geeft Nvidia zelf ook al aan dat het maximaal enkele procenten winst geeft.

Mogelijk natuurlijk dat Zen 3 daar nog verschil in kan maken en misschien meer kan profiteren van PCIE4.
Ik mis in jouw betoog de rol van fatsoenlijk geschreven software die goed schaalt met de beschikbare hardware. Hoewel niet hetzelfde, moet ik denken aan de threadripper 3990x waar zeker bij release maar bar weinig pakketten de beschikbare 128threads konden aanslingeren.
Wat ik op Tweakers eigenlijk al jaren lees (zelf mis ik de kennis om een gefundeerd oordeel te vellen), is dat devs steeds slordiger worden omdat de hardware toch krachtig genoeg is om het doel te bereiken. Of is dat met bandbreedte (lees pcie4) niet relevant?

iR Profiel


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Referentie PCB's.
RTX3080
Afbeeldingslocatie: https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-Colorful-ZOTAC-PCB.jpg

RTX3090
Afbeeldingslocatie: https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-PCB-1-1536x769.jpg
https://videocardz.com/ne...ce-board-designs-pictured

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44

Jim denkt o.a. dat we deze generatie vrij weinig Nvidia gpus uiteindelijk gaan krijgen in laptops als het gebruik zo hoog is.

De uiteindelijke besparing van Samsung 8nm tegenover TSMC 7nm gaat ze en de klanten op andere punten waarschijnlijk geld kosten. Bill of materials voor fatsoenlijke koeling is met 155 euro best hoog. Board partners zullen waarschijnlijk een gedeelte van die kosten dragen.

[ Voor 39% gewijzigd door Sp3ci3s8472 op 15-09-2020 13:29 ]


  • Filthypagan
  • Registratie: Februari 2015
  • Laatst online: 05-11-2025
Is de op de Nvidia;s website gestelde embargo alleen van toepassing op de 3080 of ook de 3090? Ik zie dit specifiek niet terug.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
Voor diegene die nu al klaar zitten.

https://countingdownto.com/?c=3211380

  • TheDevilOnLine
  • Registratie: December 2012
  • Laatst online: 03-02 23:31
Als ik me niet vergis is het embargo tot 16 september om 15.00, dus nog even ietsjes langer wachten
De eerste reviews zullen nu op woensdag 16 september verschijnen, om 15:00 uur Nederlandse tijd.
Zie nieuws: Nvidia RTX 3070 komt 15 oktober uit en RTX 3080-reviews uitgesteld na...

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 27-01 09:26

Kuusj

Ofwel varken in 't Limburgs

Protax schreef op dinsdag 15 september 2020 @ 09:05:
Wat is jullie gevoel qua voedingen? Ik heb op dit moment een 650W voeding in mijn systeem, wil uiteraard niet iets slopen (heb de Asus in "pre" order staan).

Mijn setup:

AMD Ryzen 7 2700X
Corsair RM650x PSU / PC voeding
G.Skill DDR4 Trident-Z 2x8GB 3200MHz CL14 RGB
Gigabyte X470 Aorus Gaming 5 WIFI
NZXT H500i - Black Midi Tower Behuizing
NZXT Kraken X62 AM4
Samsung 970 EVO Plus 1TB M.2 SSD

Met daarbij mijn huidige 1080.
Zou me er geen enkele zorgen over maken. Onder het meest ondenkbare 100% load scenario zal je systeem rond de 500W verbruiken (die waterkoeler zuipt nogal wat). Realistischer zal tussen de 400-450W gaming load zijn.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • GG85
  • Registratie: Januari 2002
  • Laatst online: 03-02 19:28

GG85

.......

Mooi om te zien hoeveel vrijheid de PCB layouter heeft overgelaten aan procurement voor BOM optimalisaties en aan de EE engineer om het ontwerp nog wat te tunen:

-Alle Tantalen/Polymer caps kunnen ook 3x MLCC op
-Alle 'Elco's' kunnen ook bestuukt worden met 2x polymer/tantaal
-Footprints zijn hierdoor wel een beetje ratjetoe waardoor het een en ander schots en scheef staat
-alle THT connectoren zijn of nog niet gesoldeerd of heel slecht gesoldeerd lijkt het.

(GG85 heeft als droom ooit nog eens PCB design voor een Apple.Tesla/Nvidia te doen O-) )

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 04-02 14:44
DaniëlWW2 schreef op dinsdag 15 september 2020 @ 11:26:
En daar begint het al met ARM. Open oproep van een van de oprichters aan Boris Johnson om de deal te blokkeren of tenminste waarborgen te eisen. Geen voorkeursbehandeling van ARM voor Nvidia en de onwenselijkheid om onder Amerikaans recht te vallen voor de internationale positie van ARM.
nieuws: Medeoprichter Arm: overname door Nvidia is funest voor bedrijfsmodel ...
Ik snap ze bezwaren wel, maar de move zelf van Nvidia kan ik ook wel volgen. De bescherming van ARM binnen het VK vind ik persoonlijk bs. Als het zo belangrijk was voor het VK om dit in eigen land te houden hadden er al lang biedingen gelopen vanuit de overheid daar. Dit blijft toch echt een Europa dingetje wat niks te nadele is van Nvidia. Lopende deals lijken gedekt binnen de afspraken die al zijn gemaakt, dus het grootste bezwaar was dan over blijft is dat Nvida hiermee nieuwe deals naar eigen hand kan zetten.

Nvidia wil er alles aan doen om relevant te blijven naar de toekomst toe. Ze zijn voor GPU markt vrij afhankelijk van de keuzes die Intel en AMD maken. Met dit soort aankopen probeert Nvidia zichzelf te verrijken met een ARM toekomst waarin ze hun eigen platform zouden kunnen uitwerken en een key speler blijven. Intel poogt Nvidia al te bestrijden in het datacenter door eigen producten te ontwikkelen en ook AMD probeert al jaren om aandeel af te pakken.
Stel dat AMD/INTEL straks de GPU volledig willen gaan onderbrengen in hun eigen soc of andere producten dan eigen creaties gaat uitsluiten op hun platform dan staat Nvidia buitenspel. Intel heeft dit als eens willen proberen door de GPU poorten uit te willen faseren en iedereen naar eigen onboard GPU te dwingen. Vanuit die gedachte kan ik deze move juist supporten, want een speler weghouden die kan concurreren gaat op termijn echt wel gebeuren nu er steeds meer soc oplossingen komen. Een derde sterke CPU speler maakt het voor iedereen nog leuker.

  • ChronoTtrigger
  • Registratie: Januari 2019
  • Laatst online: 27-02-2025
Persoonlijk lijkt het mij alleen maar goed dat Nvidia het overneemt opent in ieder geval meer wegen naar andere alternatieven mocht Nvidia niet lief mee kunnen spelen.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
TheDevilOnLine schreef op dinsdag 15 september 2020 @ 13:51:
[...]

Als ik me niet vergis is het embargo tot 16 september om 15.00, dus nog even ietsjes langer wachten

[...]

Zie nieuws: Nvidia RTX 3070 komt 15 oktober uit en RTX 3080-reviews uitgesteld na...
Fixed... Amerikanen met hun AM en PM...

  • choogen
  • Registratie: November 2009
  • Niet online

choogen

Has anyone seen my stapler?

Sp3ci3s8472 schreef op dinsdag 15 september 2020 @ 13:26:
[YouTube: Nvidia's Dumbest Decision]
Jim denkt o.a. dat we deze generatie vrij weinig Nvidia gpus uiteindelijk gaan krijgen in laptops als het gebruik zo hoog is.

De uiteindelijke besparing van Samsung 8nm tegenover TSMC 7nm gaat ze en de klanten op andere punten waarschijnlijk geld kosten. Bill of materials voor fatsoenlijke koeling is met 155 euro best hoog. Board partners zullen waarschijnlijk een gedeelte van die kosten dragen.
AdoredTV's analyse komt ook redelijk overeen met die van Moore's Law is Dead een paar dagen terug.

Als gevolg van de keuze om een soort van "tussen-node" te laten produceren door Samsung i.p.v. een full node bij TSMC spaart Nvidia weliswaar circa $26 per chip uit, maar kan ze de kloksnelheden nauwelijks verhogen t.o.v. de vorige generatie. Om toch tot prestatiewinst te komen moet daarom o.a. het aantal CUDA cores ook meer dan verdubbelen. Alsnog gaat het vermogen van de RTX 3080 en RTX 3090 daarmee door het dak. De enige manier waarop Nvidia kan voorkomen dat de topkaart(en) het volumeniveau van een straaljager zouden krijgen is door serieus werk te maken van het ontwerpen van een nieuwe de koeler die o.a. wordt voorzien van een enorm koelblok. Die koeler werd echter zo duur ($150) dat het Nvidia's gebruikelijke winstmarges aantast. Daarom besluit het bedrijf er maar een zeer beperkt aantal van te produceren en daarom ook mogen de AIB partners dit keer al tegelijk met Nvidia's FE kaarten hun eigen kaarten lanceren.

Jim betwijfelt verder of zelfs de duurste AIB partner modellen de RTX3000 topkaarten zo koel en stil kunnen houden als de FE kaarten dat zullen kunnen. In ieder geval zijn de MSRP prijzen die Nvidia voor Ampere heeft aangekondigd grotendeels onhaalbaar. De "enthusiast gamer" mag uiteindelijk de aanzienlijke meerprijs betalen tussen de niet verkrijgbare FE kaarten en de AIB topkaarten die het koel- en geluidsniveau van die eerste nauwelijks (of met moeite) zullen halen. Natuurlijk krijgen dan uiteindelijk de AIB partners (of wellicht de retailkanalen of de miners?) daarvan de schuld, maar Nvidia zelf ontspringt zo handig de dans, want alle Ampere benchmarks worden gebaseerd op de prachtige prijs-prestatieverhouding van die (ook nog eens relatief stille) FE kaarten.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 04-02 14:44
choogen schreef op dinsdag 15 september 2020 @ 15:39:
[...]


AdoredTV's analyse komt ook redelijk overeen met die van Moore's Law is Dead een paar dagen terug.

Als gevolg van de keuze om een soort van "tussen-node" te laten produceren door Samsung i.p.v. een full node bij TSMC spaart Nvidia weliswaar circa $26 per chip uit, maar kan ze de kloksnelheden nauwelijks verhogen t.o.v. de vorige generatie. Om toch tot prestatiewinst te komen moet daarom o.a. het aantal CUDA cores ook meer dan verdubbelen. Alsnog gaat het vermogen van de RTX 3080 en RTX 3090 daarmee door het dak. De enige manier waarop Nvidia kan voorkomen dat de topkaart(en) het volumeniveau van een straaljager zouden krijgen is door serieus werk te maken van het ontwerpen van een nieuwe de koeler die o.a. wordt voorzien van een enorm koelblok. Die koeler werd echter zo duur ($150) dat het Nvidia's gebruikelijke winstmarges aantast. Daarom besluit het bedrijf er maar een zeer beperkt aantal van te produceren en daarom ook mogen de AIB partners dit keer al tegelijk met Nvidia's FE kaarten hun eigen kaarten lanceren.
In grote lijnen zal het in lijnen wel tegen de waarheid aan zitten. Ik vind dat sommige tubers wel heel hard de suggestie aan het doordrukken zijn dat
1. de koeler 150 kost om te maken. Ik vind dat persoonlijk erg hoog ingeschat op een productielijn van koelers.
2. Ze nu allemaal de suggestie wekken dat de FE versie heel beperkt leverbaar gaat zijn. Ik zie niet in waarom dat zou zijn of dat Nvidia dat zouden willen. Zelfs met hogere kosten voor de koeler, snijd Nvidia de AIB, distributeur en de shop weg door ze zelf te leveren. Dit zijn allemaal stations die ook een deel van de winst willen hebben. Dit is allemaal foetsie bij FE versie en marge die ze zelf kunnen houden. Ik vermoed wel dat ze niet all out zullen gaan op deze versie om de partners niet helemaal gek te maken. Maar uiteindelijk zal deze net als turing gewoon te krijgen zijn voor de mensen die hem echt willen. Als de eerste wave kopers die gaan "hoggen" hebben komt dat echt wel goed. Kortom ik vind het een nogal ondoordachte uitspraak dat de FE versie enkel voor de reviewers gaat zijn zoals ze claimen.
Jim betwijfelt verder of zelfs de duurste AIB partner modellen de RTX3000 topkaarten zo koel en stil kunnen houden als de FE kaarten dat zullen kunnen. In ieder geval zijn de MSRP prijzen die Nvidia voor Ampere heeft aangekondigd grotendeels onhaalbaar. De "enthusiast gamer" mag uiteindelijk de aanzienlijke meerprijs betalen tussen de niet verkrijgbare FE kaarten en de AIB topkaarten die het koelniveau van die eerste nauwelijks (of met moeite) zullen halen. Natuurlijk krijgen dan uiteindelijk de AIB partners (of wellicht de retailkanalen of de miners?) daarvan de schuld, maar Nvidia zelf ontspringt zo handig de dans, want alle Ampere benchmarks worden gebaseerd op de prachtige prijs-prestatieverhouding van de FE kaarten.
Ik heb dit ook al vaker laten ventileren dit zelf ook sh*t te vinden. De chip koel houden is niet het probleem, de afgifte van die warmte wel en daar kun je niks aan doen als fabrikant. Sinds Maxwell heb ik kaarten van Max 200Watt gehad en dat is echt een verademing in herrie, maar vooral comfort door reductie van hitte uitstoot in de kamer. Een GPU van 300Watt+ stoot enorm veel extra hitte je kast uit die de omgeving lekker gaat opstoken. Dan kan de kaart wel koel blijven, maar de pc gebruiker zit dan vervolgens in een sauna te gamen wat echt niet prettig is. Helemaal tussen april en september maakt dat gamen soms zeer oncomfortabel imo. Alleen daarom zou ik eerder neigen naar een 3070 dan een 3080 als upgrade (3090 is helemaal idioot).
Verder nogal een raar statement dat de AIB met de shit gaat zitten ten koste van Samsung proces. Een betaalbare Ampere kaart verkoopt beter dan een dure Turing, dat is de andere kant van de stuiver.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sjekneck schreef op dinsdag 15 september 2020 @ 16:09:
De chip koel houden is niet het probleem, de afgifte van die warmte wel en daar kun je niks aan doen als fabrikant. Sinds Maxwell heb ik kaarten van Max 200Watt gehad en dat is echt een verademing in herrie, maar vooral comfort door reductie van hitte uitstoot in de kamer. Een GPU van 300Watt+ stoot enorm veel extra hitte je kast uit die de omgeving lekker gaat opstoken. Dan kan de kaart wel koel blijven, maar de pc gebruiker zit dan vervolgens in een sauna te gamen wat echt niet prettig is. Helemaal tussen april en september maakt dat gamen soms zeer oncomfortabel imo. Alleen daarom zou ik eerder neigen naar een 3070 dan een 3080 als upgrade (3090 is helemaal idioot).
Dit d:)b

Denk ook dat een hoop mensen nog wel terug gaan komen van die 320W die nvidia nodig heeft om deze prestaties te halen. Een 250W kaart genereert imho al een onprettige hoeveelheid warmte.

[ Voor 10% gewijzigd door Help!!!! op 15-09-2020 17:05 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Orky Rulez
  • Registratie: Juli 2011
  • Laatst online: 04-02 13:35
Een grote kamerventilator kan dan soelaas bieden.

Ikzelf heb een 100Hz scherm, dus zeker de eerste zomer denk ik dat ik hem wel kan limiteren op voltage, fps, power limit, ...

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Orky Rulez schreef op dinsdag 15 september 2020 @ 17:36:
Een grote kamerventilator kan dan soelaas bieden.

Ikzelf heb een 100Hz scherm, dus zeker de eerste zomer denk ik dat ik hem wel kan limiteren op voltage, fps, power limit, ...
Een airco ook! Maar ja gaat wel wat ver hè voor een GPU... :P

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Dennism schreef op dinsdag 15 september 2020 @ 11:28:
[...]


AMD support PCIE4.0, of de huidige AMD hardware echter alles uit PCIE4.0 kan halen is natuurlijk maar de vraag. En dat is nu juist waar die Nvidia man naar uitkijkt, een platform dat PCIE4.0 ten volle kan benutten om er ook daadwerkelijk performance winsten uit te halen voor GPU's.

Tot op heden lijkt PCIE4 immers (vrijwel) alleen meerwaarde hebben voor storage en zijn de winsten bij GPU's, als ze er al zijn, zeer klein. Zo had HWU laat een review waarbij PCIE3 vs 4 getest werd met een 5700XT en daar zat amper verschil, het "beste" resultaat was een winst van +-3.5%, de meeste resultaten lieten geen verschil zien of zaken binnen de "margin of error".

De kans is er natuurlijk dat de nieuwe generatie meer gaan profiteren van PCIE4.0 maar ik zou er mijn handen nog niet voor in het vuur steken. Zeker niet nadat Nvidia getest heeft een i9 (als Ryzen met PCIE4.0 voor hun betere resultaten had gegeven hadden ze immers vast AMD gebruikt). Daarnaast geeft Nvidia zelf ook al aan dat het maximaal enkele procenten winst geeft.

Mogelijk natuurlijk dat Zen 3 daar nog verschil in kan maken en misschien meer kan profiteren van PCIE4.
Als je je best doet ga je wel grotere verschillen vinden, bv bij Hellblade:
https://www.techpowerup.c...ci-express-scaling/4.html
Afbeeldingslocatie: https://tweakers.net/i/8FqHsI-V17mEy4qhNAcHscIw_8w=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/OIgY7wPfkeUTONaF5pRxNAmW.png?f=user_large

Helaas heeft TPU nog geen 2080ti op PCIe4 getest, maar als de trend doorzet en de kaarten worden sneller...
5700XT hebben ze wel op PCIe4 getest, maar die kaart is simpelweg langzamer en dus zijn de verschillen kleiner. https://www.techpowerup.c...radeon-rx-5700-xt/24.html

Wel raar om te zien dat sommige games juist op lage resolutie een PCIe bottleneck laten zien, en anderen juist op hoge resolutie. Wat voor data zorgt hier dan voor? (blijkbaar niet altijd de drawcalls)?

[ Voor 4% gewijzigd door mitsumark op 15-09-2020 18:07 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Een 2080 Ti testen op 4.0 gaat lastig worden...

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:39
@mitsumark Dat ze de 2080Ti niet getest hebben is logisch, deze heeft geen ondersteuning voor PCIE4.

Verder zal er altijd wel een test te vinden zijn waarbij er een verschil is, de grote vraag gaat echter zijn of PCIE3 en PCIE4 'across the board' verschillen gaan opleveren met de RTX 3000 serie kaarten en Big Navi of dat dit heel erg specifiek gaat zijn per workload / game.

Verwijderd

In dit geval is gemiddeld natuurlijk niet echt interessant en gaat het vooral om de uitersten. Net zoals met een CPU die eigenlijk te traag is voor een bepaalde game, ook al is die 95% van de tijd genoeg in die game. Die 5% dat die het niet is waar het omdraait. Een game die voor 5% van de tijd onspeelbaar is, is eigenlijk gewoon onspeelbaar. Tenzij je die game natuurlijk niet doet.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:39
Exact gemiddelden zullen inderdaad niet direct interessant zijn, maar als jij bijv. 10 games test, bij 9 daarvan valt het verschil binnen de foutmarge en bij 1 game zit er 5% performance verschil tussen PCIE3 en PCIE4 kun je wel vrij goed aangeven dat voor die workloads PCIE3 t.o.v. 4 geen belangrijke factor is in die test scenario's.

Dat is wat ik bedoel met 'across the board'.

Daarna kun je altijd nog gaan kijken of er outliers zijn wanneer de meeste tests geen verschil laten zien. Zijn die outliers er, dan kun je altijd je componentkeuze laten afhangen van die outliers, wanneer dat workloads zijn die je vaak zal uitvoeren.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
@Paprika @Dennism goed punt :)
Wellicht dat we het met de 3080 gaan zien als iemand zich (na de gebruikelijke benchmarks) geroepen voelt om PCIe scaling te testen (als er uberhaupt een aantal zijn met een AMD systeem).

[ Voor 15% gewijzigd door mitsumark op 15-09-2020 19:00 ]


  • Pirelly
  • Registratie: Maart 2003
  • Laatst online: 19-01 12:25
mitsumark schreef op dinsdag 15 september 2020 @ 18:59:
(als er uberhaupt een aantal zijn met een AMD systeem).
Amd systemen zijn erg populair op dit moment, vooral bij mensen die naast het gamen nog wat serieuzer werk doen waar meer cores voor nodig zijn. Alleen moet je dus eenzelfde systeem zien te vinden, eentje met pcie 3, de ander met pcie 4.
Maar die test zal vast wel gedaan zijn...

[ Voor 44% gewijzigd door Pirelly op 15-09-2020 19:36 ]


  • GG85
  • Registratie: Januari 2002
  • Laatst online: 03-02 19:28

GG85

.......

Pirelly schreef op dinsdag 15 september 2020 @ 19:29:
[...]


Amd systemen zijn erg populair op dit moment, vooral bij mensen die naast het gamen nog wat serieuzer werk doen waar meer cores voor nodig zijn. Alleen moet je dus eenzelfde systeem zien te vinden, eentje met pcie 3, de ander met pcie 4.
Maar die test zal vast wel gedaan zijn...
Je kan in je bios altijd snelheild op 3 zetten ipv 4 ;).

Denk dat bij de eerste reviews morgen dit allemaal aan bod gaat komen

  • Pirelly
  • Registratie: Maart 2003
  • Laatst online: 19-01 12:25
Ja, maar alleen die setting op pcie 3 zetten, geeft dat dan ook echt het gewenste effect. Om echt goed te testen, moet je volgens mij 2 moederborden pakken, die bijna identiek zijn, behalve dat bij de ene pcie 4 nog niet voorhanden was. Alleen dan kun je volgens mij echt goed testen...

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 04-02 10:22
Verbaasd me eerlijk gezegd dat er nog zo goed als geen benchmarks zijn uitgelekt.

Wie goed doet, die goed ontmoet.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 31-01 01:56

edward2

Schieten op de beesten

AtlAntA schreef op dinsdag 15 september 2020 @ 19:43:
Verbaasd me eerlijk gezegd dat er nog zo goed als geen benchmarks zijn uitgelekt.
Idd, muv die Chinese(?) website.

Niet op voorraad.


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

AtlAntA schreef op dinsdag 15 september 2020 @ 19:43:
Verbaasd me eerlijk gezegd dat er nog zo goed als geen benchmarks zijn uitgelekt.
Volgens mij worden op dit moment alleen 3080FE's gebenchmarked. Het zal voor NV dan vermoedelijk niet al te moeilijk zijn om te achterhalen wie gegevens aan het lekken is.
Als je dat dan in het achterhoofd houdt ga je niet je review exemplaar van de 3090 en 3070 in de waagschaal leggen...Denk ik althans.

iR Profiel


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
onsgeluk schreef op dinsdag 15 september 2020 @ 20:25:
[...]


Volgens mij worden op dit moment alleen 3080FE's gebenchmarked. Het zal voor NV dan vermoedelijk niet al te moeilijk zijn om te achterhalen wie gegevens aan het lekken is.
Als je dat dan in het achterhoofd houdt ga je niet je review exemplaar van de 3090 en 3070 in de waagschaal leggen...Denk ik althans.
Zou wel slim zijn. De Samsung 8nm is super inefficient en Nvidia heeft het aantal cuda cores gigantisch verhoogd. Als je je bedenkt dat een 2080ti een 250-300W verbruik had gemiddeld gezien en deze kaart 320W trekt voor de FE die cherry binned zijn...
Een normale third party 3080 met 3x8pin komt gok ik op 350W uit waar de hoger geclockte 370W wel halen. Dan zijn er nog fabrikanten (Kuch Inno3D) die een 2 fan variant op de markt durven te plaatsen? :+

  • Simbob
  • Registratie: December 2009
  • Niet online

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Die 600W is bij de stekker he, dus voor gebruik van componenten moet je wel efficientie van voeding meenemen.
Santee schreef op dinsdag 15 september 2020 @ 20:32:
[...]

Zou wel slim zijn. De Samsung 8nm is super inefficient en Nvidia heeft het aantal cuda cores gigantisch verhoogd. Als je je bedenkt dat een 2080ti een 250-300W verbruik had gemiddeld gezien en deze kaart 320W trekt voor de FE die cherry binned zijn...
Een normale third party 3080 met 3x8pin komt gok ik op 350W uit waar de hoger geclockte 370W wel halen. Dan zijn er nog fabrikanten (Kuch Inno3D) die een 2 fan variant op de markt durven te plaatsen? :+
De FE editie heeft ook 2 fans. En kom op, 8nm super inefficient? Vergeleken met wat? Ja vast minder efficient dan 7nm TSMC, vast niet minder efficient dan de oude 12nm van Turing. Heb je ook enige bron dat het 320W voor cherry binned exemplaren is en meer voor andere? (Uiteraard zijn er OC varianten met hoger power limit, maar dan bedoel ik uiteraard vergeleken met de niet OC alternatieven).

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Alleen met een overgeklokte i7 kom je zo hoog.
De 309W van de 3080 zelf is prima te noemen en 9 van de 10 mensen kunnen gewoon een goede 550W voeding gebruiken.

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
mitsumark schreef op dinsdag 15 september 2020 @ 20:52:
[...]

Alleen met een overgeklokte i7 kom je zo hoog.
De 309W van de 3080 zelf is prima te noemen en 9 van de 10 mensen kunnen gewoon een goede 550W voeding gebruiken.
TDP is 320w en de meeste kaarten gaan daar (erg veel) overheen zoals je ook kan zien bij de 2080TI die een TDP heeft van 250w.

https://nl.hardware.info/...en-roundup-stroomverbruik

Dus denk eerder dat die naar de 350w gaat.

[ Voor 4% gewijzigd door Enchantress op 15-09-2020 21:11 ]


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
Sissors schreef op dinsdag 15 september 2020 @ 20:41:
[...]

Die 600W is bij de stekker he, dus voor gebruik van componenten moet je wel efficientie van voeding meenemen.

[...]

De FE editie heeft ook 2 fans. En kom op, 8nm super inefficient? Vergeleken met wat? Ja vast minder efficient dan 7nm TSMC, vast niet minder efficient dan de oude 12nm van Turing. Heb je ook enige bron dat het 320W voor cherry binned exemplaren is en meer voor andere? (Uiteraard zijn er OC varianten met hoger power limit, maar dan bedoel ik uiteraard vergeleken met de niet OC alternatieven).
YouTube: Nvidia's Dumbest Decision

Wel efficienter dan de 12nm van turing, maar energieverbruik schaalt natuurlijk lineair met aantal cuda cores en die zijn verdubbeld. Dus ja op zich is het verbruik per transistor een stuk beter dan de 2080ti bijvoorbeeld. Niet per se een officiële bron, maar op meerdere nieuwssites gelezen dan Nvidia zelf wel de beste chips eruit binned voor haar eigen FE. Of dit waar is moet natuurlijk nog blijken. Dus ja, neem het maar met een flinke dosis zout.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Enchantress schreef op dinsdag 15 september 2020 @ 21:10:
[...]

TDP is 320w en de meeste kaarten gaan daar (erg veel) overheen zoals je ook kan zien bij de 2080TI die een TDP heeft van 250w.

https://nl.hardware.info/...en-roundup-stroomverbruik

Dus denk eerder dat die naar de 350w gaat.
Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?

Ik haal die 309W letterlijk uit de link:
privaterbok

Some power consumption summary from the video:

They're using aida64 stress FPU, 10700 got 170w, I believe he's unlocked multicore enhance in mobo, thus 4.6G all core no limit well beyond certified 65w range.

And RTX 3080 using Furmark reach 309w

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
mitsumark schreef op dinsdag 15 september 2020 @ 21:21:
[...]

Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?

Ik haal die 309W letterlijk uit de link:


[...]
Gokje: Dit is zónder RTX. Dus die RTX cores zitten uit hun neus te eten. Denk als je een game speelt waar RTX 100% benut wordt dat je verbruik een stuk hoger wordt.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.

Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.

[ Voor 6% gewijzigd door XWB op 15-09-2020 21:28 ]

March of the Eagles


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
mitsumark schreef op dinsdag 15 september 2020 @ 21:21:
[...]

Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?

Ik haal die 309W letterlijk uit de link:


[...]
Omdat dat altijd al zo geweest is bij zowel Nvidia als AMD. Ik zie dan ook geen rede waarom dat bij de 3080 plots anders is.

We zullen het bij de reviews gaan zien morgen en vooral bij de andere partijen. (MSI, Asus enz)

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.

Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
Zonder geheugen werkt de videokaart niet, dus moet je dat erbij rekenen. ;)

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.

Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
Nou ja, kijk de video die ik linkte maar. Het blijft een te gek TDP voor de gehele kaart. 3090 kan bijna 400W hitten, dat vind ik toch wel echt gigantisch. Titans hebben al jaren 250W tdp op turing na (280W).

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Enchantress schreef op dinsdag 15 september 2020 @ 21:28:
[...]

Omdat dat altijd al zo geweest is bij zowel Nvidia als AMD. Ik zie dan ook geen rede waarom dat bij de 3080 plots anders is.

We zullen het bij de reviews gaan zien morgen en vooral bij de andere partijen. (MSI, Asus enz)
Ik zie het niet terug?

2080 super heeft een TDP van 250W, verbruik ligt akelig dicht bij TDP.
https://www.techpowerup.c...0-super-jetstream/31.html

Je link naar HWinfo laat hetzelfde zien, alleen een enkele (extreme/OC) versie komt daar (ver) boven.

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Enchantress schreef op dinsdag 15 september 2020 @ 21:29:
[...]

Zonder geheugen werkt de videokaart niet, dus moet je dat erbij rekenen. ;)
True, maar dan moet je ook meerekenen dat de warmte overdracht naar de koeler over een groter oppervlak plaatsvind dan louter vanuit de gpu.

iR Profiel


Verwijderd

XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.
Eerst nog maar eens de echte benchmarks zien of die 3070 net zo snel is.

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
@mitsumark
Dan kijk je denk ik niet goed. ;)

Slechts 7 van de 22 kaarten blijven binnen hun TDP bij zowel de 2070, 2080 als de 2080TI.

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Enchantress schreef op dinsdag 15 september 2020 @ 21:57:
@mitsumark
Dan kijk je denk ik niet goed. ;)

Slechts 7 van de 22 kaarten blijven binnen hun TDP bij zowel de 2070, 2080 als de 2080TI.
2070 FE, TDP 175W, verbruik 173W
2070 Super FE, TDP 215W, verbruik 210W (https://nl.hardware.info/...r-round-up-stroomverbruik)
2080 FE, TDP 225W, verbruik 233W
2080 Super FE, TDP 250W, verbruik 245W (https://nl.hardware.info/...r-round-up-stroomverbruik)
2080ti FE, TDP 250W, verbruik 274W

Alleen de 2080ti lijkt (veel) meer te verbruiken dan zn TDP.
Dat andere board partners daar dan hun eigen draai aan geven en soms wel 20% meer verbruiken ligt niet aan de chip.
Soms zie je ook een versie die minder verbruikt dan het FE model.

3080 FE, TDP 320W, verbruik 315-330W???

[ Voor 3% gewijzigd door mitsumark op 15-09-2020 22:19 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Santee schreef op dinsdag 15 september 2020 @ 21:32:
[...]


Nou ja, kijk de video die ik linkte maar. Het blijft een te gek TDP voor de gehele kaart. 3090 kan bijna 400W hitten, dat vind ik toch wel echt gigantisch. Titans hebben al jaren 250W tdp op turing na (280W).
Videos van een half uur linken zijn geen onderbouwing tbh. Dan kan ik wel videos van drie uur linken. En die hele video is samen te vatten als: Een random Youtuber maakt wat claims zonder onderbouwing. Maar we gaan het morgen zien: Als de Youtubers gelijk hebben, presteren de AIBs veel slechter dan de FE, als de Youtubers uit hun nek lullen niet. (Overigens zelfs als de FE veel beter presteert betekend het nog steeds niet dat ze over de rest van hun punten gelijk hebben).

  • bouvrie
  • Registratie: Augustus 2002
  • Laatst online: 21-05-2025

bouvrie

Interior demolisher

Kan iemand mij vertellen waarom je een 3x 8pins connector 3080 videokaart boven een 2x 8 connector zou willen? Of andersom?

01010100011010000110010100100000010011110100111001000101001000000011101000101001


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

bouvrie schreef op dinsdag 15 september 2020 @ 22:29:
Kan iemand mij vertellen waarom je een 3x 8pins connector 3080 videokaart boven een 2x 8 connector zou willen? Of andersom?
Officieel gezien heb je de volgende cijfers:
pcie 8pin = 150W
pcie slot = 75W

totaal 2x 8pin + slot = 375W

Als je weet dat de 3080 320W is officieel en realiteit meestal iets hoger is dan "officieel", dan gaat dat OCd nog iets hoger.
Dan is dat eigenlijk best krap.
ASUS prikt er niet zomaar LEDs op die power output problemen aangeeft.

Stroom gaat een dingetje zijn met deze beesten en 3 8pin (of 1 _propere_ 12pin) is dus te prefereren.
Speculatief uiteraard, die 8pin specs zijn ook maar "op papier" (realiteit is hoger).

[ pctje te zien hier ] - Miauw


Verwijderd

bouvrie schreef op dinsdag 15 september 2020 @ 22:29:
Kan iemand mij vertellen waarom je een 3x 8pins connector 3080 videokaart boven een 2x 8 connector zou willen? Of andersom?
Het maakt op zich niet uit, het is alleen belangrijk dat je de videokaart goed aansluit. Dat betekent dat je de videokaart met minimaal zes 12V draden uit de voeding moet aansluiten. Een videokaart met drie 8 pins connectors verplicht dat in principe. Bij een videokaart met twee 8 pins connectors zullen heel veel mensen de videokaart gaan aansluiten met één kabel welke maar 'drie 12V draden heeft. Dat gaat bij heel veel mensen problemen geven, daarom is de logische oplossing om de videokaart drie 8 pins connectors te geven.

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
Sissors schreef op dinsdag 15 september 2020 @ 22:26:
[...]

Videos van een half uur linken zijn geen onderbouwing tbh. Dan kan ik wel videos van drie uur linken. En die hele video is samen te vatten als: Een random Youtuber maakt wat claims zonder onderbouwing. Maar we gaan het morgen zien: Als de Youtubers gelijk hebben, presteren de AIBs veel slechter dan de FE, als de Youtubers uit hun nek lullen niet. (Overigens zelfs als de FE veel beter presteert betekend het nog steeds niet dat ze over de rest van hun punten gelijk hebben).
Niet echt imo, beetje grof berekenen van verbruik is niet heel lastig. AIBs gaan niet slechter presteren, dat hangt puur van de clocks af. FE gaat denk ik wat zuiniger zijn want ALS ze beter gebinned zijn hebben ze iets minder voltage nodig bij dezelfde clocks.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Santee schreef op dinsdag 15 september 2020 @ 22:37:
[...]


Niet echt imo, beetje grof berekenen van verbruik is niet heel lastig. AIBs gaan niet slechter presteren, dat hangt puur van de clocks af. FE gaat denk ik wat zuiniger zijn want ALS ze beter gebinned zijn hebben ze iets minder voltage nodig bij dezelfde clocks.
Het hele punt van AdoredTV en MLID was toch dat Nvidia een slecht Samsung proces hebben, waardoor chips heet worden, en dat probleem schuiven ze op AIBs af die nooit een koeler kunnen maken die niet te duur wordt, terwijl Nvidia een dure FE koeler heeft in beperkte oplage.

Als straks blijkt dat bijvoorbeeld een Gigabyte Eagle vergelijkbaar presteert aan een FE, dan is dat verhaal dus onzin.

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Zijn er anderen die na de 5nm Apple release nu definitief gekozen hebben voor de 3080 ipv 3090?
Ik zat lang de 3090 te ogen maar als er vandaag al 5nm producten komen.. dan is een 8nm product (eigenlijk 10nm+) gewoon tragisch oud. Binnen 6 maanden 7nm+ GPUs (zowel AMD als NVIDIA) en binnen 1,5 jaar 5nm GPUs is mijn schatting. Deze generatie krijgt geen lang leven, wat ook logisch is met dat stroom verbruik.

[ pctje te zien hier ] - Miauw


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
XWB schreef op dinsdag 15 september 2020 @ 21:24:
Samsung 8nm is helemaal niet inefficient. De 3070 is zelf zuiniger dan de RTX 2080 Ti, met gelijkaardige prestaties. Gek genoeg heeft niemand het hierover.

Vergeet niet dat die 320W van de 3080 total board power is, dus verbruik voor de complete videokaart. Het is inmiddels al meermaals voorbijgekomen dat het GDDR6X geheugen een hoger verbruik heeft dan GDDR6, het is jammer dat sommige mensen dan alleen maar op de GPU blijven focussen.
Het is iets efficienter dan ze nu gebruiken. TSMC 7nm is efficienter, dat is meer het moraal van het verhaal. Het is dat er goede koeling op zit anders was ik geneigd kuch kuch Fermi te roepen :P.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
mitsumark schreef op dinsdag 15 september 2020 @ 21:21:
[...]

Waarom denk je dat de 3080 vergelijkbaar is aan de 2080ti wat betreft het meer verbruiken dan de TDP?

Ik haal die 309W letterlijk uit de link:


[...]
Is Furmark wel een goede manier om dit te testen? Tenminste er waren tijden dat deze in de drivers door Nvidia en AMD werd gedetecteerd en de kaarten express niet voluit gingen.
Het kan maar zo zijn dat je dus in bepaalde games een hoger gebruik gaat zien.

  • bouvrie
  • Registratie: Augustus 2002
  • Laatst online: 21-05-2025

bouvrie

Interior demolisher

Verwijderd schreef op dinsdag 15 september 2020 @ 22:36:
[...]

Het maakt op zich niet uit, het is alleen belangrijk dat je de videokaart goed aansluit. Dat betekent dat je de videokaart met minimaal zes 12V draden uit de voeding moet aansluiten. Een videokaart met drie 8 pins connectors verplicht dat in principe. Bij een videokaart met twee 8 pins connectors zullen heel veel mensen de videokaart gaan aansluiten met één kabel welke maar 'drie 12V draden heeft. Dat gaat bij heel veel mensen problemen geven, daarom is de logische oplossing om de videokaart drie 8 pins connectors te geven.
Mijn systeem heeft 2x 8connectors op 1 output vanuit de voeding (gesplit) , dit is dus eigenlijk not done? Ik kan beter een extra connector aansluiten (1x 8connector) en beide bevestigen zodat er meer stroom heen kan?

01010100011010000110010100100000010011110100111001000101001000000011101000101001


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

bouvrie schreef op dinsdag 15 september 2020 @ 22:46:
[...]


Mijn systeem heeft 2x 8connectors op 1 output vanuit de voeding (gesplit) , dit is dus eigenlijk not done? Ik kan beter een extra connector aansluiten (1x 8connector) en beide bevestigen zodat er meer stroom heen kan?
Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.

[ pctje te zien hier ] - Miauw


  • bouvrie
  • Registratie: Augustus 2002
  • Laatst online: 21-05-2025

bouvrie

Interior demolisher

GekkeR schreef op dinsdag 15 september 2020 @ 22:48:
[...]

Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
Ouch, veel mensen zullen dit idd gewoon blanco gaan aansluiten. Waarom zou een voeding dit immers aanbieden (als consument denkende).

01010100011010000110010100100000010011110100111001000101001000000011101000101001


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 21:20
bouvrie schreef op dinsdag 15 september 2020 @ 22:52:
[...]


Ouch, veel mensen zullen dit idd gewoon blanco gaan aansluiten. Waarom zou een voeding dit immers aanbieden (als consument denkende).
Nou ja het kan in principe wel als de interne kabel maar dik genoeg is zodat deze niet te warm wordt. Als je awg te hoog is (dunnere kabel), dan wordt die op een gegeven moment zo warm dat het schild gaat smelten. Deze informatie is eigenlijk niet echt bekend en daarom wordt het niet aangeraden.

Je zou kunnen denken dat 2x8pin=300W volgens spec, dus de kabel móet 300W/12V=25A kunnen hebben, maar blijkbaar geldt dat niet altijd.

  • bouvrie
  • Registratie: Augustus 2002
  • Laatst online: 21-05-2025

bouvrie

Interior demolisher

GekkeR schreef op dinsdag 15 september 2020 @ 22:48:
[...]

Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
Kan de gesplitste kabel wel worden gebruikt of moet je dedicated 2x 8pins gebruiken denk je?

01010100011010000110010100100000010011110100111001000101001000000011101000101001


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

bouvrie schreef op dinsdag 15 september 2020 @ 22:55:
[...]


Kan de gesplitste kabel wel worden gebruikt of moet je dedicated 2x 8pins gebruiken denk je?
Zolang het gescheiden kabels zijn maakt het niet uit (de gesplitste kabel met 1 los is dus geschikt samen met een andere).
Er was ergens een plaatje die het makkelijk liet zien, misschien dat ik (of iemand) die nog kan vinden voor je.

[ pctje te zien hier ] - Miauw


  • Enchantress
  • Registratie: Mei 2016
  • Niet online
@mitsumark

slecht 2 van de 7 blijven binnen hun TDP van de RTX 2080TI.

Geen enkele RTX 2080 zit binnen het TDP van 215w.

Slechts 2 van de 7 RTX 2070 kaarten blijven binnen hun TDP.

Nogmaals de link, https://nl.hardware.info/...en-roundup-stroomverbruik

Conclusie is dus dat het veel vaker gebeurt dat kaarten over hun TDP heengaan dan niet.
Zoals gezegd denk ik dus niet dat de 3080 binnen het TDP blijft van 320w maar eerder richting de 340w gaat en hoger voor de aib kaarten wat de koeling niet ten goede komt.

Er zijn helaas nog geen reviews dus zullen we het morgen gaan zien en iets later voor de aib kaarten.

  • bouvrie
  • Registratie: Augustus 2002
  • Laatst online: 21-05-2025

bouvrie

Interior demolisher

GekkeR schreef op dinsdag 15 september 2020 @ 22:58:
[...]

Zolang het gescheiden kabels zijn maakt het niet uit (de gesplitste kabel met 1 los is dus geschikt samen met een andere).
Er was ergens een plaatje die het makkelijk liet zien, misschien dat ik (of iemand) die nog kan vinden voor je.
Ik heb deze gezien idd, dankje. ;)

01010100011010000110010100100000010011110100111001000101001000000011101000101001


  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 07:35
Enchantress schreef op dinsdag 15 september 2020 @ 23:00:
@mitsumark

slecht 2 van de 7 blijven binnen hun TDP van de RTX 2080TI.

Geen enkele RTX 2080 zit binnen het TDP van 215w.

Slechts 2 van de 7 RTX 2070 kaarten blijven binnen hun TDP.

Nogmaals de link, https://nl.hardware.info/...en-roundup-stroomverbruik

Conclusie is dus dat het veel vaker gebeurt dat kaarten over hun TDP heengaan dan niet.
Zoals gezegd denk ik dus niet dat de 3080 binnen het TDP blijft van 320w maar eerder richting de 340w gaat en hoger voor de aib kaarten wat de koeling niet ten goede komt.

Er zijn helaas nog geen reviews dus zullen we het morgen gaan zien en iets later voor de aib kaarten.
Maar dan ga je non stock kaarten met hogere kloksnelheden, extra fans, leds, heavy duty pcb & componenten, etc vergelijken.

Bijvoorbeeld worst case 2080 uit de HWI link:
https://www.msi.com/Graph...MING-X-TRIO/Specification
Volgens MSI gaat hun high end 2080 al naar 260W, dat lijkt in de praktijk aardig te kloppen, maar dat verschil komt niet door de chip, maar door de "zooi" er omheen, dit soort dingen gaan we morgen nog niet zien op de FE modellen.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 03-02 20:02
GekkeR schreef op dinsdag 15 september 2020 @ 22:41:
Zijn er anderen die na de 5nm Apple release nu definitief gekozen hebben voor de 3080 ipv 3090?
Ik zat lang de 3090 te ogen maar als er vandaag al 5nm producten komen.. dan is een 8nm product (eigenlijk 10nm+) gewoon tragisch oud. Binnen 6 maanden 7nm+ GPUs (zowel AMD als NVIDIA) en binnen 1,5 jaar 5nm GPUs is mijn schatting. Deze generatie krijgt geen lang leven, wat ook logisch is met dat stroom verbruik.
2080ti loopt rondjes om de 5700xt. Dat is 12nm vs 7nm. nm zegt dus helemaal niets en het is dan ook een beetje onzin om je daar op te focussen. Uiteindelijk gaat het om de prestaties prijs en power draw. Niet een fake verzonnen getalletje.

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

computerjunky schreef op woensdag 16 september 2020 @ 01:44:
[...]
2080ti loopt rondjes om de 5700xt. Dat is 12nm vs 7nm. nm zegt dus helemaal niets en het is dan ook een beetje onzin om je daar op te focussen. Uiteindelijk gaat het om de prestaties prijs en power draw. Niet een fake verzonnen getalletje.
Het is geen onzin je daar op te focussen want ik kijk niet eens naar AMD voor die statement.
NVIDIA gebruikt TSMC voor zijn kaarten en de huidige top kaart (GA100) gebruikt NU AL TSMC 7nm voor zijn proces.

TSMC 7nm+ was het beste, Samsung 8nm is minder dan TSMC 7nm (wat minder is dan TSMC 7nm+).
Apple komt nu met TSMC 5nm producten wat dus beter is dan TSMC 7nm+, beter is dan TSMC 7nm en daardoor beter is dan Samsung 8nm.

Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De 3080/3090 loopt nu dus 2 generaties achter wat zal inhouden dat het geen lang leven zal krijgen.
Geen onzin en dus geen idioot idee daarmee te rekenen voor de toekomst, zeker gezien een 3090 1500+ euro kost.
De 2080ti was helemaal zo gek niet omdat er niks anders op de horizon lag, dat verhaal is nu anders en dat is goed om te weten.

[ pctje te zien hier ] - Miauw


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Het zal me niets verbazen als je binnen een jaar een refresh krijgt die op TSMC 7 nm gebakken gaat worden. Zijn ze meteen klaar voor de 4000 serie. Zuiniger en mogelijkheden tot meer snelheid

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Verwijderd

winwiz schreef op woensdag 16 september 2020 @ 09:05:
Het zal me niets verbazen als je binnen een jaar een refresh krijgt die op TSMC 7 nm gebakken gaat worden. Zijn ze meteen klaar voor de 4000 serie. Zuiniger en mogelijkheden tot meer snelheid
Je kunt niet even overstappen van het ene naar het andere, daarvoor moet je een zo goed als nieuwe GPU ontwerpen. Dat is zeer onlogisch. Een refresh met wat meer ingeschakelde cudacores en 16Gb GDDDR6X chips op het moment dat die in massaproductie gaan is iets wat wel realistisch is.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
winwiz schreef op woensdag 16 september 2020 @ 09:05:
Het zal me niets verbazen als je binnen een jaar een refresh krijgt die op TSMC 7 nm gebakken gaat worden.
Ik denk het niet, TSMC heeft die capaciteit gewoon niet om. Hun 7nm productie schijnt vol te zitten. Het gerucht gaat dan ook dat Nvidia volgens jaar direct naar 5nm zou willen: https://www.techradar.com...in-an-effort-to-crush-amd

Maar dat zal in eerste instantie wel weer de A100 variant zijn, kan mij niet voorstellen dat er al zo snel consumer uitvoeringen komen.

[ Voor 11% gewijzigd door XWB op 16-09-2020 09:21 ]

March of the Eagles


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Vergeet niet dat bijvoorbeeld Zen 4 al naar 5 nm gaat, dus er komt mogelijk capaciteit vrij op 7 nm. Ik snap dat een jaar kort is, maar het lijkt me niet dat ze morgen zeggen zullen aan de nieuwe beginnen. Grote kans dat een 2e team al maanden bezig is.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Sissors
  • Registratie: Mei 2005
  • Niet online
GekkeR schreef op woensdag 16 september 2020 @ 09:01:
[...]

Het is geen onzin je daar op te focussen want ik kijk niet eens naar AMD voor die statement.
NVIDIA gebruikt TSMC voor zijn kaarten en de huidige top kaart (GA100) gebruikt NU AL TSMC 7nm voor zijn proces.

TSMC 7nm+ was het beste, Samsung 8nm is minder dan TSMC 7nm (wat minder is dan TSMC 7nm+).
Apple komt nu met TSMC 5nm producten wat dus beter is dan TSMC 7nm+, beter is dan TSMC 7nm en daardoor beter is dan Samsung 8nm.

Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De 3080/3090 loopt nu dus 2 generaties achter wat zal inhouden dat het geen lang leven zal krijgen.
Geen onzin en dus geen idioot idee daarmee te rekenen voor de toekomst, zeker gezien een 3090 1500+ euro kost.
De 2080ti was helemaal zo gek niet omdat er niks anders op de horizon lag, dat verhaal is nu anders en dat is goed om te weten.
Gemiddeld genomen is de laatste jaren het primaire voordeel van nieuwere procedés geweest dat er meer transistoren op een chip passen. Maar niet dat de kosten per transistor nou zoveel beter werden, of dat de performance per transistor nou zoveel beter werd. Daarom heb je ook gezien dat terwijl GPUs eerst de voorlopers waren bij nieuwe procedés, dat stokje hebben overgedragen aan mobile, en het wel prima vinden één of twee generaties achter te lopen, de voordelen zijn niet meer zo groot voor hun.

En ja TSMC claimt altijd enorme voordelen bij elke nieuwe generatie, en als je het rekensommetje doet zijn er dan twee opties:
1. Of elke generatie GPU is slechter ontworpen dan degene ervoor
2. Of TSMC marketing is nog minder betrouwbaar dan die van Nvidia

En dan zelfs volgens TSMC is 5nm niet veel beter dan 7nm vanille (laat staan ++), buiten transistor density: https://www.anandtech.com...wer-and-performance-gains

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 04-02 14:44
GekkeR schreef op woensdag 16 september 2020 @ 09:01:
[...]
Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
De 3080/3090 loopt nu dus 2 generaties achter wat zal inhouden dat het geen lang leven zal krijgen.
Geen onzin en dus geen idioot idee daarmee te rekenen voor de toekomst, zeker gezien een 3090 1500+ euro kost.
Bij een node switch naar een nieuwer/kleiner ontwerp is het vrij gebruikelijk dat de kleinste / low power chips eerst gemaakt worden. Grote chips die een hoger verbruik hebben ala desktop cpu's en gpu's gaat men pas inzetten op een kleinere node als dit volwassen genoeg is. Veel kleine/goedkope chips zijn vaak minder gevoelig voor lage yields want veel stuks en relatief goedkoop en gezien het lage verbruik komen deze vaak zonder veel problemen door de test heen. Zodra je grote complexe chips gaat bakken dan komen zaken zoals uitval en lekstroom pas echt roet in het eten gooien en stijgen de kosten per chip hard.
Sowieso is het al niet correct om zo letterlijk fab processen van TSMC/Samsung etc op cijfer te vergelijken. Of denk je dat Intel op 10nm ook al 2 generaties achter loopt? ;) De nummers van oa TSMC en Samsung zijn de laatste 5 jaar vooral markering geworden.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
GekkeR schreef op woensdag 16 september 2020 @ 09:01:
Feit blijft dat TSMC kan produceren op 5nm EN dat al doet voor Apple.
En dat vooralsnog ook enkel voor zulke kleine chips kan doen.

De high power versies (voor GPU's dus) van elke node komen altijd pas jaren later. TSMC had 16FF al eind 2013. Apple maakte er pas twee jaar later gebruik van. En voor GPU's was dat pas 2016.

Het procedé dat Apple gebruikt is niet geschikt voor GPU's, laat staan zulke grote chips als de aanstaande generatie GPU's.

En nee, je kunt ook niet zomaar "X nm" met "Y nm" van een andere fabrikant vergelijken. De "afmetingen" van die procedé's zijn al lange tijd klinkklare onzin. TSMC's "12nm" is gewoon hun 16nm procedé met wat wijzigingen waardoor het optisch 12nm lijkt, maar de transistors zijn even groot als op 16FF. Zo is Samsung's 14nm procedé op sommige vlakken beter dan TSMC's 16FF en op sommige vlakken minder - het heeft eigenschappen van zowel 16FF als 12FF. Ze zijn gewoon niet rechtstreeks met elkaar te vergelijken.

[ Voor 31% gewijzigd door Werelds op 16-09-2020 09:36 ]


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Laat ik het houden op:

TSMC 5nm > TSMC 7nm+ > TSMC 7nm > Samsung 8nm

Los van cijfers (5/7/8/10) en andere zaken, is de statement hierboven correct of foutief?
Dat NVIDIA dus iets maakt op Samsung 8nm, geeft vrij veel ruimte voor verbetering niet?

Dat een ontwerp niet zomaar uitwisselbaar is, is bekend.
Er bestaat echter al een GA100 op 7nm (TSMC) en er zijn "geruchten" over GA102 samples op 7nm.
Los van of je denkt dat de gehele Ti reeks 7nm gaat zijn (wat ik denk) en dat de RTX40 reeks op 5nm gaat zitten in 2022 (iets verder weg, maar niet heel erg ver), is mijn initiele verwachting (RTX30 8nm krijgt geen lang leven) volgens mij nog niet zo gek gedacht.
Daarmee rekenen, dus ook niet.

Er kan nog een boel misgaan tot die tijd uiteraard en de 3090 kan je hebben voordat Cyberpunk uitkomt dus ook daar een valide reden om een 3090 te halen.
In mijn geval: computeren is mijn enige geldverslindende hobby dus ik kan alsnog overstag gaan, maar smart money is het (3090) ditmaal zeker niet.
De 2080ti was dit eigenlijk wel, zolang je die maar verkocht had voor 1 September ;)

[ pctje te zien hier ] - Miauw


  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Wanneer kwamen ze nou met de eerste benchmarks op youtube? Was er een specifieke tijdstip ofzo dat ze het mochten plaatsen?

-- My Gaming Rig Power -- -- <SG> Diabolic --


  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Xtr3me4me schreef op woensdag 16 september 2020 @ 10:39:
Wanneer kwamen ze nou met de eerste benchmarks op youtube? Was er een specifieke tijdstip ofzo dat ze het mochten plaatsen?
Volgens mij is 15.00 als tijdstip nu wel vaak genoeg langsgekomen.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
GekkeR schreef op woensdag 16 september 2020 @ 10:30:
Laat ik het houden op:

TSMC 5nm > TSMC 7nm+ > TSMC 7nm > Samsung 8nm

Los van cijfers (5/7/8/10) en andere zaken, is de statement hierboven correct of foutief?
Dat NVIDIA dus iets maakt op Samsung 8nm, geeft vrij veel ruimte voor verbetering niet?

Dat een ontwerp niet zomaar uitwisselbaar is, is bekend.
Er bestaat echter al een GA100 op 7nm (TSMC) en er zijn "geruchten" over GA102 samples op 7nm.
Los van of je denkt dat de gehele Ti reeks 7nm gaat zijn (wat ik denk) en dat de RTX40 reeks op 5nm gaat zitten in 2022 (iets verder weg, maar niet heel erg ver), is mijn initiele verwachting (RTX30 8nm krijgt geen lang leven) volgens mij nog niet zo gek gedacht.
Daarmee rekenen, dus ook niet.

Er kan nog een boel misgaan tot die tijd uiteraard en de 3090 kan je hebben voordat Cyberpunk uitkomt dus ook daar een valide reden om een 3090 te halen.
In mijn geval: computeren is mijn enige geldverslindende hobby dus ik kan alsnog overstag gaan, maar smart money is het (3090) ditmaal zeker niet.
De 2080ti was dit eigenlijk wel, zolang je die maar verkocht had voor 1 September ;)
De 3090 koop je als je veel VRAM nodig hebt, of geld teveel hebt. In dat eerste geval is de 3080 geen alternatief, in het tweede geval is de 3080 altijd de betere keus voor prijs/performance.

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Sissors schreef op woensdag 16 september 2020 @ 10:48:
[...]

De 3090 koop je als je veel VRAM nodig hebt, of geld teveel hebt. In dat eerste geval is de 3080 geen alternatief, in het tweede geval is de 3080 altijd de betere keus voor prijs/performance.
Voor VRAM, zeker waar (hallo FS2020).
Prijs/performance ben ik het echter niet altijd mee eens.

Mijn 2080ti had niet de beste prijs/performance, toch heb ik hem bijna 2 jaar kunnen gebruiken zonder verlies.
Maakt "prijs/performance" dan nog uit als ik vrijwel terug haal wat ik er in stop?

[ pctje te zien hier ] - Miauw


  • Kuusj
  • Registratie: April 2012
  • Laatst online: 27-01 09:26

Kuusj

Ofwel varken in 't Limburgs

GekkeR schreef op dinsdag 15 september 2020 @ 22:48:
[...]

Yes!
1 kabel vanuit de PSU naar een 2x8pin is not done met deze generatie.
Ik begrijp niet waarom men dit blijft zeggen.. die 8 pins kabels dienen aan een bepaalde standaard te voldoen (minimaal), en een voedingfabrikant gaat dus niet zeggen "goh laten we één 8-pin gaan splitsen naar twee 8-pin zonder een dikkere kabel te gebruiken!!".

Er zit gewoon een dikkere kabel aan vanaf de voeding, dat is toch niet zo'n lastig concept om te begrijpen denk ik dan? Er is technisch ook werkelijk helemaal niks aparts aan, het zijn niet meer dan 12V lijnen en grond-lijnen. Door een dikkere kabel kun je meer stroom pompen met minder weerstand en dus verlies en dus warmte in de kabel.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Kuusj schreef op woensdag 16 september 2020 @ 11:00:
[...]
Ik begrijp niet waarom men dit blijft zeggen.. die 8 pins kabels dienen aan een bepaalde standaard te voldoen (minimaal),
100% eens en jij hoort ook gelijk te hebben.
Kuusj schreef op woensdag 16 september 2020 @ 11:00:
[...]
en een voedingfabrikant gaat dus niet zeggen "goh laten we één 8-pin gaan splitsen naar twee 8-pin zonder een dikkere kabel te gebruiken!!".
En hier zijn we het oneens, never underestimate cost reduction ;)
Wat ook de reden is voor het advies van NVIDIA:
Afbeeldingslocatie: https://tweakers.net/i/dIvS5cD1CrykAwhN4ynHW1Nrh70=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/3CC5BdYDtWmtORMT6BSCL4N0.png?f=user_large

[ pctje te zien hier ] - Miauw


  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-02 09:59

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Kuusj schreef op woensdag 16 september 2020 @ 11:00:
[...]

Ik begrijp niet waarom men dit blijft zeggen.. die 8 pins kabels dienen aan een bepaalde standaard te voldoen (minimaal), en een voedingfabrikant gaat dus niet zeggen "goh laten we één 8-pin gaan splitsen naar twee 8-pin zonder een dikkere kabel te gebruiken!!".

Er zit gewoon een dikkere kabel aan vanaf de voeding, dat is toch niet zo'n lastig concept om te begrijpen denk ik dan? Er is technisch ook werkelijk helemaal niks aparts aan, het zijn niet meer dan 12V lijnen en grond-lijnen. Door een dikkere kabel kun je meer stroom pompen met minder weerstand en dus verlies en dus warmte in de kabel.
Omdat je dan potentieel ruim 8A door elke 12V draad aan het duwen bent. Dat is wat de gemiddelde stofzuiger ook uit de muur trekt en zo'n kabel+stekker kan behoorlijk warm worden (probeer maar). En dat netsnoer is een stuk robuuster dan het 12V draadje en connector van je 6+2pin kabel.

Maar goed, dit is offtopic. Laten we terug gaan naar nieuws.

[ Voor 3% gewijzigd door Blaat op 16-09-2020 11:17 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Blaat schreef op woensdag 16 september 2020 @ 11:15:
[...]


Omdat je dan potentieel ruim 8A door elke 12V draad aan het duwen bent. Dat is wat de gemiddelde stofzuiger ook uit de muur trekt en zo'n kabel+stekker kan behoorlijk warm worden (probeer maar). En dat netsnoer is een stuk robuuster dan het 12V draadje en connector van je 6+2pin kabel.

Maar goed, dit is offtopic. Laten we terug gaan naar nieuws.
Misschien de wet van ohm maar eens uitleggen. Als ze dat snappen, snappen ze ook waarom 2 aparte kabels de betere oplossing is.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Kuusj
  • Registratie: April 2012
  • Laatst online: 27-01 09:26

Kuusj

Ofwel varken in 't Limburgs

GekkeR schreef op woensdag 16 september 2020 @ 11:14:
[...]


100% eens en jij hoort ook gelijk te hebben.


[...]

En hier zijn we het oneens, never underestimate cost reduction ;)
Wat ook de reden is voor het advies van NVIDIA:
[Afbeelding]
Eens, maar ik denk dat een voeding á la Corsair RM650X oid daar niet zo'n problemen heeft. Random plofvoeding X of Y, ja ok.. Dus ik begrijp ook waarom nVidia dit zegt.
winwiz schreef op woensdag 16 september 2020 @ 11:19:
[...]


Misschien de wet van ohm maar eens uitleggen. Als ze dat snappen, snappen ze ook waarom 2 aparte kabels de betere oplossing is.
2 aparte kabels is natuurlijk een betere oplossing, maar bij voorbaat iedere voeding afschrijven die niet over aparte kabels beschikt... Het gaat hier om 40cm kabel, niet om een opgerolde kabelhaspel. Maar goed, daarom is een kaart met 3x8 pinnen wat dat betreft ook 'beter', omdat de hoeveelheid stroom beter verdeeld kan worden.

Maar goed, beetje offtopic weer. Realiteit is dat niet iedereen een nieuwe voeding gaat kopen voor deze kaarten. Of dat in de praktijk problemen gaat opleveren? Tja. Waarschijnlijk.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
GekkeR schreef op woensdag 16 september 2020 @ 10:30:
Laat ik het houden op:

TSMC 5nm > TSMC 7nm+ > TSMC 7nm > Samsung 8nm

Los van cijfers (5/7/8/10) en andere zaken, is de statement hierboven correct of foutief?
Dat NVIDIA dus iets maakt op Samsung 8nm, geeft vrij veel ruimte voor verbetering niet?
Nee, zo simpel is dat niet.

Laat ik eerst even voorop stellen dat Nvidia's chips doorgaans liever wat minder dichtheid hebben. Dat is waarom 12FFN bestaat; de N staat daarbij voor Nvidia en het verschil met het normale 12FF is een lagere dichtheid. TSMC's 5nm is een hele grote sprong qua dichtheid en ook 7+ is een flinke sprong ten opzichte van 7 HPC. Samsung's 8nm is vergelijkbaar met TSMC's 7 HPC qua dichtheid. Ter vergelijking, Intel's 10nm heeft een hogere dichtheid dan al deze procedé's, enkel TSMC's 7+ EUV heeft een hogere dichtheid - maar dat is dan weer een geheel ander procedé dat eigenlijk niet te vergelijken is. Dat gebruiken vereist een geheel nieuw fysiek ontwerp.

Als we dan even terug gaan, Samsung/GF's 12nm had een veel hogere dichtheid dan TSMC's 16/12. Het kan dus best zijn dat Nvidia op TSMC's 7FF iets meer spanning nodig heeft voor dezelfde kloksnelheden door de iets hogere dichtheid.

Een kleinere node betekent niet per definitie dat je meer performance per watt krijgt. Het kan best zijn dat TSMC's 7 EUV niet in staat is dezelfde kloksnelheden te bereiken als hun 7 HPC procedé op vergelijkbare spanningen. Vroeger was dat wel zo, maar sinds 28nm is het allemaal veel ingewikkelder geworden.

Nvidia had niet voor Samsung gekozen als er geen goede reden voor was. Kosten en/of capaciteit zullen een factor geweest zijn, maar voor een bedrijf als Nvidia is dat zeker niet de leidende factor. Nogmaals, je kunt niet zomaar zeggen dat Samsung's 8nm "slechter" is dan TSMC's "7nm". Dat verschilt van chip tot chip, het fysieke ontwerp en de gebruikte materialen spelen allemaal een rol. Je hoeft maar naar 40nm te kijken. AMD pompte daar meer dan 10% (uit m'n hoofd was het 12%) meer transistors per vierkante millimeter uit hetzelfde procedé als Nvidia, bereikte veel hogere kloksnelheden én had daar minder spanning voor nodig (en dus lager verbruik). Dat was toen al zo en dat is met 16/14/12/10/8/7/5 allemaal nog veel ingewikkelder geworden.

Ik zal van het weekend eens kijken of ik de verschillende procedé's naast elkaar kan zetten in een tabel wat betreft (mogelijke) dichtheid en dergelijke. Als je puur naar theoretische dichtheid kijkt, zijn TSMC 16/12, Samsung/GF 14/12 en Intel 14 één klasse. TSMC 10/7HPC en Samsung 8 zijn de volgende klasse (Samsung 10 zit er precies tussenin). Daarboven krijg je TSMC 7LPP, Samsung 7EUV en Intel 10. TSMC 7EUV is dan weer een halve stap verder, terwijl 5EUV een geheel nieuwe klasse is en zoals gezegd nog niet bruikbaar is voor HPC.
smart money is het (3090) ditmaal zeker niet.
De 2080ti was dit eigenlijk wel, zolang je die maar verkocht had voor 1 September ;)
De 2080 Ti was ook geen "smart money". De prestaties van dat ding zijn nooit het geld waard geweest.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Kuusj schreef op woensdag 16 september 2020 @ 11:24:
[...]

Eens, maar ik denk dat een voeding á la Corsair RM650X oid daar niet zo'n problemen heeft. Random plofvoeding X of Y, ja ok.. Dus ik begrijp ook waarom nVidia dit zegt.
Dus jij denkt dat een RM650X blij gaat worden van een RTX3080/3090 met een unlocked powerlimit waardoor ie over de 500W schiet (dat doen sommige RTX2080Ti's al) en dat gaat dan wel even over 1 enkele kabel?

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 04-02 09:10

GekkeR

key = key

Werelds schreef op woensdag 16 september 2020 @ 12:08:
[...]
De 2080 Ti was ook geen "smart money". De prestaties van dat ding zijn nooit het geld waard geweest.
"Dat ding" heeft mij 200 euro gekost over 2 jaar, dus peanuts voor max performance.

Wat was, volgens jou, smarter money?
De 2080 kopen en het overige geld in het aandeel AMD stoppen?
Ik moet toegeven, dat was 2 jaar geleden geen verkeerde keuze geweest ;)

Misschien moet ik het anders brengen en zeggen dat ik niet verwacht dat ik voor 200 euro de 3090 voor 2 jaar kan gebruiken en het daarbij laten O-).

[ pctje te zien hier ] - Miauw


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Paprika schreef op woensdag 16 september 2020 @ 12:09:
[...]

Dus jij denkt dat een RM650X blij gaat worden van een RTX3080/3090 met een unlocked powerlimit waardoor ie over de 500W schiet (dat doen sommige RTX2080Ti's al) en dat gaat dan wel even over 1 enkele kabel?
Die unlocked power limit is weer een ander verhaal. Ga je power limiet verhogen, ja dan voldoen twee 8-pins connectoren al snel niet meer.

Ik geloof ook direct dat er voedingen worden geleverd met te dunne kabels, tegelijk als ik een 550W voeding heb, met een enkele kabel met twee 8-pins connectoren erop, dan mag ik toch hopen dat die gewoon 300W kunnen leveren, anders is het een bagger voeding, en vraag je je af waarom die dan toch steeds geadviseerd werd. (Nu schijnt de RM550 dus dikkere kabels naar de PCIe power connectoren te hebben lopen, en is er geen probleem).

Waarvoor is die 550W anders? Zodat ik 200W aan RGB LEDs via molex connectoren kan voeden?

En ik begrijp het probleem echt wel, fabrikanten die te dunne kabels gebruiken. Maar je gaat sowieso mensen hebben die slechte voedingen gaan gebruiken (er is een reden dat molex -> PCIe verloopstukjes worden verkocht), en als je nu gewoon voor de zekerheid overal drie, of zelfs vier, 8-pins connectoren op gaat gooien, dan durf ik te wedden dat we volgend jaar voedingen krijgen met drie of vier connectoren per kabel.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 07:19
Sissors schreef op woensdag 16 september 2020 @ 12:35:
[...]

Die unlocked power limit is weer een ander verhaal. Ga je power limiet verhogen, ja dan voldoen twee 8-pins connectoren al snel niet meer.
Maar je moet dit dus al als fabrikant voor gaan zijn, want tja als je even 100 voeding verfikt voor de lol en gaat RMAen dan is het wel handiger dat je legally nog iets kunt doen als fabrikant.

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 27-01 09:26

Kuusj

Ofwel varken in 't Limburgs

Paprika schreef op woensdag 16 september 2020 @ 12:09:
[...]

Dus jij denkt dat een RM650X blij gaat worden van een RTX3080/3090 met een unlocked powerlimit waardoor ie over de 500W schiet (dat doen sommige RTX2080Ti's al) en dat gaat dan wel even over 1 enkele kabel?
Waarom ga jij er vanuit dat ik een unlimited powerlimit ga draaien :+ :? Mijn kaart gaat netjes stock draaien, op 100% TDP. Met een 650W voeding blijft er in een uiterste geval (AVX CPU load, fans/ssd/etc.) 500W over voor de GPU. Als die GPU dan alsnog in een parallel universum 500W continue opslokt, koop ik wel een andere GPU, ik hoef niet in een letterlijke sauna te zitten als ik game.
Sissors schreef op woensdag 16 september 2020 @ 12:35:
[...]

Die unlocked power limit is weer een ander verhaal. Ga je power limiet verhogen, ja dan voldoen twee 8-pins connectoren al snel niet meer.

Ik geloof ook direct dat er voedingen worden geleverd met te dunne kabels, tegelijk als ik een 550W voeding heb, met een enkele kabel met twee 8-pins connectoren erop, dan mag ik toch hopen dat die gewoon 300W kunnen leveren, anders is het een bagger voeding, en vraag je je af waarom die dan toch steeds geadviseerd werd. (Nu schijnt de RM550 dus dikkere kabels naar de PCIe power connectoren te hebben lopen, en is er geen probleem).

Waarvoor is die 550W anders? Zodat ik 200W aan RGB LEDs via molex connectoren kan voeden?

En ik begrijp het probleem echt wel, fabrikanten die te dunne kabels gebruiken. Maar je gaat sowieso mensen hebben die slechte voedingen gaan gebruiken (er is een reden dat molex -> PCIe verloopstukjes worden verkocht), en als je nu gewoon voor de zekerheid overal drie, of zelfs vier, 8-pins connectoren op gaat gooien, dan durf ik te wedden dat we volgend jaar voedingen krijgen met drie of vier connectoren per kabel.
Iets met nagel en kop..

Een voeding gaat niet kapot als hij 100% belast wordt, en als dat wel zo is heb je waarschijnlijk een slechte voeding. Zou een mooie boel worden, voedingsfabrikanten die een 550W voeding verkopen maar er bij zeggen dat je maximaal 400W mag gebruiken, want anders kan hij kapot gaan. Nee, zo werkt dat niet. Zo'n ding moet dat vermogen continue kunnen leveren.

Ik begrijp die hele discussie ook eigenlijk niet. Reken uit wat je systeem zou verbruiken, kijk wat je kaart gaat verbruiken, ga uit van de worst case scenario en bouw nog 50-100W marge in. Dan weet je toch of je goed zit of niet?

[ Voor 56% gewijzigd door Kuusj op 16-09-2020 13:07 ]

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
GekkeR schreef op woensdag 16 september 2020 @ 12:18:
"Dat ding" heeft mij 200 euro gekost over 2 jaar, dus peanuts voor max performance.
Dat jij iemand hebt gevonden die bereid was (ook) te veel te betalen voor dat ding staat los van hoe slecht de prijs/performance verhouding van dat ding was ;)
Wat was, volgens jou, smarter money?
De 2080 kopen en het overige geld in het aandeel AMD stoppen?
Ik moet toegeven, dat was 2 jaar geleden geen verkeerde keuze geweest ;)
Voor 10xx eigenaren was die hele range niet boeiend. Je kon kiezen voor een sidegrade (1080 Ti en 2080 presteerden gelijk en hun release MSRP's waren hetzelfde), een upgrade van xx60 naar xx80 of iets dergelijks (maar dan had je twee jaar eerder al net zo goed dat geld uit kunnen geven) of 60% meer betalen voor 30% performance. Van het hele RT gebeuren zei ik toen al dat het niet waard zou zijn.

Voor eigenaren van 9xx of oudere kaarten was de RTX 20xx range niet meer of minder interessant dan de 10xx range. Het was allemaal hetzelfde, maar nu met nutteloze RT cores.

Dus nee, tenzij je heel erg toe was aan een upgrade die je om de één of andere reden twee jaar eerder niet had gedaan, was de hele serie geen goede koop. De 2080 Ti onder geen omstandigheden wat mij betreft. Het is even reviews afwachten, maar de 3090 lijkt vooralsnog in verhouding tot de kaarten eronder niet meer of minder voor het geld bieden dan de 2080 Ti toen.

Ik zou dat geld lekker op m'n bankrekening gehouden hebben...en dat heb ik ook gedaan, m'n 1080 Ti doet het nog uitstekend ;)
Misschien moet ik het anders brengen en zeggen dat ik niet verwacht dat ik voor 200 euro de 3090 voor 2 jaar kan gebruiken en het daarbij laten O-).
Dat klinkt een stuk beter ;)

[ Voor 3% gewijzigd door Werelds op 16-09-2020 13:05 ]


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Wat betreft de verschillende kaarten en prijspunten: Kun je verwachten dat een OC kaart van een fabrikant een betere kwaliteit chip heeft t.o.v. een "normale versie"? En geeft het garanties wat betreft overclockresultaten?

Voorbeeld is de Asus TUF 3080 vanaf rond de 730 euro, vergeleken met een Asus Strix van dik over de 900.

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • Kuusj
  • Registratie: April 2012
  • Laatst online: 27-01 09:26

Kuusj

Ofwel varken in 't Limburgs

Sander64 schreef op woensdag 16 september 2020 @ 13:07:
Wat betreft de verschillende kaarten en prijspunten: Kun je verwachten dat een OC kaart van een fabrikant een betere kwaliteit chip heeft t.o.v. een "normale versie"? En geeft het garanties wat betreft overclockresultaten?

Voorbeeld is de Asus TUF 3080 vanaf rond de 730 euro, vergeleken met een Asus Strix van dik over de 900.
Je krijgt nooit garanties wat betreft overclocking. Kan best zijn dat een goedkopere kaart hoger clockt.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Kuusj schreef op woensdag 16 september 2020 @ 13:08:
[...]

Je krijgt nooit garanties wat betreft overclocking. Kan best zijn dat een goedkopere kaart hoger clockt.
Oke, interessant. Ik had gedacht dat de geteste chips worden ingedeeld in categorieën, wat betreft de silicon lottery. Chips die getest zijn en in staat zijn hoog te clocken, worden bijvoorbeeld gebruikt in de duurdere lineup van kaarten.

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • Kuusj
  • Registratie: April 2012
  • Laatst online: 27-01 09:26

Kuusj

Ofwel varken in 't Limburgs

Sander64 schreef op woensdag 16 september 2020 @ 13:09:
[...]


Oke, interessant. Ik had gedacht dat de geteste chips worden ingedeeld in categorieën, wat betreft de silicon lottery. Chips die getest zijn en in staat zijn hoog te clocken, worden bijvoorbeeld gebruikt in de duurdere lineup van kaarten.
Ja dat kan inderdaad, maar dat betekend niet dat het een garantie is op beter overclocken helaas.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • ocwil
  • Registratie: Mei 2007
  • Laatst online: 04-02 16:53
Inderdaad de garantie die je hebt is de snelheid die op het labeltje staat.

~ Portal 2 maps: linkje ~ LoL (EUW): Ocwil ~


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
Oke. Interessant. Als ik dus kijk bij GPU tracker, zie ik bijvoorbeeld een 3080 voor 730 (Asus TUF), 800 (MSI Gaming X Trio), en 875 (Asus Strix). Hebben jullie ervaring of het ook echt interessant is om een duurdere chip te kopen (puur op het OC gedeelte, niet kijkend naar potentieel betere koelers).

[ Voor 7% gewijzigd door Sander64 op 16-09-2020 13:20 ]

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x


  • winwiz
  • Registratie: September 2000
  • Laatst online: 04-02 13:12
Hardnekkige geruchten zijn dat de FE's de beste chips hebben voor nu. Aftermarkt zouden mogelijk minder zijn... maar het zijn geruchten er is nu nog helemaal niets van te zeggen

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


  • Sander64
  • Registratie: Juni 2016
  • Laatst online: 23-12-2025
En als ik het goed begrijp komen de reviews van de AIB modellen morgen om 15:00?

Corsair 4000D // AMD Ryzen 7 5800X // MSI RTX3080 Gaming X Trio // Gigabyte B450M Aorus Pro // Kingston HyperX Fury 32GB DDR4-3600 // Be Quiet Dark Rock Pro 4 // WD SN550 1TB + Crucial P1 2TB // Corsair RM750x

Pagina: 1 ... 89 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.